• Non ci sono risultati.

Appunti sulle matrici

N/A
N/A
Protected

Academic year: 2021

Condividi "Appunti sulle matrici"

Copied!
10
0
0

Testo completo

(1)

LE MATRICI (E LORO APPLICAZIONI)

Marco Monaci

Introduzione

:

Forse uno degli argomenti di matematica più difficili da capire e metabolizzare durante il liceo (e anche durante l’università) è dato sicuramente dalle matrici: vengono spesso presentate come mere tabelle di numeri ordinati, che hanno delle non precisate caratteristiche che le rendono molto utili in matematica e in fisica. Grazie, ma utili a cosa? Una "definizione" rozza di una matrice è la seguente (è una definizione del sottoscritto, quindi ci sta che se la ripetiate ad un matematico vi spari senza pietà):

Una matrice è uno strumento per rappresentare in maniera facile ed efficiente una serie di oggetti ma-tematici e fisici. Tali matrici hanno proprietà mol-to potenti che permetmol-tono di analizzare in maniera molto più agile la situazione fisica o la situazione matematica che rappresentano.

Facciamo un esempio pratico. Immaginate di voler fare un elenco di 1000 persone che parteciperanno ad un concerto. Per ciascuna di esse dovete registrare il nome, il cognome, la data di nascita e il luogo di na-scita. Memorizzare ciascun dato per ciascuna persona potrebbe essere piuttosto difficile, quindi è necessario sviluppare un metodo più efficiente. Una idea potrebbe essere quella di usare il codice fiscale: esso è una se-quenza alfanumerica che contiene, cifrate, tutte queste informazioni (le prime tre consonanti del cognome, le prime tre consonanti del nome, data di nascita, comune di nascita). Risulta essere quindi uno strumento molto potente e efficiente per tenere traccia di persone fisiche, utilizzando per l’appunto solo sedici lettere o numeri.

Le matrici, di fatto, rappresentano il codice fiscale della matematica: sono appunto tabelle di numeri che

riassumono una serie di caratteristiche e informazioni

della situazione che stiamo studiando.

1.1 Un esempio matematico

Una primissima applicazione delle matrici è rappresen-tata dai sistemi di equazioni (e fra le altre cose, a livello storico, le matrici sono state inventate proprio per que-sto - l’uso di tabelle per semplificare i calcoli matematici risale ai primi secoli avanti Cristo: i cinesi probabilmen-te furono i primi ad usare le matrici per risolvere sisprobabilmen-temi di equazioni).

Immaginiamo di voler risolvere il seguente sistema lineare:      3x + 4y − 2z = 4 x − y + z = 3 −4y + 3z = 2

Stare a scrivere tutte le volte le incognite potrebbe essere inutile, quindi possiamo agilmente rappresentare il sistema usando una tabella di numeri, mettendo solo i coefficienti. Quindi la prima riga della nostra tabella sarà occupata dai coefficienti della prima equazione, mentre la seconda riga dai coefficienti della seconda equazione e così via:

  3 4 −2 1 −1 1 0 −4 3  

Notare che la terza equazione non presenta la variabile x, quindi nella prima posizione della terza riga abbiamo messo uno zero. Come possiamo vedere, è un modo molto più snello di scrivere i sistemi. Vengono a mancare i termini noti, che sono situati al di là dell’uguale, ma che possiamo rappresentare come una matrice un po’ particolare, ovvero formata da una sola colonna:

  4 3 2  

Chiaramente fin quando si tratta di sistemi piuttosto piccoli la situazione è facilmente gestibile anche scriven-do esplicitamente il sistema, tuttavia immaginatevi di trovarvi davanti ad un sistema del genere (e ce ne sono, fidatevi!):                    4x1+ 3x2+ 2x3− 4x4+ x5− 3x6= 2 2x1+ x2+ 4x3+ 7x4− 2x5+ 3x6= 0 3x2− x3− x4+ 5x5+ 6x6= 3 4x1+ x2− x3+ 3x4+ 6x5= −1 x1+ x2+ 6x3− 7x4+ 4x5− 5x6= −6 3x2+ 3x3− 9x4+ 8x5− 10x6= 3

E’ indubbiamente un bel casino: per semplicità ab-biamo chiamato le variabili invece che x, y, z, ... con x1, x2, x3, ... e così via (onde evitare di finire le lettere dell’alfabeto).

Chiaramente la versione matriciale di questo sistema è, per quanto piuttosto grossa, molto più leggibile e facilmente manipolabile:         4 3 2 −4 1 −3 2 1 4 7 −2 3 0 3 1 −1 5 6 4 1 −1 3 6 0 1 1 6 −7 4 −5 0 3 3 −9 8 −10        

Insomma, nettamente meglio.

La domanda che sorge spontanea è la seguente: ma oltre a semplici motivi di praticità, a cosa serve utilizza-re le matrici? Ebbene, nel caso dei sistemi di equazioni esiste un algoritmo, chiamato eliminazione di Gauss, che permette, tramite semplici operazioni sui numeri della matrice, di risolvere immediatamente il sistema associato. In altre parole, invece di effettuare

millemi-la sostituzioni nel sistema sopra, si scrive la matrice associata, si eseguono delle operazioni elementari e si trovano immediatamente tutte le soluzioni del sistema. E’ infatti in questo modo che i computer risolvono i sistemi di equazioni.

Tratteremo il metodo di Gauss successivamente su questi appunti. Per ora ci basti sapere che è un me-todo molto potente per risolvere i sistemi di equa-zioni - e infatti i computer usano questo sistema per risolverli. In altre parole, rappresentare un siste-ma di equazioni con una siste-matrice è estresiste-mamente comodo ed efficiente.

(2)

1.2 Un esempio fisico

E’ probabile che molti di voi (come il sottoscritto) sia un accanito giocatore su PC. Magari alcuni hanno an-che un computer fisso particolarmente buono, magari anche con una ottima scheda grafica: alcune di esse dispongono di un sistema, chiamato Ray Tracing, e compare nelle schede grafiche con la sigla RTX. In altre parole, tali schede grafiche permettono un rendering estremamente realistico delle scene, in quanto sono in grado di calcolare il percorso che fanno i raggi di luce, le ombre che proiettano, i riflessi e le varie diffusioni. Un esempio di rendering dato dal ray tracing è riportato in Figura 1. Tale tecnica è utilizzata ultimamente nei game in cui è richiesta una elevata qualità delle immagi-ni (per esempio nei FPS - First-Person Shooter, i classici sparatutto in prima persona).

Figura 1:Immagine realizzata al computer tramite la tecnica del ray tracing. Notare le riflessioni multiple di ciascuna sfera sulle altre sfere e sul pavimento a scacchi. L’immagine è creata prendendo un raggio di luce e facendolo rimbalzare sulle varie superfici, seguendo il percorso.

Ma cosa c’entra tutto questo con le matrici? Ebbene, c’entra, c’entra eccome.

Partiamo dal fatto che il ray tracing è una diretta applicazione dell’ottica geometrica, branca della fisica classica che si occupa proprio del comportamento dei raggi di luce in varie condizioni, cosa succede quando attraversano delle lenti, quando vengono riflessi da degli specchi e quando vengono diffusi da superfici scabre come per esempio un tavolo. Si chiama ottica geometrica in quanto i raggi di luce vengono trattati proprio come rette che poi cambiano direzione quando toccano uno specchio oppure passano attraverso una lente.

I calcoli di ottica geometrica (e conseguentemente i calcoli che deve fare la scheda grafica per il gioco) sono di solito molto numerosi, tuttavia ci vengono in aiuto le matrici che semplificano notevolmente tutto.

In particolare moltissimi sistemi ottici (lenti, specchi eccetera) possono essere agilmente descritti da matrici molto piccole, ovvero matrici contenenti solo quattro elementi. Vediamo qualche esempio.

Se consideriamo un raggio di luce rettilineo che per-corre un certo tratto d la matrice associata a questo sistema fisico è la seguente:

M =1 d 0 1 

Se invece il raggio di luce passa da un mezzo con un certo indice di rifrazione (n1) ad un altro mezzo con

un altro indice di rifrazione (n2), come per esempio un raggio di luce che entra nell’acqua, abbiamo la seguente matrice:

M =1 0

0 n1/n2 

Oppure se siamo in presenza di una lente (sottile) con una focale pari a f abbiamo la seguente matrice che descrive il sistema fisico:

M = 

1 0

−1/f 1 

Ed infine uno specchio piano presenta la seguente matrice:

M =1 0 0 1 

Quindi in definitiva, come possiamo vedere, le matrici permettono di "spiegare" in modo estremamente sinteti-co sistemi fisici piuttosto sinteti-complicati, sinteti-come per l’appunto sistemi di ottica geometrica; situazioni molto differenti vengono trattati con lo stesso formalismo matriciale, che permette di eseguire calcoli più veloci.

Le schede grafiche di cui parlavamo sopra, di fatto ma-nipolano matrici del genere per calcolare il percorso che fanno i raggi di luce considerati, e, come abbiamo ac-cennato poco sopra, la matematica mette a disposizione una serie di operazioni da fare sulle matrici che permet-te rapidamenpermet-te di risolvere il problema considerato (vedi l’eliminazione di Gauss).

Formalismo matriciale e proprietà

fondamenta-li

:

Abbiamo avuto modo di giustificare la creazione di que-ste nuove entità matematiche chiamate matrici, ma ora passiamo ad una formalizzazione più rigorosa (per-ché in questo modo scopriremo delle proprietà molto interessanti).

Una matrice è una tabella ordinata di elementi. Tali elementi possono essere numeri, variabili, funzioni eccetera. Gli elementi della matrice vengono indi-cati con dei pedici: il primo pedice indica la riga, il secondo pedice la colonna. Quindi l’elemento:

a23

indica l’elemento situato nella seconda riga e nella terza colonna. Quindi una matrice con due righe e due colonne possiamo scriverla come:

a11 a12 a21 a22 

I pedici vengono chiamati indici, e di solito vengono indicati con le lettere i e j. Per esempio se prendiamo la matrice: A =   3 2 1 0 4 5 7 8 9  

Possiamo indicare un suo generico elemento con la notazione Aij. Se per esempio prendiamo i = 1 e j = 2

(3)

allora stiamo indicando l’elemento: A12= 0

Ovvero l’elemento in prima riga e in seconda colonna. In generale le matrici possono essere quadrate o ret-tangolari. Chiaramente una matrice quadrata è una matrice con numero di righe pari al numero di colonne. Un esempio: A =   4 3 2 0 2 0 1 1 3   B = 3 −1 5 0 −1 −2 

La matrice A è una matrice quadrata 3 × 3, mentre la matrice B è una matrice rettangolare 2 × 3. Particolari matrici sono quelle chiamate matrici riga e matrici

co-lonna: nomi poco originali per descrivere per l’appunto

matrici con una sola riga o una sola colonna, come per esempio: A =   3 2 1   B =1 7 2

In questo caso la matrice A è una matrice colonna, mentre B è una matrice riga.

Nota. Qualcuno potrebbe accorgersi di un piccolo

fat-to: le matrici costituite da una sola riga o da una sola colonna possono essere interpretate come dei vettori. Prendiamo per esempio le componenti di un vettore nel piano. Immaginiamo che tale vettore abbia le seguenti componenti: (x, y) = (2, 3) (Figura 2). La matrice ri-ga associata, ovvero [2 3] rappresenta proprio il vettore. Infatti, udite udite, i vettori sono delle particolari

ma-trici. Ecco quindi fatta una ulteriore generalizzazione:

tutto quello che diremo sulle matrici vale anche per i vettori, in quanto i vettori stessi sono delle matrici!

𝑦

𝑥

3

2

Figura 2:Il vettore di esempio considerato nel testo, con le componenti indicate.

Ed ora allacciate le cinture, signore e signori. Ripren-diamo un attimo la nozione di vettore riga o di vettore colonna. Come abbiamo visto è sufficiente indicare le componenti di un vettore all’interno di una matrice per definire il vettore stesso, senza doverlo disegnare. Abbia-mo inoltre visto che nel caso di un vettore sul piano la

matrice associata ha semplicemente due numeri, ovvero la componente x e la componente y. La generalizzazione ad un vettore in tre dimensioni è presto fatta, in quanto basta indicare le tre componenti del vettore stesso, come per esempio:

(x, y, z) = (3, 1, 2)

Quindi la matrice [3 1 2] indicherà il vettore tridi-mensionale che ha come componenti x = 3, y = 1, z = 2.

Eppure noi possiamo scrivere matrici riga con 4 o più numeri, come per esempio [3 2 1 4]; in questo caso stia-mo definendo un vettore in quattro dimensioni, con molta semplicità. Ha senso? Ebbene sì, perché secondo le attuali teorie l’Universo ha molte più dimensioni delle tre che noi conosciamo, quindi poter lavorare con vettori in più dimensioni diventa una priorità, e le matrici ci aiutano tantissimo in questo, senza avere la necessità di un foglio quadridimensionale per fare i grafici. Questo procedimento può essere chiaramente generalizzato, e così facendo possiamo lavorare con vettori a 5, 6 o anche più dimensioni. Ed ecco che, in poche righe, abbiamo sviluppato un formalismo matematico che ci consente di gestire le dimensioni superiori di cui si sente tan-to parlare (vedi film tipo Interstellar, o i più vecchi si ricorderanno anche Stargate).

Nota. I discorsi precedenti possono apparire come delle

enormi manfrine fatte da un astrofisico alcolizzato. Non possiamo entrare ulteriormente nel dettaglio, in quanto sono necessarie conoscenze di matematica più comples-se di quelle che si imparano al liceo. Tuttavia sappiate che tutto il formalismo relativo alla Gravità Generale -teoria fisica di Einstein elaborata e pubblicata nel 1916 - si basa proprio su matrici e vettori. Addirittura le

ma-trici necessarie a definire la Relatività Generale sono

matrici tridimensionali, di cui potete vedere un esempio nella Figura 3; tali oggetti sono la generalizzazione delle matrici, e si chiamano tensori.

Figura 3:Una rappresentazione di un tensore, in particolare si tratta del simbolo di Levi-Civita, usato anche in Relatività Gene-rale. Come possiamo vedere è di fatto una matrice "a più piani".

2.1 Matrici quadrate; diagonale principale

Adesso occupiamoci momentaneamente delle matri-ci quadrate, ovvero quelle che hanno uguale numero di righe e di colonne. Prendiamo subito un esempio, considerando la matrice quadrata seguente:

M =   7 3 1 −1 4 −2 2 0 5  

(4)

Consideriamo gli elementi che formano la diagonale che va dall’alto a sinistra in basso a destra. Gli elementi saranno 7, 4, 5. Indichiamo i loro indici:

a11= 7 a22= 4 a33= 5

Come possiamo notare, nel caso degli elementi situati lungo la diagonale principale hanno gli indici uguali: quindi prendiamo l’elemento della prima riga e della prima colonna, poi l’elemento della seconda riga e della seconda colonna e così via, fino in fondo alla matrice.

Nota. L’altra diagonale, ovvero quella che va dall’alto

a destra in basso a sinistra, di solito si chiama

diago-nale secondaria, ma ha poche applicazioni. La diago-nale principale invece riveste un ruolo importante nel formalismo matriciale.

Ricordiamo un formalismo piuttosto comune per le matrici. In generale una matrice avrà n righe ed m colonne, quindi possiamo scrivere una matrice generica come:      a11 a12 . . . a1m a21 a22 . . . a2m .. . ... . .. ... an1 an2 . . . anm     

Che rappresenta per l’appunto una matrice n × m. Se m = n, siamo in presenza di una matrice quadrata.

2.2 Operazioni con le matrici

Adesso che abbiamo avuto modo di conoscere meglio le matrici, dobbiamo passare a definire delle operazioni con esse. Infatti le matrici sono nuovi enti matematici, che si comportano in modo diverso rispetto ai semplici numeri. Dobbiamo quindi ridefinire il concetto di

som-ma tra som-matrici e prodotto tra matrici ; inoltre dobbiamo vedere se esistono elementi neutri per l’addizione e per la moltiplicazione. Insomma, abbiamo diverso lavoro da fare!

2.2.1 Somma

Prendiamo due matrici: A =2 3 1 0  B =5 −1 4 1 

Ne vogliamo definire la somma, ovvero A + B. La ma-trice somma avrà per elementi la somma degli elementi corrispondenti nelle due matrici. In altri termini, si sommano gli elementi con gli stessi indici: a11+ b11, a12+ b12e così via. Nel nostro esempio abbiamo quindi:

A + B =2 + 5 3 − 1 1 + 4 0 + 1  =7 2 5 1 

La somma fra matrici è definita solo ed esclusivamente per matrici con le stesse dimensioni. Quindi se abbiamo una matrice 2 × 3 e una matrice 4 × 2 la somma non è definita.

Nota. La somma fra matrici è commutativa. In termini

matematici, A + B = B + A.

2.2.2 Moltiplicazione per uno scalare (ovvero un numero) Nelle matrici è definito anche un prodotto per uno sca-lare, ovvero moltiplicare una matrice per un singolo numero (perché pensandoci, possiamo - forse - molti-plicare anche due matrici fra di loro). Possiamo quindi moltiplicare una qualunque matrice per un coefficiente appartenente ad R: A =   1 3 2 5 0 −1  

Vogliamo trovare il risultato di 2 · A:

2 ·   1 3 2 5 0 −1  =   1 · 2 3 · 2 2 · 2 5 · 2 0 · 2 −1 · 2  =   2 6 4 10 0 −2  

Ovvero abbiamo moltiplicato ciascun elemento della matrice per il coefficiente davanti. Questa operazio-ne si chiama per l’appunto moltiplicaziooperazio-ne per uno

scalare.

2.2.3 Prodotto fra matrici

Al contrario del prodotto per uno scalare, il prodotto tra matrici è leggermente più complicato. Una possibile costruzione del prodotto potrebbe essere la seguente:

2 1 0 4  ·4 3 7 5  =2 · 4 1 · 3 0 · 7 4 · 5  =8 3 0 20 

Ovvero moltiplicare semplicemente i numeri che occu-pano lo stesso posto all’interno delle due matrici. Effet-tivamente questa definizione di prodotto esiste, e si chia-ma prodotto puntuale o prodotto di Hadachia-mard, chia-ma è usata pochissimo perché non ha molte applicazioni.

Nota. Fra le altre cose il prodotto di Hadamard ci

per-mette di fare una riflessione "filosofica" sulla matemati-ca. Come visto, possiamo definire fondamentalmente quello che ci pare, quindi possiamo in generale intro-durre nuovi concetti matematici tirati fuori pressoché a caso. Tuttavia non è detto che ciò che definiamo abbia poi un suo utilizzo pratico, o che possa rappresentare qualcosa di sensato nel mondo fisico. Questa cosa è molto importante da capire: la matematica è comunque frutto di una serie di fallimenti, di "invenzioni matema-tiche" che poi si sono rivelate totalmente inutili. Quindi quello che leggiamo su un libro di matematica è frut-to di secoli di prove, di successivi affinamenti, fino a trovare un impianto matematico coerente e potente. Il prodotto di Hadamard rappresenta un esempio piut-tosto fallimentare: sebbene abbia limitati utilizzi, non possiede la stessa potenza che ha il prodotto fra matrici che adesso introdurremo.

Passiamo quindi a definire il prodotto fra matrici "vero", anche conosciuto come prodotto righe per

colonne; leggete con molta calma il trafiletto qua sotto: Ciascun elemento della matrice risultato è dato dalla somma dei prodotti degli elementi contenu-ti nella rispetcontenu-tiva riga e nella rispetcontenu-tiva colonna considerata.

Eh? Effettivamente avete ragione, non è che si capisca tanto. Facciamo un esempio esplicativo: immaginiamo

(5)

di voler calcolare l’elemento p23, ovvero l’elemento della matrice prodotto che si trova nella seconda riga e terza colonna. Prendiamo la seconda riga della prima matrice e la terza colonna della seconda matrice. Moltiplichiamo il primo elemento della riga con il primo elemento della colonna, poi ci sommiamo il prodotto del secondo ele-mento della riga con il secondo eleele-mento della colonna e così via. Una volta che abbiamo terminato gli elementi nelle riga e nella colonna abbiamo l’elemento p23.

Nota. Dalla definizione di prodotto sopra data è

pos-sibile fare il prodotto fra una matrice che ha un numero di colonne uguale al numero di righe dell’altra matrice. In altri termini è possibile fare il prodotto di matrici che hanno dimensioni del tipo m × n e n × p, per ottenere una matrice finale di dimensioni m × p. Possiamo fare per esempio il prodotto di una matrice 3 × 4 per una matrice 4 × 2, ma non possiamo fare il prodotto fra una matrice 2 × 2 e 3 × 4.

Una visualizzazione grafica del prodotto riga per co-lonna è data dalla Figura 4. Consideriamo l’elemento segnato dal pallino giallo contornato di rosso, ovvero l’elemento di posizione p12. Prendiamo quindi la prima

riga della matrice A e la seconda colonna della

ma-trice B. Per ricordarci lo schema possiamo scrivere la matrice A a sinistra e la matrice B in alto, e creare la matrice prodotto nel mezzo. Moltiplichiamo il primo elemento della riga con il primo elemento della colonna, poi moltiplichiamo il secondo elemento della riga con il secondo elemento della colonna ed infine sommia-mo i due risultati. Tale risultato è l’elemento cercato e lo mettiamo nel suo posto. Se vogliamo calcolare l’e-lemento in posizione p33prendiamo la terza riga della prima matrice e la terza colonna della seconda matrice e proseguiamo come abbiamo descritto sopra.

Figura 4:Il prodotto riga per colonna fra due matrici, una con dimen-sioni 4 × 2 e una con dimendimen-sioni 2 × 3. Come vedete il risultato finale è una matrice 4 × 3.

Facciamo quindi un esempio pratico. Consideriamo le due matrici: A =2 3 0 1 4 5  B =   1 2 0 2 0 3 5 4 2 0 −1 −2  

Calcoliamo il primo elemento della matrice prodotto,

ovvero p11. Prendiamo la prima riga della matrice A... [2 3 0]

... E la prima colonna della matrice B:   1 0 2  

Moltiplichiamo i vari elementi:

p11= (2 · 1) + (3 · 0) + (0 · 2) = 2

Passiamo all’elemento p12, ovvero l’elemento in prima riga e in seconda colonna. Di nuovo, prendiamo la prima riga di A e la seconda colonna di B:

2 3 0   2 3 0   Moltiplichiamo e sommiamo: p12= (2 · 2) + (3 · 3) + (0 · 0) = 13

E così via. Alla fine di questo (lungo) procedimento otteniamo la seguente matrice prodotto:

 2 13 15 16

11 14 15 8



Nota. Il prodotto tra matrici, a differenza del prodotto

fra numeri che conosciamo normalmente, non è

com-mutativo. In altre parole, non è affatto detto che A × B

sia uguale a B × A. Anzi, molto spesso non è nemmeno possibile fare il prodotto B × A, in quanto le dimensioni delle matrici non sono compatibili. Per esempio il pro-dotto che abbiamo fatto sopra non è definito invertendo l’ordine delle matrici.

La domanda che potrebbe sorgere spontanea è la se-guente: ma a cosa diamine ci serve una mostruosità simile? Ha della applicazioni pratiche oppure è solo un incredibile viaggione dei matematici?

Ebbene, ha moltissime applicazioni: per esempio ci sono delle speciali matrici 2 × 2 che rappresentano le rotazioni di un oggetto nel piano. Immaginiamo di avere una matrice A di rotazione che permette di compiere una rotazione di angolo α attorno all’origine degli assi, mentre un’altra matrice B permette di compiere una rotazione di un angolo β. Il prodotto fra queste due matrici, ovvero A × B, rappresenta una rotazione nel piano di angolo α + β.

2.2.4 Trasposizione

Una operazione che esiste solo con le matrici è la

traspo-sizione. Si tratta praticamente di invertire le righe con

le colonne, oppure in altre parole "ribaltare" la matrice rispetto alla diagonale principale. L’operazione di traspo-sizione si indica con una T all’esponente della matrice. Consideriamo per esempio la matrice seguente:

A =2 4 2

1 5 0



La sua trasposta AT sarà:

AT =   2 1 4 5 2 0  

(6)

Un esempio con una matrice quadrata: B =   0 3 2 1 5 −7 √ 2 3 1 −√5   La sua trasposta BT è: BT =   0 1 √2 3 5 3 2 −7 1 −√5  

Nota. Nel caso particolare di matici quadrate, la

tra-sposizione lascia chiaramente invariata la diagona-le principadiagona-le. Infatti possiamo vedere l’operazione di trasposizione come lo scambio dei due indici:

aij T −→ aji

Ma nel caso degli elementi lungo la diagonale gli indici sono uguali, quindi:

aii T −→ aii

Conseguentemente gli elementi lungo la diagonale non vengono intaccati dall’operazione di trasposizione.

Elenchiamo ora qualche particolarità della trasposi-zione. Innanzitutto la trasposta di una trasposta è la matrice stessa (chiaramente), ovvero:

ATT = A

Un’altra interessante proprietà è la trasposizione di un prodotto di matrici:

(A · B)T = BT · AT

Ovvero è possibile distribuire l’operazione di traspo-sizione al prodotto fra matrici, ma bisogna cambiarne l’ordine.

Nota. Come vediamo, proprietà matematiche che sono

banali e ovvie nel caso dei semplici numeri reali assu-mono caratteristiche totalmente diverse quando consi-deriamo altri enti matematici. L’esempio più palese è la non commutatività della moltiplicazione, o addirittura la creazione di nuove operazioni, come per l’appunto la trasposizione. Per chi fosse sufficientemente malato da chiederselo, la trasposta di un numero reale è il numero stesso (infatti un numero può essere interpretato come una matrice 1 × 1).

Matrici particolari, determinante

:

In questa sezione andiamo a conoscere alcune matri-ci particolari, ed infine vedremo una proprietà molto interessante delle matrici quadrate.

3.1 Matrici particolari

Introdurremo ora di seguito le nozioni di matrice nulla,

unità, simmetrica, antisimmetrica, diagonale, sparsa. 3.1.1 Matrice Nulla

Anche il lettore che si è appena fatto una canna capirà che una matrice nulla è semplicemente una matrice con tutti gli elementi pari a zero. Fine. Giusto perché non

possiamo lasciare una sezione così scarna, facciamo un esempio idiota: Z =   0 0 0 0 0 0 0 0 0  

Z è una matrice nulla. Inutile dire che la matrice nulla (che indichiamo con [0]nm, ovvero matrice nulla di n righe e m colonne), sommata a qualunque matrice, fornisce la matrice stessa:

A + [0] = A

Ugualmente, se moltiplichiamo una matrice per la matrice nulla di dimensioni appropriate otteniamo nuovamente la matrice nulla:

2 3 5 1 0 √3  ×   0 0 0 0 0 0  = 0 0 0 0  3.1.2 Matrice Identità

La matrice identità è, per quanto anch’essa di semplice intuizione, molto importante. Viene definita come quella matrice che, moltiplicata per una matrice qualsiasi A, restituisce nuovamente la matrice A. La matrice identità si indica con Inm. In altre parole, stabilita una matrice A:

A × I = A

La matrice identità è una matrice che ha gli elementi lungo la diagonale pari a 1, mentre gli altri elementi sono tutti nulli. La matrice identità 3 × 3 è:

I33=   1 0 0 0 1 0 0 0 1  

NOTA BENE! A differenza delle matrici nulle che

pos-sono essere anche rettangolari, le matrici identità pos-sono

solo quadrate.

3.1.3 Matrice Simmetrica

Passiamo ora alla definizione delle matrici simmetri-che. Qui effettivamente ci viene in aiuto il nome, infatti una matrice si dice simmetrica se gli elementi opposti rispetto alla diagonale sono uguali, ovvero:

aij= aji

Gli elementi sulla diagonale rimangono chiaramente gli stessi, in quanto hanno due indici uguali. Facciamo un esempio: A =   2 3 1 3 4 5 1 5 6  

La matrice A è simmetrica. Notate la disposizione degli elementi rispetto alla diagonale: l’elemento a23= 5 è uguale all’elemento a32 = 5. Notate come gli indici siano invertiti nei due casi.

Una proprietà interessante è che la trasposta di una matrice simmetrica è nuovamente la matrice stessa, ovvero se A è simmetrica allora:

(7)

Come potete vedere trasponendo la matrice dell’esem-pio precedente.

3.1.4 Matrice Antisimmetrica

Una matrice antisimmetrica è una matrice che presen-ta i valori opposti rispetto alla diagonale uguali, ma

cambiati di segno, ovvero aij= −aji. La matrice:   0 −3 −1 3 0 −5 1 5 0  

Come possiamo vedere, gli elementi opposti rispetto alla diagonale sono uguali ma cambiati di segno.

Nota. Le matrici antisimmetriche hanno sempre tutti gli

elementi nulli sulla diagonale. Infatti l’unico elemento che è uguale al suo opposto è lo zero (che infatti non ha segno, zero oppure meno zero sempre zero è).

La trasposta di una matrice antisimmetrica è la stessa matrice, ma cambiata di segno:

AT = −A Provare per credere.

3.1.5 Matrice Diagonale

Una matrice diagonale è una matrice che presenta tutti gli elementi nulli tranne quelli lungo la diagonale. Le matrici diagonali sono importantissime per una enorme serie di applicazioni pratiche, tuttavia tali applicazioni necessitano di conoscenze matematiche superiori che non possiamo approfondire qui (altrimenti diventerebbe un libro - e questo non lo vogliamo).

Un esempio di matrice diagonale è la seguente:     2 0 0 0 0 1 0 0 0 0 3 0 0 0 0 4    

Si tratta di una matrice 4 × 4 diagonale.

Nota. Tutte le matrici identità sono particolari matrici

diagonali, infatti presentano sulla diagonale solo 1. 3.1.6 Matrici Sparse

Una classe poco conosciuta di matrici (ma che comun-que esistono) è rappresentata dalle cosiddette matrici

sparse. Come suggerisce il nome, le matrici sparse hanno tantissimi zeri, tranne qualche elemento, per l’appunto sparso, che non è nullo. Le matrici sparse ricoprono ruoli piuttosto importanti nelle telecomunica-zioni, in quanto sono facilmente comprimibili. Se per esempio dobbiamo trasmettere informazioni che si tro-vano all’interno di una matrice sparsa, potrebbe essere conveniente eliminare tutti gli zeri e ricordarsi solo la posizione degli elementi non nulli: in altre parole si trasmette un dato compresso che però di fatto mantiene tutta l’informazione necessaria.

Un esempio di matrice sparsa è data dalla seguente:         1 0 0 0 3 0 0 0 3 0 0 0 0 0 0 0 0 4 0 2 0 0 0 10 0 0 0 1 0 0 5 0 0 0 0 0        

Come potete vedere i valori non nulli sono pochi e sono, per l’appunto, sparsi nella matrice.

3.2 Determinante

Passiamo ora ad un concetto estremamente importante e interessante delle matrici quadrate, ovvero il cosid-detto determinante. Il determinante di una matrice quadrata è una sorta di impronta digitale della matri-ce stessa: è un numero che riassume alcune proprie-tà della matrice stessa, proprieproprie-tà sia algebriche che geometriche.

Il determinante può essere calcolato per matrici qua-drate di qualunque dimensione, tuttavia noi ci limite-remo al calcolo delle matrici 2 × 2 e di quelle 3 × 3. Su internet è pieno di siti che permettono rapidamente il calcolo del determinante di matrici anche più grandi (è una procedura algoritmica che può ben eseguire un computer).

Partiamo dal calcolo del determinante di una matrice 2 × 2. Consideriamo la generica matrice:

A =a b c d 

Dove le lettere indicano i generici elementi della ma-trice. il determinante di A, che si indica con det A, è dato dal seguente conto:

det A = a · d − b · c

In altri termini si moltiplicano i termini della diago-nale e si sottrae il prodotto degli elementi lungo l’altra diagonale. Facciamo un esempio numerico:

A =1 4 2 3 

Abbiamo quindi;

det A = 1 · 3 − 4 · 2 = 3 − 8 = −5

E se invece vogliamo calcolare il determinante di una matrice 3 × 3? In queesto caso ci viene in aiuto la co-sidetta regola di Sarrus. Consideriamo una generica matrice: A =   a b c d e f g h i  

Copiamo le prime due colonne accanto alla matrice,

ottenendo:   a b c a b d e f d e g h i g h  

Così facendo, otteniamo di fatto tre diagonali princi-pali (formate dagli elementi aei, bf g, cdh) e tre diagona-li secondarie (formate dagdiagona-li elementi ceg, af h, bdi). Il determinante sarà dato dalla seguente formula:

det A = aei + bf g + cdh − ceg − af h − bdi

Ovvero moltiplicando tutti i termini delle tre diagonali e sommando i risultati, a cui poi si sottraggono i pro-dotti delle diagonali secondarie. In Figura 5 possiamo vedere una rappresentazione grafica e molto comoda da ricordare della regola di Sarrus.

(8)

𝑎 𝑏 𝑐

𝑑 𝑒 𝑓

𝑔 ℎ 𝑖

𝑎 𝑏

𝑑 𝑒

𝑔 ℎ

Figura 5:La visualizzazione grafica della regola di Sarrus. Gli ele-menti lungo le diagonali principali (in blu) vanno moltiplicati fra loro e poi sommati tutti e tre i risultati, mentre gli elemen-ti lungo le diagonali secondarie (in rosso) vanno molelemen-tiplicaelemen-ti fra loro e poi sottratti tutti e tre i risultati.

Facciamo un esempio numerico, considerando la seguente matrice: M =   2 3 1 −1 1 4 0 2 −2  

Come al solito copiamo le prime due colonne a destra della nostra matrice, ottenendo:

  2 3 1 2 3 −1 1 4 −1 −1 0 2 −2 0 2  

E quindi possiamo calcolare il determinante della matrice:

det M = (2 · 1 · (−2)) + (3 · 4 · 0) + (1 · (−1) · 2) −(1 · 1 · 0) − (2 · 4 · 2) − (3 · (−1) · (−2)) = −28 Quindi il determinante di questa matrice è −28. Ora sappiamo calcolare il determinante delle ma-trici più piccole, ma di fatto che cosa rappresenta il determinante?

La sua più importante proprietà è una proprietà geo-metrica. Infatti il determinante (preso senza segno) di una matrice 2 × 2 è l’area formata dai vettori colonna della matrice stessa. Che cosa significa tutto questo? Facciamo un esempio numerico. Prendiamo la seguente matrice:

3 1 1 4 

Essa è formata dalle due colonne: 3

1

 1

4 

Che di fatto possono essere interpretate come le coor-dinate di due punti, che collegati all’origine degli as-si, formano due vettori, esattamente come riportato in Figura 6.

Nella Figura 6, il primo vettore è rappresentato dalla prima colonna, che riporta le coordinate (3, 1). Dise-gnando questo punto sul piano cartesiano e unendolo con l’origine, otteniamo il primo vettore. Ripetendo il procedimento anche per la seconda colonna otteniamo il secondo vettore. Disegnati i due vettori possiamo disegnare anche i lati paralleli ad essi, ottenendo un

3

1

1

4

Figura 6:Rappresentazione geometrica del determinante come area formata dai due vettori colonna della matrice. Le coordinate delle punte dei vettori sono date dai numeri nelle colonne della matrice.

parallelogramma, che nella figura è colorato di verde. Il

determinante è l’area di questo parallelogramma.

Questa rappresentazione geometrica è estremamente utile, perché vale in tutte le dimensioni. Una matrice 3×3 rappresenta tre vettori nello spazio, e il determinante rappresenta il volume del parallelepipedo o del prisma associato, come riportato in Figura 7.

Figura 7:Rappresentazione geometrica del determinante nel caso tridimensionale. I vettori r1, r2 ed r3sono rappresentati

dalle tre colonne della matrice considerata.

Una matrice 3 × 3 di fatto può essere divisa in tre vettori colonna, ciascuno con 3 numeri. Questi tre numeri rappresentano le coordinate x,y,z delle punte dei vettori, che vanno così a creare un prisma o un parallelepipedo. Come abbiamo detto, il determinante della matrice associata è il volume del solido. Ma il bello deve ancora venire.

(9)

Il fatto che il determinante rappresenti l’area o il volume formato dai vettori colonna vale in tutte le dimensioni. In altre parole, se prendiamo una ma-trice 4 × 4 il suo determinante è l’ipervolume for-mato dai vettori in quattro dimensioni, e così via, anche per le dimensioni superiori.

E voi mi direte: ma che cosa significa ipervolume? Di fatto quattro vettori in quattro dimensioni forma-no un solido in quattro dimensioni, esattamente come tre vettori in tre dimensioni creano un solido in tre di-mensioni. Può sembrare strano, ma anche in quattro dimensioni si può definire un volume, o meglio, un iper-volume, calcolabile tramite il determinante della matrice associata.

E a che fonchia serve un volume in quattro dimen-sioni? Beh, a noi serve a poco, perché siamo esseri in tre dimensioni che viviamo in un mondo fondamental-mente in tre dimensioni. Tuttavia, secondo le attuali teorie l’Universo ne possiede almeno 16 di dimensioni, quindi saper lavorare in dimensioni superiori, sebbene non le possiamo percepire, potrebbe essere interessante e utile.

E’ questo il vero potere della matematica. Dove finisce il nostro senso comune, iniziano i calcoli. Non possiamo sperare che l’Universo possa essere totalmente compren-sibile con il nostro senso comune, e dove finisce questo, ci viene in aiuto la matematica, che è in grado di lavora-re con concetti talmente astratta che è difficile per noi esseri umani concepirli. Moltissime scoperte più avan-zate, come per esempio quelle relative alla Meccanica Quantistica, oppure agli oggetti più estremi dell’Univer-so come buchi neri o stelle di neutroni, dell’Univer-sono addirittura fuorvianti: crediamo funzionino in un certo modo ma poi scopriamo che funzionano in modo completamente diverso, o addirittura in un modo che per noi risulta difficilmente comprensibile. Questo però non deve spa-ventare: sarebbe piuttosto presuntuoso pensare che il nostro senso comune possa spiegare anche gli oggetti più esotici del cosmo, e siccome non lo fanno, ecco che subentra la matematica e la fisica ad aiutarcia.

aCome si suol dire, se c’è qualcosa che non capiamo, sotto con i

calcoli e calma e gesso.

Metodo di eliminazione di Gauss: Adesso trattiamo un

metodo per risolvere agilmente i sistemi di equazioni lineari (ovvero che non presentano elevamenti di potenza nelle incognite). Tale metodo può sembrare complicato a prima vista, ma è quello più efficiente da usare in un computer (che è molto veloce a fare conti).

Immaginiamo di voler risolvere il seguente sistema di equazioni:      x + y + z = 3 x + y = 2 x + z = 2

La prima cosa da fare è scrivere la matrice completa

dei coefficienti, ovvero scrivere la matrice contenente

tutti i coefficienti delle variabili e anche la colonna dei termini noti. Per esempio la prima equazione ha coeffi-ciente (1, 1, 1, 3), dove i primi tre sono i coefficienti della x, della y e della z, mentre il quarto è il termine noto che

compare al di là dell’uguale. Componendo la matrice otteniamo:   1 1 1 3 1 1 0 2 1 0 1 2  

Notare come abbiamo messo anche gli zeri se una va-riabile non compare in una equazione. Adesso possiamo dimenticarci del sistema, in quanto tutte le operazioni che faremo le compiremo sulla matrice.

Innanzitutto dobbiamo cercare di ridurre la matrice

a scalini. Una matrice è a scalini se il primo elemento a sinistra di ogni riga si trova in una colonna più a destra del primo elemento diverso da zero della riga soprastante. State tranquilli è più semplice a capirlo che a spiegarlo. La matrice seguente:

  1 2 3 4 0 0 5 7 0 0 0 2  

E’ una matrice a scalini, in quanto è possibile "scende-re" lungo la "scala" creata dagli zeri, partendo dall’alto a sinistra. La matrice seguente invece:

    1 5 3 3 0 0 1 2 4 0 4 1 0 1 1 1    

NON è ridotta a scala, infatti sotto l’1 che si trova in

alto a sinistra c’è un 4, e questo non va bene.

Ma come facciamo a ridurre una matrice a scalini? Ebbene, possiamo farlo applicando successivamente una o più mosse di Gauss, che qui sotto riassumiamo:

• scambio di due righe della matrice;

• moltiplicare una riga per un numero diverso da zero;

• sottrarre ad una riga il multiplo di un’altra riga. Applicando per l’appunto queste regole più volte, pos-siamo trasformare qualunque matrice in una matrice a scalini. Il grosso vantaggio sta nel fatto che queste mosse non modificano le soluzioni del sistema di

equazioni associato, e questo è molto utile, in quanto

un sistema di equazioni ridotto a scala è molto facile da risolvere. Ma bando alle ciance e proviamo a ridurre a scala la nostra matrice.

La matrice da ridurre è appunto la seguente:   1 1 1 3 1 1 0 2 1 0 1 2  

Sottraiamo la prima riga alla seconda riga:   1 1 1 3 0 0 −1 −1 1 0 1 2  

Sottraiamo la prima riga alla terza riga:   1 1 1 3 0 0 −1 −1 0 −1 0 −1  

(10)

Ed infine scambiamo di posizione la seconda e la terza riga:   1 1 1 3 0 −1 0 −1 0 0 −1 −1  

La matrice è ridotta a scala. Tendenzialmente le mos-se di Gauss vengono applicate in modo da annullare tutti i coefficienti sotto il primo "gradino", per esempio le nostre prime due mosse le abbiamo effettuate in modo da annullare tutti gli 1 che erano presenti sotto il primo elemento in alto a sinistra.

Nota. I primi elementi non nulli su ciascuna riga (ovvero

gli "scalini") si chiamano pivot della matrice. Nel nostro caso i pivot sono 1, −1 e −1. Il numero di pivot in una matrice ci dice il rango della matrice stessa. Nel nostro caso, essendoci 3 pivot, la matrice ha rango 3. Il rango di una matrice è un’altra proprietà estremamente interessante, ma non la tratteremo qui.

Arrivati a questo punto, ricostruiamo il sistema uti-lizzando però la matrice ridotta a scala: la prima riga rappresenta la prima equazione, la seconda rappresen-ta la seconda equazione e così via. Occhio agli zeri, che indicano la mancanza della variabile corrispondente nell’equazione considerata:      x + y + z = 3 −y = −1 −z = −1

Che è facilissimo risolvere partendo dall’ultima equa-zione e poi risalendo, sostituendo via via. Infatti otteniamo immediatamente:

z = 1 y = 1

Che sostituiti nella prima equazione forniscono:

x = 1

Il metodo può sembrare farraginoso, ma diventa par-ticolarmente efficiente con sistemi piuttosto grandi, si-stemi nei quali effettuare sostituzioni comporta una risoluzione molto lunga. Il metodo di eliminazione di Gauss si presta molto bene ad una implementazione algoritmica per il pc; infatti è utilizzato moltissimo per risolvere i sistemi con il computer.

Coda: le immagini come matrici: Una bella applicazione

delle matrici è rappresentata dalla memorizzazione delle immagini in un pc. Per semplicità consideriamo una immagine in bianco e nero, successivamente passeremo alle immagini in tricromia. Una immagine è di fatto una matrice nella quale ciascun elemento rappresen-ta l’intensità del pixel corrispondente. Di solito nelle immagini in bianco e nero ogni elemento può avere un valore compreso fra 0 e 255, dove lo 0 corrisponde al nero e 255 al bianco; i valori intermedi sono in una sca-la di grigi. Così facendo è possibile rappresentare una immagine, dove per l’appunto ogni pixel è rappresentato da un elemento della matrice.

Nota. Molto spesso si sente parlare di risoluzione delle

immagini o degli schermi. Quei due numeri a moltipli-care non sono altro che il numero di righe e di colonne che contengono i pixel, e che di fatto rappresentano una matrice. Per esempio uno schermo che presenta una risoluzione di 1920 × 1080 significa che lo schermo presenta 1920 colonne e 1080 righe, per un totale di 2073600 elementi, ovvero pixel. In questo particolare caso, la risoluzione dello schermo può essere scritta anche come 2 Megapixel, ovvero circa 2 milioni di pixel. I famosi video in 4K devono il loro nome al fatto che presentano almeno 4000 colonne, ed oltre 3000 righe, quindi una risoluzione ancora maggiore.

Nella Figura 8 possiamo vedere una immagine in bas-sa risoluzione (si tratta di una matrice 100 × 100) in bianco e nero. Ciascun pixel ha un valore compreso fra 0 e 255, in una scala di grigi.

Figura 8:Una matrice può rappresentare una immagine, se ai valori vengono sostituiti dei pixel in scala di grigi.

Questa immagine ci fornisce un interessante spunto di riflessione. Se una matrice 100 per 100 rappresen-ta una immagine a malapena accetrappresen-tabile, e noi finora abbiamo trattato matrici 3x3 o 4x4 al massimo, come possiamo lavorare con matrici molto più grandi? Ecco che ci vengono in aiuto gli algoritmi come il metodo di eliminazione di Gauss oppure il calcolo del determi-nante: saper lavorare efficacemente con matrici molto grandi è cruciale, in quanto possono rappresentare an-che immagini, e nel mondo an-che si sta rivolgendo sempre di più al digitale la manipolazione di tabelle di numeri è di vitale importanza.

Riferimenti

Documenti correlati

[r]

Fra queste, l’operazione principale `e: “sommare ad una colonna un multipli scalare di un`altra colonna (analogamnte per le righe), Verifichiamo che l’operazione “sommare alla

Per le matrici diagonali, il determinante, il rango, la non singolarita’, le operazioni di prodotto e di inversione sono particolarmente semplici.. , n.).. Un paio di esempi di

Lampadario, fungaia, cartoleria, stalliere, alimentari, macelleria, furbata, gelato, colpaccio, fratellastro, sorellina, vicinato, angolino, stanchezza, postaccio,

2 Completa le frasi in modo da ottenere periodi contenenti una subordinata soggettiva9. che non tutti

L’obiettivo è collegare ogni isola con ponti orizzontali o verticali in modo che abbia un numero di ponti corrispondente al numero dato e si formi un percorso che colleghi

1.2 Matrici ortogonali e matrici

Come conseguenza di quanto appena osservato, la possibilit`a garantitaci dalla Propo- sizione 5.4 di poter calcolare il determinante effettuando lo sviluppo di Laplace rispetto ad