Minimi quadrati.
Alvise Sommariva
Universit`a degli Studi di Padova Dipartimento di Matematica Pura e Applicata
Esempio 1
Nel 1601 Keplero formul`o la terza legge del moto planetario T = Cx3/2
dove x `e la distanza dal sole in milione di km., T `e il periodo dell’orbita misurato in giorni e C `e una costante. Le coppie (x, T ) osservate per gli 8 planeti e Plutone sono
Mercurio 57.59 87.99 Venere 108.11 224.70 Terra 149.57 365.26 Marte 227.84 686.98 Giove 778.14 4332.4 Saturno 1427.0 10759 Urano 2870.3 30684 Nettuno 4499.9 60188 Plutone 5909.0 90719 Determinare C cosicch`e T = Cx3/2.
Esempio 1
La costante C non `e immediatamente calcolabile. Infatti: >> x= [ 5 7 . 5 9 ; 1 0 8 . 1 1 ; 1 4 9 . 5 7 ; 2 2 7 . 8 4 ; 7 7 8 . 1 4 ; . . . 1 4 2 7 . 0 ; 2 8 7 0 . 3 ; 4 4 9 9 . 9 ; 5 9 0 9 . 0 ] ; >> T= [ 8 7 . 9 9 ; 2 2 4 . 7 0 ; 3 6 5 . 2 6 ; 6 8 6 . 9 8 ; 4 3 3 2 . 4 ; . . . 10759 ; 3 0 6 8 4 ; 6 0 1 8 8 ; 9 0 7 1 9 ] ; >> f o r m a t long e >> C=T . / ( x . ˆ ( 3 / 2 ) ) C = 2 . 0 1 3 3 1 9 4 9 9 9 5 8 8 5 0 e−01 1 . 9 9 8 9 6 0 7 7 1 4 2 9 3 0 0 e−01 1 . 9 9 6 8 0 3 7 0 7 1 7 8 6 9 0 e−01 1 . 9 9 7 5 5 6 7 9 3 1 6 2 8 8 1 e−01 1 . 9 9 5 9 1 4 5 1 3 5 5 5 4 8 1 e−01 1 . 9 9 5 8 8 6 9 9 2 6 4 0 1 0 7 e−01 1 . 9 9 5 3 5 8 9 6 9 4 3 9 9 3 5 e−01 1 . 9 9 3 9 1 0 3 0 6 7 1 1 4 5 9 e−01 1 . 9 9 7 2 2 6 2 6 7 9 5 4 9 9 6 e−01 >>
Esempio 2
Siano m la magnitudine apparente di una cometa, ∆ e r rispettivamente le distanze in unit`a astronomiche della cometa dalla Terra e dal Sole, g la magnitudine assoluta e ξ un coefficiente. Noto che
m= g + 5 log10(∆) + ξ log10(r )
e determinati alcuni valori di m, ∆, r , determinare g e ξ. Quindi si desiderano calcolare i migliori A ≈ g , B ≈ ξ tali che
A+ B log10(r ) ≈ m − 5 log10(∆). Problema: cosa vuol dire migliori?
Esempio 2
Esempio. La tabella seguente riporta le stime di magnitudine visuale m della cometa periodica Wild 2, rilevate da J. Bortle, noch`e r e ∆. I valori corrispondenti sono stati calcolati dagli elementi orbitali (IAUC 3177). Calcolare g e ξ.
1978 FEB. FEB. FEB. FEB. FEB. MAR. MAR. MAR.
UT 4.01 5.00 9.02 10.02 25.03 7.07 14.03 30.05
m 11.4 11.5 11.5 11.3 11.5 11.3 11.5 11.0
r 1.987 1.981 1.958 1.952 1.865 1.809 1.772 1.693
∆ 1.249 1.252 1.266 1.270 1.335 1.382 1.415 1.487
1978 APR. APR. APR. MAG. MAG. MAG. GIU. GIU.
UT 3.05 10.06 26.07 1.08 8.07 26.09 2.10 6.09
m 11.1 10.9 10.7 10.6 10.7 10.8 10.5 10.4
r 1.674 1.643 1.582 1.566 1.545 1.507 1.498 1.495
Plot risultati
1.4 1.5 1.6 1.7 1.8 1.9 2 9.2 9.4 9.6 9.8 10 10.2 10.4 10.6 10.8 11 11.2Figura: Grafico che illustra l’approssimazione ai minimi quadrati A+ B log10(r ) ≈ m − 5 log10(∆). Ascissa: r , ordinata: curva e
m− 5 log10(∆).
Approssimazione ai minimi quadrati
Questi due problemi rientrano nella famiglia pi`u ampia che segue. ◮ Sia fissata una certa funzione f : Ω ⊂ R → R di cui `e noto il valore nei punti {xk}k=1,...,n⊂ Ω. Hp. f ∈ C (Ω), Ω = (a, b)
anche non limitato (per semplicit`a , si pu`o generalizzare). ◮ Siano date m funzioni lin. indip. φ1, . . ., φm: Ω ⊂ R → R. Si cerchino a = (aj)j=1,...,m per cui la funzione
ψ∗(x) =
m
X
j=1
ajφj(x)
minimizza tra tutte le funzioni del tipo ψ(x) =Pm
j=1cjφj(x), kf −ψk2,d := v u u t n X k=1 |f (xk) − ψ(xk)|2 = v u u t n X k=1 |f (xk) − m X j=1 cjφj(xk)|2
La funzione ψ∗ si diceapprossimante ai minimi quadrati (discreti)
Approssimazione ai minimi quadrati e sistemi lineari
Posto kxk2 :=pPnk=1|xk|2 e definiti
◮ V la matrice n × m le cui componenti sono Vi,j = φj(xi), ◮ y il vettore n × 1 le cui componenti sono yk = f (xk), ◮ a il vettore m × 1 le cui componenti sono ak,
il problema di approssimazione ai minimi quadraticonsiste nel risolvere il sistema sovradeterminato Va = y cosicch`e sia minima kV a − yk2 in quanto kV a − yk2 = v u u t n X k=1 |yk− (V a)k|2 = v u u t n X k=1 |yk− m X j=1 Vk,jaj|2 = v u u t n X k=1 |f (xk) − m X j=1 ajφj(xk)|2 = kf − m X j=1 ajφjk2,d
NB: Si osservi che V `e rettangolare e il problema V a = y potrebbe non avere sol. classica a.
Funzione peso e prodotto scalare
Al momento non risulta chiaro come risolvere questo sistema sovradeterminato V a = y cosicch`e sia minima kV a − yk2.
Sia w : Ω = (a, b) → R una funzione peso(continua, strettamente positiva in (a, b), singolarit`a integrabili agli estremi sono ammesse).
◮ Jacobi: w (x) = (1 − x)α(1 + x)β, x ∈ (−1, 1), α, β > −1. Casi speciali: α = β = 0 (Legendre), α = β = −1/2 (Chebyshev), α = β (Gegenbauer).
◮ Gauss: w (x) = exp(−x2), x ∈ R.
Due classici prodotti scalaridi due funzioni w -integrabili sono ◮ (f , g )c :=R
Ωf(x)g (x)w (x)dx, caso continuo;
◮ (f , g )d :=Pn
i=1f(xi)g (xi)wi, wi > 0, caso discreto.
I coeffs. wi del caso discreto dipendono dalla funz. peso w .
Norme, prod. scalari e ortogonalit`a
Definiamo kf k =p(f , f ). Osserviamo che: ◮ kxk2:=pPn
k=1|xk|2 =p(x, x)Rn dove (·, ·)Rn `e l’usuale prodotto scalare di Rn.
◮ kf − ψk2,d :=pPn
k=1|f (xk) − ψ(xk)|2 =p(f − ψ, f − ψ)d
Alcune definizioni ulteriori.
◮ Due funzioni f , g si dicono ortogonalise (f , g ) = 0. ◮ Una sequenza finita o infinita di funzioni {φk}k=1,... si dice
sistema ortogonale se (φi, φj) = 0 per i 6= j, (φi, φi) > 0.
◮ Un sistema ortogonale {φk}k=1,... per cui (φi, φi) = 1 si dice
sistema ortonormale.
◮ Una base che in particolare forma un sistema ortogonale (ortonormale) si dice base ortogonale (base ortonormale).
Riassunto
◮ Dobbiamo cercare una funzione ψ∗ =Pm
k=1akφk che meglio
approssimi f nei punti 2 a 2 distinti {xk}, nel senso di
minimizzare kf − ψk2,d := v u u t n X k=1 |f (xk) − ψ(xk)|2 =p(f − ψ, f − ψ)d, con (f , g )d := Pn
i=1f(xi)g (xi), quindi per wi = 1.
◮ Il problema si converte in una questione di algebra lineare: risolvere il sistema sovradeterminato V a = y cosicch`e sia minima
Spazi euclidei
Uno spazio vettoriale E si dice euclideo, se `e dotato di prodotto scalare.
Ricordiamo che un prod. scalare `e una funzione reale definita sulle coppie x, y ∈ E con le seguenti propriet`a
1. (x, x) ≥ 0 per ogni x ∈ E; inoltre (x, x) = 0 se e solo se x = 0;
2. (x, y ) = (y , x) per ogni x, y ∈ E;
3. (λx, y ) = λ(x, y ) per ogni x, y ∈ E e λ ∈ R;
4. (x, y + z) = (x, y ) + (x, z) per ogni x, y , z ∈ E.
Spazi euclidei
Vediamo alcuni notevoli esempi di spazio euclideo: ◮ Lo spazio Rm dotato del prod. scal. (u, v )
Rm :=Pm
k=1uk · vk `e uno spazio euclideo.
◮ Sia Ω intv. compatto. L’insieme C (Ω) dotato del prodotto scalare discreto (f , g )d :=Pmk=1f(xk)g (xk), con {xk} ⊂ Ω, o
del prod. scalare (f , g )c :=
R
Ωf(x)g (x)dx `e uno spazio
euclideo.
◮ Sia Ω ⊆ R un intervallo (anche illimitato), w : Ω → R funz. peso. Sia L2w(Ω) lo spazio delle funzioni f : Ω ⊆ R tali che R
Ωf2(x)w (x)dx < +∞. L’insieme L2w(Ω) dotato del prodotto
scalare continuo (f , g )c :=
R
Ωf(x)g (x)w (x)dx `e uno spazio
Alcuni teoremi
Teorema. [Pitagora] Se (f , g ) = 0 allora kf + g k2 = kf k2+ kg k2.
Teorema. Se φ1, . . . , φn `e un sistema ortogonale, allora i φj sono
linearmente indipendenti.
Teorema. Se φ1, . . . , φn `e un sistema ortogonale, allora
k m X j=1 cjφjk2 = ( m X j=1 cjφj, m X k=1 ckφk) = m X j=1 cj2kφjk2 per ogni {cj}j=1,...,m.
Teorema miglior approssimazione minimi quadrati
Teorema. Siano {φj}1,...,m∈ E funzioni linearmente indipendenti
di uno spazio euclideo E. Sia f ∈ E. La sol. ψ∗ del problema
kf − ψ∗k2 = min ψ∈span{φj}j=1,...,m kf − ψk2 `e ψ∗ = X 1,...,m cj∗φj
dove i coefficienti cj∗ verificano le cosidetteequazioni normali
m
X
k=1
(φj, φk)ck∗ = (φj, f ), j = 1, . . . , m. (1)
La soluzione `e caratterizzata dalla propriet`a di ortogonalit´a cio`e che (ψ∗− f , φk) = 0, con k = 1, . . . , m, o equivalentemente
Teorema miglior approssimazione minimi quadrati: dim.
Supponiamo ψ∗=P
1,...,mcj∗φj verifichi (ψ∗− f , φk) = 0, con
k = 1, . . . , m. Sia c = (ck)1,...,m, una vettore di coefficienti e
supponiamo che per almeno un indice j sia cj 6= cj∗, cio`e
c 6= c∗= (c∗ k)1,...,m. Allora m X j=1 cjφj − f = m X j=1 cjφj − ψ∗ + (ψ∗− f ) = m X j=1 (cj − cj∗)φj + (ψ∗− f ) (3) Se u = ψ∗− f `e ortogonale a tutti i φ
j, allora `e ortogonale pure
alla combinazione lineare di φj come ad esempio
v = m X j=1 (cj − cj∗)φj = m X j=1 cjφj − ψ∗ ∈ span {φk}k=1,...,m.
Teorema miglior approssimazione minimi quadrati: dim.
Teorema miglior approssimazione minimi quadrati: dim.
Di conseguenza se ψ∗ ∈ span{φ
k}k=1,...,m e ψ∗− f `e ortogonale a
tutti i φk allora ψ∗ `e la miglior approssimazione di f in
span{φk}k=1,...,m. Rimane allora da mostrare che le condizioni di ortogonalit`a m X j=1 cj∗φj − f , φk = 0, k = 1, . . . , m
possano essere soddisfatte per un qualche c∗ = (c
j)j=1,...,m.
Questo problema `e equivalente alla soluzione del sistema di equazioni normali
m
X
k=1
(φj, φk)ck∗= (φj, f ), j = 1, . . . , m (5)
Teorema miglior approssimazione minimi quadrati: dim.
Se φ1, . . . , φm sono m vettori linearmente indipendenti che
formano un sistema ortogonale, si ha che
m X k=1 (φj, φk)ck∗ = (φj, φj)cj∗ e quindi da (5) che (φk, φk)ck∗ = (φk, f ).
Visto che (φk, φk) 6= 0 (se cos`ı non fosse 0 = (φk, φk) = kφkk2
avremmo φk = 0 e quindi {φj}j=1,...,m non sarebbe un sistema di
vettori linearmente indipendenti) si vede subito che (ck∗)k esistono
unici e uguali a
ck∗ = (φk, f ) (φk, φk)
Teorema miglior approssimazione minimi quadrati: dim.
Se invece φ1, . . . , φm non formano un sistema ortogonale, il
sistema di equazioni normali ha una e una sola soluzione se il sistema omogeneo di equazioni
m
X
k=1
(φj, φk)ck∗ = 0, j = 1, . . . , m (6)
ha la sola soluzione nulla.
Teorema miglior approssimazione minimi quadrati: dim.
Se cos`ı non fosse, esisterebbe c∗ = (cj)j=1,...,m per cui da (6)
k m X j=1 cjφjk2 = m X j=1 cjφj, m X k=1 ckφk = m X k=1 ck m X j=1 cj(φj, φk) = m X k=1 ck · 0 = 0 (7)
e quindi essendo k · k una norma, necessariamente Pm
j=1cj∗φj = 0,
Corollario miglior approssimazione minimi quadrati
Teorema. Se {φj}j=1,...,m `e un sistema ortogonale allora i
coefficienti c∗
j (detti in questo caso di Fourier) sono calcolabili pi`u
semplicemente con la formula
cj∗= (f , φj) (φj, φj)
, j = 1, . . . , m.
Risoluzione minimi quadrati iniziale
◮ Si determina una base ortogonale {φ⊥
k} dello spazio vett.
S = span({φk}k=1,...,m) (algoritmo di Gram-Schmidt
Minimi quadrati in Matlab/Octave
Per risolvere il problema ai minimi quadrati in Matlab (sistema sovradeterminato), basta usare il comando \.
Risolviamo l’esempio 1, salvando nel file esempio1.m il seguente codice. x= [ 5 7 . 5 9 ; 1 0 8 . 1 1 ; 1 4 9 . 5 7 ; 2 2 7 . 8 4 ; 7 7 8 . 1 4 ; . . . 1 4 2 7 . 0 ; 2 8 7 0 . 3 ; 4 4 9 9 . 9 ; 5 9 0 9 . 0 ] ; T= [ 8 7 . 9 9 ; 2 2 4 . 7 0 ; 3 6 5 . 2 6 ; 6 8 6 . 9 8 ; 4 3 3 2 . 4 ; . . . 10759 ; 3 0 6 8 4 ; 6 0 1 8 8 ; 9 0 7 1 9 ] ; %T=C x ˆ { 3 / 2 } . V=x . ˆ ( 3 / 2 ) ; C=V\ T ; f o r m a t long e; C [ T C∗V ]
Risultati esempio 2
% d a t i =[UT m r d e l t a ] dati=[ 4 . 0 1 1 1 . 4 1 . 9 8 7 1 . 2 4 9 5 . 0 0 1 1 . 5 1 . 9 8 1 1 . 2 5 2 9 . 0 2 1 1 . 5 1 . 9 5 8 1 . 2 6 6 1 0 . 0 2 1 1 . 3 1 . 9 5 2 1 . 2 7 0 2 5 . 0 3 1 1 . 5 1 . 8 6 5 1 . 3 3 5 7 . 0 7 1 1 . 3 1 . 8 0 9 1 . 3 8 2 1 4 . 0 3 1 1 . 5 1 . 7 7 2 1 . 4 1 5 3 0 . 0 5 1 1 . 0 1 . 6 9 3 1 . 4 8 7 3 . 0 5 1 1 . 1 1 . 6 7 4 1 . 5 0 4 1 0 . 0 6 1 0 . 9 1 . 6 4 3 1 . 5 3 2 2 6 . 0 7 1 0 . 7 1 . 5 8 2 1 . 5 9 2 1 . 0 8 1 0 . 6 1 . 5 6 6 1 . 6 1 0 8 . 0 7 1 0 . 7 1 . 5 4 5 1 . 6 3 4 2 6 . 0 9 1 0 . 8 1 . 5 0 7 1 . 6 9 6 2 . 1 0 1 0 . 5 1 . 4 9 8 1 . 7 2 1 6 . 0 9 1 0 . 4 1 . 4 9 5 1 . 7 3 6 ] ;UT=dati ( : , 1 ) ; m=dati ( : , 2 ) ; r=dati ( : , 3 ) ; delta=dati ( : , 4 ) ; V=[ ones (s i z e( UT ) ) l o g 1 0( r ) ] ; y=m−5∗l o g 1 0( delta ) ; c=V\ y ;
Risultati esempio 2
>> esempio2 c = 7 . 0 6 5 5 6 9 5 2 3 8 3 9 8 6 7 e+00 1 . 3 4 6 2 2 2 4 7 5 7 7 9 4 4 1 e+01 a n s = 1 . 0 9 1 7 1 8 7 8 0 8 1 2 9 3 2 e+01 1 . 1 0 7 9 9 7 6 2 3 3 1 6 7 1 1 e+01 1 . 1 0 1 1 9 7 8 3 5 5 6 2 7 9 5 e+01 1 . 1 0 6 2 2 9 5 0 6 0 6 3 9 7 0 e+01 1 . 0 9 8 7 8 3 1 4 7 1 5 9 3 3 2 e+01 1 . 0 9 9 4 0 1 7 5 0 9 6 9 8 2 4 e+01 1 . 0 7 8 0 9 8 1 3 9 5 2 2 0 2 2 e+01 1 . 0 9 7 6 0 7 4 0 5 8 4 9 9 5 5 e+01 1 . 0 8 7 2 5 9 3 6 7 1 4 9 7 0 3 e+01 1 . 0 7 0 9 5 0 8 8 5 3 1 9 8 1 1 e+01 1 . 0 5 9 7 4 5 9 7 8 4 8 0 9 1 0 e+01 1 . 0 5 3 1 2 6 5 3 7 2 2 3 1 1 6 e+01 1 . 0 7 4 6 2 1 7 8 0 0 6 9 8 4 5 e+01 1 . 0 4 1 0 4 4 3 9 3 3 6 6 9 0 1 e+01 1 . 0 1 3 8 4 4 5 1 5 7 3 9 0 2 3 e+01 1 . 0 1 4 3 8 0 0 8 8 6 3 3 5 9 4 e+01 1 . 0 2 1 3 7 6 0 8 1 8 7 2 1 8 8 e+01 1 . 0 0 7 7 8 1 5 7 3 1 7 5 5 9 0 e+01 9 . 9 7 3 7 0 6 1 7 3 5 1 7 0 7 4 e+00 9 . 9 6 8 5 3 0 8 6 9 0 2 5 8 1 8 e+00 9 . 6 9 0 2 8 4 6 8 2 9 9 1 7 4 9 e+00 9 . 7 4 7 3 3 1 9 1 9 5 2 2 9 9 2 e+00 9 . 5 6 5 8 7 0 6 1 9 8 4 0 7 5 1 e+00 9 . 6 8 7 8 9 9 9 4 7 2 5 8 2 5 0 e+00 9 . 6 3 3 7 3 9 7 3 9 0 1 8 0 1 5 e+00 9 . 6 0 8 9 6 7 2 3 5 3 7 7 7 8 6 e+00 9 . 6 5 2 8 7 0 7 6 0 3 9 6 5 2 6 e+00 9 . 4 6 3 3 7 0 1 5 8 8 4 1 1 8 7 e+00 9 . 3 2 1 0 9 5 6 4 8 3 6 2 1 9 9 e+00 9 . 4 2 8 3 4 9 0 0 2 9 8 6 6 6 4 e+00 9 . 2 0 2 2 5 1 3 9 5 7 9 7 6 3 5 e+00 9 . 4 1 6 6 2 8 5 1 1 4 0 4 1 0 1 e+00 >>Minimi quadrati e smoothing
Digitiamo sulla shell di Matlab >> x= 0 : 0 . 0 1 : 2 ∗p i;
>> y=s i n( 2 ∗ x ) +(10ˆ( −1) ) ∗r a n d(s i z e( x ) ) ; >> p l o t( x , y ,’ r− ’) ;
◮ Interpretazione: perturbazione della funzione sin(2x) nell’intervallo [0, 2π].
◮ Necessit´a: ricostruire sin(2x) (e non funz. perturbata). ◮ Nota: non ha senso utilizzare un interpolante polinomiale p di
Minimi quadrati e polyfit
Scriviamo sulla shell di Matlab/Octave help polyfit. In una recente release di Matlab appare
POLYFIT Fit polynomial to data.
POLYFIT( X , Y , N ) finds the coefficients of a polynomial P( X )
of degree N that fits the data, P ( X ( I ) )˜=Y ( I ) , in a least
−squares sense .
In altri termini polyfit calcola i coefficienti del polinomio pN di
grado N che meglio approssima (in norma 2 discreta) la funzione f avente nel vettore di nodi X i valori Y (cio`e Y (i ) := f (X (i ))). Operativamente si cerca il polinomio pN per cui risulta minima
kf − pNk2,d =
s X
i
|f (xi) − pN(xi)|2.
Applicazione polyfit
◮ Posto f (x) = sin (x) e ˜f(x) = sin (x) + δ(x), confrontiamo graficamente per n = 2, . . . , 8, nei nodi xk = kh, h = 2π/999,
k = 0, . . . , 999, la funzione perturbata f (x) = sin (x) + δ(x) con la approssimante ai minimi quadrati p∗n.
◮ Valutiamo per n = 2, . . . , 8 la quantit`a kf − p∗
nk2,d e
k˜f − pn∗k2,d.
◮ Valutiamo per n = 2, . . . , 8 la quantit`a kf − p∗
nk∞,d e
k˜f − pn∗k∞,d, dove ricordiamo
kg k∞,d = max
Applicazione polyfit
Salviamo in esempio3.m: x=l i n s p a c e( 0 , 2 ∗p i, 1 0 0 0 ) ;
y=s i n( 2 ∗ x ) ; yy=y+(10ˆ( −2) ) ∗r a n d(s i z e( x ) ) ;
f o r n=2:8
coeff=p o l y f i t( x , yy , n ) ; % COEFFS . BEST APPROX (B . A . )
z=p o l y v a l( coeff , x ) ; % VALORE B . A . NEI NODI ” x ” . p l o t( x , yy , ’ r− ’, x , z ,’ k− ’) ;
err2=norm( z−y , 2 ) ; err2p=norm( z−yy , 2 ) ; % ERRS .
errinf=norm( z−y , inf ) ; errinfp=norm( z−yy , inf ) ; % ERRS .
f p r i n t f(’ \n\ t [ DEG] : % 2 . 0 f ’, n ) ;
f p r i n t f(’ [ 2 ] : % 2 . 2 e %2.2 e ’, err2 , err2p ) ;
f p r i n t f(’ [ INF ] : % 2 . 2 e %2.2 e ’, errinf , errinfp ) ;
p a u s e( 2 ) ;
end
f p r i n t f(’ \n \n ’) ;
Risultati
>>% [ ERR . ] [ 2 ] : SIN .−SIN PERT . [ INF ] : SIN .− SIN PERT . >> esempio3
Plot risultati
0 1 2 3 4 5 6 7 −1.5 −1 −0.5 0 0.5 1 1.5Figura: Grafico che illustra l’approssimazione ai minimi quadrati di grado 5 su una perturbazione della funzione sin (2x) (campionamento in nodi equispaziati)).
Nota: polyfit e interpolazione
Supponiamo fissati i punti {xk}k=1,...,m (a due a due distinti) e sia
pm−1 il polinomio che interpola le coppie (xk,f (xk)) per
k = 1, . . . , m Evidentemente da f (xi) = pm−1(xi) per i = 1, . . . , m abbiamo kf − pm−1k2,d = v u u t m X i=1 |f (xi) − pm−1(xi)|2 = 0,
e quindi il polinomio interpolatore risulta la approssimante ai minimi quadrati di f (relativa alla norma 2 discreta basata sui punti {xk}k=1,...,m).