• Non ci sono risultati.

UNIVERSIT `A DEGLI STUDI DI FERRARA FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI

N/A
N/A
Protected

Academic year: 2021

Condividi "UNIVERSIT `A DEGLI STUDI DI FERRARA FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI"

Copied!
71
0
0

Testo completo

(1)

UNIVERSIT ` A DEGLI STUDI DI FERRARA

FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI

Corso di Laurea Specialistica in MATEMATICA

IL LEMMA DI FARKAS E LE CONDIZIONI DI KARUSH-KUHN-TUCKER

NELL’OTTIMIZZAZIONE LINEARE E NON LINEARE

Relatori:

Chiar.mo Prof.

Josef Eschgf ¨aller

Dott.ssa Silvia Bonettini

Laureanda:

Monica Gazzetta

Anno Accademico 2008-2009

(2)
(3)

Indice

Introduzione 3

I. IL METODO DEL SIMPLESSO

1. Il lemma di Farkas 5

2. Programmi lineari in forma standard 13 3. Programmi lineari in forma normale 18

4. Il metodo del simplesso 26

5. Geometria elementare degli insiemi convessi 31 II. ALCUNE APPLICAZIONI

6. Il separatore di Bennett-Mangasarian 37

7. Grafi 40

8. Flussi in un grafo diretto 44

III. OTTIMIZZAZIONE NON LINEARE

9. Il cono tangente 54

10. Le condizioni di Karush-Kuhn-Tucker 57

11. Il caso generale 60

12. Restrizioni lineari 64

13. Restrizioni convesse 65

Bibliografia 69

(4)
(5)

Introduzione

Lo scopo di questa tesi `e quello di presentare ed approfondire (anche dal punto di vista geometrico ed algebrico) alcuni concetti basilari del- la programmazione lineare e non lineare che sono il lemma di Farkas e le condizioni di Karush-Kuhn-Tucker (dette anche condizioni di KKT).

In questo lavoro inoltre, `e stato descritto un algoritmo di risoluzione per problemi di programmazione lineare, il metodo del simplesso, e sono state presentate alcune sue possibili applicazioni pratiche.

Il lemma di Farkas `e l’argomento del primo capitolo ed `e forse il pi `u importante teorema di alternativa per sistemi lineari e viene inoltre utilizzato in numerosi contesti come la programmazione lineare e non lineare, la teoria dei sistemi di disequazioni lineari, i modelli economi- ci multisettoriali e la teoria dei giochi.

Questo lemma afferma che il sistemaAx = b ( dove A `e una matrice m × n e x e b sono vettori rispettivamente appartenenti ad Rm ed Rn) con la condizionex ≥ 0 ammette soluzione se e solo se non la ammette il sistema costituito dalle due condizioniyA ≥ 0 e yb < 0 con y ∈ Rm.

Grazie al lemma di Farkas, si pu`o dimostrare, sotto opportune ipo- tesi, che se un punto `e soluzione di un problema di programmazione in generale non lineare, allora in tale punto sono soddisfatte le condizioni di KKT.

Le condizioni di Karush-Kuhn-Tucker sono descritte nel capitolo 10 e costituiscono la parte fondamentale della terza sezione della tesi.

Esse sono una generalizzazione del metodo dei moltiplicatori di La- grange applicato a problemi in cui sono presenti anche vincoli di di- suguaglianza e rappresentano lo scheletro della programmazione non lineare costituendo condizioni necessarie per la soluzione di un pro- blema di programmazione non lineare in cui i vincoli soddisfano op- portune condizioni di regolarit `a dette condizioni di qualificazione dei vincoli. Esempi di queste qualificazioni che vengono trattate nella tesi sono il requisito di indipendenza lineare dei vincoli e il requisito di Mangasarian-Fromovitz. Per problemi di programmazione lineare in- vece, le condizioni di KKT sono sia necessarie che sufficienti. Queste questioni vengono descritte nei capitoli 11, 12 e 13 dove sono presenti rispettivamente vincoli generici, vincoli lineari e vincoli convessi. Nel capitolo 9 diamo alcune definizioni che caratterizzano le condizioni di KKT dal punto di vista geometrico.

La prima parte della tesi riguarda la teoria e l’implementazione del metodo del simplesso. Questo algoritmo `e stato inventato dal matema- tico e statistico statunitense George B. Dantzig nel 1947 e rappresenta ancora oggi uno dei metodi pi `u famosi e pi `u efficaci nella risoluzione di problemi di programmazione lineare, problemi in cui si cerca di mas- simizzare o minimizzare una funzione lineare sotto opportuni vincoli di uguaglianza e disuguaglianza anch’essi lineari.

L’insieme di definizione dei vincoli `e detto insieme ammissibile ed `e un poliedro convesso. Se il problema di programmazione lineare am-

(6)

mette una soluzione ottimale, questa `e anche un vertice del poliedro (teorema fondamentale della programmazione lineare, cap. 3).

Queste considerazioni geometriche sono alla base del metodo inventa- to da Dantzig, la cui idea principale pu`o quindi essere cos`ı descritta:

si determina un vertice iniziale del poliedro e si decide se tale punto

`e una soluzione ottima; se non lo `e si determina in modo adeguato un nuovo vertice del poliedro e se ne testa l’ottimalit `a e cos`ı via.

L’algoritmo del simplesso si applica in una prima formulazione ai programmi lineari nella formaf x = max (risp. min), x ≥ 0, Ax = b (for- ma normale) oggetto del capitolo 3. Questo tuttavia non `e limitativo perch`e, come viene descritto nel cap. 2, ogni altro programma lineare pu`o essere ricondotto alla forma normale utilizzando opportune varia- bili di slack o di surplus. Gli aspetti teorici del metodo del simplesso vengono approfonditi nel capitolo 3 mentre l’algoritmo tradotto in Mat- lab (o Octave) `e presentato nel quarto capitolo. Nel capitolo 5 vengono invece descritte alcune propriet `a degli insiemi convessi.

Nella seconda parte della tesi esponiamo alcuni possibili campi di applicazione del metodo del simplesso: la teoria dei grafi e dei flussi, risp. capitoli 7 e 8, e il separatore di Bennett-Mangasarian nel cap. 6.

In quest’ultimo in particolare si cerca di far vedere come il problema di trovare un iperpiano che separa due insiemi di punti distinti possa essere ricondotto ad un problema di programmazione lineare. `E un risultato che viene ad esempio utilizzato nella ricerca sperimentale riguardante la diagnosi e la prognosi del carcinoma mammario.

E opportuno ricordare che oltre al metodo del simplesso esistono` altri metodi altrettanto efficaci per la risoluzione di problemi di pro- grammazione lineare e non lineare: i metodi a punto interno.

Questi dal punto di vista geometrico si differenziano notevolmente dal metodo del simplesso in quanto la ricerca della soluzione ottimale non viene effettuata esaminando i vertici del poliedro ammissibile ma ri- manendo all’interno dell’insieme di definizione dei vincoli. I metodi a punto interno discendono dalla condizioni di KKT opportunamen- te modificate (in modo da rimanere sempre all’interno della regione ammissibile) a cui viene applicato il metodo di Newton.

(7)

I. IL METODO DEL SIMPLESSO 1. Il lemma di Farkas

Situazione 1.1.n, m ∈ N + 1.

Definizione 1.2. Usiamo le seguenti notazioni:

Rn

m := insieme delle matrici reali con n righe ed m colonne Rm := R1m = insieme dei vettori riga reali con m coefficienti Rn

+:= {x ∈ Rn| x ≥ 0}

R+m := {f ∈ Rm | f ≥ 0}

R+:= [0, ∞)

Definizione 1.3. SianoA ∈ Rmn,X ⊂ Rn,U ⊂ Rm,b ∈ Rm, f ∈ Rn. Definiamo allora:

AX := {Ax | x ∈ X}

U A := {uA | u ∈ U }

(AX = b) := {x ∈ X | Ax = b}

(U A = f ) := {u ∈ U | uA = f } (AX ≤ b) := {x ∈ X | Ax ≤ b}

(U A ≥ f ) := {u ∈ U | uA ≥ f }

In modo analogo sono definiti(AX ≥ b), (U A ≤ f ), ecc.

Avremo quindi ad esempio(ARn+= b) = {x ∈ Rn+| Ax = b}.

Nota 1.4. Useremo le seguenti notazioni e formule ben note del calcolo matriciale:

(1) PerA ∈ Rmn denotiamo conAi la i-esima riga, conAj la j-esima colonna diA.

(2) PerA ∈ Rmn,B ∈ Rns abbiamo allora (AB)ij = AiBj

(AB)i = AiB (AB)j = ABj AB =

Xn α=1

AαBα

Abbiamo quindi in particolare, perx ∈ Rnedf ∈ Rm,

(8)

Ax = Xn α=1

Aαxα

f A = Xm α=1

fαAα

(3) Conkx, yk = xty risp. kf, gk = f gtdenoteremo il prodotto scalare dix, y ∈ Rnrisp.f, g ∈ Rm.

(4) Per vettori v1, ..., vk in uno spazio vettoriale sia SV(v1, ..., vk) il sottospazio vettoriale generato da questi vettori. Similmente per un sottoinsiemeX denoteremo con SV(X) il sottospazio vet- toriale generato daX.

(5) PerX ⊂ RnsiaX := {v ∈ Rn| kx, vk = 0 per ogni x ∈ X}.

X `e un sottospazio vettoriale di Rn, anche quando X stesso non `e un sottospazio vettoriale.

(6) W sia un sottospazio vettoriale di Rn. Allora:

dim W + dim W= n W⊥⊥= W

Rn= WL W

(7) Per vettoriv1, ..., vk in uno spazio vettoriale reale sia POS(v1, ..., vk) := {λ1v1+ ... + λkvk| λ1, ..., λk ∈ R+}.

Similmente per un sottoinsiemeX sia

POS(X) := {λ1x1 + ... + λkxk | k ≥ 1, λi ∈ R+, xi ∈ X per i = 1, ..., k}.

Osservazione 1.5. SiaA ∈ Rmn. Allora:

(1) ARn= SV(A1, ..., An).

(2) ARn+= POS(A1, ..., An).

Dimostrazione. (1) Siax ∈ Rn. AlloraAx = Xn k=1

Akxk∈ SV(A1, ..., An) e viceversa. Il punto (2) si dimostra in modo analogo considerando x ∈ Rn+.

Lemma 1.6. SianoA ∈ Rmn eb ∈ Rm. Allora sono equivalenti:

(1) b ∈ ARn.

(2) (RmA = 0)b = 0.

Dimostrazione.(1) =⇒ (2): Sia f ∈ Rmconf A = 0. Poich´e per ipotesi b ∈ ARn, esistex ∈ Rntale cheb = Ax. Allora f b = f Ax = 0.

(2) =⇒ (1): Sia b /∈ ARn= SV(A1, ..., An) =: W . Per la nota 1.4b = w + y con w ∈ W e y ∈ W. Necessariamentey 6= 0 perch´e b 6∈ W . Abbiamo

(9)

kb, yk = kw + y, yk = kw, yk + ky, yk = ky, yk 6= 0

Inoltre kAj, yk = 0 per ogni j perch´e y ∈ W. Con f := yt abbiamo alloraf A = 0 ed f b 6= 0.

Definizione 1.7.V sia uno spazio vettoriale reale ed x, y ∈ V . Poniamo allora

[x, y] := x + [0, 1](y − x) = {x + t(y − x) | t ∈ [0, 1]}

Un sottoinsieme X ⊂ V si dice convesso se per ogni x, y ∈ X si ha [x, y] ⊂ X.

Pert ∈ R sia [x, y]t:= x + t(y − x).

Osservazione 1.8.V e W siano spazi vettoriali reali ed x, y ∈ V . ϕ : V → W sia un’applicazione affine. Allora:

(1) ϕ([x, y]t) = [ϕ(x), ϕ(y)]tper ognit ∈ R.

(2) ϕ([x, y]) = [ϕ(x), ϕ(y)].

(3) SeX `e un sottoinsieme convesso di V , allora ϕ(X) `e un sottoin- sieme convesso diW .

Dimostrazione. (1) Per ipotesi esistono un’applicazione lineare ϕ0 : V −→ W e un vettore b ∈ W tali che ϕ = ϕ0+ b. Abbiamo allora ϕ(x + t(y − x)) = ϕ0(x + t(y − x)) + b = ϕ0(x) + tϕ0(y) − tϕ0(x) + b = ϕ0(x) + b + t(ϕ0(y) + b − ϕ0(x) − b) = ϕ(x) + t(ϕ(y) − ϕ(x)) = [ϕ(x), ϕ(y)]t.

(2) Dal punto (1) abbiamo direttamenteϕ([x, y]) ⊂ [ϕ(x), ϕ(y)].

Siaz ∈ [ϕ(x), ϕ(y)], ad esempio z = [ϕ(x), ϕ(y)]t cont ∈ [0, 1]. Allora z = ϕ([x, y]t) ∈ ϕ([x, y]).

(3) Sianou = ϕ(x) e v = ϕ(y) con x, y ∈ X. Allora

[u, v] = [ϕ(x), ϕ(y)] = ϕ([x, y]) ⊂ ϕ(X). Nell’ultima inclusione abbiamo sfruttato il fatto che[x, y] ⊂ X perch´e X `e convesso.

Lemma 1.9. v1, ..., vk siano vettori linearmente indipendenti di Rm. Allora l’insiemePOS(v1, ..., vk) `e chiuso.

Dimostrazione. Possiamo trovarevk+1, ..., vm tali che

v1, ..., vk, vk+1, ..., vm sia una base di Rm. Per ogni x ∈ Rm esistono λ1(x), ..., λm(x) ∈ R tali che x = λ1(x)v1 + ... + λm(x)vm. Le funzioni λi : Rm→ R che cos`ı otteniamo sono continue. Perci`o l’insieme

POS(v1, ..., vk) = (λ1 ≥ 0, ..., λk ≥ 0, λk+1 = 0, ..., λm = 0) `e chiuso.

Proposizione 1.10 (lemma di Carath ´eodory). SiaX ⊂ Rme SV(X) 6= 0. Sia d := dim SV(X). Allora:

(1) Ogni punto diPOS(X) `e combinazione lineare a coefficienti non negativi di al massimod punti linearmente indipendenti di X.

(2) Sia D la famiglia di tutti gli insiemi che consistono di esatta- mented vettori linearmente indipendenti di X.

AlloraPOS(X) = [

D∈D

POS(D).

(10)

Dimostrazione. (1) Siav ∈ POS(X). Esistono quindi λ1, ..., λk ≥ 0 ed x1, ..., xk ∈ X tali che v = λ1x1+ ... + λkxk. Scegliamok minimale (ci`o implicaλj > 0 per ogni j) e supponiamo per assurdo che k > d.

Siccome per ipotesidim SV(X) = d, i vettori x1, ..., xk devono essere linearmente dipendenti, perci`o esistono α1, ..., αk ∈ R non tutti nulli tali cheα1x1+ ... + αkxk = 0.

Possiamo assumere cheα1 > 0 e cheα1 λ1 ≥ αj

λj per ognij. Ci`o implica λj ≥ αj

α1λ1 per ognij. Abbiamo per`o Xk j=1

j− αj

α1λ1)xj = v.

In questa rappresentazione tutti i coefficienti sono ≥ 0 e il primo `e nullo, in contraddizione alla minimalit `a dik.

(2) Ci`o implica anche chePOS(X) ⊂ [

D∈D

POS(D) perch´e per il punto (1) per ogni elemento x ∈ POS(X) esistono elementi x1, ..., xk ∈ X linearmente indipendenti con x ∈ POS(x1, ..., xk) e k ≤ d; se k < d, allora possiamo trovarexk+1, ..., xdtali che

{x1, ..., xk, xk+1, ..., xd} =: D ∈ D con naturalmente ancora x ∈ POS(D).

ViceversaPOS(D) ⊂ POS(X) per ogni D ∈ D.

Proposizione 1.11. Sianov1, ..., vk∈ Rm. Allora l’insiemePOS(v1, ..., vk)

`e chiuso.

Dimostrazione. Sia X = {v1, ..., vk}. D sia definito come nella prop.

1.10. AlloraPOS(X) = [

D∈D

POS(D). Per il lemma 1.9 per ogni

D ∈ D l’insieme POS(D) `e chiuso. Nel nostro caso D `e un insieme finito e quindi anchePOS(X) `e chiuso.

Corollario 1.12. SiaA ∈ Rmn. Allora l’insiemeARn+ `e chiuso in Rm. Dimostrazione. Per l’oss. 1.5 abbiamoARn+= POS(A1, ..., An).

L’enunciato segue dalla proposizione 1.11.

Osservazione 1.13. L’enunciato del cor. 1.12 non `e banale, perch´e in genere un’applicazione lineare Rn−→ Rmnon trasforma chiusi in chiusi. Un esempio `e la proiezione sulla prima coordinata R2 → R che trasforma l’iperbole{x | x1x2 = 1}, un insieme chiuso, in R \ 0.

Osservazione 1.14. X sia un sottoinsieme chiuso e non vuoto di Rm edy ∈ Rm. Allora esiste un punto p ∈ X che possiede distanza mini- male day.

Dimostrazione. Siccome X 6= ∅, possiamo scegliere un punto (arbi- trario)z ∈ X. Allora l’insieme A =: {a ∈ X | |a−y| ≤ |z−y|} `e compatto e non vuoto, per cui la funzione continua

a |a − y| : A −→ R assume un minimo in qualche puntop.

Lemma 1.15 (legge del parallelogramma). Sianox, y ∈ Rm. Allora

(11)

|x + y|2+ |x − y|2 = 2|x|2+ 2|y|2

Dimostrazione.|x + y|2+ |x − y|2= |x|2+ |y|2+ 2kx, yk + |x|2+ |y|2− 2kx, yk = 2|x|2+ 2|y|2.

Teorema 1.16.X sia un sottoinsieme chiuso, convesso e non vuoto di Rm ed y ∈ Rm. Allora esiste un punto p ∈ X che possiede distanza minimale day. p `e univocamente determinato.

Dimostrazione. (1) L’esistenza `e stata dimostrata nell’oss.1.14.

(2) Dimostriamo l’unicit `a . Siaq ∈ X tale che |p − y| = |q − y|.

Allorar := p+q2 ∈ X perch`e X `e convesso. Inoltre

|r − y|2= |p − y|214|p − q|2 (*)

Infatti per il lemma 1.15 applicato ax = p − y e y = q − y risulta 4|r − y|2= 4|p + q

2 − y|2

= |(p − y) + (q − y)|2

= 2|p − y|2+ 2|q − y|2− |p − q|2

= 4|p − y|2− |p − q|2

dove abbiamo utilizzato l’ipotesi|p−y| = |q−y|. Ci`o mostra l’uguaglianza (*). Se fosse p 6= q, risulterebbe |r − y| < |p − y| e p non avrebbe pi ´u distanza minimale day.

L’uguaglianza (*) e la relazione|r−y|2 < |p−y|2perp 6= q sono anche evidenti dalla figura.

y p

q r

Definizione 1.17. Nella situazione del teorema 1.16 il puntop si chia- ma la proiezione diy su X. `E immediato chey = p se e solo se y ∈ X.

Definizione 1.18. Perp, v ∈ Rm poniamo:

H(p, v) := {x ∈ Rm| kx − p, vk = 0}

O(p, v) := {x ∈ Rm| kx − p, vk ≤ 0}

SO(p, v) := {x ∈ Rm| kx − p, vk < 0}

Se v 6= 0, allora H(p, v) `e l’iperpiano ortogonale a v passante per p, O(p, v) l’insieme dei punti che, riferendoci a p + v, si trovano oltre o su questo iperpiano, O(p, −v) l’insieme dei punti che non si trovano oltre questo iperpiano, cio`e dalla stessa parte di p + v. SO significa strettamente oltre.

(12)

Proposizione 1.19.X sia un sottoinsieme chiuso, convesso e non vuoto di Rmedy ∈ Rm. Per un punto p ∈ X sono allora equivalenti:

(1) p `e la proiezione di y su X.

(2) X ⊂ O(p, y − p).

Dimostrazione.(1) =⇒ (2): Siano p la proiezione di y su X ed x ∈ X.

Allora per ognit ∈ [0, 1] il punto p + t(x − p) ∈ X perch`e X `e convesso.

Per la definizione dip abbiamo

|y − p|2 ≤|y − (p + t(x − p))|2 =

|(y − p) − t(x − p)|2 =

|y − p|2+ t2|x − p|2− 2tky − p, x − pk . ovvero

2tky − p, x − pk ≤ t2|x − p|2

Per ognit ∈ (0, 1] abbiamo perci`o 2ky − p, x − pk ≤ t|x − p|2. Ci`o `e possibile solo seky − p, x − pk ≤ 0.

(2) =⇒ (1): Siano X ⊂ O(p, y − p) ed x ∈ X. Allora ky − p, p − xk ≥ 0 e quindi

|y − x|2 = |y − p + p − x|2= |y − p|2+ |p − x|2+ 2ky − p, p − xk ≥ |y − p|2 Lemma 1.20. X sia un sottoinsieme chiuso, convesso e non vuoto di Rmedy ∈ Rm.p sia la proiezione di y su X. Allora:

(1) X ⊂ O(p + t(y − p), y − p) per ogni t ≥ 0.

(2) In particolareX ⊂ O(y, y − p).

(3) Sey /∈ X, allora X ⊂ SO(y, y − p).

Dimostrazione. Siax ∈ X. Allora per t ≥ 0 si ha

k(x − p) − t(y − p), y − pk = kx − p, y − pk − t|y − p|2 ≤ 0 essendo per la prop 1.19kx − p, y − pk ≤ 0.

Sia oray /∈ X. Allora y 6= p e quindi per t = 1 otteniamo kx − y, y − pk = kx − p, y − pk − |y − p|2 < 0.

Lemma 1.21. X sia un sottoinsieme chiuso, convesso e non vuoto di Rmedy ∈ Rm\ X. p sia la proiezione di y su X ed y := p+y2 . Allora:

y ∈ SO(y, p − y) X ⊂ SO(y, y − p)

(13)

Dimostrazione.

(1)2ky − y, p − yk = 2ky −p + y

2 , p − yk = −ky − p, y − pk < 0 (2) Siax ∈ X. Allora

2kx − y, y − pk = 2kx − p + y

2 , y − pk

= kx − p, y − pk + kx − y, y − pk < 0

Infatti per la prop. 1.19 abbiamokx − p, y − pk ≤ 0, mentre dal lemma 1.20 segue chekx − y, y − pk < 0.

y p

X

Corollario 1.22.X sia un sottoinsieme chiuso, convesso e non vuoto di Rm edy ∈ Rm\ X. p sia la proiezione di y su X. Sia ancora y := p+y2 . Allora

ky, y − pk > ky, y − pk > kx, y − pk per ognix ∈ X.

Dimostrazione. Siax ∈ X. Per il lemma 1.21 abbiamo ky − y, y − pk > 0 > kx − y, y − pk

ovvero

ky, y − pk − ky, y − pk > 0 > kx, y − pk − ky, y − pk e quindi

ky, y − pk > ky, y − pk > kx, y − pk

Corollario 1.23. X sia un sottoinsieme chiuso e convesso di Rm ed y ∈ Rm\ X. Allora esistono α ∈ R ed f ∈ Rm tali chef y > α > f x per ognix ∈ X. Sostituendo f con −f ed α con −α possiamo naturalmente anche otteneref y < α < f x per ogni x ∈ X.

Dimostrazione. L’enunciato `e banale per X = ∅ e segue altrimenti dal corollario 1.22, se poniamof := (y − p)tedα := ky, y − pk

Osservazione 1.24. SiaX ⊂ Rm. AlloraPOS(X) `e convesso.

Dimostrazione. Sianou, v ∈ POS(X). Allora esistono λ1, ..., λk, µ1, ..., µl∈ R+ex1, ..., xk, y1, ..., yl∈ X tali che

u = λ1x1+ ... + λkxk ev = µ1y1+ ... + µlyl. Siat ∈ [0, 1]. Allora

(14)

u + t(v − u) = λ1x1+ ... + λkxk+ tµ1y1+ ... + tµlyl− tλ1x1− ... − tλkxk

= (1 − t)λ1x1+ ... + (1 − t)λkxk+ tµ1y1+ ... + tµlyl

I coefficienti(1 − t)λietµj sono tutti non negativi, per cui vediamo che u + t(v − u) ∈ POS(X).

Corollario 1.25. SiaA ∈ Rmn. AlloraARn+ `e convesso.

Dimostrazione. Ci`o segue dall’oss. 1.24 perch´eARn+= POS(A1, ..., An) per l’oss. 1.5.

Teorema 1.26 (lemma di Farkas). Siano A ∈ Rmn e b ∈ Rm. Allora sono equivalenti:

(1) b ∈ ARn+.

(2) (RmA ≥ 0)b ≥ 0.

Dimostrazione.(1) =⇒ (2): Siano x ∈ Rn+ edf ∈ Rm tali cheb = Ax edf A ≥ 0. Allora f b = f Ax ≥ 0.

(2) =⇒ (1): Sia b /∈ ARn+. Dai corollari 1.12 e 1.25 sappiamo cheARn+

`e un sottoinsieme convesso, chiuso e non vuoto di Rm; quindi per il corollario 1.23 esistonoα ∈ R e f ∈ Rm tali chef b < α < f Ax per ogni x ∈ Rn+. Ci`o deve valere in particolare perx = 0 e questo implica α < 0 e quindi anchef b < 0.

D’altra parte per`of A ≥ 0 e ci`o `e in contraddizione con l’ipotesi (2).

Infatti sia ad esempio f Aj < 0. Siccome x := tAj = Atδj ∈ ARn+, abbiamo α < f tAj = tf Aj per ogni t ≥ 0, ma ci`o non `e possibile perch´e lim

t−→∞tf Aj = −∞.

Osservazione 1.27. Siano A ∈ Rmn e b ∈ Rm. Denotiamo con δ la matrice identica in Rnn. Allora:

(1) (A δ)Rn+= {Ax + u | x ∈ Rn+, u ∈ Rm+}.

(2) (ARn+ ≤ b) 6= ∅ ⇐⇒ b ∈ (A δ)Rn+.

Proposizione 1.28. SianoA ∈ Rmn eb ∈ Rm. Allora sono equivalenti:

(1) (ARn+ ≤ b) 6= ∅.

(2) (R+mA ≥ 0)b ≥ 0.

Dimostrazione.(1) =⇒ (2): Siano x ∈ Rn+ edf ∈ R+m tali cheAx ≤ b edf A ≥ 0. Allora f b ≥ f Ax ≥ 0.

(2) =⇒ (1): Supponiamo che (ARn+≤ b) = ∅. Per l’oss. 1.27 ci`o signi- fica cheb /∈ (A δ)Rn+. Per il teorema 1.26 possiamo quindi trovare un f ∈ Rmtale chef (A δ) ≥ 0 ed f b < 0. Ma f (A δ) = (f A f ) ≥ 0 `e equi- valente alle due condizionif A ≥ 0 ed f ≥ 0, cio`e ad f ∈ (R+mA ≥ 0).

Adesso per`of b < 0 `e in contrasto con la nostra ipotesi.

(15)

2. Programmi lineari in forma standard

Situazione 2.1.n, m ∈ N + 1 ed A ∈ Rmn,f ∈ Rn,b ∈ Rm, quando non indicato diversamente.

Definizione 2.2. Un programma lineare di massimizzazione in forma standard `e un problema di ottimizzazione della forma

f x = max x ≥ 0 Ax ≤ b

conA, f, b come nella situazione 2.1.

Si cercano quindi vettori non negativix ∈ Rnper i qualif x `e massi- male sotto il vincoloAx ≤ b.

Denotiamo con (f (ARn+ ≤ b) = max) l’insieme degli x ∈ Rn+ (detti soluzionidel problema) con Ax ≤ b in cui f x assume un massimo su (ARn+≤ b), mentre indichiamo con f (ARn+≤ b) = max (senza parentesi esterne) il problema stesso.

Gli elementi di(ARn+≤ b) si chiamano punti ammissibili del proble- ma.

Definizione 2.3. Un programma lineare di minimizzazione in forma standard `e un problema di ottimizzazione della forma

ub = min u ≥ 0 uA ≥ f

conA, f, b come nella situazione 2.1.

Si cercano quindi vettori riga non negativi u ∈ Rm per i quali ub `e minimale sotto il vincolouA ≥ f .

Denotiamo con ((R+mA ≥ f )b = min) l’insieme degli u ∈ R+m (detti soluzioni del problema) con uA ≥ f in cui ub assume un minimo su (R+mA ≥ f ), mentre indichiamo con (R+mA ≥ f )b = min (senza parentesi esterne) il problema stesso.

Gli elementi di (R+mA ≥ f ) si chiamano punti ammissibili del pro- blema duale.

Osservazione 2.4. I problemif (ARn+ ≤ b) = max e (R+mA ≥ f )b = min si determinano a vicenda e si dicono uno il duale dell’altro.

Lemma 2.5. Siano x una soluzione del problema f (ARn+ ≤ b) = max edu una soluzione del problema (R+mA ≥ f )b = min.

Alloraf x ≤ uAx ≤ ub.

Dimostrazione. Per ipotesiAx ≤ b e f ≤ uA con x ≥ 0 e f ≥ 0, per cuif x ≤ uAx ≤ ub.

Proposizione 2.6. Siano x ∈ (ARn+ ≤ b) ed u ∈ (R+mA ≥ f ) tali che f x ≥ ub.

(16)

Allorax `e una soluzione di f (ARn+ ≤ b) = max ed u una soluzione di (R+mA ≥ f )b = min.

Dimostrazione. Sianoy ∈ (ARn+ ≤ b) e v ∈ (R+mA ≥ f ). Per il lemma 2.5 abbiamof y ≤ ub ≤ f x ≤ vb.

Proposizione 2.7. (1) Sia (ARn+ ≤ b) = ∅. Allora o (R+mA ≥ f ) = ∅ oppure l’insieme(R+mA ≥ f )b non `e limitato inferiormente. Il problema (R+mA ≥ f )b = min quindi non possiede soluzione.

(2)Sia (R+mA ≥ f ) = ∅. Allora o (ARn+ ≤ b) = ∅ oppure l’insieme f (ARn+≤ b) non `e limitato superiormente.

Il problemaf (ARn+≤ b) = max quindi non possiede soluzione.

Dimostrazione. Dimostriamo solo il primo enunciato essendo il se- condo il suo duale. Sia(ARn+ ≤ b) = ∅. Per la prop. 1.28 esiste quindi un elementog ∈ R+m tale chegA ≥ 0 e gb < 0.

Se(R+mA ≥ f ) = ∅ `e chiaro che il problema (R+mA ≥ f )b = min non possiede soluzione.

Assumiamo quindi che (R+mA ≥ f ) 6= ∅. Sia ad esempio u ∈ R+m tale cheuA ≥ f . Allora per ogni λ ≥ 0 si ha che u + λg ≥ 0 e

(u + λg)A = uA + λgA ≥ f , per cui u + λg ∈ (R+mA ≥ f ). Siccome gb < 0, si ha che lim

λ−→∞(u + λg)b = lim

λ−→∞(ub + λgb) = −∞.

Osservazione 2.8. Se il problema f (ARn+ ≤ b) = max possiede una soluzionex, allora il valore max f (ARn+≤ b) = f x `e ben definito.

Similmente, se il problema(R+mA ≥ f )b = min possiede una soluzio- neu, allora il valore min(R+mA ≥ f )b = ub `e ben definito.

Teorema 2.9. Gli insiemi(ARn+≤ b) e (R+mA ≥ f ) siano entrambi non vuoti. Allora i problemif (ARn+ ≤ b) = max e (R+mA ≥ f )b = min sono entrambi risolubili e si ha

max f (ARn+≤ b) = min(R+mA ≥ f )b

Dimostrazione. (1) `E sufficiente dimostrare che esistono

x ∈ (ARn+≤ b) ed u ∈ (R+mA ≥ f ) tali che f x ≥ ub. L’enunciato allora si ottiene applicando la prop. 2.6.

(2) Il nostro scopo quindi `e quello di trovare un elementox ∈ Rn+ed un elementou ∈ R+m tali che Ax ≤ b, uA ≥ f (cio`e −Atut ≤ −ft) ed f x ≥ ub. L’ultima disuguaglianza `e equivalente a −f x + btu ≤ 0.

(3) Scrivendo il problema in forma matriciale, ponendo B :=

 A 0

0 −At

−f bt

 ∈ Rm+n+1m+n e c :=

 b

−ft 0

 ∈ Rm+n+1

dobbiamo dimostrare che(BRm+n+ ≤ c) 6= ∅.

(4) Ma per la prop.1.28 in caso contrario esistep ∈ R+m+n+1 tale che pB ≥ 0 e pc < 0.

p `e quindi della forma p = (g h α) con g ∈ R+m,h ∈ R+n edα ∈ R+. Inoltre

(17)

pB = (g h α)

 A 0

0 −At

−f bt

 = (gA − αf − hAt+ αbt) ≥ 0 e

pc = (g h α)

 b

−ft 0

 = gb − hft< 0

cosicch´e otteniamo (I) gA ≥ αf (II) αbt≥ hAt (III) gb < hft

Essendoα ∈ R+, abbiamoα = 0 oppure α > 0. Dimostriamo che entr- ambi i casi implicano una contraddizione.

(5) Siaα = 0. Allora gA ≥ 0 ≥ hAt. Per ipotesi gli insiemi(ARn+≤ b) e(R+mA ≥ f ) sono entrambi non vuoti. Perci`o esistono x ∈ Rn+ed u ∈ R+m tali cheAx ≤ b ed uA ≥ f , quindi anche Atut≥ ft. Ma allora

gb ≥ gAx ≥ 0 ≥ hAtut≥ hft

e questo contraddice la disuguaglianza (III).

(6) Rimane il casoα > 0. Le disuguaglianze (I) e (II) significano per`o che g

α ∈ (R+mA ≥ f ) e ht

α ∈ (ARn+ ≤ b).

Dal lemma 2.5 segue fht α ≤ g

αb ovvero hft = f ht ≤ gb, ancora in contrasto con (III).

Corollario 2.10. Sianox ∈ (ARn+ ≤ b) ed u ∈ (R+mA ≥ f ). Allora sono equivalenti:

(1) x `e una soluzione di f (ARn+ ≤ b) = max ed u una soluzione di (R+mA ≥ f )b = min.

(2) f x = ub.

(3) f x = uAx = ub.

(4) f x ≥ ub.

Dimostrazione.(1) =⇒ (2): Teorema 2.9.

(2) =⇒ (3): Per il lemma 2.5 si ha f x ≤ uAx ≤ ub, ma essendo per ipotesif x = ub segue che f x = uAx = ub.

(3) =⇒ (4): Chiaro.

(4) =⇒ (1): Proposizione 2.6.

(18)

Nota 2.11. Come nella dimostrazione del teorema 2.9 siano B :=

 A 0

0 −At

−f bt

 ∈ Rm+n+1m+n e c :=

 b

−ft 0

 ∈ Rm+n+1.

(1) Siaz ∈ (BRm+n+ ≤ c) con z =

 x y



,x ∈ Rn+edy ∈ Rm+.

Se poniamou := yt, allorax `e una soluzione di f (ARn+≤ b) = max ed u

`e una soluzione di (R+mA ≥ f )b = min.

(2) Siano viceversa x una soluzione di f (ARn+ ≤ b) = max ed u una soluzione di(R+mA ≥ f )b = min. Allora con y := utabbiamo

z :=

 x y



∈ (BRm+n+ ≤ c).

Dimostrazione. Sianoz, x, y, u come nell’enunciato. Abbiamo quindi le seguenti disuguaglianze:

x ≥ 0, y ≥ 0 Ax ≤ b

−Atut≤ −ft

−f x + btut≤ 0

La terza disuguaglianza `e equivalente aduA ≥ f , la quarta, essendo btut= ub, `e equivalente a f x ≥ ub.

Il punto (1) segue adesso dalla prop. 2.6, il punto (2) combinando il teorema 2.9 con la prop. 2.6.

Osservazione 2.12. Il teorema 2.9 e la nota 2.11 dimostrano l’importanza e l’utilit `a del principio di dualit `a nella programmazione lineare. Vedia- mo in particolare che la sola ricerca di un punto ammissibile (senza un compito di massimizzazione o minimizzazione) non `e pi `u facile della soluzione del problema di ottimizzazione che, come visto nella nota 2.11, pu`o essere ricondotta alla ricerca di un punto ammissibile.

Esempio 2.13. Consideriamo il seguente problema di massimo:

x1+ 2x2 = max 7x1+ 4x2 ≤ 28 4x1+ 5x2 ≤ 20 3x1+ 10x2 ≤ 30

Per la nota 2.11 questo problema di ottimizzazione `e equivalente a quello della ricerca di un punto

z =





 x1 x2 y1 y2 y3





che soddisfa la disuguaglianza

(19)







7 4 0 0 0

4 5 0 0 0

3 10 0 0 0

0 0 −7 −4 −3

0 0 −4 −5 −3

−1 −2 28 20 30











 x1 x2 y1 y2 y3





≤







 28 20 30

−1

−2 0







Corollario 2.14. (1)x sia una soluzione di f (ARn+≤ b) = max

e 1 ≤ k ≤ m. Se esiste una soluzione u di (R+mA ≥ f )b = min tale che uk6= 0, allora Akx = bk.

(2) u sia una soluzione di (R+mA ≥ f )b = min e 1 ≤ k ≤ n. Se esiste una soluzionex di f (ARn+ ≤ b) = max tale che xk6= 0, allora uAk= fk.

Dimostrazione. Dimostriamo solo il primo enunciato, essendo il se- condo il suo duale.

Per il corollario 2.10uAx = ub, e quindi u(b − Ax) = 0, cio`e Xm

j=1

uj(bj − Ajx) = 0. Per ipotesi per`o u ≥ 0 e b − Ax ≥ 0, quindi uj(bj− Ajx) ≥ 0 per ogni j = 1, ..., m. Ma allora necessariamente uj(bj − Ajx) = 0 per ogni j = 1, ..., m, per cui l’ipotesi uk 6= 0 implica bk− Akx = 0.

(20)

3. Programmi lineari in forma normale

Situazione 3.1.n, m ∈ N + 1 ed A ∈ Rmn,f ∈ Rn,b ∈ Rm, quando non indicato diversamente.

Definizione 3.2. Un programma lineare di massimizzazione (risp. mi- nimizzazione) in forma normale `e un problema di ottimizzazione della forma

f x = max (risp. min) x ≥ 0

Ax = b

conA, f , b come nella situazione 3.1. Gli elementi di (ARn+ = b) sono detti punti ammissibili.

Nota 3.3. (1) Sia dato un problemaf (ARn+ ≤ b) = max in forma stan- dard. Introducendo un vettore variabile ausiliariop otteniamo un pro- blema in forma normale

(f 0)

 x p



= max

 x p



≥ 0 (A δ)

 x p



= b

equivalente al primo, nel senso che da ogni soluzione del problema in forma normale otteniamo una soluzione del problema in forma stan- dard.

(2) Viceversa, dato un problemaf (ARn+= b) = max in forma norma- le, considerando

f x = max x ≥ 0 Ax ≤ b

−Ax ≤ −b

otteniamo un problema in forma standard equivalente al primo, nel senso che da ogni soluzione del problema in forma standard otteniamo una soluzione del problema in forma normale.

(3) In modo analogo (usando le matrici trasposte) ogni problema di minimizzazione in forma standard (def. 2.3) `e equivalente ad un pro- blema in forma normale e viceversa.

Osservazione 3.4. V e W siano spazi vettoriali reali, ϕ : V −→ W un’applicazione affine edY sia un sottoinsieme convesso di W .

Alloraϕ−1(Y ) `e convesso.

Dimostrazione. Sianoa, b ∈ ϕ−1(Y ), cio`e ϕ(a), ϕ(b) ∈ Y . Per l’oss. 1.8 per`oϕ([a, b]) = [ϕ(a), ϕ(b)] ⊂ Y e quindi, utilizzando l’ipotesi che Y sia convesso, si ha che[a, b] ⊂ ϕ−1(Y ).

(21)

Corollario 3.5. L’insieme(ARn+ = b) `e chiuso e convesso.

Dimostrazione. Identificando A con l’applicazione

x Ax possiamo scrivere(ARn+= b) = A−1(b)∩Rn+. Poich´eA `e continua, l’insieme A−1(b)

`e chiuso. Inoltre, essendo A un’applicazione affine e b un convesso, per l’oss. 3.4 anche A−1(b) `e convesso. Infine Rn+ `e un chiuso convesso e, siccome l’intersezione di insiemi chiusi e convessi `e ancora chiuso e convesso, otteniamo l’enunciato.

Definizione 3.6.V sia uno spazio vettoriale reale ed X un suo sotto- insieme convesso. Un vertice (o punto estremale) diX `e un punto x ∈ X che soddisfa la seguente condizione:

Seu, v ∈ X ed x ∈ [u, v], allora x ∈ {u, v}

Denotiamo convertici(X) l’insieme dei vertici di X.

Esempio 3.7.

(1) X sia un poligono convesso in R2. I vertici di X nel senso della geometria elementare coincidono con i vertici nel senso della definizione 3.6.

(2) vertici(Rn) = ∅.

(3) vertici(Rn+) = {0}.

(4) X := {z ∈ Rn| |z| ≤ 1} sia la palla unitaria chiusa in Rn. Allora vertici(X) = {z ∈ Rn| |z| = 1}.

(5) X := {z ∈ Rn| |z| < 1} sia la palla unitaria aperta in Rn. Allora vertici(X) = ∅.

Lemma 3.8.V sia uno spazio vettoriale reale, X un sottoinsieme con- vesso diV ed x ∈ X. Allora sono equivalenti:

(1) x ∈ vertici(X).

(2) X \ {x} `e convesso.

(3) x = u + v

2 conu, v ∈ X implica u = v.

Dimostrazione. (1) =⇒ (2): Supponiamo per assurdo che esistano u, v ∈ X \{x} tali che [u, v] 6⊂ X \{x}. Allora x ∈ [u, v], ma per ipotesi ci`o implica chex ∈ {u, v}. Quindi ad esempio u = x, una contraddizione.

(2) =⇒ (1): X \ {x} sia convesso ed u, v ∈ X con x ∈ [u, v]. Dobbiamo dimostrare chex ∈ {u, v}. Se cos`ı non fosse avremmo u, v ∈ X \ {x} e quindi per ipotesi[u, v] ⊂ X \ {x}, una contraddizione.

(1) =⇒ (3): Sia 2x = u + v con u, v ∈ X. Per ipotesi x ∈ {u, v}, ad esempiox = u. Allora x = v e quindi u = v.

(3) =⇒ (1): Siano u, v ∈ X ed x = u + t(v − u) con t ∈ [0, 1].

Pert = 0 e t = 1 si ha rispettivamente x = u e x = v.

(22)

Pert = 1

2 l’ipotesi implicau = v e quindi x = u = v.

Rimangono i casi0 < t < 1 2 e 1

2 < t < 1. Per simmetria `e sufficiente trattare il caso0 < t < 1

2.

Poniamoy := u + 2t(v − u). Allora y ∈ X perch´e 0 < 2t < 1. Inoltre y = u + 2(x − u) = 2x − u, cosicch´e x = u + y

2 . L’ipotesi implicau = y e quindix = u.

u y v

x=u+ y 2

Definizione 3.9. Siaα ⊂ {1, ..., n} un sottoinsieme di cardinalit `a

|α| = s. Poniamo allora:

(1) Aα := matrice in Rms che si ottiene da A cancellando tutte le colonneAj per cuij /∈ α.

(2) fα := vettore in Rs che si ottiene daf cancellando gli elementi fj per cuij /∈ α.

(3) Perx ∈ Rnsiaxαil vettore in Rsche si ottiene dax cancellando gli elementixj per cuij /∈ α.

Poniamo inoltre1 − α := {1, ..., n} \ α.

Pers = 0 abbiamo Rm0 = R0= R0 = 0, per cui A = f = x = ∅.

Con queste convenzioni possiamo scrivere Ax = Aαxα+ A1−αx1−α

f x = fαxα+ f1−αx1−α

Esempio 3.10. SianoA ∈ R35 edx ∈ R5. Conα = {1, 4} si ha 1 − α = {2, 3, 5}. Perci`o

Aαxα+ A1−αx1−α=

A11 A14 A21 A24 A31 A34

 x1 x4

 +

A12 A13 A15 A22 A23 A25 A32 A33 A35

 x2 x3 x5

=

A11x1+ A14x4 A21x1+ A24x4 A31x1+ A34x4

 +

A12x2+ A13x3+ A15x5 A22x2+ A23x3+ A25x5 A32x2+ A33x3+ A35x5

= Ax

Definizione 3.11. Perx ∈ Rnsia[x] := {i ∈ {1, ..., n} | xi 6= 0}.

Osservazione 3.12.0 ∈ vertici(ARn+ = 0).

Dimostrazione. Usiamo il lemma 3.8. Sianou, v ∈ (ARn+ = 0) e tali che0 = u + v

2 . `E chiaro che ci`o implicau = v = 0.

(23)

Teorema 3.13. Perx ∈ (ARn+ = b) sono equivalenti:

(1) x ∈ vertici(ARn+ = b).

(2) Le colonne diA[x] sono linearmente indipendenti.

Dimostrazione. Sex = 0, allora [x] = ∅ e l’enunciato segue dall’oss.

3.9, perch´e l’insieme vuoto `e linearmente indipendente. Possiamo quin- di assumere chex 6= 0 e che [x] = {1, ..., s} con 1 ≤ s ≤ n.

(1) =⇒ (2): Sia x ∈ vertici(ARn+= b) e sia λ1A1 + ... + λsAs = 0 una combinazione lineare delle colonne Ai con i ∈ [x] e λi ∈ R per i = 1, ..., s. Supponiamo per assurdo che i λi non siano tutti nulli, ad esempio possiamo supporreλ16= 0. Siccome xi > 0 per ogni i = 1, . . . , s, possiamo trovare un elemento ε > 0 tale che xi ± ελi ≥ 0 per ogni i = 1, ..., s. Definiamo i vettori

u :=









x1+ ελ1 ... xs+ ελs

0 ... 0









e v :=









x1− ελ1

... xs− ελs

0 ... 0









Allorau, v ∈ Rn+edx =u + v 2 . Inoltre Au =

Ps k=1

Ak(xk+ ελk) = Ax + ε Ps k=1

λkAk = Ax = b, e simil- menteAv = b. Perci`o u, v ∈ (ARn+= b). Per ipotesi x ∈ vertici(ARn+= b) e quindi per il punto (3) della prop. 3.8 risultau = v. Ma ci`o non `e possibile perch`eλ16= 0.

(2) =⇒ (1): Le colonne di A[x]siano linearmente indipendenti. Siano u, v ∈ (ARn+ = b) tali che x = u + v

2 . Ci`o implicaui+ vi = 0 per ogni i = 1, . . . , s, e quindi ui = vi = 0, essendo u, v ≥ 0. D’altra parte abbia- moAu = Av = b e quindi 0 = A(u − v) =

Ps i=1

(ui− vi)Ai. Per ipotesi ci`o implica ui = vi per ognii = 1, . . . , s, e quindi u = v. Per la prop. 3.8 quindi risulta chex ∈ vertici(ARn+= b).

Definizione 3.14. Siaα ⊂ {1, ..., n}. A si dice α-invertibile, se

|α| = m ≤ n e la matrice quadratica Aα `e invertibile.

Osservazione 3.15. Un insieme di indiciα tale che A sia α-invertibile esiste se e solo se rango(A) = m. Si noti che rango(A) = m da solo implicam ≤ n.

Lemma 3.16.K sia un campo e V uno spazio vettoriale su K. Siano v1, . . . , vn ∈ V e W := SV(v1, . . . , vn). Siano m := dim W e 1 ≤ s ≤ m tali che i vettoriv1, . . . , vssiano linearmente indipendenti.

(24)

Allora possiamo trovarem − s indici j1, . . . , jm−s ∈ {s + 1, . . . , n} in modo tale che gli m vettori v1, . . . , vs, vj1, . . . , vjm−s siano linearmente indipendenti.

Dimostrazione.(1) Se s = m non c’`e nulla da dimostrare.

Supponiamo quindi che s < m e dimostriamo che esiste un indice j ∈ {s + 1, . . . , n} tale che gli s + 1 vettori v1, . . . , vs, vjsono linearmente indipendenti.

Infatti, se cos`ı non fosse, avremmovj ∈ SV(v1, . . . , vs) per ogni j ∈ {1, . . . , n} e quindi W = SV(v1, . . . , vs) in contraddizione all’ipotesi dim W = m.

(2) Se adesso s + 1 = m, non c’`e pi `u nulla da dimostrare. Altrimenti ripetiamo il ragionamento cons + 1 al posto di s.

Corollario 3.17.x sia un vertice di (ARn+ = b).

Serango(A) = m, allora [x] `e contenuto in un insieme di indici α tali cheA sia α-invertibile.

Osservazione 3.18. Siax ∈ (ARn+= b) ed [x] contenuto in un insieme di indiciα tali che A sia α-invertibile. Allora abbiamo x1−α= 0 e quindi b = Ax = Aαxα + A1−αx1−α = Aαxα, per cui xα = A−1α b. Perci`o x `e univocamente determinato dalle relazioni

xα= A−1α b x1−α= 0

Definizione 3.19. Siarango(A) = m. Poniamo

J(A) := {α ⊂ {1, ..., n} | |α| = m ed Aα invertibile}

J+(A, b) := {α ∈ J(A) | A−1α b ≥ 0}

Proposizione 3.20. Siarango(A) = m. Allora l’applicazione θ : J+(A, b) −→ vertici(ARn+ = b) definita da θ(α) = x con

xα= A−1α b x1−α= 0

`e suriettiva.

Dimostrazione. Ci`o segue dall’oss. 3.18 e dal cor. 3.17.

Corollario 3.21. Sia rango(A) = m. Allora l’insieme dei vertici di (ARn+= b) `e finito.

Dimostrazione. J+(A, b) `e finito e quindi, poich`e l’immagine di un insieme finito `e finito, anchevertici(ARn+ = b) `e un insieme finito.

Proposizione 3.22. Sia(ARn+= b) 6= ∅. Allora vertici(ARn+= b) 6= ∅.

Dimostrazione. Scegliamox ∈ (ARn+= b) in modo tale che |[x]| sia minimale.

(1) Se x = 0, allora b = 0 ed x ∈ vertici(ARn+= b) per l’oss. 3.12.

(25)

(2) Sia quindi x 6= 0. Poniamo α := [x]. Dobbiamo dimostrare che le colonne diAα sono linearmente indipendenti. Supponiamo che non lo siano. Allora possiamo trovare un vettoreλ ∈ Rs\ 0 tale che Aαλ = 0.

Possiamo assumere che almeno uno dei coefficienti diλ sia minore di 0.

Siccomexi> 0 per ogni i ∈ α, esiste ε > 0 tale che xi+ ελi ≥ 0 per ogni i ∈ α ed xh+ ελh = 0 per almeno un h ∈ α. Sia ora y ∈ Rn+1 definito dalle relazioni

yα= xα+ ελ y1−α= 0

Alloray ≥ 0, inoltre

Ay = Aαyα+ A1−αy1−α = Aαyα = Aα(xα+ ελ)

= Aαxα+ εAαλ = Aαxα= Ax = b

Quindi y ∈ (ARn+ = b) e |[y]| < |[x]|, una contraddizione al fatto che abbiamo sceltox in modo tale che |[x]| sia minimale.

Osservazione 3.23. Il problemaf (ARn+= b) = max abbia una soluzione. Se poniamoµ := max f (ARn+ = b), allora con

B :=

 A f



, c :=

 b µ



si ha (f (ARn+= b) = max) = (BRn+= c).

Per il cor. 3.5 l’insieme(f (ARn+= b) = max) `e perci`o chiuso e conves- so (ci`o `e banalmente vero anche quando `e vuoto).

Proposizione 3.24.

vertici(f (ARn+= b) = max) = (f (ARn+= b) = max) ∩ vertici(ARn+= b) Dimostrazione. (1) Se il problema f (ARn+ = b) = max non ha solu- zione, l’enunciato `e banalmente vero.

(2) Altrimenti con µ := max f (ARn+ = b) poniamo P := (ARn+ = b), R := (f Rn+= µ). Allora (f (ARn+= b) = max) = P ∩ R, per cui dobbiamo dimostrare che vertici(P ∩ R) = P ∩ R ∩ vertici(P ). Adesso usiamo il lemma 3.8.

Siax ∈ vertici(P ∩R). Dobbiamo dimostrare che x ∈ vertici(P ). Siano u, v ∈ P tali che x = u + v

2 . Per`o f u ≤ µ, f v ≤ µ, e se ad esempio f u < µ, si avrebbe f x = f u + f v

2 < µ. Perci`o f u = f v = µ, cosicch´e u, v ∈ P ∩ R, e quindi u = v, perch´e x ∈ vertici(P ∩ R).

Viceversa, siax ∈ P ∩ R ∩ vertici(P ). Siano u, v ∈ P ∩ R tali che x = u + v

2 . Allorau = v perch´e x ∈ vertici(P ). Quindi x ∈ vertici(P ∩ R).

Teorema 3.25 (teorema fondamentale della programmazione lineare). Se il problemaf (ARn+ = b) = max possiede una soluzione, allora esiste anche una soluzione che `e un vertice di(ARn+= b).

Dimostrazione. Con le notazioni dell’oss. 3.23, dalla prop. 3.24 ab- biamo (f (ARn+ = b) = max) ∩ vertici(ARn+ = b) = vertici(BRn+ = c).

(26)

Siccome per ipotesi l’insieme(BRn+ = c) = (f (ARn+ = b) = max) non `e vuoto, dalla prop. 3.22 segue che anchevertici(BRn+ = c) 6= ∅.

Nota 3.26. Mediante l’algoritmo di eliminazione di Gauss possiamo sempre ottenere la condizionerango(A) = m richiesta nella prop. 3.20 e nel corollario 3.21. L’insieme dei vertici di(ARn+ = b) allora `e finito e per il teorema 3.25 una soluzione del problema di massimo si trova percorrendo tutti i vertici e calcolandomax {f x | x ∈ vertici(ARn+ = b)}.

Il numero dei vertici `e per`o molto alto gi `a in problemi di modeste di- mensioni, per cui `e necessario un algoritmo migliore, il metodo del simplesso, che verr `a presentato nel prossimo capitolo.

Esempio 3.27. Consideriamo il problema di massimo 3x1+ x2− x3+ 2x4− 2x5+ x6 = max

3x1+ 2x2− 5x3+ 4x4− x5− x6 = 18 x1− x2− x3+ 4x4− 6x5+ x6 = 15 che possiamo scrivere nella solita forma

f x = max Ax = b x ≥ 0 con

f := 3 1 −1 2 −2 1  A :=

 3 2 −5 4 −1 −1

1 −1 −1 4 −6 1



b :=

 18 15



Chiaramenterango(A) = 2. Per applicare l’idea della nota 3.26 dob- biamo considerare le

6 2



= 15 sottomatrici 2 × 2 Aα diA e calcolare xα = A−1α b ogni volta che Aαsia invertibile. Sexα≥ 0, calcoliamo fαxα. Il massimo dei valori cos`ı ottenuti `e il massimo cercato. Alla pagina se- guente riportiamo la tabella con i calcoli effettuati. Il valore massimo che si ottiene `e81.

Riferimenti

Documenti correlati

Dopo di che definireremo le somme di potenze, il discriminante e la Bezoutiante, strumenti utili che ci porteranno al Criterio di Sylvester, cuore della Tesi, il quale ci dice che

I minori di ordine k di QA sono combinazioni lineari dei minori di ordine k di A, quindi se questi ultimi sono tutti nulli, ogni minore di ordine k di QA ` e nullo.. Poich` e i

Una caratteristica importante per le strategie di terapia `e che le cellule staminali sia normali che tumorali dispongono di meccanismi di protezione pi ` u efficaci delle

L’argomento di questa tesi sono due classi di funzioni binarie aven- ti valori nell’intervallo unitario, i legami stocastici e le t-norme, nate originariamente nell’ambito della

Nel capitolo 14, invece, vengono introdotte le matrici (non negative) irriducibili e alcune propriet `a che le caratterizzano: una matrice non negativa `e irriducibile se e solo

Ci`o segue dalla linearit `a e dalla continuit `a del prodotto scalare..

Uno spazio topologico in cui ogni punto possiede una base numerabile degli intorni `e detto soddisfare il primo assioma di numerabilit `a.. Utilizzeremo la notazione A 1 per

Ci`o che si dimostrer `a in questo capitolo `e che viceversa 2 rappresentazioni di dimensione finita che hanno la stessa traccia sono equivalenti.. Dunque i caratteri sono le