• Non ci sono risultati.

Scarti complementari

N/A
N/A
Protected

Academic year: 2021

Condividi "Scarti complementari"

Copied!
5
0
0

Testo completo

(1)

Scarti complementari

Fabio Cassini, Romeo Rizzi 13 agosto 2017

A volte risulta utile o necessario recuperare una soluzione duale ottima quando si ha a disposizione soltanto una soluzione primale ottima: in queste circostanze possiamo avvalerci della teoria degli scarti complementari.

Supponiamo di avere a disposizione un problema di programmazione lineare in forma standard:

max Pn j=1cjxj

 Pn

j=1aijxj ≤ bi

xj≥ 0 e consideriamo il suo duale associato:

min Pm i=1biyi

 Pm

i=1aijyi ≥ cj

yi≥ 0

Introduciamo anche le variabili di slack (una per ogni vincolo) sia per il primale che per il duale, ovvero:

xn+i= bi

n

X

j=1

aijxj, xn+i≥ 0, i = 1, . . . , m (1)

ym+j=

m

X

i=1

aijyi− cj, yn+j≥ 0, j = 1, . . . , n (2)

Osserviamo innanzitutto che vale il seguente risultato:

Lemma 0.1. Siano (x1, . . . , xn)una soluzione primale, (y1, . . . , ym)una soluzione duale e si conside- rino le variabili di slack come denite in (1) e (2). Allora vale

n

X

j=1

cjxj =

m

X

i=1

biyi

m

X

i=1

xn+iyi+

n

X

j=1

ym+jxj

(2)

Dimostrazione.

n

X

j=1

cjxj =

n

X

j=1 m

X

i=1

aijyi− ym+j

! xj

=

n

X

j=1 m

X

i=1

aijyixj

n

X

j=1

ym+jxj

=

m

X

i=1

n

X

j=1

aijxj

yi

n

X

j=1

ym+jxj

=

m

X

i=1

biyi

m

X

i=1

xn+iyi+

n

X

j=1

ym+jxj

Il problema duale viene introdotto proprio per produrre degli upper-bound sul valore della funzione obiettivo validi su tutte le soluzioni ammissibili del problema primale. In questo senso, il contenuto del seguente teorema non dovrebbe sorprendere, tuttavia esso viene tipicamente enunciato e dimostrato algebricamente in considerazione della sua importanza. Invece che ometterne la classica dimostrazione, evidenziamo come esso dipenda dal Lemma 0.1.

Teorema 0.1 (Teorema della dualità debole). Se (x1, . . . , xn) è una soluzione ammissibile per il primale e (y1, . . . , ym) è una soluzione ammissibile per il duale, allora vale

n

X

j=1

cjxj

m

X

i=1

biyi

Dimostrazione. Dai vincoli di non negatività delle variabili in gioco discende direttamente che

m

X

i=1

xn+iyi+

n

X

j=1

ym+jxj≥ 0

da cui, grazie al Lemma 0.1, l'enunciato.

Ancor più che dal Teorema 0.1, un ruolo speciale è spesso giocato da una sua immediata conse- guenza:

Corollario 0.1. Siano (ˆx1, . . . , ˆxn)una soluzione primale ammissibile e (ˆy1, . . . , ˆym) una soluzione duale ammissibile tali per cui

n

X

j=1

cjj =

m

X

i=1

bii. Allora entrambe le soluzioni sono ottime per i rispettivi problemi.

Dimostrazione. Per quanto riguarda il problema primale, sia (x1, . . . , xn) una sua qualsiasi altra soluzione ammissibile. Per il Teorema 0.1 si ha che

n

X

j=1

cjxj

m

X

i=1

bii=

n

X

j=1

cjj.

Data l'arbitrarietà di (x1, . . . , xn)e l'ipotesi di ammissibilità di (ˆx1, . . . , ˆxn), quest'ultima risulta essere la soluzione ottima. In maniera analoga si procede per il problema duale.

(3)

Il risultato principale della teoria della dualità è tuttavia il seguente.

Teorema 0.2 (Teorema della dualità forte). Se il problema primale ha soluzione ottima ˆx allora anche il problema duale ha soluzione ottima ˆy e vale

cTx = bˆ T

Avendo introdotto le variabili di slack, risulta agevole presentare un concetto più ampio di soluzione del problema primale/duale: la soluzione estesa.

Denizione 0.1 (Soluzione estesa). Siano (x1, . . . , xn) una soluzione primale, (y1, . . . , ym) una so- luzione duale e si considerino le rispettive variabili di slack come denite in (1) e (2). Allora si dice soluzione primale estesa il vettore di n + m componenti ˜x = (x1, . . . , xn, xn+1, . . . , xn+m)e soluzione duale estesa il vettore di m + n componenti ˜y = (ym+1, . . . , ym+n, y1, . . . , ym).

Si noti come la denizione di soluzione estesa dierisca nei casi primale e duale, dove nel secondo caso le n variabili di slack vanno anteposte alle m variabili duali originali, quelle in corrispondenza biunivoca con gli m vincoli nella forma standard del problema primale. Si adotta questa asimmetria perchè ha un valore adottare un ordinamento che rispetti la naturale corrispondenza biunivoca tra le variabili: per i = 1, . . . , n, all'i-esimo vincolo del problema primale sono associate la i-esima variabile di slack e la i-esima variabile duale (introdotta come moltiplicatore di detto vincolo); per j = 1, . . . , m, al j-esimo vincolo del problema duale sono associate la j-esima variabile di slack del duale e la j-esima variabile del primele (il primale può sempre essere visto come il duale del duale).

L'idea alla base del prossimo teorema è che sussista una sorta di ortogonalità tra le soluzioni primali e duali estese: prima di procedere è però necessario fare alcune considerazioni preliminari. La verica algebrica dell'ortogonalità di due vettori viene eettuata, in generale, attraverso il calcolo del loro prodotto scalare, il quale deve essere nullo: in questo caso, però, è necessario preliminarmente riordinare le componenti dei vettori. In particolare l'ordine corretto, esibendo esplicitamente anche la corrispondenza biunivoca, è il seguente:

˜

x → ( x1 , . . . , xj , . . . , xn , xn+1 , . . . , xn+i , . . . , xn+m )

l l l , l l l

˜

y → ( ym+1 , . . . , ym+j , . . . , ym+n , y1 , . . . , yi , . . . , ym ) in modo che, quando si eettua il prodotto scalare, si moltiplichino le n variabili primali con le rispettive n variabili di slack duali e le m variabili di slack primali con le rispettivi m variabili duali. Dunque, quando si utilizzerà in seguito il simbolo di ortogonalità ⊥, si supporrà di aver prima riordinato correttamente i vettori in gioco.

A questo punto siamo pronti per enunciare e dimostrare il seguente fondamentale teorema.

Teorema 0.3 (Teorema degli scarti complementari). Siano ˜x e ˜y rispettivamente una soluzione pri- male estesa ammissibile e una soluzione duale estesa ammissibile. Allora ˜x ed ˜y sono ottime per i rispettivi problemi se e solo se

xjym+j = 0 j = 1, . . . , n xn+iyi= 0 i = 1, . . . , m o in termini vettoriali

˜ x⊥˜y

Dimostrazione. Per dimostrare il teorema, mostriamo prima che vale ⇐ e poi che vale ⇒.

• Se ˜x⊥˜y allora Pnj=1xjym+j +Pm

i=1xn+iyi = 0 e pertanto, per il Lemma 0.1, Pmi=1biyi− Pn

j=1cjxj = 0, ovvero Pmi=1biyi = Pn

j=1cjxj. Dunque, per il Corollario 0.1, ˜x ed ˜y sono ottime per i rispettivi problemi;

(4)

• Se ˜x ed ˜y sono ottime per i rispettivi problemi allora per il Teorema 0.2 i loro valori coincidono, pertanto Pnj=1cjxj = Pm

i=1biyi. Dunque, grazie al Lemma 0.1, si ha che Pnj=1xjym+j+ Pm

i=1xn+iyi= 0, ovvero ˜x⊥˜y.

1 Scarti complementari e analisi di sensitività

Supponiamo ora di voler massimizzare una funzione obiettivo che rappresenti un protto o qualche altra forma di benecio. I vincoli descriveranno limitazioni in materie prime o disponibilità.

Grazie agli scarti complementari è possibile dimostrare anche il seguente

Lemma 1.1. Sia P il problema primale e ˆx una sua soluzione ottima di base non degenere. Sia ˆy la soluzione ottima del suo problema duale. Sia P(t) il problema primale modicato per le availability, ovvero:

max Pn j=1cjxj

 Pn

j=1aijxj ≤ bi+ ti xj ≥ 0

e sia x una sua soluzione ottima. Allora ∃ > 0 tale che

n

X

j=1

cjxj =

n

X

j=1

cjj+

m

X

i=1

ˆ

yiti ∀t ∈ Rm, ktk ≤  (3)

Dimostrazione. Per mostrare che vale l'uguaglianza (3), vediamo che valgono le due disuguaglianze ≤ e ≥.

Dimostriamo ≤ : La diseguaglianza ≤ disegue dal teorema della dualità debole, considerato che la soluzione ˆy del duale di P(0) resta valida per il duale di P(t) ∀t, ed il suo valore in termini di funzione obiettivo non varia. Alcuni testi, volendo tirarla in lungo, argomenteranno: essendo x ammissibile di P(t), deve valere:

n

X

j=1

aijxj ≤ bi+ ti ∀i

D'altra parte, moltiplicando ambo i membri per ˆyi e sommando su i si ottiene:

m

X

i=1

ˆ yi

n

X

j=1

aijxj

≤

m

X

i=1

ˆ

yi(bi+ ti)

Sviluppando si ha:

n

X

j=1 m

X

i=1

ˆ yiaij

! xj

m

X

i=1

ˆ yibi+

m

X

i=1

ˆ yiti =

n

X

j=1

cjj+

m

X

i=1

ˆ yiti

dove l'ultima uguaglianza si ha grazie al Teorema 0.2. Sappiamo però anche che

n

X

j=1 m

X

i=1

ˆ yiaij

! xj

n

X

j=1

cjxj

poichè ogni xj è non negativo e Pmi=1aiji ≥ cj per ogni j. Per catena di disuguaglianze si

ottiene n

Xcjxj

n

Xcjj+

m

Xyˆiti

(5)

Dimostriamo ≥ : si consideri ˆx; essa, in particolare, avrà una determinata partizione di variabili in base/fuori base. Si consideri ora x, soluzione ottima di P(t): per ktk ≤ , x preserva la stessa partizione di variabili in base/fuori base di ˆx (solo la partizione, non il valore).

Si noti che il discorso sull'analisi di sensitività vale solo localmente: globalmente infatti c'è la soluzione duale che frena dal continuo acquisto delle risorse e si rischia di perdere l'ammissibilità.

Rimane soltanto il problema di come computare questo : per fare ciò, basta utilizzare la prova del nove della PL.

Riferimenti

Documenti correlati

Se la specifica di produzione richiede che i contenitori abbiano una quantità di prodotto compresa fra 0.485 e 0.515 kg, qual è la percentuale di

Se la definizione di limite di funzione reale di variabile reale, con relative proprietà, si estende in modo agevole alle funzioni di R n in R le cose sono diverse quando cerchiamo

Come sappiamo, in una data prova non si può conoscere quale valore assumerà la nostra variabile casuale; ma se conosciamo tutti i possibili valori che la nostra variabile

Sia (X n ) n≥1 una successione di variabili casuali i.i.d... una successione di variabili casuali

• si ha un fading alla Rice in presenza di un termine dominante (in genere cammino LOS, o cammino LOS + cammino riflesso sul terreno) e numerosi cammini che "perturbano"

I al termine di ogni iterazione viene incrementato (decrementato) il valore della variabile di controllo. Esempio: Stampare i numeri pari da 0

Il caso analizzato ben esemplifica questa nuova relazione tra banca ed impresa che si muove dal rafforzamento di un tipo di legame tradizionale, in cui la banca pesa appunto

[r]