• Non ci sono risultati.

Ottimalità, rilassamenti e bound

N/A
N/A
Protected

Academic year: 2021

Condividi "Ottimalità, rilassamenti e bound"

Copied!
54
0
0

Testo completo

(1)

Parte II:

Ottimalità, rilassamenti e bound

(2)

Ottimalità, rilassamenti e bound

Consideriamo il seguente problema z

*

= max {c

T

x : x ∈ X, X ⊆ {0,1}

n

}

dove z* è il valore della soluzione ottima x*.

Domanda: In che modo è possibile certificare che la soluzione x* è ottima?

In generale, se disponessimo di un algoritmo che genera le due sequenze di soluzioni:

z

UB 1

> z

UB 2

> …> z

UB h

> z*

z

LB 1

< z

LB 2

< …< z

LB k

< z*

potremmo fornire come criterio di arresto

z

UB h

- z

LB k

< ε (> 0)

(3)

Lower (upper) bound

Bound primali

Ogni soluzione x ∈ X ammissibile è un lower (upper) bound per un problema di massimizzazione (minimizzazione)

z*

z

LB 2

z

LB 1

z*

z

UB 1

z

UB 2

(4)

Upper (lower) bound

Bound duali

Al contrario dei bound primali , trovare upper (lower) bound di buona qualità per problemi di massimo (minimo) è tipicamente difficile.

Buoni bound duali si ottengono attraverso lo studio delle proprietà strutturali del problema di OC.

Le proprietà di un problema di OC si caratterizzano tramite:

1. Rilassamenti del problema

2. Definizione e studio di problemi duali .

(5)

Rilassamento

Definizione: Il problema

(RP) z

R

= max {f(x) : x ∈ T, T ⊆ R

n

} (z

R

= min {f(x) : x ∈ T, T ⊆ R

n

}) si definisce rilassamento del problema

(P) z = max {c

T

x : x ∈ X, X ⊆ {0,1}

n

} (z = min {c

T

x : x ∈ X, X ⊆ {0,1}

n

}) se e solo se:

i) X ⊆ T,

ii) f(x) > c

T

x per ogni x ∈ X (f(x) < c

T

x per ogni x ∈ X)

Proprietà 1: Se RP è un rilassamento di P, allora z

R

> z

*

(z

R

< z

*

).

Proprietà 2: Se x

R

sol. ottima di RP è ammissibile per P allora x

R

=

(6)

Esempi di rilassamenti

Problema del commesso viaggiatore (simmetrico).

Dati: grafo G = (V, E); pesi sugli archi c

e

per ogni arco e ∈E.

Domanda: trovare un ciclo hamiltoniano (ciclo che tocca tutti i nodi del grafo una ed una sola volta) di peso minimo.

Definizione: Un 1-albero è un sottografo di G che consiste di due archi adiacenti al nodo 1 più gli archi di un albero ricoprente i

nodi {2, …, n}. 1

2

3

5

4

Esempio

(7)

Rilassamenti per il TSP

Osservazione: Un ciclo hamiltoniano è un particolare 1-albero.

1

2

3

5

Pertanto, il problema 4

Dati: grafo G = (V,E), pesi sugli archi c

e

per ogni arco e ∈E.

Domanda: trovare un 1-albero di peso minimo.

è un rilassamento del problema del TSP, perché l’insieme X di tutti i cicli hamiltoniani è contenuto nell’insieme T di tutti gli 1-alberi.

Il problema di determinare un 1-albero di peso minimo su un grafo

(8)

Definizione: Dato un grafo G = (V, E), un 2-abbinamento su G è un insieme di archi M tale che ogni nodo in V è estremo di esattamente due archi in M.

Rilassamenti per il TSP

1

2

3

6

4

5

Un 2-abbinamento forma un insieme di cicli disgiunti.

(9)

Rilassamenti per il TSP

Osservazione: Un ciclo hamiltoniano è un particolare 2-abbinamento, difatti è un 2-abbinamento privo di sottocicli (subtour).

5 1

2

3

6

4

Pertanto, il problema

Dati: grafo G = (V,E), pesi sugli archi c

e

per ogni arco e ∈E Domanda: trovare un 2-abbinamento di peso minimo

è un rilassamento del problema del TSP, perché l’insieme X di tutti i cicli hamiltoniani è contenuto nell’insieme T di tutti i 2-abbinamenti.

Il problema di determinare un 2-abbinamento di peso minimo su un

(10)

Un esempio

1 2 3 4 5 6

1 - 1 99 99 99 1

2 1 - 10 99 99 1

3 99 10 - 1 1 99

4 99 99 1 - 1 99

5 99 99 1 1 - 10

6 1 1 99 99 -

Consideriamo la seguente istanza del problema del

Commesso Viaggiatore:

(11)

Un esempio

1

2

3

6

4

5 1 2 3 4 5 6

1 - 1 99 99 99 1

2 1 - 10 99 99 1

3 99 10 - 1 1 99

4 99 99 1 - 1 99

5 99 99 1 1 - 10

(12)

Un esempio

1

2

3

6

4

5 1 2 3 4 5 6

1 - 1 99 99 99 1

2 1 - 10 99 99 1

3 99 10 - 1 1 99

4 99 99 1 - 1 99

5 99 99 1 1 - 10

6 1 1 99 99 10 -

Il 2 abbinamento di peso minimo

ha valore 6

(13)

Un esempio

1

2

3

6

4

5 1 2 3 4 5 6

1 - 1 99 99 99 1

2 1 - 10 99 99 1

3 99 10 - 1 1 99

4 99 99 1 - 1 99

5 99 99 1 1 - 10

L’1-albero di peso minimo ha

valore 15

(14)

Un esempio

1

2

3

6

4

5 1 2 3 4 5 6

1 - 1 99 99 99 1

2 1 - 10 99 99 1

3 99 10 - 1 1 99

4 99 99 1 - 1 99

5 99 99 1 1 - 10

6 1 1 99 99 10 -

Il ciclo hamiltoniano di peso

minimo ha valore 24

(15)

Un esempio (2)

1

2

3

6

4

5 1 2 3 4 5 6

1 - 1 99 99 99 1

2 1 - 5 99 99 1

3 99 5 - 10 1 99

4 99 99 10 - 10 99

5 99 99 1 10 - 5

Il 2 abbinamento di peso minimo

ha valore 24

(16)

Un esempio (2)

1

2

3

6

4

5 1 2 3 4 5 6

1 - 1 99 99 99 1

2 1 - 5 99 99 1

3 99 5 - 10 1 99

4 99 99 10 - 10 99

5 99 99 1 10 - 5

6 1 1 99 99 5 -

L’1-albero di peso minimo

ha valore 19

(17)

Un esempio (2)

1

2

3

6

4

5 1 2 3 4 5 6

1 - 1 99 99 99 1

2 1 - 5 99 99 1

3 99 5 - 10 1 99

4 99 99 10 - 10 99

5 99 99 1 10 - 5

Il ciclo hamiltoniano di peso

minimo ha valore 32

(18)

Ricapitolando…

Abbiamo definito per il TSP due lower bound con le seguenti proprietà:

1. Sono lower bound “combinatori”, ovvero si ottengono tramite la soluzione di un problema di OC.

2. Tutti e due i problemi la cui soluzione genera i lower bound sono

“facili”, ovvero hanno complessità polinomiale.

La proprietà 2. è una proprietà chiave per ogni bound duale.

Infatti, se il calcolo del bound fosse un problema NP-completo sappiamo che calcolare il bound diventa almeno tanto difficile quanto risolvere il problema stesso.

Domanda: Come si possono calcolare bound primali (ovvero

soluzioni ammissibili di buona qualità) per il problema del TSP?

(19)

Algoritmi euristici

Definizione: Un algoritmo A si dice euristico per un problema P se restituisce una soluzione ammissibile z

A

che non è garantito essere la soluzione ottima.

Definizione: Sia P un problema di minimizzazione. Un algoritmo euristico si dice δ-approssimato se

1. ha complessità polinomiale, e

2. per ogni istanza I di P con soluzione ottima z*(I), si ha z

A

(I) / z*(I) < δ (1)

Osservazione: Se P è un problema di massimo, allora δ <

(20)

Euristiche per il TSP

Sia G = (V, E) un grafo completo e sia c

uv

il costo di ciascun arco uv ∈ E.

Euristiche costruttive: tentano di costruire un “buon” ciclo hamiltoniano a partire da un sottociclo eventualmente vuoto.

Euristiche migliorative: a partire da una soluzione ammissibile, si tenta di migliorarla attraverso miglioramenti

“locali”.

(21)

Una proprietà strutturale

Si dice che la matrice delle distanze di un grafo G soddisfa la disuguaglianza triangolare se comunque prendo un triangolo e

1

, e

2

, e

3

in G si ha c

ei

+ c

ej

> c

ek

per i ≠ j ≠ k, i, j, k

∈ {1, 2, 3}

5

7 6

5 4

(22)

Richiamo

Definizione: Un multigrafo G = (V, E) (cioè un grafo con ripetizione di archi) è euleriano se, a partire da un vertice v di G, è possibile costruire un ciclo che inizia e finisce in v e che attraversa ogni arco esattamente una volta.

Teorema: Un multigrafo G = (V, E) è euleriano se e solo se

1. G è connesso, e

2. tutti i nodi di G hanno grado pari.

(23)

Richiamo

Dimostrazione: (⇒) Se G è euleriano allora contiene un ciclo euleriano. Necessariamente deve essere connesso (altrimenti non potrei partire da un nodo in una componente connessa e tornare nello stesso nodo passando per altre componenti connesse) ed avere nodi di grado pari.

(⇐) Sia G connesso con tutti i nodi di grado pari. Procediamo per induzione

PASSO BASE: E = ∅. Sicuramente G è euleriano.

PASSO GENERICO: Supponiamo che tutti i multigrafi G’ = (V’ E’)

con |E’| < |E| siano euleriani. Scegliamo un nodo v∈V. Partendo da

v, costruiamo un ciclo senza passare mai su un arco più di una

volta (questo è possibile perché ogni nodo in G ha grado pari).

(24)

Richiamo

(⇐) Cancelliamo da G gli archi del ciclo appena calcolato e consideriamo le componenti connesse ottenute. Ognuna di tali componenti

– soddisfa le condizioni 1. e 2.

– è euleriana (dall’ipotesi induttiva).

Ricomponendo i percorsi euleriani di ciascuna componente

connessa otteniamo un ciclo euleriano su G. Pertanto possiamo

concludere che G è euleriano.

(25)

Richiamo

Teorema: Sia H = (V, F) un grafo completo con la matrice

dei costi che soddisfa la disuguaglianza triangolare. Sia G =

(V, E) un sottografo euleriano connesso di H. Allora H

contiene un ciclo hamiltoniano di lunghezza al più Σ

e∈E

c

e

.

(26)

Dimostrazione (idea)

1

2

3

4

5

Sottografo euleriano

Come posso ricavare un ciclo hamiltoniano?

Poiché vale la disuguaglianza triangolare, c

25

< c

23

+ c

35

.

(27)

Euristica Double Tree

1. Calcola un minimo albero ricoprente K (Kruskal/Prim).

2. Raddoppia gli archi di K, formando un ciclo euleriano.

3. Ricava un ciclo hamiltoniano dal ciclo euleriano.

Indichiamo con z

HDT

il valore della soluzione che si ottiene

applicando l’euristica Double Tree.

(28)

Da un percorso euleriano ad un ciclo hamiltoniano

Consideriamo un ciclo euleriano (v

1

, …, v

k,

,v

1

).

procedure obtain_hamiltonian () T = {v

1

}, i=2, v = v

1

while |T| < n { if v

i

∉ ∉ ∉ ∉ T

T = T ∪ {v

i

} collega v a v

i

v = v

i

i ++

}

collega v a v

1

T è un ciclo hamiltoniano.

(29)

Esempio

1 2

3

4

5

6 7

11 10 9

8

Tour euleriano (5,4,5,3,2,3,1,3,5,6,5,8,9,8,10,8,7,11,7,8,5)

(30)

Proprietà

Double tree è un algoritmo 2-approssimato per il TSP.

Dimostrazione:

1. z* > z

TREE

(1-albero è un rilassamento per TSP).

2. Per costruzione, la lunghezza del “doppio albero” è 2 * z

TREE

. 3. z

HDT

< 2 * z

TREE

.

Pertanto:

z

HDT

/ z* < 2 * z

TREE

/ z

TREE

= 2.

(31)

Euristica di Christofides

1. Calcola un minimo albero ricoprente K.

2. Sia V ’⊆ V l’insieme dei vertici che hanno grado dispari in K.

3. Trova il matching perfetto M di peso minimo sui nodi V’’.

4. M ∪ K è un percorso euleriano.

5. Ricava un ciclo hamiltoniano dal percorso euleriano.

Indichiamo con z

H

il valore della soluzione che si ottiene

(32)

Esempio

1 2

3

4

5

6 7

11 10 9

8

Tour euleriano (1,2,3,6,5,4,9,8,10,11,7,8,5,3,1) Nodi di grado dispari

Tour hamiltoniano (1,2,3,6,5,4,9,8,10,11,7,8,5,3,1)

Matching perfetto

(33)

L’algoritmo di Christofides per il TSP è 3/2-approssimato.

Dimostrazione:

1. z* > z

TREE

(1-albero è un rilassamento per TSP).

1. Per costruzione, il peso di un ciclo euleriano è pari a z

TREE

+ z

M

. Grazie alla disuguaglianza triangolare e dato che il ciclo hamiltoniano è stato ottenuto cancellando alcuni nodi del ciclo euleriano, si ha

z

HCH

< z

TREE

+ z

M

.

Proprietà

(34)

Dimostrazione: Sia C* il ciclo hamiltoniano ottimo.

Siano {t

1

, t

2

, ..., t

2k

} i vertici di grado dispari del minimo albero ricoprente etichettati nell’ordine in cui si incontrano nel ciclo hamiltoniano ottimo.

Esempio:

T* = {1, 2, 3, 4, 5, 6}

Min albero ricoprente in rosso {t

1

, t

2

, ..., t

2k

} = {1, 3, 5, 6}

Proprietà

1

2 3

4

6 5

(35)

Dimostrazione

Sia C il ciclo formato dai vertici {t

1

, t

2

, ..., t

2k

} e z(C) il suo costo.

Si ha che:

1. C è l’unione di 2 matching perfetti

{t

1

t

2

, t

3

t

4

, ... t

2k-1

t

2k

} ∪ {t

2

t

3

, t

4

t

5

, ... t

2k

t

1

} sui nodi {t

1

, t

2

, ..., t

2k

}. Pertanto, z(C) > 2z

M

.

2. z(C) < z* per la disuguaglianza triangolare. Difatti ognuno degli archi di C ha un costo minore o uguale al corrispondente sottocammino in T.

Pertanto, z* > z(C) > 2 z

M

, ovvero z

M

< z*/2.

Quindi:

z

HCH

< z

TREE

+ z

M

< z* + z*/2 < 3/2 z*

(36)

Il problema della bisaccia

Avete a disposizione un budget b per gli investimenti dell’anno 2008.

Ad ogni progetto è associato - un costo a

j

(> 0)

- un guadagno atteso p

j

(>0).

Problema: Scegliere l’insieme di progetti in modo che sia massimizzato il guadagno atteso senza eccedere il budget b.

Se ogni progetto può essere attivato non solo per intero ma

anche in parte si parla di knapsack continuo.

(37)

Il knapsack continuo

max ∑ p j x j st

a j x j ≤ b KRL

0≤ x j ≤ 1 per j= 1, ..., n

KRL è un rilassamento del problema di knapsack 0-1.

Infatti, la collezione degli insiemi ammissibili del problema di knapsack 0-1 è contenuta nella regione ammissibile del problema di knapsack continuo.

La soluzione di KRL fornisce un upper bound per il problema di

(38)

Il knapsack continuo

Come si risolve il problema di knapsack continuo?

Essendo formulato come problema di Programmazione Lineare, si può risolvere utilizzando il metodo del simplesso.

In alternativa: Supponiamo di riordinare gli elementi della bisaccia in modo che:

p

1

a

1

p

2

a

2

≥ .. .≥ p

n

a

n

j=1 h

a

j

>b e sia h l’indice minimo per cui

La soluzione x

1

=1, x

2

=1, ..., x

h–1

=1, x

h

=f, x

h+1

=0, ..., x

n

=0

è ottima per (KLR).

f=b

h− 1

j=1

a

j

a

h

con

(39)

Dimostrazione

Supponiamo, senza perdita di generalità, che gli elementi del problema soddisfino

e sia x*

LP

= (x*

1

, …, x*

n

) la soluzione ottenuta con la formula precedente. Consideriamo una soluzione x’ ottima, diversa da x*

LP

.

x’ differisce da x*

LP

per almeno un elemento x’

i

con i < h e per almeno un elemento x’

k

con k > h. Ciò significa che esiste un indice i < h tale che x’

i

< 1 e un indice k > h tale che x’

k

> 0.

Sia

p

1

a

1

p

2

a

2

≥ .. .≥ p

n

a

n

d= min { a

k

x'

k

,a

i

1 − x'

i

}

(40)

Dimostrazione

Consideriamo un nuovo vettore x’’ con le seguenti componenti:

x’’

j

= x’

j

per ogni j ≠i, k x’’

i

= x’

i

+ d/a

i

x’’

k

= x’

k

– d\a

k

x’’ è ammissibile per KRL. Infatti:

Inoltre, . Infatti:

Ma, allora, la soluzione x’ non è ottima (contraddizione).

a

j

x ''

j

= ∑ a

j

x'

j

a

i

d

a

i

a

k

d

a

k

≤ b

px '' >px'

p

j

x ''

j

= ∑ p

j

x'

j

+da p

ii

p a

kk

p

j

x'

j

(41)

Bound primale per il knapsack

L’algoritmo Greedy che segue, applicato agli elementi della bisaccia riordinati secondo il criterio

restituisce, invece una soluzione ammissibile, e quindi un lower bound, per il problema di knapsack:

Algorithm Greedy_knapsack () d = 0; z = 0;

for (j = 1; j < n; j ++) { if (d + a

j

< b) then

x

j

= 1;

d = d + a

j

; z = z + c

j

; else x

j

= 0;

}

p

1

a

1

p

2

a

2

≥ .. .≥ p

n

a

n

(42)

Riassumendo…

Abbiamo definito per il knapsack 0-1 un upper bound con le seguenti proprietà:

1. L’upper bound è “continuo”, nel senso che si ottiene dalla soluzione di un problema di Programmazione Lineare e non da un problema di OC.

2. L’upper bound può essere calcolato con un algoritmo polinomiale più efficiente rispetto al metodo del simplesso.

Domanda: Può essere generalizzata questa tecnica di rilassamento?

Sostituendo la “stipula” x ∈ {0,1} con il vincolo 0 < x < 1 di una

formulazione di un problema di PL-{0,1}, si ottiene sempre un

rilassamento denominato Rilassamento Lineare.

(43)

Dualità

Definizione: Due problemi di ottimizzazione z = max {f(x) : x ∈X}

w = min {g(y) : y ∈Y }

formano una coppia duale “debole” se f(x) < g(y) per ogni x ∈X e y ∈Y.

Se z = w si dice che formano una coppia duale “forte”.

Vantaggio fondamentale rispetto al rilassamento:

Per ottenere un bound attraverso il rilassamento, il problema

rilassato va risolto all’ottimo. Invece, per una coppia duale

OGNI soluzione ammissibile y ∈Y (x ∈X) è un upper (lower)

bound per z (w).

(44)

Massimo insieme stabile

Formulazioni di PLI

Dati: G = (V,E), |V| = n, |E| = m.

Variabili decisionali:

x

i

=

1 se il vertice i appartiene allo stabile S 0 altrimenti

Formulazione:

max Σ x

i

i∈V

x

i

+ x

j

< 1 ∀ (i, j) ∈ E

x

i

∈ {0,1} ∀ i ∈ V

(45)

Rilassamento lineare del massimo insieme stabile

Rilassamento lineare

max Σ x

i

i∈V

x

i

+ x

j

< 1 ∀ (i, j) ∈ E x

i

> 0 ∀ i ∈ V

STAB

RL

Osservazione: La limitazione x

i

< 1 può essere omessa.

Indichiamo con α

RL

(G) il valore della soluzione ottima di

STAB

RL

.

(46)

Minimo edge cover

Formulazioni di PLI

Dati: G = (V,E), |V| = n, |E| = m.

Variabili decisionali:

y

ij

=

1 se l’arco ij appartiene all’edge cover C 0 altrimenti

Formulazione:

min Σ y

ij

ij∈E

y

ij

∈ {0,1} ∀ (i, j) ∈ E

Σ y

ij

> 1 ∀ i ∈ V

ij∈∂(i)

(47)

Rilassamento lineare del minimo edge cover

Rilassamento lineare

y

ij

> 0 ∀ (i, j) ∈ E

EDGE-C

RL

Osservazione: La limitazione y

ij

< 1 può essere omessa.

Indichiamo con ρ

RL

(G) il valore della soluzione ottima di EDGE-C

RL

.

min Σ y

ij

ij∈E

Σ y

ij

> 1 ∀ i ∈ V

ij∈∂(i)

(48)

Dualità

Osservazione: I problemi STAB

RL

e EDGE-C

RL

costituiscono una coppia duale forte per ogni grafo G.

Inoltre

α(G) < α

RL

(G) e ρ

RL

(G) < ρ(G) Pertanto

α(G) < α

RL

(G) = ρ

RL

(G) < ρ(G)

I problemi STAB e EDGE-C costituiscono una coppia duale

debole per ogni grafo G.

(49)

Massimo matching

Formulazioni di PLI

Dati: G = (V,E), |V| = n, |E| = m.

Variabili decisionali:

y

ij

=

1 se l’arco ij appartiene al matching M 0 altrimenti

Formulazione:

max Σ y

ij

ij∈E

Σ y

ij

< 1 ∀ i ∈ V

ij∈∂(i)

(50)

Rilassamento lineare del massimo matching

Rilassamento lineare

y

ij

> 0 ∀ (i, j) ∈ E

MATCHING

RL

Osservazione: La limitazione y

ij

< 1 può essere omessa.

Indichiamo con µ

RL

(G) il valore della soluzione ottima di MATCHING

RL

.

max Σ y

ij

ij∈E

Σ y

ij

< 1 ∀ i ∈ V

ij∈∂(i)

(51)

Minimo trasversale

Formulazioni di PLI

Dati: G = (V,E), |V| = n, |E| = m.

Variabili decisionali:

x

i

=

1 se il vertice i appartiene al trasversale T 0 altrimenti

Formulazione:

min Σ x

i

i∈V

x

i

+ x

j

> 1 ∀ (i, j) ∈ E

(52)

Rilassamento lineare del minimo trasversale

Rilassamento lineare

min Σ x

i

i∈V

x

i

+ x

j

> 1 ∀ (i, j) ∈ E x

i

> 0 ∀ i ∈ V

TRASV

RL

Osservazione: La limitazione x

i

< 1 può essere omessa.

Indichiamo con τ

RL

(G) il valore della soluzione ottima di

TRASV

RL

.

(53)

Dualità

Osservazione: I problemi MATCHING

RL

e TRASV

RL

costituiscono una coppia duale forte per ogni grafo G.

Inoltre

µ(G) < µ

RL

(G) e τ

RL

(G) < τ (G) Pertanto

µ(G) < µ

RL

(G) = τ

RL

(G) < τ (G)

I problemi MATCHING e TRASV costituiscono una coppia

duale debole per ogni grafo G.

(54)

Dualità

Dal teorema di König segue che MATCHING e TRASV godono della dualità forte se G è un grafo bipartito.

Dal teorema di Gallai e dal teorema di König segue che STAB e

EDGE-C godono della dualità forte se G è un grafo bipartito.

Riferimenti

Documenti correlati

A running example of LSD-first RadixSort is given in Figure 6.4: the red digits (characters) are the ones that are going to be sorted in the current phase, whereas the green digits

A running example of LSD-first RadixSort is given in Figure 5.5: the red digits (characters) are the ones that are going to be sorted in the.. current phase, whereas the green

Al contrario dei bound primali, trovare upper (lower) bound di buona qualità per problemi di massimo (minimo) è tipicamente difficile.. Buoni bound duali si ottengono

Scrivere in pseudo-codice una procedura che, presi in input un intero k e un grafo non diretto G, stampi tutte le k-colorazioni di G (una k-colorazione si pu` o rappresentare tramite

• operazione di bound : valutazione ottimistica della funzione obiettivo per le soluzioni rappresentate da ciascun nodo (bound ), per evitare lo sviluppo completo di sotto-

Valutazione soluzioni ammissibili: nessuno (da rilassamento intero) Stop: lista nodi aperti vuota.. , x 5 ∈

• operazione di bound: valutazione ottimistica della funzione obiettivo per le soluzioni rappresentate da ciascun nodo (bound ), per evitare lo sviluppo completo di sotto-

In this paper we consider the use of the evolutionary Particle Swarm Optimization (PSO) algorithm, where the choice of the parameters is inspired by [4], in order to avoid