Matri e didissimilarità dove
d(i, j)
è lamisuradidissimilarità traoggettii
ej
. Sed(i, j) = 0
alloraglioggettisono moltosimili. Ad esempio, ungio attolo on treoggetti:
Variabili numeri he,binarie, ategori henominali, ditipo misto
5.2 La distanza
Proprietà della distanza(dallamatri e didissimilarità):
d(a, b) ≥ 0
(1)Permisurare similaritàtra oppie dioggettispesso siutilizza ladistanza diMINKOWSKI:
d(i, j) = q
Possiamo pesare levariabili,ottenendo una misuradidistanza pesata.
S opo: partizionare ildatabase
D
din oggettiinun insieme dik
luster.5.3.1 Apprendimento non supervisionato
K-MEANS
1. s egliamo
k = 3
e itresemiiniziali2. assegniamo ognire ord al luster on il entroide (o seme) piùvi ino
3. il passodue ha individuatonuovi luster. Ci al oliamoi entroidi(o semi) diquesti
La omplessità è
O(nktd)
,dove:n numero dioggetti
k numero di luster
t numero diiterazioni
d numero diattributi
K-MEDIOIDS (PAM)
5.3.2 Apprendimento supervisionato
Reti neurali (MLP) Una Multi-Layers Per eptron net (MLP) è ompostada una seriediper ettroni
organizzati on una struttura gerar hi a he può omprendere uno o più strati nas osti (hidden layer)
legati on la regola del feed-forward (un nodo dello strato
i
-esimo può essere ollegato solo ad un nododello strato
i + 1
-esimo).Il per ettrone è unsempli eneurone dotatodel ir uitotea her perl'apprendimento:
Quandousare lereti neuralineldatamining ?
Le reti neurali rappresentano una buona s elta in aso di lassi azioni e previsioni, quando è più
importante avere velo emente e bene irisultatidi unmodello henon sapere ome questofunziona.
Leretineuralinonfunzionanobenequandosihaa hefare on entinaiaomigliaiadivariabilidiinput.
Un grannumero diqueste aratteristi he rendepiù di ile il ompito dellarete diindividuarepattern e
la fase di training può prolungarsi nel tempo senza trovare una buona soluzione. In questo aso, le reti
neurali danno frutti migliori se ombinate on gli alberi de isionali: questi ultimi infatti selezionano le
variabilipiùimportanti, impiegate poiperil trainingdella rete
6 Ma hine Learning
6.1 Problemi di apprendimento Well-Posed
A omputer program is saidto learn from experien e
E
withrespe tto some lassof tasksT
and performan e measure
P
, ifits performan e at tasks inT
, as measured byP
, improveswithexperien e
E
Con etti fondamentali:
Task
T
obiettivo del sistema(gio are adama)Experien e
E
insieme diaddestramento dal quale apprendere (partitegio ate) Performan emeasureP
misuradella apa itàdieseguire iltask(# dipartitevinte)6.1.1 Esempidi problemi well-posed
Gio o della dama:
Task
T
gio area damaExperien e
E
partitegio ate ontro sestessoPerforman emeasure
P
%dipartitevinteTask
T
ri onos ere e lassi are parole s ritte amanomemorizzate ome immagini Experien eE
undatabase diparole s ritte amanoinsieme alla loro lassi azione Performan emeasureP
%diparole orrettamente lassi ateRobot he guida unautovei olo
Task
T
guidare un autovei olosu una strada pubbli a Experien eE
sequenzadiimmaginiPerforman emeasure
P
distanzaper orsa prima diunerrore6.2 Progettazione di un sistema di apprendimento
Gli obiettivigenerali sono:
•
Denireinmodopre isouna lassegeneralediproblemi hein ludono formeinteressantidi appren-dimento•
Esplorare algoritmi he risolvono problemidi apprendimento•
Comprenderela strutturafondamentale diproblemi epro essidiapprendimento6.2.1 S elta della Training Experien e
La TrainingExperien eè aratterizzata da:
Feedba k Dire t feedba k trainingexamples: insiemedi singole ongurazioni dellas a hiera insieme
alla mossa orrettaper ias unodiessi.
Indire t feedba k training examples: insieme di sequenze dimosse insieme airisultati nali delle
partite gio ate(èdi ile ri avare informazionisullabontà dellesingole mosse)
Controllo della sequenza ditrainingexamples
Distribuzione dei training examples: quanto rappresenta bene la distribuzione di esempi sui quali il
sistemaverrà misurato
Comeassunzione,ilsistemaapprende attraverso partite ontrosèstesso. Non ne essita diun external
trainer epossonoessere generatimolti trainingesempi
6.2.2 Case study: ilgio o della dama
Dastabilire:
1. Il tipo esatto di onos enzada apprendere
2. Una rappresentazione perla onos enzatarget
3. Un me anismodiapprendimento
La s elta della mossa è però di ile da apprendere per via deltipo diindire t experien e disponibile
al sistema. Nuova Target Fun tion
V
: mapping tra ogni stato ammesso della s a hiera e l'insieme deinumeri reali: punteggio più alto allo stato piùpromettente perl'esito della partita. Deniamo noi una
funzione (ri orsiva)
V (b)
,doveb
è lostato s a hiera,b ∈ B
:•
Seb
è uno statonale positivoV (b) = 100
•
Seb
è uno statonale negativoV (b) = −100
•
Seb
è uno statonale pattaV (b) = 0
•
Seb
èunostato intermedioV (b) = V (b ′ )
essendob ′ ilmigliorestatonale he puòessereraggiunto
a partiredallo stato
b
e gio ando inmodo ottimono alla nedel gio o.E' pero una denizione nonoperazionale:
V
non può essere realmente omputata. Si di e denizioneoperazionaledi
V
una denizione he puòessere realmente utilizzata dalsistemaper valutarestatieselezionare legiustemosseinlimiti ditempo realisti i
Siapprossimalafunzione targetideale
V
on una funzioneV ∗:
• X 1: numero dipedineneresullas a hiera
• X 2: numero dipedinebian he sullas a hiera
• X 3: numero didame neresullas a hiera
• X 4: numero didame bian he sullas a hiera
• X 5: numero dipedineneremangiate dalbian o
• X 6: numero dipedinebian he mangiate dalnero
V ∗ (b) = w 0 + w 1 x 1 + w 2 x 2 + w 3 x 3 + w 4 x 4 + w 5 x 5 + w 6 x 6
Esempio di training: oppiaordinata della forma
< b, V train (b) >
essendob
lostato della s a hiera eV train (b)
il valoreasso iato adesso. Esempio ditraining:< 3, 0, 1, 0, 0, 0, +100 >
: ilbian o havinto.Gli esempi di training disponibili per l'apprendimento sono però di tipo indiretto: le informazioni
disponibili sonosolo vittoriaos ontta (quindi dine partita). Bisogna:
•
Costruire una pro edura he determini gli esempi di training a partire dall'esperienza indiretta disponibileallearner•
Modi are ipesiw
in modotale da approssimarealmeglio lafunzionetargetV
Si habisogno quindidi esempi he assegninoagli statidella s a hiera unpunteggio Perglistati naliè
fa ile mentre per gli stati intermedi? Poniamo il valore asso iato a ias uno stato intermedio uguale al
valore dello stato su essivo:
Bisognadeterminare ipesi
w
inmodo tale daadattare al massimo(best t)l'algoritmo agliesempi di addestramento< b, V train (b) >
Regola Least Mean Squares (LMS): si denis e la migliore hypothesis oinsieme dei pesi omequella/o he minimizzal'errore quadrati o
E
: (P (v train (b) − v ∗ (b)) 2)
Regola LMS per l'aggiornamento dei pesi w: Per ogni training example
< b, V train (b) >
Cal ola on ipesi attuali
V ∗. Aggiorna
ias
un pesow i
on laregola
w i = w i + η(v train (b) − v ∗ (b))x i
dove
η
è una ostante(0, 1)
he moderalavelo ità diaggiornamento deipesiw
.6.2.3 S hemadiun sistema generale diapprendimento
Il progetto ompleto diunLearning System prevede:
modulo Performan e System è il modulo he gio a a dama utilizzando la
V ∗ La sua performan e migliora on ilnumero dipartite gio ate
modulo Criti prendeininput unapartitae produ e esempiditraining
modulo Generalizer implementa la LMS rule modi ando i pesi
w
(generalizza sempre di più l'ipotesiV ∗ )
modulo ExperimentGenerator prende in input la ipotesi
V ∗ orrente e genera un nuovo problema da
esplorare (una nuova partita)
6.3 Con ept Learning
6.3.1 Denizioni
Learning indurre funzionigenerali da esempiparti olari ditraining
Con ept learning a quisire ladenizione diuna ategoria generale datoun insieme diesempi positivie
negativi della ategoria stessa
Best Fit hypothesis determinarel'ipotesi
h
hemeglio siadatta agli esempiditrainingGeneral-to-Spe i introduzione nello spazio delle ipotesiHdiun ordinamento parziale
Find-s/Version Spa e studio dialgoritmi he onvergonoinH all'ipotesih orretta.
Nel Con eptLearning sitratta di
Inferenziare automati amente una funzioneLearning booleanaa partiredall'insieme dei
trai-ning examples
< input, output >
Adesempio,seilTargetCon eptèGiorniin uiilmioami oAldoprati ailsuosportd'a quapreferito,
datoun training setdiinput, il Con eptLearning portaad apprendere a predireil valore diEnjoySport
perungiorno arbitrario,sullabase degli attributi delgiorno stesso.
6.3.3 Con ept Learning ome ri er ainH
Perla rappresentazione della funzione ipotesi
h
, nell'ipotesi sempli e, ogni ipotesih onsiste nell'unione deivin oli espressi negliattributi ammessi nella singolaistanza. Possibilerappresentazione:•
Un vettore di 6 elementi/vin oli he spe i ano i valori dei 6 attributi Sky, AirTemp, Humidity, Wind,Watere Fore ast•
Perogniattributo, l'ipotesipotrà ontenere iseguenti valori:?
→
ognivalore dell'attributoè a ettabileIl valoretra quelli onsentiti
0
→
nessunvalore perquell'attributo•
Se una istanza x soddisfa tutti i vin oli dell'ipotesi h allora h lassi a x ome esempio positivo:h(x) = 1
Es. di ipotesi h:
<?, Cold, High, ?, ?, ? >
. Aldo prati a lo sportsolo nei giorni freddi on umidità alta.Ipotesih piùgenerale
<?, ?, ?, ?, ?, ? >
: ognigiornoè buonoperfaresportd'a quaIpotesihpiùspe i a< 0, 0, 0, 0, 0, 0 >
: nessun giornoè buono perfaresport d'a quaDenizioni:
Insieme delle istanze X l'insieme di items sui quali il on etto è denito. (Insieme di tutti i possibili
giorni)
Target Con ept la funzione/ on ept he deve essere appresa. In generale può essere qualunque
funzione booleana denitasu X: : X->[0,1℄
Training ExamplesD : formato da n istanze
x ∈ X
insieme a n valori orrispondenti (x): <x, (x)>.Se (x)=1 siparla diesempipositivi mentre per (x)=0 siparla diesempinegativi
Insieme H insieme di tutte lepossibiliipotesih andidate alla determinazione dellafunzione target
Obiettivo determinare
h ∈ H
tale heh(x) = c(x)
pertutti glix ∈ X
Dati:
Istanze X giorni possibili, ias uno dei quali des ritto dagli attributi: Sky (Sunny, Cloudy e Rainy),
AirTemp(Warm, Cold),...
Ipotesi H ias unaipotesih èdes ritta dall'unione divin oli sugliattributi 1,...,6 +<?>e <0>
Con etto Target C EnjoySport: X->0,1
Esempi ditraining D esempipositivie negativi della funzionetarget
Determinare una ipotesi
h ∈ H
tale he h(x)= (x)∀x ∈ X
.6.3.4 Con ept Learning as Sear h
Il on ept learning può essere visto ome il ompito ditrovarela funzione h attraverso una ri er a nello
spazio HObiettivodella ri er ainH:trovarelafunzioneh he meglioapprossimi suitraining examples
(best th). È ne essariodunquelo studiodialgoritmi e te ni he diri er a inH.
Siintrodu e nell'insiemeHunordinamento hefa ilitilari er adellafunzioneh. Ogniistanza
lassi- ata omepositivada
h 1è
lassi
ata
omepositivaan
hedah 2,
ioèh 2piùgeneraledih 1. L'ordinamento
è quindi dal più spe
i
o al più generale. L'ordinamento parziale ≥ g proposto gode della proprietà di
h 2piùgeneraledih 1. L'ordinamento
è quindi dal più spe
i
o al più generale. L'ordinamento parziale ≥ g proposto gode della proprietà di
≥ g proposto gode della proprietà di
riessività,diantisimmetria edi transitività.
Consente lari er adell'ipotesipiùspe i a:
1. Inizializza halla ipotesipiùspe i a inH.
2. Perogni istanzapositiva ditraining xe perogniattributo on vin olo
a i inh,seil vin
olo a i non
è soddisfattoda xallorasostituis i
a i inh on ilvin olo piùgeneralesoddisfatto dax È quindipiùspe i a rispettoa tuttele ipotesifornite.
hdiFind-Sèiltarget on ept? Find-Snon igarantis e henonesistanoaltreipotesihinH onsistenti
on idati. Civorrebbe unalgoritmo he dessemaggiori informazioni sullospazioH eh. Per hè predilire
l'ipotesi piùspe i a? Quanto sono onsistenti gli esempi di training? Find-S può essere guidato male
dalrumore(ignorando esempinegativi). Vorremmounalgoritmo hetenesse ontodelrumore neidatiSe
esistono piùipotesih onsistenti on idati?
La risposta stanelVersionSpa eed altrialgoritmi.
6.3.6 Version Spa e
Una ipotesihè onsistente onuninsiemeditrainingexamplesDseesoloseh(x)= (x)perogniesempio
<x, (x)>inD.
Il versionspa eè il sottoinsiemediHformato da tutte leipotesih onsistenti inD
L'algoritmoList-Then-Eliminatefornis eilsetdiipotesi onsistente oniltrainingsetedappartenente
al trainingset.
Version Spa e: lo rappresentiamo on i suoi membri più generali e meno generali. Essi formano due
insiemidi onne,GedS(GeneraleSpe i ) hedelimitanoilversionspa edentrolospazioparzialmente
ordinato delle ipotesi.
AlgoritmodiapprendimentoCandidate-Elimination Cal olailVersionSpa e ontenentetutteleipotesi
di H he sono onsistenti on una sequenza osservata di esempi di training. Parte inizializzando il VS
all'insieme ditutte leipotesiinH,ossiainizializzando Ged S.
G 0 {<?,?, ?,?, ?, ?>} S 0 {<0, 0,0,0,0,
0>} L'algoritmo ritornailVS ontenente tutte leipotesi onsistenti ongli esempi esolo quelle.
Converge all'ipotesi h orretta a patto he non i siano errori negli errori di training e esista in H
l'ipotesih. Può onvergere an he adun insieme vuoto.
7 Logi a Fuzzy
Le te ni he di ontrollo fuzzy sono oggi estensivamente utilizzate in molti settori; tra questi si itano
appare hiature di largo onsumo ome lavatri i e tele amere ma an he impianti di depurazione delle
a quee ambiautomati idivetture diprestigio. Allabasediquestoappro ioèingenerelarealizzazione
di un sistema di ontrollo he in orpora e emula, tramite regole, la onos enza di esperti del settore.
Altreappli azioni sviluppatere entementeriguardanoil trattamento didatisensoriali per l'estrazione di
informazioni inpresenza diforti in ertezze nonstrutturate.
Quandousareil ontrollointelligente fuzzy? Quandoitasksonobenposti,sihannomodelliadabilie
onos enzequantitative siutilizzanometodidi ontrollo lassi i. Vi eversa,quandoitasksono omplessi,
modelliin erti e unelevato osto della onos enza quantitativa siappli a inve e il ontrollo intelligente.
All'internoditales elta, sela onos enzaqualitativa èdisponibileedèutilesiusanometodi Rule based
o algoritmi i (fuzzy). Se inve e la onos enza qualitativa non è sfruttabile, si adottano appro i ad
apprendimento (Learning), omelereti neurali.
7.1 Insiemi Fuzzy
Un elemento
x
dell'insiemeuniversaleU
puòappartenereomenoaduninsiemeA
. L'insiemeA
èdenitodalla suaf n. aratteristi a:
µ A : U → {0, 1}
(7)µ A = A(x) =
( 1
sex ∈ A
0
altrimenti (8)Ho quindisolo valoridis reti: 0 o1.
proposizioni, al olandoil gradodiverità diun'aermazione. Se
U
èdis reto,si puòenumerareil fset.Ilproblemadiquestoappro ioèdeterminarequalèl'andamentogiusto dellafunzione. Las eltadella
funzione aratteristi a è legata infatti alla soggettività, all'arbitrarietà. La dierenza signi ativa della
logi a fuzzy rispetto alle altre logi he si può notare on il seguente esempio. Se la domanda è: C'è un
panino olsalameinfrigo? è larispostaha valore
0.5
,selainterpretiamo ome:probabilità signi a forse
misura signi a he 'èmezzo panino
fuzzy signi a he 'è qual osa (magaripane e salameseparati, oppure unpaninoalpros iutto, ...)
Oraelen hiamo i on ettidibasedegli insiemi fuzzy
A(x)
:supporto
x : A(x) > 0
altezza
max(A(x))
. Spesso sinormalizzaa 1.ardinalità
card(A(x)) = P A(x i )
. ValeperU
dis retoα
- utsA α = {x ∈ X : A(x) > α}
. È un on etto utile per des rivere i fuzzy set e per omprendere al une proprietà. È un insieme risp. Nella denizione,α
è variabile, e il valoreA α potrà essere
variinsiemi di
x
spezzati, tali per uilaproprietà vale.7.1.1 Operatori logi i
Per introdurli usiamo un'appro io assiomati o: sono funzioni he soddisfano assiomi desiderabili.
Assiomi peril omplemento
c : [0, 1] → [0, 1]
:1. ondizioni al ontorno:
c(0) = 1
,c(1) = 0
2. monotona non de res ente:
a < b → c(a) ≥ c(b)
3.
c
èuna funzione ontinua (non indispensabile) 4. funzione involutiva:c(c(x)) = x
(non indispensabile)Assiomi perl'unione
u : [0, 1] × [0, 1] → [0, 1]
(altra notazione:∨
):1. ondizioni al ontorno:
u(0, 0) = 0
;u(0, 1) = u(1, 0) = u(1, 1) = 1
2.
u(a, b) = u(b, a)
3. se
a < a ′ e b < b ′,allorau(a, b) < u(a ′ , b ′ )
u(a, b) < u(a ′ , b ′ )
4. proprietà distributiva:
u(u(a, b), c) = u(a, u(b, c))
5.
u
è unafunzione ontinua (non indispensabile) 6. idempotenza:u(a, a) = a
(non indispensabile)Assiomi perl'intersezione
i : [0, 1] × [0, 1] → [0, 1]
(altranotazione:∧
):1. ondizioni al ontorno:
i(1, 1) = 1
;i(0, 1) = i(1, 0) = i(0, 0) = 0
2.
i(a, b) = i(b, a)
3. se
a < a ′ e b < b ′,allorai(a, b) < i(a ′ , b ′ )
i(a, b) < i(a ′ , b ′ )
4. proprietà distributiva:
i(i(a, b), c) = i(a, i(b, c))
5.
i
è unafunzione ontinua (non indispensabile) 6. idempotenza:i(a, a) = a
(non indispensabile) Le forme piùimpiegate sono:c(x) u(a, b) i(a, b)
Nomeu
edi
1 − x max(a, b) min(a, b)
MaxMin (MM)a + b − ab ab
PRod (PR)min(1, a + b) 1 − min(1, 2 − a − b)
BSc[i(a, b)] = u[c(a), c(b)]
Risulta inoltre he,nel asodiunione
u
:M M ⊂ P R ⊂ BS
e, vi eversa, nel asodiintersezione
i
:M M ⊃ P R ⊃ BS
da uisidedu e he
M M
èl'appro io piùdis reto, mentreBS
è l'appro iopiùestremista. Tuttele formeindividuanolapiù onveniente,masoloP R
ontienetuttelesfumature,poi hélafunzionemin(a, b)
è non-interagente. L'appro io
BS
riuta tutto aldisottodiun limite.A ausa dell'idempotenza e della proprietà distributiva he aratterizzano
u
edi
, la perdita diinfor-mazioni è vista ome unarri himento di informazioni. Siha quindi he
i(a, c(a)) 6= 0
eu(a, c(a)) 6= 1
.Infatti unaproposizione puòessere altempostesso unpo'veraeunpo'falsa(frase hetroverebbemolti
dubbi nellalogi a lassi a...).
7.1.2 Impli azioni
L'impli azione oin ide on l'in lusione: l'essere sottoinsieme di. Risulta infatti he
B ⇒ A
seB ⊂ A
.Per esprimerel'in lusione siusanoleseguentiespressioni a piùvalori:
Goedel
B (x) ⊂ A(x) =
( 1
seB (x) ≤ A(x) A(x)
altrimentiGoguen
B (x) ⊂ A(x) = (1
seB(x) = 0 min
1, A(x) B(x)
altrimenti
Lukas
B (x) ⊂ A(x) = min (1, 1 + A(x) − B(x))
Quando
B(x) ≤ A(x)
,tuttele3espressionisonougualia1. LedierenzesivedonoquandoB(x) > A(x)
.Con Goedel è uguale ad
A(x)
, on Goguen è uguale aA(x) B(x)
, on Lukas è uguale a1 + A(x) − B(x)
.Prati amente, nell'osservarese
A
in ludeB
(A ⊃ B
), risulta he, nquandoA ≯ B
on Goedel si seguel'andamentodi
A
, onGoguensiseguesifapiùomenounamediatraA
eB
,mentre onLukasadistanzeminori tra
A
eB
oin ide un valoremaggiore (quindi ho valori elevati an he quandoA ≯ B
nel asoadesempio he
A = 0
eB = 0.05
).7.2 Relazioni
7.2.1 Prodotto artesiano e relazioni
Dati due insiemi( risp)
A
eB
,ilprodotto artesiano èun insieme fuzzymultidimensionale:Q = A × B = {(a, b) : a ∈ A, b ∈ B}
La relazione
R
è un sottoinsiemediQ
:R(a, b) =
( 1 a, b ∈ R 0
altrimentiLa proiezione
proj
restituis e ilvalore piùalto asso iato allariga o olonna proiettata 1:
P(x) = sup y R(x, y)
La estensione ilindri a
cyl
opia ilvalore diuna rigaperilnumero delle olonney
:R(x, y) = F (x)∀y
La hiusura ilindri a èlamassima relazione ompatibile on due proiezioni. Siottiene ome:
∧(proj ′ s)
1
si hiamaproiezioneproprioper héridu eivaloripossibili da
N × M
aN + M
Date due relazioni
P
eQ
denite suX × Y
eY × Z
,la omposizione di relazioni ne trova una terzaT
su
X × Z
:T = P ◦ Q
on assiomi:
1.
(P ◦ Q) T = P T ◦ Q T
2.
(P ◦ Q) ◦ R = P ◦ (Q ◦ R)
3.
P ◦ Q = Q ◦ T
(non ri hiesto)La omposizione si realizzanelseguentemodo:
T (x, z) = proj y∈Y [R(x, y) ∧ Q(y, z)]
(9)Se risulta
∧ → min
eproj → max
,allora:T (x, z) = max
y∈Y [min(R(x, y), Q(y, z))] (10)
Adesempio, per al olare la omposizione
1. si s elgonodue valori
x
ez
(adesempiox = Londra
ez = Roma
)2. si al olailminimo valore tra
R(x, y 1 )
eQ(y 1 , z)
. Adesempio:lontanoDa(Londra, P arigi) = 0.8 lontanoDa(P arigi, Roma) = 0.7
allorarestituis e
min(0.8, 0.7) = 0.7
3. si al olailminimo valore tra
R(x, y 2 )
eQ(y 2 , z)
. Adesempio:lontanoDa(Londra, N Y C) = 0.4 lontanoDa(N Y C, Roma) = 0.2
allorarestituis e
min(0.4, 0.2) = 0.2
4. si al olailmassimo valore ottenuto:
max(0.2, 0.7) = 0.7
, ioè:lontanoDa(Londra, Roma) = 0.7
7.3 Ragionamento fuzzy
7.3.1 Regole
Il ragionamento fuzzyè unsistema basatosu regole. È formato da:
onos enza attuale
a ′ (
omposta da k
fatti)
regole nella forma
a ⇒ b
(an he nota ome onos enzaa priori)deduzione
b ′
Il passaggio regole/deduzioneè possibilegrazie almodus ponens:
a ′ ◦ (a ⇒ b) =: b ′
Le inferenze sono omposte da:
ante edente velo ità è xxx
regola IFvelo itàè elevata THENazioneè frena
onseguente azioneè yyy
Le regole dovrebberoessere:
•
omplete: deveri oprire asu ienza lepossibilisituazioni•
non ontraddittorie: regole on ante edenti simili o adia enti non dovrebbero dare us ite molto diverse traloroSe laregola he onos iamo è
velo ità alta --> frena
Ma alloraè valido
velo ità molto alta --> frena molto?
Se ondol'appro io logi -basednonsappiamo osafare, ivoglionoaltre regole. Il modusponens
genera-lizzato (GMP) ammette leestensioniri hiesteed è molto usato:
•
Consente diridurreilnumero diregole•
Sembra piùaderente alragionamento quotidiano7.3.3 Appro iologi -based
Si basasull'equivalenza:
A ⇒ B ≡ not(A) ∨ B
È ne essariorisolveretre problemi:
1. ostruire larelazione
R
dalla regola inmodo he soddis ilmodus ponensa ◦ (a ⇒ b) = b
2. ome gestire piùregole
3. qual è ilvalore di
b ′ sea ′ nonè esattamentea
a
La soluzione vienedalla teoriadelle equazioni fuzzy,imponendo he
b ′ = b
quandoa ′ = a
e er ando lasoluzione massima(in lude lealtre).
Se l'inferenza è
M M
, alloraR
(A ⇒ B
) va ostruita ome Goedel. Con questa ombinazione è interessantenotare he:1. la massimaindeterminatezzaè
= 1
evalese:A(x) = 0 ∀x ⇒ R(x, y) = 1 ∀x, y
2. sel'ante edenteè piùspe i o,il onseguente mantiene ilgradodiin ertezza iniziale:
A ′ (x) ⊂ A(x) ∀x ⇒ b ′ (z) = b(z)
3. sel'ante edentenon oin ide, il onseguenteè piùin erto:
A ′ (x) 6= A(x) ⇒ b ′ (z) ⊃ b(z)
Perla omposizionedipiùregole, abbiamo piùregole on glistessi ante edenti:
a ′ ◦ (a k ⇒ b k ) = b ′ k
e dobbiamo ri avare ilfuzzy set
b ′. Essendo lamassimaindeterminatezza paria 1,sidovràporre:
b ′ (z) = min[b ′ k (x)]
L'appro ioGMPè piuttostoeuristi oesibasapiùsullasoddisfazione dell'utente hesu basi
matema-ti he. Si er a unlegamepiù forte traante edenti e onseguente, quasifunzionale.
7.3.5 Impieghi nei ontrolli
Un sistema(ideale) di ontrollo fuzzy prevede:
fuzzify asso iaaognimisura(provenientedalpro esso)unfset(inbaseapre isione-rumore) he onsente
dides rivereinmodo graduale una misura(ad esempio temperatura alta).
motore inferenziale heoperasuregole ri avateinbaseaintervisteadespertioan heattraversometodi
adattativi, ad apprendimento, misti neurale-fuzzy.
de-fuzzify ri avadalle onseguenze (fuzzy)(ad esempiovelo ità dell'aria
de-fuzzify ri avadalle onseguenze (fuzzy)(ad esempiovelo ità dell'aria