• Non ci sono risultati.

Agenti intelligenti: tecniche per fronteggiare l’incertezza.

L’Intelligenza artificiale

2.4 Gli agenti intelligent

2.4.1 Agenti intelligenti: tecniche per fronteggiare l’incertezza.

Quando un agente ha sufficienti informazioni, l’approccio logico gli consente di derivare piani razionali; in concreto però gli agenti non hanno quasi mai tutte le informazioni necessarie. La pianificazione condizionale può mitigare in parte la presenza di incertezza soltanto se le azioni di percezione dell’agente gli consentono di ottenere le informazioni necessarie. In una situazione di incertezza, la cosa giusta da fare, vale a dire la decisione razionale, dipende sia

25 Gli agenti reattivi sono stati il riferimento principale degli psicologi di ispirazione behaviorista o comportamentale

che concentravano l’attenzione sul meccanismo stimolo-risposta.

26 Gli agenti artificiali basati su obiettivi fanno principalmente riferimento alla psicologia cognitiva; un lavoro

importante per il loro sviluppo fu “Human Problem Solving di Newell e Simon” del 1972, che ebbe grande influenza, anche per effetto dei successivi lavori di Newell che ne svilupparono le implicazioni. La distinzione degli obiettivi in “desideri” (generali) e “intenzioni” (perseguite in un certo momento), proposta da Bratman (1987), ha avuto molta importanza nei campi della comprensione del linguaggio naturale e dei sistemi multiagente.

27 Horwitz e altri (1988) suggerirono esplicitamente di usare come base dell’intelligenza artificiale una razionalità

51 dall’importanza relativa dei diversi obiettivi, sia dalla probabilità e dalla misura del loro raggiungimento.

Secondo Russel e Norvig l’incertezza deriva principalmente dalla pigrizia e dall’ignoranza, e la probabilità fornisce un modo per riassumere l’incertezza. Per esempio, si potrebbe dire che un paziente che ha mal di denti, nell’80 per cento dei casi avrà una carie; questa stima di probabilità può derivare da indagini statistiche sulle frequenze (l’80 per cento dei pazienti con mal di denti considerati in una indagine statistica aveva una carie), o da qualche altra fonte. Il restante 20 per cento di probabilità riassume tutte le altre possibili cause di mal di denti che la pigrizia e/o l’ignoranza non consentono di conoscere. Assegnare una probabilità pari a zero a una certa credenza significa esser sicuri che è falsa, probabilità pari a 1 significa esser sicuri che è vera, probabilità comprese fra 0 e 1 corrispondono a gradi intermedi di fiducia nella verità di una credenza. Una formula del tipo “la probabilità che il paziente abbia una carie è dell’80 per cento” riguarda le credenze dell’agente e non direttamente il mondo. Ciascun singolo paziente la carie può soltanto averla o non averla, non può “averla all’80 per cento”. Le probabilità possono ovviamente modificarsi man mano che si acquisiscono nuove informazioni (vale a dire man mano che diminuisce l’ignoranza) [Russel, Norvig, 2005, vol. 2].

Per prendere decisioni razionali in condizioni di incertezza, è necessario conoscere sia le probabilità dei diversi effetti delle decisioni, sia le preferenze dell’agente per questi diversi possibili effetti. Per rappresentare e utilizzare le preferenze si può applicare la teoria dell’utilità, secondo cui ogni possibile stato ha per l’agente un certo grado di utilità, e l’agente preferisce sempre stati con maggiore utilità. Non c’è alcun modo per valutare obiettivamente i gusti o le preferenze di diversi agenti; si può dire che alcune preferenze sono strane, non si può dire che sono irrazionali. Una funzione di utilità può anche incorporare un comportamento altruistico, se include il benessere di altri come fattore che contribuisce in modo diretto all’utilità dell’agente considerato. Le preferenze quindi, nella teoria delle decisioni vengono combinate con le probabilità. Come abbiamo spiegato precedentemente, l’idea fondamentale della teoria delle decisioni è che un agente è razionale se sceglie l’azione che porta alla più alta utilità attesa, calcolata sulla media di tutti i possibili esiti dell’azione; questo è il principio della massimizzazione dell’utilità attesa (MEU = maximization of expected utiliy) sviluppata da Von Neumann e Morgenstern

.

L’agente basato sulla teoria delle decisioni ha una conoscenza incerta del mondo; il suo “stato credenza” è una rappresentazione delle probabilità di tutti i possibili stati del mondo; con il passar del tempo l’agente accumula informazioni che possono modificare le sue credenze. Dato lo stato credenza, l’agente può formulare predizioni probabilistiche sugli esiti delle azioni e selezionare l’azione con la massima utilità attesa.

Le reti bayesiane sono state molto utili nel calcolo delle probabilità nel campo dell’intelligenza artificiale. L’intelligenza artificiale comunque ha cominciato in ritardo rispetto ad altre scienze come la fisica, la genetica, l’economia, ecc., a utilizzare la teoria delle probabilità per modellare l’incertezza; i primi sistemi esperti degli anni settanta, ignoravano l’incertezza; soltanto la seconda generazione di sistemi esperti utilizzavano tecniche probabilistiche, in particolare in ambito medico. I primi risultati furono incoraggianti, ma le difficoltà derivanti dal numero crescente in modo esponenziale delle stime di probabilità richieste dalla distribuzione congiunta completa, fece sì che fra il 1975 e il 1988 gli approcci probabilistici fossero praticamente abbandonati, e furono sperimentati altri approcci al ragionamento incerto. La teoria della probabilità è essenzialmente numerica, mentre i giudizi umani sono spesso di natura qualitativa; anche se le persone di solito non effettuano coscientemente calcoli sui gradi di credenza, esse svolgono comunque ragionamenti logici. Uno degli schemi qualitativi più utilizzati in concreto è il “ragionamento di default”, che considera le conclusioni non credute in una certa misura, bensì credute finché non si trova una ragione per credere in qualcos’altro.

52 Alcune applicazioni importanti delle reti bayesiane sono derivate dalle ricerche svolte presso Microsoft sulla deduzione degli obiettivi di un utente di personal computer in base alle sue azioni, e sul filtraggio della posta elettronica indesiderata, presso l’electric power research

institute sul monitoraggio dei generatori, e presso il controllo di missione di Houston della

NASA sulla visualizzazione tempestiva di informazioni critiche.

In caso di incertezza, quando un agente intelligente prende delle decisioni, facendo riferimento alla teoria delle decisioni, si comporta diversamente, a seconda se ci troviamo in un caso di decisioni semplici, oppure di decisioni complesse (sequenziali e con agenti multipli). Nell’analisi delle decisioni semplici si cerca di combinare la teoria dell’utilità con la teoria della probabilità per ottenere agenti basati sulla teoria delle decisioni, in grado di scegliere razionalmente l’azione da intraprendere in base a ciò che l’agente che crede e desidera; questi agenti dovrebbero essere in grado di operare in contesti in cui incertezza e conflitti tra obiettivi contrastanti non consentono a un agente puramente logico di arrivare ad alcuna decisione. Un agente basato su obiettivi può soltanto dividere gli stati in buoni e cattivi, mentre un agente basato sulla teoria delle decisioni è in grado di valutare la qualità degli stati in modo continuo. Questo accade perché, per massimizzare l’utilità attesa che è il principio base della teoria delle decisioni, le preferenze di un agente per gli stati del mondo vengono rappresentate da una funzione di utilità, che esprime con un singolo valore la desiderabilità di uno stato e le utilità vengono combinate con le probabilità degli esiti delle azioni per ottenere l’utilità attesa di ogni azione. Quindi, tutto ciò che deve fare un agente intelligente è calcolare le varie quantità e massimizzare l’utilità delle sue azioni, ma questo non significa che il problema dell’intelligenza artificiale sia dunque del tutto risolto.

Benché sia vero che il principio della massima utilità attesa definisce l’azione giusta in ogni contesto decisionale, i calcoli potrebbero essere proibitivi, e spesso è difficile formulare completamente il problema. Conoscere lo stato iniziale del mondo richiede percezione, apprendimento, rappresentazione della conoscenza, inferenza; per calcolare la probabilità di un certo risultato è necessario possedere un modello completo del mondo, ed effettuare inferenze spesso complicatissime su reti bayesiane; per calcolare l’utilità di ogni stato spesso si deve ricorrere alla ricerca o alla pianificazione, perché un agente non sa quanto è buono uno stato finché non appura dove si può arrivare partendo da esso. La teoria delle decisioni comunque fornisce un’infrastruttura in cui collocare ordinatamente tutti i componenti di un sistema intelligente. Se un agente massimizza una funzione di utilità che riflette correttamente la misura di prestazione utilizzata per valutare il suo comportamento, allora otterrà la migliore prestazione possibile, calcolata sulla media degli ambienti in cui potrà operare.

Facendo riferimento all’analisi dei processi decisionali degli individui, descritti nel capitolo precedente, anche gli agenti intelligenti spesso si trovano a dover scegliere fra opzioni caratterizzate da diversi attributi. Quindi, per sfoltire le opzioni a volte può essere utile applicare la nozione di dominanza; una opzione è strettamente dominata se è peggiore di altre opzioni dal punto di vista di tutti gli attributi; ovviamente le opzioni strettamente dominate possono essere eliminate, semplificando il problema di scelta; in caso di incertezza, può essere utile applicare un concetto di dominanza meno forte: la dominanza stocastica. L’opzione A è dominata stocasticamente dall’opzione B dal punto di vista di un certo indicatore di performance, se, per esempio, l’indicatore di performance può variare stocasticamente in modo uniforme fra un valore di 20 e un valore di 60 per l’opzione A, e fra un valore di 25 e un valore di 61 per l’opzione B28.

28 Keeney a Raiffa (1976) contiene un’introduzione approfondita alla teoria dell’utilità multiattributo; tra le altre

cose contiene la descrizione delle prime implementazioni su computer dei metodi per estrarre i parametri necessari per una funzione di utilità multiattributo, e include ampi resoconti di applicazioni reali della teoria. Per quel che riguarda l’intelligenza artificiale, Welman (1985) introdusse il sistema URP (utility reasoning package), che può utilizzare una collezione di asserzioni di indipendenza delle preferenze e di indipendenza condizionale per analizzare la struttura dei problemi decisionali. La teoria delle decisioni è stata uno strumento standard dell’economia, della finanza e del management fin dagli anni cinquanta; fino agli anni ottanta lo strumento

53 Per la scelta fra le opzioni che rimangono dopo avere eliminato quelle dominate può essere utile l’ipotesi di indipendenza mutua per la preferenza (MPI = mutual preference indipendence). Questa ipotesi è soddisfatta se, indipendentemente dall’importanza di ciascun attributo, le sue variazioni non influenzano le scelte che coinvolgono gli altri attributi dell’insieme. Per esempio, se si preferisce il cellulare A che ha 200 ore di autonomia in conversazione e 380 ore di autonomia in standby al cellulare B che ha 180 ore di autonomia in conversazione e 410 ore di autonomia in standby quando entrambi pesano 130 grammi, il cellulare A deve continuare a essere preferito al cellulare B anche se entrambi pesano 170 grammi. In base a un teorema dimostrato da Debreu (1960), se gli attributi X1, X2, X3, ….Xn sono mutuamente indipendenti per la preferenza, un agente è razionale se massimizza la somma dei valori dei diversi attributi singolarmente considerati (funzione di valore additiva). Anche nei casi in cui l’ipotesi di indipendenza mutua per la preferenza non vale strettamente (potrebbe per esempio essere violata per valori estremi di qualche variabile), alcune funzioni di valore additive possono fornire di solito delle buone rappresentazioni delle preferenze degli agenti.

Una delle parti più importanti dei processi decisionali è sapere quali informazioni cercare; a questa domanda cerca di rispondere la teoria del valore dell’informazione. In sintesi, il valore dell’informazione è tanto più elevato quanto maggiore è la probabilità che essa provochi un cambiamento della decisione, e quando più è alta la differenza fra il valore della decisione presa in presenza dell’informazione rispetto a quella che sarebbe stata presa in sua assenza. Il valore dell’informazione non può mai essere negativo, considerato che nel caso peggiore essa può essere ignorata e quindi non influenzare la decisione; ovviamente il processo di ricerca dell’informazione può avere effetti negativi se il costo da sostenere per ottenerla supera il suo valore. Un agente intelligente che raccoglie informazioni dovrebbe tenere in considerazione il valore di ogni informazione in rapporto al suo costo; un semplice algoritmo potrebbe operare selezionando ripetutamente l’osservazione con il più alto valore dell’informazione, fino a quando il costo dell’osservazione successiva supera il beneficio atteso.