• Non ci sono risultati.

La proposta di un modello teorico

I MODELLI SUBCOGNITIVI DELLA PERCEZIONE ANALOGICA

3.2 La proposta di un modello teorico

Dovendo scegliere un punto di partenza, sembra opportuno rintracciarlo nell’antecedente più diretto di questi modelli, delineato come abbozzo teorico di sistema cognitivo da Hofstadter nel suo celebre volume Gödel, Escher, Bach (Hofstadter, 1979). L’influenza che questo libro ha avuto sulla cultura contemporanea e nel complesso degli studi sulla mente è molto vasta e a prima vista quasi indecifrabile, tanto quanto poteva essere imprevedibile – e non prevista – prima della sua uscita1. Il capitolo diciannovesimo di Gödel, Escher, Bach è dedicato alle prospettive future dell’IA, che in quegli stessi anni attraversava una fase di crisi e di cambiamento dovuta al palesamento di una serie di problemi relativi alla conoscenza e alla dotazione epistemica che un sistema intelligente deve possedere per potersi definire tale e perché la sua azione sia giudicabile, a ragione, “intelligente” secondo i canoni del pensiero umano.

Tale problema portò a una serie di risultati importanti sia per quanto riguarda lo sviluppo di nuove forme di memoria e di immagazzinamento dei dati in un programma (si pensi alle reti semantiche, ai frame, agli script, e così via), sia dal punto di vista della riflessione filosofica che si occupava, a quel tempo, di argomenti correlati. Si può affermare che proprio in quegli anni le strategie simulative dei processi di pensiero, con i loro risultati pratici, divengono uno dei principali interlocutori nelle controversie sulla natura “semantica” del pensiero e sul problema della rappresentazione, che è come dire, della memoria, dei concetti e delle idee, temi chiave della riflessione gnoseologica ed epistemologica da tempi molto più remoti della nascita della nozione di IA e del suo affermarsi come disciplina consolidata, al tempo stesso problematica e riconosciuta. Nell’affrontare il problema di quali caratteristiche siano necessarie a un sistema di IA per esibire capacità intelligenti, Hofstadter propone un modello teorico di programma, a partire dall’individuazione di un dominio adatto alla sperimentazione di capacità percettive e concettuali tipiche dell’uomo: il dominio dei problemi di Bongard (Bongard, 1970). Questi sono problemi di riconoscimento di forme («patterns»), nei quali a un soggetto vengono sottoposti dodici riquadri raffiguranti forme geometriche di vario tipo e divisi in due gruppi, uno di destra e uno di sinistra (fig. 3.1). Lo scopo è quello di trovare in che modo, cioè secondo quale proprietà comune, i sei riquadri di destra differiscono da quelli di sinistra. Ad esempio, si può dare il caso che nei primi sei riquadri ci sia una prevalenza di cerchi dentro triangoli e nei secondi sei ci siano, invece, molti triangoli dentro cerchi. Esistono anche problemi in cui la forma delle figure all’interno è indifferente e ciò che conta è, magari, il loro essere raggruppate o sparpagliate. Da questi esempi si comprende che la soluzione dei problemi proposti da Bongard non è dovuta a una conoscenza molto approfondita della geometria, bensì piuttosto alla capacità di enucleare analogie a un certo livello di

1 Soltanto la ricostruzione degli influssi avuti sugli studiosi di differenti discipline dalla sua uscita ad oggi potrebbe

costituire argomento per un volume di storia delle idee, se i tempi non fossero ancora troppo prematuri per questo tipo di indagine. Il volume è stato pubblicato per la prima volta nel 1979 in edizione americana e tradotto in molte lingue, tra cui anche il russo e il cinese. La prima edizione italiana è del 1984.

astrazione concettuale fra i gruppi di riquadri e di metterle, poi, a confronto. Si tratta, in altri termini, di un doppio compito analogico, la cui soluzione consiste nel trovare la giusta relazione

meta-analogica fra i due insiemi di figure.

Fig. 3.1 - Problema di Bongard n. 71 (tratto da Bongard, 1970)

Hofstadter individua alcuni tratti essenziali di un programma in grado di risolvere questo tipo di compiti, che fondono allo stesso tempo capacità percettive e concettuali. Appare chiaro, infatti, che solo attraverso un uso opportuno delle descrizioni che il programma fa della situazione in oggetto è possibile arrivare a una soluzione del problema di Bongard. La questione delle descrizioni è fondamentale da più punti di vista e si riallaccia ai frame in quanto tecnica di rappresentazione della conoscenza, introdotta negli anni settanta da Marvin Minsky (1975)2. I frame vengono definiti da Hofstadter come «una rappresentazione algoritmica del significato» (Hofstadter, 1979, p. 697) e determinano, a loro volta, la struttura dei concetti che di essi fanno parte, poiché «i concetti vengono compressi e distorti dai contesti nei quali sono inseriti a forza» (Ibidem). Perciò, il problema di come dare descrizioni affidabili e pertinenti di una situazione risulta inscindibile da quello dei concetti che vengono impiegati nella descrizione. L’obiettivo, per quanto riguarda i Problemi di Bongard, è quello di arrivare ad una rappresentazione dei due insiemi di riquadri che

2

È noto che i frame sono, in termini generali, schemi attraverso cui l’informazione viene strutturata a partire da un nucleo comune condiviso da tutte le situazioni e gli oggetti che possono essere descritti attraverso lo stesso frame. Essi sono dotati di terminali (slot) da riempire con le caratteristiche specifiche della situazione in oggetto, quale può essere, ad esempio, un particolare esempio del concetto STANZA o un particolare esempio del concetto CANE. Ad ogni terminale è assegnata una caratteristica di default, che, cioè, si attiva in mancanza di ulteriori specifiche. Un’altra loro importante caratteristica è quella di poter dar luogo a rappresentazioni ricorsive, attraverso l’inserimento di un frame in un terminale di un altro frame. In tal modo è possibile procedere a rappresentazioni nidificate le une nelle altre, in modo da ottenere descrizioni gerarchiche (cioè, stratificate) e sempre più complesse delle situazioni da rappresentare, limitando il dispendio computazionale.

In termini generali, si può dire che un frame rappresenta un contesto e, dunque, va visto come una rappresentazione contestuale del concetto, passibile di un numero indefinito di specificazioni. Lo scopo per cui furono introdotti era quello di cogliere da una parte l’invarianza dei concetti e, dall’altra, la flessibilità cui vanno soggette le rappresentazioni concettuali di fronte alle varie istanze del concetto.

sia quanto più possibile omogenea, dove per omogeneità si intende la possibilità di creare una

corrispondenza strutturale fra le due rappresentazioni.

Tre sono le considerazioni da fare in merito a questa impostazione. Innanzitutto, il programma non può operare se non è dotato di una conoscenza concettuale che gli permetta di costruire le descrizioni in modo che esse siano sovrapponibili. In altri termini, le figure nei riquadri devono essere descritte attraverso l’uso di una serie di concetti utili a rappresentare la figure, le parti delle figure e le relazioni fra le figure all’interno dei riquadri. Hofstadter propone di utilizzare una rete

semantica concettuale e di procedere secondo la seguente euristica:

[...] fare tentativi di descrizioni provvisorie per ciascun riquadro;

metterle a confronto con le descrizioni provvisorie degli altri riquadri di ciascuna classe; ristrutturare le descrizioni:

(i) aggiungendo informazione, (ii) eliminando informazione,

(iii) vedendo la stessa informazione da un’altra angolazione;

ripetere il procedimento finché non si trovi che cosa differenzia le due classi (ivi, p. 702).

Tale euristica procede sulla base di «regole esplicite» (ibidem) che indicano il modo in cui una

gerarchia di descrizioni, da quelle più semplici a quelle più generali, viene composta.

Naturalmente, a diversi livelli di descrizione corrispondono diversi concetti. Il livello base è quello dei concetti primitivi su cui edificare la struttura rappresentativa fino al livello dei concetti più astratti e delle «descrizioni di descrizioni, cioè metadescrizioni», che conducano all’individuazione

di «un numero di caratteristiche comuni sufficiente a guidarci verso la formulazione di un profilo per le metadescrizioni» (ivi, p. 709). A questo livello le descrizioni diventano oggetto del programma stesso che cerca di equipararle sulla base di concetti più astratti. Altri due aspetti della componente euristica di questo modello teorico sono la “messa a fuoco” (focusing) e il “filtraggio” (filtering), le quali producono rispettivamente una descrizione «focalizzata su qualche parte del disegno del riquadro, escludendo ogni altra cosa» e una descrizione «che si concentri su qualche modo particolare di guardare al contenuto del riquadro e ignori deliberatamente tutti gli altri aspetti» (ivi, pp. 711-712). Il primo aspetto ha che fare con gli oggetti percepiti e il secondo con i

concetti interessati (cioè, attivati) dall’operazione di costruzione della rappresentazione. Fra loro

c’è una relazione di complementarietà.

Una seconda considerazione riguarda il fatto che tale programma si muove ancora nell’ambito del simbolico. Le rappresentazioni che costruisce della situazione, cioè degli insiemi di riquadri da porre in relazione meta-analogica attraverso meta-descrizioni, sono rappresentazioni simboliche che si avvalgono di una costruzione gerarchica operata dal programma di volta in volta nel corso dell’elaborazione e basata su concetti primitivi che vengono utilizzati nella fase di pre-

elaborazione. Hofstadter ne dà alcuni esempi (ivi, pp. 699-700), suddividendoli in quelli di primo

livello – segmento, verticale, orizzontale, curva, nero, appuntito, piccolo, e così via – e quelli di secondo livello, che intervengono nella seconda fase pre-elaborativa – quadrato, cerchio, angolo retto, vertice, protuberanza, ecc. Come si vede, i primi si riferiscono a caratteristiche delle figure identificabili alla stregua di proprietà semplici, condivisibili da tutte le figure, i secondi sono già descrizioni di «forme elementari» che descrivono le figure stesse prese nella loro interezza o parti di esse dotate di una determinata forma. Il confine tra queste due categorie è, certamente, sfumato. Ciò che importa è che il passaggio dai primi ai secondi costituisce, in termini generali, il passaggio

dalle proprietà alle forme per quanto abbozzate e grossolane queste siano.

Come si diceva, tali descrizioni sono effettuate attraverso il linguaggio della logica dei predicati e, quindi, in maniera fortemente simbolica. Le descrizioni sono frame i cui terminali corrispondono ai concetti primitivi di secondo livello e le metadescrizioni sono a loro volta frame che riportano, ad esempio, terminali relativi al tipo di concetti usati, ai concetti ricorrenti, ai nomi dei terminali delle descrizioni, ecc. In questo modo si ottiene quella struttura concettuale astratta, o anche lo scheletro

concettuale, che gioca un ruolo essenziale nel mettere in correlazione i due insiemi di figure,

sempre attraverso una messa in corrispondenza che si avvale della rappresentazione logico- predicativa, fino alla soluzione del problema meta-analogico di capire in che cosa differisce l’analogia fra i primi sei riquadri da quella dei secondi sei.

Un modello teorico di questo tipo ricorda molto da vicino, per il tipo di tecniche rappresentative impiegate, il programma ARCH di Winston che, sulla scia degli studi sulla visione compiuti in IA a partire dalla metà degli anni sessanta3, progettò un sistema in grado di apprendere per generalizzazione induttiva a partire da esempi. Il programma di Winston (1975b) operava a partire da un serie di concetti primitivi per arrivare alla descrizione di un arco. Le proprietà e le relazioni attraverso cui il programma effettuava la descrizione erano pre-selezionate dal programmatore e la descrizione che produceva costituisce il tipico esempio di rappresentazione in forma simbolica, una lista di proprietà e relazioni, oggetto di attacco da parte dei primi critici dell’IA simbolica negli anni settanta. Il problema relativo alla conoscenza in dotazione a un programma è sorto, infatti, nel momento in cui la sua rappresentazione all’interno di un qualche programma di IA simbolica è stata considerata psicologicamente implausibile (da cui le numerose teorie anti-tradizionali sui concetti che sono state sviluppate negli ultimi trenta anni) e il programma accusato di non spiegare proprio ciò che la sua realizzazione avrebbe dovuto rendere chiaro. Tale critica era motivata dal fatto che, come afferma Dreyfus riferendosi ad ARCH, «l’attività di discriminazione, selezione, e dare un peso ad una limitata quantità di proprietà rilevanti è il risultato di esperienze ripetute nel tempo ed è il primo stadio dell’apprendimento. Ma poiché nel sistema di Winston il programmatore seleziona e

3

Si vedano, tra gli altri, Guzman (1968), autore del programma SEE e Clowes (1971), Waltz (1972), continuatori su questo filone di ricerca dedicato alla visione artificiale.

soppesa i primitivi, il suo programma non ci dà alcuna idea su come un calcolatore potrebbe operare questa soluzione e assegnare quei pesi» (Dreyfus, 1981, p. 190).

In queste parole già si intravede la via che sarà presa di lì a poco dal connessionismo, che farà dell’apprendimento uno dei suoi cavalli di battaglia. Tuttavia, anche Hofstadter agisce per superare questo tipo di problemi e l’impasse che ne deriva. L’utilizzo di descrizioni basate su concetti e relazioni primitive è una caratteristica anche del suo modello teorico, la quale condurrebbe allo stesso circolo vizioso esplicativo del programma di Winston. Tale rischio viene evitato attraverso l’impiego di una rete semantica di concetti che, tuttavia, si differenzia da quelle tradizionali introdotte da Quillian (1968) gerarchicamente strutturate secondo un sistema classificatorio statico ad albero in cui ogni concetto è incluso in quelli di livello superiore e include quelli di livello inferiore. La rete di concetti proposta da Hofstadter è ancora una rete associativa, ma non rigidamente gerarchica. Ogni concetto è collegato a quelli con cui è in relazione attraverso legami predefiniti4. Hofstadter definisce il suo programma «eterarchico», perché «tutto ciò che è nella rete, cioè sia i nodi che gli archi», è importante; «non c’è niente nella rete che si trovi ad un livello superiore al resto». In altri termini è nell’elaborazione del programma, nella sua dinamica costruttiva delle descrizioni, che va cercata la componente gerarchica, via l’utilizzo di concetti primitivi in base alle esigenze del programma nel momento in cui svolge il proprio compito.

La dimensione eterarchica del modello teorico viene ampliata attraverso l’introduzione di una tecnica molto simile alla computazione asincrona e parallela degli attori di Hewitt5. La parte procedurale del programma, infatti, viene demandata ad una serie di agenti che, come gli attori proposti da Hewitt, possono interagire fra loro e «scambiarsi mutuamente messaggi complessi» (Hofstdater, 1979, p. 716)6. La computazione attraverso attori pone in atto forme di elaborazione competitiva e parallela. Da un punto di vista molto generale, si può dire che il programma viene scisso in sottoparti virtualmente indipendenti che possono procedere in maniera sincrona o asincrona scambiandosi informazioni relative al compito che stanno effettuando. La linearità dell’esecuzione dell’algoritmo si frammenta in tal modo in una serie di operazioni semi- indipendenti, nel senso che ogni attore agisce in base sia alle informazioni che possiede al momento presente, e che scambia dinamicamente con gli altri attori, sia alla particolare struttura di cui è costituito, lo specifico software che descrive le funzioni che è preposto a compiere.

Questa “eterarchia di procedure che si richiamano” sfrutta le potenzialità indefinitamente complesse dei messaggi che possono essere scambiati e si discosta in questo modo dall’operazione, usuale in informatica, della “chiamata di procedura”. In questo modo, gli attori-agenti funzionano

4 La cui variabilità e costruzione o distruzione costituisce uno dei punti più controversi, ma anche decisivi ai fini della

simulazione dell’apprendimento.

5 Si veda, ad esempio, Hewitt (1977).

6 Tra essi, ad esempio, rientrano quello che Hofstadter chiama “Rico”, ovvero riconoscitori di identità «continuamente

in perlustrazione all’interno delle singole descrizioni e all’interno di descrizioni differenti, alla ricerca di descrittori o di altri elementi che si presentino identici più di una volta» (Hofstadter 1979, p. 702), al fine di operare ristrutturazioni della descrizione complessiva della situazione rappresentata.

alla stregua di «calcolatori autonomi, mentre i messaggi [che si scambiano] sono in qualche modo simili a programmi» (ibidem) che vengono interpretati dall’attore medesimo. Ciò che suggerisce Hofstadter è di potenziare a sua volta anche questo tipo di programmazione multiagente attraverso la fusione di unità procedurali e unità dichiarative di rappresentazione della conoscenza fino alla creazione di ideali macrounità di informazione e azione da lui chiamate simboli e risultanti dalla unione di «frame + attori» (ibidem). Sulla centralità e la complessità della nozione di simbolo in Hofstadter ritorneremo in seguito. Per ora basti dire che, nella proposta di modello teorico avanzata da Hofstadter, i simboli giocano il ruolo di perni elaborativi del programma, nel senso che costituiscono dei punti fissi attrattivi, non solo attorno ai quali ruota l’elaborazione, ma anche produttivi dell’elaborazione stessa. È molto importante sottolineare che la loro presenza nei modelli concreti che discenderanno da questa proposta è solo virtuale e a un meta-livello rispetto a quello

del programma. In altri termini,il punto centrale è che la loro presenza non è esplicita nella sorgente

del programma, bensì è frutto emergente dell’elaborazione.

Un’ultima considerazione in merito a questa proposta iniziale di modello riguarda l’obiettivo che intende conseguire. Ponendosi come punto di partenza quello della risoluzione dei problemi di Bongard, Hofstadter in realtà invita implicitamente a fare un passo oltre anche rispetto a quella che nel precedente capitolo abbiamo visto essere lo scopo dell’approccio subcognitivo, cioè la simulazione della capacità di percezione di alto livello. Infatti, tale tipo di problemi rientra in quello più generale di riconoscimento delle forme (pattern), fra le quali egli annovera a titolo di esempio anche «il riconoscimento delle facce [...], il riconoscimento di sentieri nei boschi e in montagna [...], la capacità di leggere senza esitazione testi composti in centinaia, se non migliaia, di caratteri tipografici differenti» (ivi, p. 719). Tali compiti rientrano all’interno del fenomeno della percezione in generale, non solo visiva, e quindi riguardano anche la percezione di basso livello. Alla simulazione di questo ultimo tipo di capacità è stata dedicata un’attenzione crescente proprio a partire dagli anni ottanta del secolo scorso, anche e soprattutto da parte dei nuovi approcci connessionisti alla simulazione delle capacità cognitive7. Dunque è nella spiegazione di come sia possibile l’integrazione fra alto e basso livello del fenomeno percettivo che va visto lo scopo finale dello sviluppo di modelli simili a quello appena descritto.

Sulle relazioni fra i modelli che abbiamo definito subcognitivi e il connessionismo ritorneremo in seguito. Per ora, è opportuno sottolineare che il fatto che Hofstadter porti in primo piano il problema della percezione di forme anche di basso livello, considerate alla base del meccanismo di descrizione e di metadescrizione il quale innesca il processo elaborativo che ha per oggetto rappresentazioni «strutturalmente simili l’una all’altra» (ivi, p. 702), apre la via e indica una direzione all’indagine di questi fenomeni con il considerarli strettamente interconnessi con i processi cognitivi di alto livello. Infatti, la capacità di operare descrizioni che evolvono

7 Tuttavia, non va dimenticato il fondamentale contributo in questo campo da parte dell’approccio simbolico

tradizionale all’IA dovuto a David Marr e di poco posteriore alla proposta hofstadteriana (Marr, 1982), che ha anche l’indubbio valore di aver costituito una pietra miliare nella metodologia delle discipline simualtive in generale.

dinamicamente su più livelli è costitutiva dell’esperienza percettiva di ognuno: «è molto probabile

che le intuizioni ottenute vedendo e manipolando oggetti reali (pettini, treni, stringhe, blocchi, lettere, nastri adesivi, ecc.) svolgano un ruolo guida invisibile ma significativo nella soluzione di questi rompicapo» (ivi, pp. 714-15). Di conseguenza non stupisce che una delle principali assunzioni alla base del progetto hofstadteriano sia la seguente:

[...] è sicuro che la comprensione di situazioni del mondo reale dipende fortemente dall’immaginazione visiva e dall’intuizione spaziale, cosicché disporre di un metodo potente e flessibile per rappresentare forme del tipo di quelle di Bongard può certamente contribuire all’efficacia generale dei processi di

pensiero (ibidem [corsivo mio]).

La comprensione degli aspetti percettivi legati all’esperienza di eventi e situazioni spaziali (ma anche temporali; si pensi alla percezione musicale, basata su un ordinamento vincolato alla dimensione temporale), è imprescindibile, nella visione hoftadteriana, dalla comprensione dei processi cognitivi in generale, anzi ne costituisce uno degli aspetti basilari. Questo aspetto come vedremo ritornerà in tutti i modelli cognitivi basati su questa impostazione, costituendone uno dei minimi comuni denominatori teorici e mostrandone al tempo stesso le ampie implicazioni con una visione rappresentazionale esplicita, e, dunque, simbolica dell’IA e della simulazione dei processi di pensiero.