• Non ci sono risultati.

Per superare l’impasse scaturita dalle molteplici obiezioni rivolte all’IA simbolica nel corso degli anni ’70, fra le quali quella di Searle svolge un ruolo cruciale, nuovi approcci sono stati proposti a partire dall’inizio degli anni ’80. Il più influente nei decenni a venire è stato sicuramente quello connessionista, che ha spostato ad un livello diverso rispetto a quello simbolico l’implementazione dell’elaborazione, con, tra l’altro, riflessi cospicui sul modo di intendere filosoficamente il rapporto fra mente e cervello e quello fra meccanismi di pensiero e meccanismi di elaborazione.

L’approccio connessionista, anche a voler semplificare, non può essere considerato unitario e molteplici acquisizioni in questo campo si sono susseguite negli anni, sia dal punto di vista della crescente complessità delle reti neurali, che costituiscono l’aspetto implementativo per eccellenza dell’approccio connessionista, sia dal punto di vista degli scopi prefissati e conseguiti da questo filone di ricerca1. Il connessionismo, d’altra parte, non esaurisce la totalità degli approcci all’IA proposti negli ultimi vent’anni, anche se coglie, anzi si fonda su, uno dei tratti principali del nuovo modo di condurre la ricerca nel campo delle scienze cognitive: lo spostamento a un livello non simbolico esplicito dell’elaborazione dell’informazione.

Questa impostazione è condivisa in parte anche dall’approccio subcognitivo alla cognizione2, il quale, però, ipotizza che il livello a cui deve essere condotta l’analisi e la spiegazione dei meccanismi del pensiero sia non quello neurale, come fa buona parte del connessionismo, ma quello

concettuale pre-simbolico. In altri termini, si assume che il pensiero non vada trattato come mera

1

Per un’introduzione particolareggiata ai presupposti teorici, alle metodologie e alle tecniche dell’approccio connessionista si rimanda a Floreano, Mattiussi (2002).

2 Il termine “subcognizione” viene a volte utilizzato indifferentemente al posto di connessionismo. In questa sede ci

sembra opportuno distinguere “subcognizione” da “connessionismo”, in considerazione del fatto che questi due termini esprimono un diverso approccio al problema della rappresentazione in particolare e del sistema mente-cervello in generale. Infatti, mentre l’utilizzo di reti neurali in generale è strettamente collegato ad un prospettiva subsimbolica, o che si potrebbe anche definire a-simbolica, ed eliminativista, con tutte le ricadute problematiche nei confronti della simulazione e della spiegazione dei processi mentali di alto livello, l’approccio subcognitivo è ancora un approccio simbolico che sfrutta soltanto in senso funzionale e architetturale, e non rappresentazionale, alcune caratteristiche del cervello fatte proprie, sia metafisicamente che epistemologicamente, dalla metodologia connessionista.

elaborazione formale e sintattica di simboli, come suggerisce la teoria computazional- rappresentazionale della mente proposta da Fodor3, bensì come il prodotto di una aggregazione di concetti (rappresentati) su molteplici livelli, la cui esplicitazione linguistica è soltanto uno degli aspetti derivati, anche se forse uno dei più difficile da spiegare all’interno di questa impostazione di ricerca. Nell’approccio subcognitivo il linguaggio diviene, si può dire, una sorta di finestra aperta sull’attività mentale alla cui base stanno i concetti concepiti come entità funzional-causali in grado di produrre quella forma sofisticata e complessa di ragionamento associativo che è il fare analogie e che soltanto per alcuni aspetti è riconducibile all’associazionismo della tradizione filosofica empirista4.

Nei successivi capitoli si esporranno i prodotti più significativi di IA che rientrano in qualche misura in questo orientamento. L’esposizione e la valutazione dei modelli cognitivi conformi a questa impostazione proposti negli ultimi venti anni dovrebbe chiarire la portata e i limiti dell’approccio subcognitivo al mentale e schiudere la strada alle sue future prospettive. Alcuni dei modelli qui discussi sono stati già delineati, in maniera più o meno approfondita, in Hofstadter & FARG (1995). Alcuni passi avanti nel corso degli ultimi anni sono stati fatti dal gruppo di ricerca che si dedica a implementare modelli di questo tipo, il FARG (Fluid Analogies Research Group). L’esposizione dei modelli, perciò, riprende in parte e arricchisce quella del 1995 con l’aggiunta del lavoro compiuto nell’ultimo decennio. Come filo conduttore dell’esposizione si è scelto di utilizzare i domini in cui essi operano, per ragioni che saranno spiegate in seguito. Per ora basti dire che, abbastanza intuitivamente, è proprio nel loro rapporto con il “mondo reale” che in genere i prodotti dell’IA e delle scienze cognitive hanno incontrato le maggiori difficoltà e i più grandi ostacoli, e in merito ad esso sono state formulate le critiche di maggiore impatto sull’evoluzione della ricerca stessa.

A ulteriore chiarimento del modo in cui la teoria subcognitiva del mentale è stata implementata verranno presentati in questo capitolo le caratteristiche principali di questo approccio all’IA unitamente alla presentazione dei programmi che lo hanno ispirato: i modelli HEARSAY e HEARSAY II. I modelli cognitivi sviluppati dal gruppo di ricerca sui concetti fluidi (FARG) condividono tre aspetti caratteristici, uno rivolto agli scopi, uno ai contesti e uno al tipo di architettura cognitiva funzionale utilizzata. Essi sono, rispettivamente:

1. la simulazione dei meccanismi del pensiero umano coinvolti nella produzione di analogie; 2. la focalizzazione su microdomini;

3 Su questo si veda Fodor (1976). Va comunque ricordato che le opinioni di Fodor in merito alla teoria da lui formulata

sono andate incontro a variazioni nei decenni succissivi.

4 Non menzioniamo neppure l’associazionismo psicologico, tipico del comportamentismo, proprio perché le

associazioni nei modelli subcognitivi riguardano il piano concettuale e non coppie associative stimolo-risposta alla base, ad esempio, della teoria dell’apprendimento di Thorndike o associazioni fra stimoli come nella teoria della memorizzazione di Ebbinghaus (cfr. Legrenzi, 1999). Questo mancato riferimento può essere visto come un’ulteriore indicazione delle divergenze fra approccio subcognitivo e approccio connessionista.

3. l’utilizzo di una strategia di ricerca stocastica e parallela.

Il fine di questa trattazione sarà quello di rendere espliciti i termini, le potenzialità e gli eventuali limiti di quella che è l’idea guida alla base dell’approccio subcognitivo ai meccanismi della mente, approccio secondo il quale per la comprensione e la spiegazione di come funziona la mente, almeno per quanto riguarda gli aspetti semantici, è rilevante ciò che ricade immediatamente sotto la soglia della percezione cosciente. In particolare, di contro all’affermazione di Herbert Simon in merito all’inutilità di indagare i processi mentali che ricadono sotto la soglia dei cento millisecondi, individuati da Simon nei processi di riconoscimento categoriale di stimoli familiari (Simon, 1981), Hofstadter postula che sono proprio i processi, «microscopici e paralleli», immediatamente precedenti il riconoscimento cosciente ad essere importanti dal punto di vista esplicativo (Hofstadter, 1983a, p. 161). L’interazione di un numero elevato di tali processi produce la cognizione, intesa come ascrizione categoriale ottenuta anche attraverso processi di mescolanza concettuale.

Tale prospettiva consegue da una rivalutazione del fenomeno della percezione nel campo della scienze cognitive, che si avvia negli anni Settanta del secolo scorso, e conduce a un’affermazione della sua importanza nei primi anni Ottanta in sede sperimentale di simulazione dei processi del pensiero attraverso l’implementazione di programmi di IA. Così si esprime Hofstadter al riguardo:

Per me, il punto cruciale dell’Intelligenza Artificiale è questo: “Che cosa mai rende possibile la trasformazione di 100.000.000 di punti della retina in una singola parola “madre” in un decimo di secondo?” La percezione è tutta qui. (Hofstadter, 1985c, p. 633)

Il tentativo di arrivare a una simulazione dei processi percettivi, che caratterizza in modi differenti la ricerca in IA a partire dagli anni Ottanta in maniera sostanziale e diversa rispetto alle ricerche degli anni precedenti, ha avuto esiti alterni. In effetti, molti modelli connessionisti sono riusciti a produrre buoni risultati in questo campo. Tuttavia, riecheggiando la distinzione kantiana nel processo conoscitivo fra un’estetica trascendentale e un’analitica trascendentale, cioè fra intuizione e concettualizzazione, si può suddividere la percezione di cui l’IA si occupa in due tipologie distinte: la percezione di basso livello, che corrisponde a compiti di elaborazione del mero dato sensoriale, che può avere come risultato finale l’individuazione di un oggetto attraverso la sua ascrizione categoriale, cioè la sua inclusione in una classe (la “madre” che ci è dato di cogliere attraverso i sensi)5, e la percezione di alto livello, che corrisponde al compito di estrazione del significato, nel senso dell’operazione di concettualizzazione di situazioni che implicano un elevato grado di astrazione.

5 Se nella citazione si fa l’esempio del concetto “madre”, bisogna dire che, di fatto, le ricerche che si sono indirizzate

allo studio della percezione di basso livello hanno scelto categorie più concrete cui ricondurre il dato percettivo. L’esempio principale sono gli studi sulla percezione di visiva di Marr (1982).

Seppure fra le due non esista una separazione netta, ma si dispiegano entrambe lungo un unico spettro che va dal semplice al complesso o, se si vuole, dal concreto all’astratto, il secondo tipo di percezione appare più intrinsecamente connesso con la struttura fondamentale dei meccanismi del pensiero. E proprio la simulazione della percezione di alto livello costituisce l’obiettivo fondamentale dei programmi che ricadono all’interno dell’approccio subcognitivo. Essa esprime il tentativo di superamento teorico dell’impasse prodottasi all’interno dell’IA tradizionale e simbolica già durante gli anni Settanta e che viene imprescindibilmente colto da Searle con il

Gedankenexperiment della stanza cinese. Il vero bersaglio delle sue affermazioni sono da

considerarsi, non semplicemente i programmi che comprendono il linguaggio naturale, ma i programmi che si avvalgono in maniera troppo disinvolta di un apparato simbolico la cui interpretazione viene lasciata al programmatore o all’utente. L’uscita dal “fomalismo” e dal sintatticismo della stanza non deve, però, necessariamente configurarsi come un’uscita dalla stanza, cioè come rinuncia alla spiegazione dei meccanismi del pensiero in quanto tali. Essi vanni ripensati, e, per così dire, riprogrammati su un effettivo standard esplicativo, come meccanismi interpretativi

attivi, in grado di produrre, invece che darla per scontato, l’unità dei due momenti in cui consiste il

fenomeno percettivo-cognitivo. La cognizione non può essere scissa dalla percezione. Piuttosto i due processi vanno visti in stretta simbiosi e compito dei sistemi che si vogliono definire intelligenti è quello di cogliere e mettere in pratica questa reciproca compenetrazione. Il fare analogie costituisce il punto esatto della loro convergenza.