• Non ci sono risultati.

Una volta costruito, l’argomento della stanza si presta a una serie di obiezioni, le quali, sia nel caso di Turing che in quello di Searle, sono state portate in prima battuta dagli stessi autori del rispettivo Gedankenexperiment.

Cominciamo da Turing. Egli immagina sia possibile portare all’idea di una macchina pensante, intendendo con questa accezione una macchina in grado di giocare al gioco dell’imitazione, una serie di obiezioni, quali:

a) l’affermazione che «il pensare sia [esclusivamente] una funzione dell’anima immortale dell’uomo» (Turing, 1950, p. 176), chiamata “obiezione teologica”;

b) l’affermazione che «le conseguenze delle macchine pensanti sarebbero terribili» per l’umanità e, perciò, si spera in una loro irrealizzabilità (Turing, 1950, p. 177), definita “obiezione della ‘testa nella sabbia’”;

c) l’ipotesi che dimostrazioni logico-matematiche come quella del teorema di Gödel o ipotesi nell’ambito della matematica, ad esempio la tesi di Church-Turing, mostrino le «limitazioni

28 A meno che, ancora una volta, le domande siano finalizzate all’applicazione di una serie di regole formali per

ottenere una risposta, quali possono essere, ad esempio, domande relative all’applicazione di una qualche funzione su insiemi di numeri, come le operazioni del calcolo elementare. Tuttavia, anche questo modo di “seguire una regola” non è necessariamente univoco e può risultare estremamente diverso nell’uomo e nel calcolatore.

29 Non si comprenderebbe più, fra le altre cose, la necessità esclusiva di una macchina con poteri speciali, come Searle

definisce il cervello, affinché possa darsi la comprensione linguistico-concettuale. Basterebbe un calcolatore a un livello di complessità sufficiente per poter implementare linguaggi logico-formali del primo ordine.

[intrinseche] ai poteri delle macchine a stati discreti» (Turing, 1950, p. 178), che porta il nome di “obiezione matematica”;

d) l’affermazione che è possibile arrivare a sapere che una macchina pensa soltanto con l’essere quella macchina stessa e col «sentire se stessi pensare» (Turing, 1950, p. 179), convinzione sottoposta al giogo del rischio solipsistico e che Turing chiama “argomento dell’autocoscienza”;

e) l’opinione secondo cui se una macchina può fare qualcosa, allora quel qualcosa è, per definizione, “meccanizzabile” e per tale ragione privo di interesse, poiché non coglie il nocciolo reale del pensare, bensì solo alcune sue manifestazioni esteriori. Questa affermazione, che pecca di essenzialismo e rende asintotica la ricerca sui processi del pensiero, è in qualche modo analoga ad a) e d). Turing definisce genericamente questo modo di affrontare la questione “argomentazioni fondate su incapacità varie”;

f) la pretesa che le macchine possano fare solo ciò per cui sono programmate, cioè l’“obiezione di Lady Lovelace” nei confronti della macchina analitica di Babbage;

g) l’affermazione di una differenza incommensurabile fra la continuità del cervello e la natura a stati discreti dei calcolatori, che Turing battezza come “argomentazione fondata sulla continuità del sistema nervoso”;

h) l’affermazione che l’agire umano non è governato in tutti i possibili casi da regole fisse e prestabilite, come accade invece nel caso della macchine. Turing la definisce “argomentazione del comportamento senza regole rigide”;

i) la sorprendente idea che la presenza di un individuo dotato di poteri mentali particolari invalidi la possibilità di una corretta conduzione del gioco dell’imitazione, ovvero la già ricordata “argomentazione fondata sulla percezione extrasensoriale”.

È stato fatto notare che l’introduzione del gioco dell’imitazione da parte di Turing ha come fine primario quello di «discutere le obiezioni alla possibilità di costruire macchine pensanti» (Lolli, 1994, p. 19), piuttosto che quello di criterio di decisione in merito alla realizzazione effettiva di una macchina pensante, in seguito attribuitogli dalla letteratura con il nome di Test di Turing,. Le obiezioni, però, non sono tutte uguali. In a), b) ed e) troviamo espressi una serie di pregiudizi nei confronti delle macchine, non argomentati, né argomentabili, che hanno la forma del convincimento dogmatico; d) è una tesi filosofica, cui soggiace un soggettivismo estremo, e che, se portata alle sue estreme conseguenze, procurerebbe nell’ambito delle scienze cognitive un’impossibilità metodologica effettiva nei confronti di qualsiasi tentativo di indagine del mentale al di fuori dell’analisi introspettiva; i) è un caveat allo svolgimento del gioco, che pur nell’assurdità della sua formulazione, e del tutto indipendentemente da quello che ne pensasse Turing, permette di circoscrivere l’effettivo campo d’azione del gioco.

Le restanti quattro obiezioni sono di natura diversa e portano un attacco dall’interno al computazionalismo e all’IA in generale, ponendosi in qualche modo sullo stesso piano. Sono argomentazioni costruite a partire da dati di fatto, laddove le altre hanno un carattere squisitamente aprioristico30. In particolare, c), f) e h), sono tre sfaccettature di un’unica obiezione, quella che riguarda le limitazioni di ogni sistema logico-deduttivo basato su regole esplicite: la sua incompletezza a comprendere tutti gli aspetti della realtà. Tale incompletezza si esprime sia nell’insufficienza del sistema formale a poter produrre tutte le verità in esso stesso esprimibili, sia nell’incapacità di valicare la rigida sequenzialità e monotònicità dell’applicazione delle regole ai suoi enunciati (assiomi e teoremi). Tuttavia, proprio negli anni in cui Turing scriveva, la nascita dell’IA era il primo tentativo di superamento di tale monotònicità, da una parte attraverso lo sfruttamento delle possibilità conferite dai costituenti strutturali degli algoritmi, come la chiamata di procedura, la funzione di scelta condizionata e la ripetizione, dall’altra attraverso l’adozione del metodo euristico di ricerca nello spazio problemico31. Resta da considerare g), che denota la lungimiranza con cui Turing enuclea il problema matematico alla base della contrapposizione fra IA simbolica e IA connessionista, un problema che non tocca da vicino chi gioca il gioco dell’imitazione, ma pone in primo piano la questione delle restrizioni che devono essere tenute in conto nell’ideazione di un modello cognitivo, questione equivalente a quella dell’appropriato livello di descrizione del fenomeno da simulare.

È possibile che Turing non facesse distinzione di sorta fra le obiezioni elencate nel suo saggio, poiché in esso l’indagine sulla effettiva possibilità di una macchina pensante non è separata da quella relativa a quali condizioni è necessario fissate per poter fare un’affermazione del genere, quali pregiudizi devono essere superati, quali principi teorici costituiscono un avvertimento costante alla ricerca in IA senza che possano mai essere rigettati come semplici problemi passibili di una soluzione definitiva. Tuttavia, un ruolo centrale spetta alle quattro obiezioni “interne”, c), f), g) e h), le quali, sia detto per inciso, sarebbero valide anche nel caso in cui un qualche programma superasse il Test di Turing.

Torniamo a Searle. Abbiamo descritto l’argomento della stanza cinese in quanto obiezione indiretta all’idea di Turing di una macchina pensante e abbiamo visto come esso possa essere considerato tale in due modi. Per un verso esso si configura come critica al carattere operazionalista e comportamentista del Test di Turing, accusa che sembra giustificata se riferita a una versione “superficiale e troppo fiduciosa” dell’IA, ma che trascende le reali intenzioni di Turing. Da un

30 È necessaria una precisazione. L’“obiezione dell’autocoscienza”, se interpretata in chiave non solipsistica, pone

all’attenzione della modellizzazione cognitiva il problema della soggettività e della natura qualitativa dei fenomeni mentali. Se questi, i così detti qualia, non diventano baluardo dell’oltranzismo negazionista dell’IA, costituiscono un ottimo stimolo alla riflessione epistemologica sui principi dell’intera ricerca in questo campo.

31 Teoria algoritmica e metodo euristico devono aver contribuito non poco alla diffusione dell’idea della possibilità di

una macchina pensante, non solo dal punto di vista teorico e astratto, il punto di vista della Macchina di Turing (MdT), ma anche per quanto riguarda gli aspetti applicativi, cioè la realizzazione fisica di strumenti (hardware) sempre più potenti e in grado di dare un supporto alle macchine astratte, rendendo così possibile l’implementazione dei algoritmi che implicano un numero sempre più elevato di risorse di elaborazione.

punto di vista più diretto, l’argomento di Searle è un’obiezione contro la possibilità che un programma comunichi attraverso il linguaggio naturale e nel farlo metta in atto processi simili a quelli di un essere umano. La manipolazione formale di simboli esclude un processo di comprensione, dimostrando in tal modo l’effettiva non coincidenza dei processi del pensiero umano, legati ai poteri causali del cervello, con i procedimenti algoritmico-formali realizzati in un calcolatore. In questa seconda accezione, il collegamento con Turing è riscontrabile nel fatto che il gioco dell’imitazione è basato sull’utilizzo del linguaggio naturale. La mossa implausibile attraverso cui questa seconda tesi è costruita è stata sottolineata in precedenza. Rimangono ora da esaminare le obiezioni che Searle, come Turing, individua nei confronti del suo stesso

Gedankenexperiment. Egli le suddivide in sei repliche possibili e le enuncia unitamente alla loro

confutazione. Elenchiamole:

1) non è l’individuo che comprende il cinese, ma il sistema di cui l’individuo è soltanto parte. In definitiva, il sistema si riduce, però, a due soli elementi necessari, l’individuo e il manuale di istruzioni, “il programma”, che possono diventare uno soltanto se l’individuo nella stanza interiorizza il “programma” memorizzandolo. Tale operazione non gli permette ancora di comprendere il cinese, bensì solo di imparare a memoria un metodo. Questa è la “replica del sistema”;

2) il problema si risolve se prendiamo un robot che incorpora un calcolatore. Tuttavia, questo, pur potendo interagire con l’ambiente, non ha comunque stati intenzionali; in altri termini, immettere la stanza all’interno di un sistema senso-motorio in grado di avere percezioni e di compiere movimenti non dota il programma della capacità di comprensione. Il Searle nella stanza può continuare indisturbato le sue funzioni. Questa va sotto il nome di “replica del robot”;

3) la soluzione sta nel progettare una macchina che simula tutte le sequenze di propagazione dell’attività neuronale del cervello di un cinese mentre parla cinese. Questa, però, non avrebbe ancora stati intenzionali. Si potrebbe immaginare, infatti, di sostituire il cervello con un sistema di tubature e valvole in cui scorre acqua, azionato da un Searle idraulico. Costui guardando il sistema non avrà la benché minima comprensione del cinese, esibito esternamente in forma linguistica dall’intero sistema, perché il sistema simula soltanto le proprietà “formali” neurobiologiche, non sufficienti a produrre quelle causali. È la “replica del simulatore del cervello”;

4) le tre obiezioni precedenti, che falliscono singolarmente, acquistano forza se prese tutte insieme. Tuttavia, l’idea di un robot con un cervello simulato al suo interno al posto del calcolatore e considerato come un sistema complessivo sarebbe esposta alla stessa obiezione di 3): un uomo potrebbe celarsi nella stanza del cervello simulato (o, perché no, controllarlo

da lontano con un telecomando secondo apposite istruzioni). Questa è “la replica combinata”;

5) la conoscenza che si ha della comprensione che gli altri hanno del cinese o di altre cose deriva dall’osservazione del loro comportamento. Lo stesso tipo di conoscenza si deve applicare ai computer se esibiscono lo stesso comportamento. Questa “replica delle altre menti” non è altro che un ritorno al Test di Turing, quindi suona come una petitio principi, o, almeno, come una confusione fra demonstrans e demonstrandum;

6) è possibile tralasciare l’impostazione computazionale e adottare una strategia diversa, sempre nell’ambito dell’IA, per riprodurre i procedimenti causali specifici del cervello. Questa viene definita come “replica delle molte sedi” e ha il difetto di non colpire nel segno, perché l’argomento della stanza cinese si applica solo alla versione computazionale («forte») dell’IA.

Si vede bene come queste sei obiezioni non sono tutte sullo stesso piano. La 5) e la 6) vengono rigettate come non dirette all’argomento. Tuttavia, con la 6) Searle sembra concedere una qualche possibile speranza all’IA non simbolica in senso classico, in tutte le accezioni possibili. Ma è una debole speranza. Infatti, la 3) è una presa di posizione contro la simulazione dei meccanismi cerebrali, e quindi verosimilmente contro il connessionismo32, che trova appoggio nell’estensione del potere confutatorio della stanza cinese ad una supposta ma non ancora realizzata formalizzazione (vale a dire, traduzione in simboli e regole esplicite) di tutta l’attività neuronale. Non sembra interessante la 4) perché nulla aggiunge alle tre precedenti, non resistendo in tal modo agli argomenti con cui queste vengono rigettate. È interessante, invece, la 2), poiché con essa Searle esclude che la percezione e l’interazione con l’ambiente siano di una qualche rilevanza ai fini del verificarsi di stati intenzionali e della comprensione, una tesi che sembra accettabile solo entro certi limiti. In ogni caso, la 2) e la 3) sono solo estensioni della 1). Nella 2) la stanza è immessa in un robot al posto del calcolatore che lo controlla; nella 3) la stanza è l’interno del calcolatore che riproduce fedelmente i collegamenti sinaptici di un cervello che capisce il cinese.

Questo porta a considerare come obiezione originale soltanto la 1). Essa viene curiosamente rigettata da Searle con un procedimento che ricorda ancora il Gedankenexperiment di Putnam, la memorizzazione del manuale di istruzioni. Questo procedimento annullerebbe la presenza di un sistema complessivo costituito dal “Searle nella stanza” più “il manuale”, cioè “il programma”, e si darebbe il caso di un individuo con due sottosistemi, uno che gli permetta di comprendere l’inglese e un altro, all’interno del primo, che gli permetta di agire, di fare qualcosa, con i simboli cinesi. Il fatto che il secondo sottosistema è soltanto una parte del primo sta a significare che condizione necessaria e sufficiente per la memorizzazione delle regole (istruzioni) e dei simboli formali (le

32 Occorre notare che al tempo in cui scriveva Searle poca attenzione veniva ancora riservata ai modelli simulativi basati

sull’utilizzo delle reti neurali, che di lì a poco sarebbero diventati l’approccio predominante nella ricerca in IA e nelle scienze cognitive.

raffigurazioni grafiche degli ideogrammi cinesi) è la comprensione dell’inglese. La memorizzazione sarebbe solo un fatto esteriore, come lo era per l’individuo che mandava a memoria brani in giapponese scritti con la tecnica del flusso di coscienza. C’è, però, un doppio ostacolo. Anche ammettendo che tale procedimento di memorizzazione sia possibile con lunghi sacrifici (I ostacolo), l’implausibilità di tutto questo risiede ancora nella mancata verosimiglianza del manuale di istruzioni (II ostacolo), come si è fatto rilevare più sopra.

Searle non sembra difendere in maniera convincente il suo Gedankenexperiment dalle obiezioni che egli stesso avanza, anzi dalla obiezione 1), di cui le altre, a meno di non deviare dall’argomentazione principale, sono casi particolari. Nell’avanzare la sua tesi egli mostra di avere una teoria del mentale non giustificata, essendo i fenomeni mentali riconducibili ai poteri causali del cervello, i quale rimangono inesplicati. Allo stesso tempo, mostra di avere una eccessiva fiducia nella possibilità di ridurre il linguaggio a regole esplicite in base alle quali sostenere in maniera formale una conversazione fatta di domande la cui risposta deve essere per forza univoca e non ambigua. In caso contrario, l’ambiguità risalirebbe fino alle regole stesse33. Nonostante questo, il bersaglio di Searle è il computazionalismo, inteso come manipolazione formale di simboli, nell’ipotesi in cui esso venga considerato un’adeguata teoria del mentale. In base a queste tesi, e stando a quello che Searle afferma con l’argomento della stanza cinese, appare inevitabile che si debba procedere a un’esclusione del linguaggio naturale, per via della sua “semplice e immediata” riducibilità a regole esplicite, dall’insieme dei fenomeni mentali rilevanti. Questo, però, è proprio l’opposto di quello che Seale vuole ottenere con la stanza cinese.

Rimane, comunque, la sensazione che in qualche modo il suo argomento non debba essere rigettato per intero, ma abbia una qualche utilità. Esso, infatti, invita a porci alcune significative domande: che tipo di computazionalismo può essere sensatamente proposto come spiegazione dei processi mentali, visto che a un qualche livello esso deve necessariamente essere ammesso? Sulla base di quali assunti teorici è costruibile un’adeguata nozione di computazionalismo? Se esso è manipolazione, o elaborazione, formale di simboli, quale livello o quali livelli è opportuno indagare attraverso questa nozione teorica? Il cervello34 o la mente? O entrambi? O qualcosa di intermedio? Numerose sono state le reazioni immediate alla presentazione del saggio di Searle35 e non ci interessa in questa sede una loro disamina completa. Prenderemo in considerazione, come ultima obiezione all’argomento della stanza, la critica che Hofstadter rivolge all’articolo di Searle a un

33

C’è un’altra possibilità. Searle potrebbe sostenere che il manuale di istruzione contiene tutti i casi possibili di domande e risposte. Tale affermazione implicherebbe, però, l’abbandono del riconoscimento della produttività illimitata del linguaggio naturale.

34 Lo stesso Searle nella 2) invita a considerare il modello di un cervello come un sistema di manipolazione simbolica di

simboli binari. L’idea della binarietà, peraltro, non corrisponde alla realtà dei fatti neurofisiologici, ma con opportuni aggiustamenti anche il cervello può essere considerato un sistema di elaborazione formale di simboli. Bisogna, però, valutare approfonditamente fino a che punto tali aggiustamenti riescano a mantenerne le specifiche caratteristiche funzionali, questione ancora aperta all’interno delle neuroscienze cognitive.

35

Reazioni a favore e contrarie, che nella rivista Behavioral and Brain Sciences sono riportate insieme al saggio di Searle.

anno dalla sua pubblicazione36. Essa costituisce una premessa utile alla discussione delle tesi hofstadteriane in merito alla metodologia e agli obiettivi dell’IA, su cui verterà il resto di questo scritto.

La risposta di Hofstadter (e Dennett) alla stanza cinese è quella “dei sistemi”. Questo non sorprende, accettando come valida la riduzione delle sei obiezioni proposte da Searle all’unica che non consista in una fallacia argomentativa (nel senso di non essere direttamente rivolta all’argomento) o in una ripetizione delle obiezioni precedenti, vale a dire la 1). Di essa sono già stati messi in luce i punti deboli e le implausibilità (mascherate con robusti punti di forza intuitivi). Hofstadter, la cui critica dell’argomento di Searle sottolinea queste debolezze, richiama in aggiunta il meccanismo della “pompa di intuizione” che Dennett aveva introdotto proprio in riferimento all’argomento della stanza cinese. Una “pompa di intuizione” è «un congegno che provoca una serie di intuizioni col produrre variazioni su un esperimento di pensiero basico» (Dennett, 1980, p. 94). Tali variazioni permettono di ricavare dalla stessa struttura argomentativa conclusioni diverse a seconda delle caratteristiche attribuite ad un qualche Gedankenexperiment preso in considerazione. In riferimento alla stanza cinese, Hofstadter individua cinque parametri, «cinque manopole», sulla base dei quali è possibile variare la situazione ideale descritta dall’esperimento (Hofstadter, 1981, p. 363):

- il materiale fisico su cui viene costruita la simulazione;

- il livello imitativo del sistema mente-cervello (subatomico, atomico, sinaptico, cellulare neurale, di gruppi di neuroni, simbolico, ecc.);

- la grandezza fisica della simulazione (dal microscopico al macroscopico);

- la grandezza e la tipologia del demone della simulazione, cioè il principale attore della simulazione;

- la velocità d’azione del demone (molto lenta o molto veloce).

Queste cinque variabili rendono possibile la creazione di molteplici e differenti esperimenti della stanza in cui, generalmente, è presumibile che l’effetto intuitivo sia ottenuto mediante i semplici accorgimenti di rallentare notevolmente la velocità di esecuzione del compito, di ingrandire a dimensioni umanamente inconcepibili il sistema globale, di utilizzare materiale quanto più possibile inerte e inattivo, di introdurre all’interno della stanza, cioè del nucleo centrale dell’esperimento, un demone che sia il più simile possibile a un agente umano (e quindi anche un agente umano stesso), che compia meccanicamente, o comunque metodicamente, determinate azioni (pur potendo comportarsi in maniera non meccanica, essendo human-like) e che, effettivamente, sostituisca la

parte essenzialmente esplicativa dell’esperimento di simulazione.

36

Cfr. Hofstadter, Dennett (1981, pp. 360-369). Il commento a “Menti, cervelli e programmi”, pur esprimendo convincimenti condivisi da entrambi gli autori, porta la firma di Hofstadter.

In questo modo, è possibile ottenere la stanza simbolica di Searle (la stanza dei simboli cinesi), ma anche la stanza subsimbolica di Haugeland37 (la stanza delle connessioni sinaptiche), in cui il demone presente è capace di attivare, pizzicandole, tutte e sole le giuste sinapsi di un cervello all’interno di un individuo che conversa in cinese (Haugeland, 1980, pp. 108-109). Sappiamo già quale sia l’obiezione di Searle a questa trasformazione della stanza. Nella obiezione 3) egli afferma che anche in questo caso non viene meno la tesi principale, ovvero la mancanza di intenzionalità, e quindi di comprensione del cinese, da parte dell’individuo che muove le leve (idrauliche o