• Non ci sono risultati.

la decisione.

1. La filosofia moderna, la nascita del soggetto e il sogno del- la macchina.

La filosofia moderna nasce insieme all’interesse per l’“arti-

ficiale”. Descartes, nella Quinta parte del Discours de la métho- de, descrivendo il corpo come una macchina perfetta, scrive che tale paragone «non sarà strano per coloro che sanno quanti auto-

mi (automates) o macchine che muovono se stesse l’industria

degli uomini è capace di produrre, impiegando pochissimi ele-

menti»1. Pochi anni dopo, Pascal e Leibnitz inventeranno le pri-

me macchine per rendere più efficiente il calcolo nella consape- volezza, che era già cartesiana, che questi strumenti non condi-

videranno mai con l’uomo l’uso della parola. Certo, oggi la si-

tuazione è cambiata ed è imparagonabile con quanto avveniva nei secoli XVII e XVIII. Tuttavia, non è da escludere che, dato

il loro interesse per l’innovazione tecnica e tecnologica, gli stes-

si Descartes, Pascal e Leibnitz sarebbero interessati sia a quanto

oggi sta accadendo nell’ambito dell’intelligenza artificiale, sia

alle implicazioni che ciò reca con sé.

Tornando a Descartes, è nota l’idea del soggetto moderno

che egli inaugura, ossia l’idea di un “io” che è irriducibile a ogni

Copia

uso Open

Access

dubbio e perciò si scopre come fondamento di ogni sapere. Se, infatti, di tutto posso dubitare tranne che di me che sto dubitan-

do, affermare“je suis, j'existe” e “je pense, donc je suis” (o nella

versione latina“cogito ergo sum”) equivarrà a fare del soggetto

il fondamento della consapevolezza di sé e, a partire da ciò, di ogni altro sapere. Il che, tuttavia, rappresenta soltanto il primo aspetto della questione. Infatti, una volta che il cammino è stato aperto, anche la concezione della verità si destina al cambiamen- to, ché l’idea di una verità come certezza di cui (l’) esprit/mens sarebbe il garante prende il posto del paradigma medievale se- condo cui «veritas est adaequatio intellectus ad rem» e/o «adae- quatio intellectus et rei».

Ora, proprio questo soggetto (al contempo fondamento di ogni conoscenza possibile e garante della verità), è stato messo in crisi nella filosofia del XX secolo e XXI secolo che ne ha cri- ticato il suo essere legislatore universale astratto e disincarnato.

Un soggetto che, come ebbe a dire Paul Ricœur coniando una

celebre formula, “n’est, à vrai dire, personne”. E tale “io” o

“soggetto” è “nessuno” perché, in luogo di essere individuo in carne e ossa, è funzione trascendentale di ogni conoscenza.

Per uscire da questa funzionalità neutra, Martin Heidegger (e con lui molti altri filosofi) hanno sostituito al soggetto e all’ “io” il pronome “chi”, e ciò allo scopo di pensare un sogget-

to di cui non si parli in astratto ma in concreto.“Chi”, infatti,

non è un pronome personale diretto ma, in quanto pronome re-

lativo, interrogativo o indefinito, indica sempre“qualcuno che”

compie un’azione. Questo glissement dall’astratto al concreto è

stato declinato da Ricœur così: «(Riflettere sul “chi”) vuol dire

rispondere alla domanda: chi ha fatto questa azione? Chi ne è

l’agente, l’autore? [...] Rispondere alla domanda “chi?” [...] vuol

dire raccontare la storia di una vita. La storia raccontata dice il

chi dell’azione»2. Ora, niente vieta di prolungare la lista delle

azioni che Ricœur elenca aggiungendovi la domanda «chi deci-

de?», ché anche questa domanda ci condurrebbe 1- ad abbando-

nare l’universalità (vuota) del soggetto 2- al fine di coglierne la

concretezza 3- facendo accadere al soggetto stesso una trasfor-

mazione che, forse, è ben più radicale di quella che l’intelligenza

artificiale ha provocato.

Copia

uso Open

Access

2. Lacontrée des philosophes.

L’interesse della filosofia per l’intelligenza artificiale ha da-

to vita a un dibattito che, grosso modo, si svolge attorno a tre punti principali: 1- che cosa sono la mente e gli stati mentali, 2- di che genere è il rapporto tra mente e cervello e 3- se esista o meno uno stato autonomo e originale di coscienza. Questi tre

punti sono stati messi a fuoco dopo l’“evento” che ha avviato

tali ricerche, ossia l’invenzione della “macchina” di Alan Tu-

ring, nella quale è stato fin da subito individuato uno strumento atto a esplicare il funzionamento della mente umana. Tornare a questo evento inaugurale è necessario per chiarire perché la filo-

sofia si interroga meno sui singoli aspetti e dibattiti in cui l’in-

telligenza artificiale è implicata e più su tutto ciò che è compu- tazione, algoritmo, calcolo computazionale.

Sulla scia di Turing, è stato detto, l’interesse della filosofia

si è rivolto a ciò che può chiarire il funzionamento della mente.

Hilary Putnam, ad esempio, ha teorizzato l’analogia tra mente e

computer, analogia che permetterebbe «di cogliere che parole

come“pensare”, “ricordarsi di”, “comprendere”, “vedere”, (ter-

mini che indicano le nostre attività mentali) non dipendono da

una sostanza spirituale»3ma sono azioni che anche le macchine

compiono. Tuttavia, prima di Putnam è stato il già citato Alan

Turing, con quello che è chiamato “gioco di Turing”, ad affer-

mare che“il computer pensa”.

Il gioco che ha condotto il matematico e filosofo inglese per dimostrare questa constatazione consiste in tre partecipanti, un uomo A, una donna B (entrambi devono trovarsi nella stessa stanza) e un terzo partecipante C che si trova in una stanza di- versa. Utilizzando il tramite di una macchina che trascrive, oggi connettendo in rete due computer, il terzo interlocutore deve in- dividuare il sesso di chi risponde alle domande senza mai ascol- tare la voce di nessuno dei due interlocutori. Una variante del gioco prevede la sostituzione del partecipante A o B con una macchina (senza che il terzo interlocutore ne sia al corrente).

L’esperimento ha mostrato che il partecipante C, dovendo indo-

vinare se le risposte alle sue domande vengono da un uomo, una donna o una macchina, non ha elementi per sciogliere la questio-

3H. PUTNAM, Mind, Language and Reality: Philosophical Papers, Cam-

bridge Mass, 1975, p. 291, trad. nostra.

Copia

uso Open

Access

ne perché le risposte non presentano differenze (né di genere, di altro tipo). Tenendo dunque conto di questo esperimento, Put- nam ha sostenuto che «le immagini mentali e le parole pensate non rappresentano in modo intrinseco ciò di cui sono rappresen-

tazioni»4, motivo per cui esse possono essere ricondotte indiffe-

rentemente alle persone o alla macchina. Le neuroscienze, che si sono sviluppate proprio a partire da questi presupposti, offrireb- bero altre prove a supporto della tesi.

Secondo questa ipotesi di lettura, non esisterebbe un “chi”

centro di decisioni ma l’analogia con l’intelligenza artificiale

mostrerebbe la sostanziale assimilabilità di ciò che chiamiamo “libertà” e di ogni attività caratterizzante “chi” esiste, si tratti di stati mentali o di proprietà celebrali.

Contestando la linea Turing-Putnam, John Searle ha soste-

nuto che l’intelligenza artificiale non dispone di atti autentica-

mente soggettivi che, nel migliore dei casi, sono simulati da un calcolatore elettronico. Riprodurre atteggiamenti non signifi-

ca esserne l’autore e il soggetto responsabile. Gli stessi calcoli

che un’intelligenza artificiale compie tramite gli algoritmi non esistono in natura ma sono il risultato di una coscienza che li ha programmati. Secondo Searle, «la coscienza è un vero e pro- prio fatto biologico, mentre il calcolo è una proprietà da attribui-

re al sistema elettronico»5. Ancora, «per me, scrive Searle, gli

stati mentali sono altrettanto reali quanto lo sono gli altri feno- meni biologici, reali come lo è [...] la digestione». In altri termi- ni, le caratteristiche della coscienza, la quale è diversa dal cer- vello ed è irriducibile agli stati fisici, non possono essere estese

all’intelligenza artificiale.

Ora, soltanto in apparenza queste osservazioni sono lontane

dal nostro contesto che s’interroga sul “chi” della decisione. In-

fatti, tra i problemi che Searle pone c’è quello che chiede se una

macchina, certamente capace di manipolare simboli, sia capace di comprenderne il significato. La risposta del filosofo è negati- va, poiché saper riprodurre simboli non significa che li si com- prenda. E così come l’universo simbolico è un tratto esclusiva-

mente appartenente all’uomo, anche la decisione lo è: una cosa è

4H. PUTNAM, Reason, Truth and History, Cambridge Mass, 1981, p. 19,

trad. nostra.

5J. SEARLE, Intentionality. An Essay in the Philosophy of Mind, Cambrid-

Copia

uso Open

Access

dare conto di decisioni, tutt’altra prenderle ed esserne responsa-

bili.

Volendo sintetizzare questo dibattito (ormai classico) sul-

l’intelligenza artificiale per ricondurlo nel quadro delle questioni

che ci interessano, diremo che esso si interroga sulla questione

del “chi” interrogando la natura della mente e chiedendo se il

suo naturalismo sia riproducibile o no dalla macchina. Ma, ap- punto, tanto nella linea Putnam/Dennett quanto in quella di Sear- le, a essere in questione è il naturalismo, motivo per cui, a nostro

avviso, nessun passo in avanti è compiuto nella questione“chi

decide”. D’altronde, per quanto la “macchina” sia assimilabile alla mente umana quanto al funzionamento, essa è in ogni caso priva di intenzioni, né potrebbe comprendere il linguaggio sim- bolico o porre autonomamente a se stessa degli scopi.

Lo ha colto Henri Atlan quando chiedeva: «È possibile con- cepire una macchina nella quale gli obiettivi da raggiungere, i

compiti da eseguire, non siano imposti dall’esterno, ma prodotti

dalla macchina stessa? [...] Può una macchina essere intenziona-

le? [...]“Funzioni” e “finalità” non verranno utilizzate, allo sco-

po di spiegare il comportamento del sistema. Al contrario, sono proprio queste le nozioni che andranno spiegate, utilizzando sol- tanto quelle spiegazioni di tipo causale che la dinamica delle reti di automi è in grado di fornire, per rendere conto dell’emergenza

delle funzioni e dei fini»6.

Giovanni Iorio Giannoli ha portato avanti la via aperta da Atlan, sostenendo tuttavia che potremmo assumere che gli stu-

diosi dei sistemi complessi sappiano simulare l’emergenza di

certe strutture (ad esempio, regioni di una rete) «che si compor- tino in maniera coerente e che siano stabili, cioè poco sensibili alle perturbazioni, e di certe funzioni (ad esempio, regioni o ele- menti della rete che riconoscano certe classi di perturbazioni, di- stinguendole nettamente da altre)». Inoltre, se supponiamo di

poter assegnare a un sistema del genere un“modulo di auto-os-

servazione”, potremmo giungere a creare una sorta di «memoria,

il cui compito è quello di immagazzinare la sequenza degli stati che il sistema ha attraversato, prima di svolgere con successo una certa funzione». In tal modo potremmo, almeno in teoria, ri-

6H. ATLAN, Intentional Self-organisation. Emergence and Reduction: To- wards a Physical Theory of Intentionality, in Thesis Eleven, 52, 1998, trad. no- stra.

Copia

uso Open

Access

solvere il problema perché «con questi pochi ingredienti è pos- sibile simulare la capacità di fare progetti. In una particolare ac-

cezione,“progettare” significa infatti “capacità di prevedere gli

effetti di un certo comportamento”; ma tale capacità è garantita

dal fatto che si abbia il ricordo di successi già prodotti da un comportamento analogo, in una precedente occasione. Noi pro-

gettiamo, perché sappiamo quale sarà l’esito di certe azioni,

sulla base di attività precedenti, fissate nella nostra memoria. Ad esempio, secondo questo schema, un primate potrebbe essere

in grado di riprodurre“intenzionalmente” un certo strumento,

quando questo strumento sia stato prodotto la prima volta per ca-

so ed il processo di produzione sia stato memorizzato»7.

Alla domanda se la macchina sarà un giorno capace di as- sumere decisioni autonome, Iorio Giannoli risponderebbe che al momento ciò non è possibile, sebbene lo scopo del program- matore sia quello di avvicinarsi il più possibile alla progettazio- ne di azioni basate su stati memorizzati. Un esito, questo, verso

cui l’intelligenza artificiale tende e di fronte al quale la contrée

des philosophes mostra non poca curiosità e attenzione: fino a

che punto, infatti, l’uomo potrà conservare la propria originale

eccezionalità?