• Non ci sono risultati.

Statuto ontologico delle macchine dotate di IA »

Prima di trattare la questione attinente alla possibilità di qualificare le macchine intelligenti come nuovi soggetti di diritto, si ritiene utile affrontare, preliminarmente, lo statuto ontologico delle macchine dotate di IA.

Fino ad oggi i robot sono stati considerati al pari degli animali e quindi, in quanto tali, come delle cose. È anche vero, però, che col passare del tempo questa catalogazione può essere revisionata, come è già successo in passato, se pensiamo all’evolvere degli stessi diritti umani.

A seguito dell’invenzione del computer si è iniziato a porre, inevitabilmente, l’interrogativo se le macchine siano in grado di svolgere anche le più elevate attività umane.

Il calcolatore, infatti, in quanto macchina universale che grazie all’utilizzo di algoritmi è capace di risolvere qualsiasi problema di un determinato tipo, ha indotto studiosi di diverse discipline, tra cui filosofi e scienziati, a rivalutare i rapporti uomo-macchina nonché la relazione tra l’intelligenza naturale e l’intelligenza artificiale.

Già a partire dagli anni ’50 si è sviluppato un intenso dibattito sulle capacità quasi-umane dei calcolatori e sui limiti di queste ultime. Ci si domanda se le macchine siano in grado di pensare, di ragionare, di sentire, di percepire, di apprendere, di possedere un’intelligenza analoga a quella dell’essere umano.

È possibile, quindi, considerare tali macchine come soggetti e non più come semplici oggetti?138

Per provare a rispondere a questa domanda ci si richiama ad uno scritto di

Alan Turing, pubblicato nel 1950 su Mind denominato “Computing Machinery and Intelligence”, tradotto in italiano in “L’io della mente” nel 1986139.

Turing è il fondatore della corrente di pensiero denominata “intelligenza artificiale forte”, che ritiene i calcolatori macchine idonee ad esprimere un autentico pensiero e in grado di produrre processi intellettuali identici a quelli umani. Sulla base di questa concezione, pertanto, non vi è alcuna differenza ontologico-qualitativa tra il cervello umano e il cervello elettronico e tra l’intelligenza umana e l’intelligenza artificiale. L’unica differenza che è possibile riscontrare è costituita dalla sede o supporto fisico: da un lato, è presente la testa umana fatta di carne, ossa e altri materiali biologici; dall’altro, un calcolatore fatto di metallo ed energia. Rilevante, quindi, secondo questa teoria non è la struttura, bensì la funzione. Tale tesi viene definita funzionalista. Esistono intelligenze in sé indipendentemente dalla sede fisica in cui risiedono.

L’altra concezione, definita “intelligenza artificiale debole”, sostiene la non autenticità del pensiero meccanico nonché la diversità ontologica tra l’intelligenza artificiale e l’intelligenza naturale. La teoria dell’IA debole, è stata sostenuta da autorevoli studiosi, in particolare da Searle, in un importante

138 TADDEI ELMI, Robotica tra etica e diritto, ITTIG-CNR, 24 novembre 2010

139TURING, Computing Machinery and Intelligence, in ‘Mind’, 1950

contributo pubblicato nel 1980140. Searle e seguaci sostengono che le macchine

siano in grado, soltanto, di simulare e di riprodurre i processi intellettuali umani costituendone, di conseguenza, solo delle copie. Contrariamente a quanto affermato dalla teoria dell’IA forte, in questo caso non è importante la funzione, ma la struttura, ossia il luogo in cui l’attività si svolge.

Da queste due visioni derivano due opposte concezioni in ordine allo statuto ontologico delle macchine. Secondo l’altra tesi minimalista, gli automi, anche molto intelligenti, tali che i loro comportamenti siano indistinguibili all’osservatore da quelli umani, sono, comunque, degli oggetti e dunque, sul piano morale e giuridico, meritevoli di tutela solo per il valore che esprimono; secondo la tesi massimalista i robot “super intelligenti” potrebbero essere considerati come dei soggetti e dunque meritevoli, sul piano filosofico, morale e giuridico, di un’eventuale tutela per soggettività141.

Putnam è stato il primo ad individuare la possibilità di conferire alle macchine

una soggettività, anche giuridica. In uno scritto pubblicato nel 1960 si chiedeva, infatti, “è giusto che i robot abbiano i diritti civili?142“.

Questa domanda è giustificata dal fatto che i robot hanno una psicologia. Se, infatti, con essa si intende una scienza che descrive il comportamento di qualsiasi specie di sistemi il cui atteggiamento sia suscettibile di studio e di

140 SEARLE, Minds, Brains and Programs, in The Behavioral and Brains Sciences, 3,

Cambridge University Press, 1980

141 TADDEI ELMI, I diritti dell’intelligenza artificiale tra soggettività e valore: fantadiritto o ius condendum? in Il Meritevole di Tutela, Milano, 1990, 685 ss.

142PUTNAM, I robot: macchine o vita creata artificialmente? in Mente, Linguaggio e Realtà,

interpretazione, allora è possibile ritenere che le macchine possiedano una psicologia perché obbediscono a leggi psicologiche143. Questo, però, precisa

Putnam, non comporta che i robot siano coscienti. Le macchine di Turing sono psicologicamente isomorfe all’uomo, ossia hanno un’identità di organizzazione funzionale, ma ciò non può dimostrare che siano dotate di coscienza.

Avere stati psicologici rilevabili ab extra non significa possedere un’autentica consapevolezza dei comportamenti. Pur aderendo a tale posizione, Putnam, dopo aver elencato varie tesi a favore e contro la coscienza dei robot, conclude che l’argomento del materiale o della struttura non è ammissibile perché basato su affermazioni intuitive non provate. Si dovrebbe, dunque, ritenere che i robot possano pensare se l’argomento contrario è esclusivamente la differenza di materia tra cervello elettronico e cervello non elettronico.

A questo punto si profilano due ordini di problemi. Il primo di natura teorico filosofica, ossia la questione dello statuto ontologico di macchine particolarmente evolute. È opportuno considerare queste ultime come semplici oggetti, oppure travalicano la soglia dei requisiti minimi per il riconoscimento di un livello di soggettività? Il secondo, invece, è di ordine pratico-funzionale- giuridico, ossia se sia opportuno e utile ai fini giuridici conferire a simili artefatti un livello di soggettività. Ovviamente dalla risposta a tali questioni deriva anche il tipo di “diritto” e il tipo di “tutela” applicabile.

143 TADDEI ELMI, op. cit.

Le domande devono essere scisse e affrontate separatamente. La prima si muove su un piano filosofico, la seconda su un piano giuridico, alla prima va data una risposta a livello teorico, alla seconda a livello pratico.

La filosofia si occupa di essenze, va alla ricerca degli elementi necessari e sufficienti delle entità, il diritto tiene conto delle essenze, ma non si ferma ad esse in quanto il suo compito è quello di regolare la vita sociale e di rendere applicabile ed effettiva tale regolamentazione. Ha un fine prevalentemente pratico-funzionale. Le soluzioni giuridiche sono relative, non assolute. Anche la soggettività giuridica è relativa e pratico-funzionale.

Le macchine intelligenti sono oggetti o soggetti; possono godere, oltre che della tutela per valore, anche della tutela per soggettività?

Due sono i paradigmi che nella nostra cultura fondano l’aspettativa di una tutela: il valore che si suggerisce di intendere come elevatezza-complessità di funzioni, e/o utilità pratica, e/o rarità-originalità e la soggettività intesa in un crescendo di sensibilità, immaginazione, intellezione come pensiero logico, intenzionalità, coscienza, autocoscienza e autodeterminazione144.

Ai calcolatori e ai programmi sono agevolmente applicabili i criteri di complessità funzionale, utilità pratica e rarità/originalità.

L’ordinamento, di volta in volta, assume uno dei tre criteri citati e attribuisce ai robot intelligenti la relativa tutela giuridica. I tre criteri possono presentarsi anche combinati in modo da ottenere programmi complessi e utili, complessi e

originali, utili e semplici, complessi e inutili, originali e inutili, utili e originali, ecc.

Il diritto tratta di una tutela che parte anche da valutazioni di carattere assoluto, ma che di regola deve essere considerata conferita indipendentemente dal riconoscimento di un valore ontologico.

L’altro criterio di tutela è la soggettività. Quali sono le soggettività ontologiche meritevoli di tutela indipendentemente dal valore? Sono individuabili due categorie: le soggettività piene, ossia gli umani dotati delle caratteristiche di esseri senzienti, immaginanti, raziocinanti-giudicanti, autocoscienti e autodeterminanti; e la categoria delle soggettività ridotte o deboli, quali umani portatori di handicap più o meno gravi, animali, e in ogni caso entità portatrici di interessi “sentiti”, cioè entità che sono in grado di soffrire, provare piacere, avere sensibilità. I robot intelligenti trovano collocazione tra queste soggettività ontologiche?145

Per rispondere a detta domanda occorre verificare se i robot o i programmi intelligenti possiedono quel set minimo di caratteri considerati necessari e sufficienti perché possa essere riconosciuta loro una soggettività naturale. Risulta evidente che determinare questi requisiti minimi è un’operazione assiologica che deve necessariamente fare una scelta di campo aprioristica deve, cioè, accettare uno dei due assiomi, quello monista riduzionista dell’omogeneità tra mente e cervello, tra stati fisici e stati mentali o quello dualista

dell’eterogeneità tra mente e cervello e tra stati mentali e stati fisici. La tesi dell’intelligenza artificiale, fondata sull’identità tra stati intellettuali umani e stati intellettuali artificiali, non ha più alcun seguito. È vigente la tesi della simulazione e della copia ossia del comportamento identico, ma inconsapevole. L’approccio dualista è ormai ammesso da tutti anche dai riduzionisti più moderni, secondo cui gli eventi mentali non sono eventi fisici. La tesi dell’eterogeneità equivale alla tesi della netta distinzione tra mondo fisico e mondo 2 secondo Popper146. Questa tesi neodualista, accettata da gran parte della

società scientifica e filosofica, più che una tesi appare un’ipotesi basata su intuizione e osservazione. È difficile dimostrare scientificamente e rigorosamente tale ipotesi è, però, possibile, facendo richiamo al buon senso, accertare l’eterogeneità di mente e cervello almeno su quattro livelli: sensazione/percezione (sensi esterni); immaginazione/fantasia (sensi interni); intellezione (concetto, giudizio, ragionamento, discorso), autocoscienza o Io147.

Secondo il primo livello della sensazione, la macchina non si può ritenere dotata di sensazioni autentiche. Essa guarda, ascolta, percepisce odori, ma non sente, non ode, non odora; il calcolatore effettua solo registrazioni, ma non avverte sensazioni né come gli uomini (sensazioni coscienti), né come gli animali (sensazioni incoscienti).

146 POPPER, I tre mondi. Corpi, opinioni e oggetti del pensiero, marzo 2012 147 LOMBARDI VALLAURI, Riduzionismo e oltre, 35 ss.

Il fatto che gli animali abbiano sensazioni e non semplici registrazioni sembra evidente in base alla somiglianza dei comportamenti umani e dei comportamenti animali rispetto a certi input (isomorfismo psicologico148).

Sulla base del secondo livello della immaginazione/fantasia, la mente si rappresenta enti sensibili anche in loro assenza. Devono essere enti fisici in quanto non è possibile rappresentare concetti astratti o universali. La mente immagina enti fisici assenti, la macchina no.

Dal terzo livello dell’intellezione si deduce che la macchina riconosca significanti e operi inferenze tra enunciati; le cose che riconosce sono estese nello spazio e nel tempo, la mente coglie in modo inesteso totum simul il giudizio composto da enunciati estesi. Esempio: se tizio è maggiorenne e non è interdetto, può contrarre matrimonio.

Grazie al quarto livello della coscienza si evince che tutte le operazioni precedenti sono svolte dalla macchina in stato di sonnambulismo mentre sono consapevoli per l’uomo. Quest’ultimo, inoltre, ha coscienza dell’Io, cosa che non hanno né le macchine né gli animali.

La sensazione cosciente, l’immaginazione di enti sensibili inesistenti, il giudizio e l’essere consapevoli di sé sono entità immateriali.

148 Il termine “isomorfismo” deriva dal greco ed indica l’identità strutturale tra il fenomeno e i corrispondenti processi fisiologici. Pertanto, ogni cosa che avviene nella nostra mente, dalla percezione di un semplice oggetto fino ai concetti più complessi, si presenta con le stesse caratteristiche sia nella nostra esperienza che nel suo aspetto fisiologico-cerebrale.

Da questa analisi appare evidente che i robot non possiedono alcun livello di soggettività autentica dato che non sentono realmente, ma registrano segnali, non immaginano enti sensibili assenti, non comprendono significati, ma solo significanti e non hanno autocoscienza. Ossia non possiedono quella che viene chiamata la mente cognitiva.

Anche solo valutando i caratteri di quella che viene chiamata la mente cognitiva sembra lecito affermare che i robot non possiedono alcuno di questi requisiti e non possono essere riconosciuti né come soggetti pieni né come soggetti ridotti solo senzienti o solo ragionanti. Sono assimilabili a dei “sonnambuli”149 che operano senza consapevolezza. Ma anche a voler superare

questo primo livello di mente cognitiva e aderire alla tesi più spinta che tale mente non sia altro che una struttura ad alta complessità funzionale - comunque fatta di materia magari ancora sconosciuta, struttura ancora non inventata o costruita e che dunque la nascita di menti cognitive artificiali sarebbe solo un problema di tempo - appare insuperabile l’obiezione che deriva dalla mente affettiva. I livelli della mente affettiva cioè, il piacere e il dolore sensibili, i sentimenti, la volontà razionale, l’autodeterminazione/libertà non sembra che possano essere raggiunti dalle macchine neppure in futuro.

È possibile concludere che il cervello è materia, la mente, invece, non lo è; le macchine hanno un cervello, ma non una mente.

Sotto il profilo della soggettività si può affermare che sono soggetti pieni le entità che possiedono tutti i requisiti immateriali della mente e soggetti ridotti quelle entità che possiedono almeno il requisito più basso della sensazione incosciente, ma sensitiva (portatori di forti handicap e animali).

Si può affermare che il criterio minimo ontologico della soggettività consista nel possesso di “interessi sentiti”. Questi interessi sentiti starebbero alla base della meritevolezza di tutela.

I robot, pertanto, possono considerarsi meritevoli soltanto di una tutela per valore: sono oggetti e non soggetti ontologici.