2.2 Teorie comportamentali dei robot
2.2.4 Il robot può essere un agente morale?
Per poter introdurre il tema della moralità delle macchine è necessario identificare chi sia un soggetto morale, cioè un soggetto in grado di compiere azioni morali. Una definizione di tale attività viene fornita da Luciano Floridi, che la identifica come
“un’azione può essere qualificata in termini morali se e solo se può determinarsi bene o male morale. Un agente può definirsi come agente morale se e solo se è capace di compiere azioni moralmente qualificabili”213. Che un uomo compia azioni morali non può che apparire scontato ma queste azioni sono riscontrabili anche il un robot?
Una prima ed immediata risposta darebbe per scontato che no, i robot non hanno una coscienza e non possono compiere azioni morali e diverse obiezioni sono state mosse proprio nei confronti di chi afferma il contrario ma ognuno delle obiezioni mossa viene superata o quanto meno mitigata. Sono quattro le principali obiezioni mosse: quella teleologica; quella centrata sull’intenzione; quella centrata sulla libertà e quella centrata sulla responsabilità.
1) L’obiezione teleologica fa leva sulla mancanza di fini che un agente meccanico presenta. Esso non compie altre azioni se non quelle previste dal proprio ingegnere o
211 Ibidem.
212P. MORO, op.cit., p. 61.
213L. FLORIDI, op. cit., p. 118.
programmatore, il fine è di quest’ultimi e non della macchina. Non sempre è così e non è così scontato. Nei robot di ultima generazione il livello di astrazione214 può sempre essere modificato ed aggiornato includendo anche azioni mosse verso un fine, se ciò non avviene sempre la ragione è prettamente pratica ed economica, in quanto si cerca di alleggerire il sistema e non sovraccaricarlo.
2) L’obiezione centrata sull’intenzione, secondo questa un robot non potrebbe considerarsi un agente morale in quanto non ha un’intenzione, non è sufficiente che sia mosso da uno scopo ma serve anche egli voglia e desideri che la propria azione sia in un determinato modo e compia un determinato risultato. In realtà lo stato dell’intenzione non può essere considerato come una condizione di per se necessaria.
In più, per potersi accertare della sussistenza di un’intenzione dovrebbe richiedersi un accesso all’interno della mente dell’agente e ciò non è possibile che venga accertato, né nell’uomo e né nella macchina. Tale lacuna non deve però essere considerata come un punto di debolezza. Si dovranno considerare agenti morali solamente quei sonettò che agiscono moralmente, sorvolando sull’intenzione che li muove.
3) L’obiezione che si muove sulla libertà dell’agente è superabile attraverso la stessa logica della precedente obiezione. L’idea del libero arbitrio umano è anch’essa un tema centrale da millenni all’interno delle teorie sulla libertà decisionale umana. Non si può affermare da un fatto negativo la sussistenza o meno di un altro. Non possiamo quindi affermare che manchi di libertà quando non vi sia un fattore positivo che lo dimostri.
Inoltre le ultime generazioni di macchine hanno una tecnologia così avanzata da permettere che non vengano aprioristicamente imposti sistemi non-deterministici.
4) L’obiezione che muove le proprie basi sulla responsabilità ha aspetti un po’ più complessi sulle precedenti. In questo caso non si tratta solo di un aspetto che riguardi la macchina in sé ma anche soggetti terzi, che in caso di danno necessitano di un risarcimento o comunque che venga riconosciuto l’autore del danno. Per poter superare questa obiezione dobbiamo precisare due punti: il linguaggio e cosa ciò significhi realmente. Il linguaggio utilizzato quando si affronta il tema della responsabilità è saturo di accezione antropocentrica215, in quanto si riscontra la necessità di collegare le tematiche di responsabilità e moralità ad argomenti psicologici, religiosi ed educativi.
214“ un livello di astrazione è un insieme finito ma non vuoto di osservabili, concepiti come blocchi di costruzione all’interno di una teoria caratterizzata dalla loro scelta concreta”
Ivi, p. 110.
215 Ciò non deve meravigliare, trattandosi di tematiche che fino ad un secolo fa non erano altro che oggetto di una narrativa fantascientifica.
Il secondo punto muove sul significato della stessa. Quando si parla di responsabilità è necessario assicurarsi che l’agente sia effettivamente conscio del luogo, della realtà esterna e dotata di strumenti sufficienti che le forniscano un corretto modo di agire, se non fosse dotato degli strumenti necessari per conoscere non si potrebbe parlare di responsabilità. Su questo aspetto non si può eccepire nulla in quanto le macchine hanno database di conoscenze che permettono di essere consci216, della realtà circostante.
Un’accezione differente del significato di responsabilità fa leva sull’utilizzo improprio di tale categoria in riferimento ai robot, essendo concettualmente fuorviante, non si hanno degli elementi necessari e sufficienti per dimostrare in questi termini che essi siano moralmente responsabili delle proprie azioni. Secondo questa obiezione un agente può essere responsabile solo se si tratta di un soggetto a priori considerato morale. Nel caso di un bambino, esso non è considerato responsabile in quanto manca di strumenti che gli permettano di far propria la morale e di adeguarsi con coscienza agli standard sociali, responsabile è il genitore o tutore chiamato dalla legge ad occuparsene.
Ma è sempre così? No, ed è dimostrabile dal trattamento degli animali da parte della legge. Gli animali nella nostra società svolgono innumerevoli funzioni e appare come ovvio che questi non possano essere ritenuti responsabili in quanto non agiscono moralmente, eppure il cane che fa parte del soccorso viene lodato quando compie un salvataggio. Per l’uomo è un’azione morale ma per l’animale è assimilabile ad un gioco, o anche nel caso di un animale violento questo potrebbe essere anche abbattuto come forma di sanzione. Questi espedienti sono necessari per comprendere come la sola imputabilità di responsabilità non è di per sé sufficiente per escluder la sussistenza di un agire morale217.
Sembrerebbe che sulla questione moralità si debbano ancora lasciare delle porte aperte.
Al problema analizzato attribuire una risposta semplice ed immediata, come potrebbe apparire una risposta che attribuisca l’imputabilità esclusivamente alla categoria di agenti umani, non è di per sé sufficiente ma appare piuttosto eccessivamente dogmatica e limitatamente schematica. È necessario chiedersi quali siano i vantaggi che l’ampliamento dei soggetti sussumibili in questa categoria potrebbe apportare.
Escludendo una valutazione prettamente antropocentrica ed antropomorfica, estendendo il significato di moralità e successivamente ampliando la conseguente responsabilità che deriva dall’agire, basandosi su un sistema di mere sanzioni e vantaggi
216 Per quanto sia possibile fare questa affermazione riferendosi ad una macchina.
217 Ivi, pp. 119-123.
e lasciare entrare all’interno di questo scenario nuovi soggetti in grado di compiere azioni che possano essere considerate morali se viste da un’ottica differente rispetto a quella che pone l’uomo al centro, in uno scenario che vede l’evoluzione di questi soggetti in continua ascesa che oggi sono in grado di realizzare azioni autonome ed indipendenti da quanto prestabilito dai loro programmatori. Si deve tendere ad un bilanciamento tra i concetti esposti, avvicinandoli alla realtà odierna, oggetto di un continuo mutamento.