• Non ci sono risultati.

Agenti artificiali e questioni giuridiche. Qualificazione e problemi di responsabilità.

N/A
N/A
Protected

Academic year: 2021

Condividi "Agenti artificiali e questioni giuridiche. Qualificazione e problemi di responsabilità."

Copied!
185
0
0

Testo completo

(1)

Indice generale

Introduzione...4

I nuovi agenti della società dell’informazione...4

1 Categorie di robot...10

Capitolo 1...20

Robot Autonomi: oggetti o soggetti del diritto?...20

1 Soggettività di tipo ontologico- Il...24

“pensiero di un automa”...24

1.1 La teoria dell’intelligenza artificiale forte...26

1.2 Intelligenza artificiale debole...29

2 Soggettività giuridica degli Agenti Autonomi...33

3 Personalità ridotta per gli Agenti Autonomi...43

4 Intelligenze Artificiali e diritti costituzionali...45

5 Tesi contrarie all’attribuzione di personalità giuridica...53

6 Diritto nel breve, medio e nel lungo termine...58

Capitolo 2...63

La responsabilità contrattuale...63

1 La qualifica dell’Agente Software nella disciplina...63

contrattuale...63

2 L ’agente Autonomo come rappresentante ...67

3 Agenti Autonomi e rappresentanza diretta...82

4 Gli agenti Autonomi e il contratto di agenzia...86

5 L’Agente Sofware come uno schiavo? Un’ipotesi suggestiva...94

6 L’Agente Autonomo e la figura del nuncius...98

7 L'Agente Autonomo e il contratto predisposto...102

8 L’agente Autonomo come mero strumento...108

Capitolo 3...122

(2)

1 Responsabilità extracontrattuale dell’agente autonomo. ...122

2 La normativa europea...129

3 La “Direttiva Macchine”...132

4 La direttiva CE sulla sicurezza dei prodotti...135

5 La direttiva sulla responsabilità derivante da prodotti...140

difettosi...140

6 Conclusioni sulle normative europee...149

7 Robot come soggetti del diritto ...152

7.1 La responsabilità dei genitori, dei tutori, dei precettori, dei maestri d’arte...153

7.2 La responsabilità dei padroni e dei committenti...159

7.3 La responsabilità per l’esercizio di attività pericolose...162

7.4 Il danno cagionato da cose in custodia...166

7.5 Il danno cagionato da animali...172

8 Le proposte di regolazione in campo europeo ...175

(3)
(4)

Introduzione

I nuovi agenti della società dell’informazione

Lo sviluppo progressivo delle nuove tecnologie, soprattutto in campo informatico e telecomunicativo, ha portato negli ultimi tre decenni, un cambiamento strutturale della nostra società. Le nuove tecnologie, infatti, si sono imposte come elemento fondamentale nelle nostre vite, costituendo un elemento con il quale il cittadino non può esimersi dal confrontarsi. Basti pensare a quanto le nuove tecnologie abbiano cambiato il nostro modo di comunicare con l'avvento di internet, e più recentemente del social media, realtà che godono di sempre più fiducia da parte degli investitori, nel mercato mondiale. Lo sviluppo di una società post-industriale, che basa le sue fortune, e i suoi rischi, sulle nuove tecnologie (la cosiddetta società dell’informazione), ha un’influenza crescente anche sul mondo del diritto, il quale non può esimersi dal rinnovarsi costantemente per restare al passo con la scienza,

(5)

garantendo una tutela agli utilizzatori delle nuove tecnologie.

I problemi da fronteggiare, in campo giuridico, sono innumerevoli. Di stretta attualità, infatti, sono i temi, discussi negli ultimi anni in Parlamento, di tutela della privacy informatica, cyberbullismo, tutela della proprietà intellettuale, solo per citarne alcuni.

Uno tra i temi più interessanti, sorti negli ultimi decenni, concerne la nascita di nuove entità, sviluppatesi nella società dell’informazione, che attualmente non godono di un riconoscimento, ed una specifica disciplina da parte del diritto.

Si tratta di entità nate da un nuovo tipo di approccio umano-macchina, che non prevede più lo sfruttamento da parte dell’uomo, nei confronti della macchina, quale semplice strumento, ma, dell’utilizzo di veri e propri “agenti meccanici”, capaci di relazionarsi in modo paritario con la persona fisica. Tali agenti, hanno acquisito negli ultimi decenni, un livello di autonomia da soggetti umani (quali ad

(6)

esempio utilizzatore, produttore, programmatore), da far sorgere domande sulla loro qualificazione in ambito giuridico. Tale questione ha portato la dottrina ad esprimersi, sul così definito, “postumanesimo meccanico”, e a chiedersi, in quali modi, ed entro quali limiti, gli agenti autonomi meccanici, debbano farsi carico delle funzioni, soprattutto decisionali, prima ad esclusivo appannaggio dell’uomo1.

Alla “umanizzazione” delle macchine, ha avuto sviluppo parallelo, la “meccanicizzazione” dell’uomo. Entità frutto di commistioni “umano-robot”, quale cyborg2, fyborg3, esoscheletri, non sembrano più frutto di fantasie da science-fiction, quanto frontiere di un prossimo futuro.

A tal proposito si registra, dunque, quella che può essere considerata una vera e propria perdita di certezze

1Pasquale Stanzione, Biodiritto Postumano e Diritti Fondamentali,

www.comparazionedirittocivile.it, 2012.

2Si tratta di soggetti che hanno subito un innesto meccanico. Lasciando da parte le teorie fantascientifiche, la distinzione tra umano e cyborg diventa sempre più flebile, se si pensa ad esempio all’innesto di peace-maker o protesi meccaniche.

3Il cosiddetto functional cyborg, che si interfaccia con la tecnologia attraverso un collegamento “indiretto” al dispositivo. A differenza del cyborg non necessita un’innesto fisico. Ne costituiscono esempio gli utilizzatori di dispositivi mobili quali, ad esempio, smartphone e palmari.

(7)

nell’individuo, con riguardo a concetti quali identità e personalità.

Tra i nuovi soggetti, che hanno acquisito una grande importanza nel mercato attuale, operando quotidianamente sui mercati, ed avendo un sempre maggiore spazio di azione, facendo sorgere dubbi e controversie di carattere giuridico, in numerosi campi del diritto, si collocano robot e agenti software. Per quanto riguarda i primi, bisogna sottolineare come negli ultimi decenni, si siano evoluti da semplici strumenti a veri e propri agenti, capaci di azioni autonome, grazie soprattutto all’attribuzione di un’intelligenza artificiale, che li guida nel loro operato. Per quanto riguarda gli agenti software, si sottolinea come questi siano sempre più utilizzati da società (come ad esempio banche, società di trading), per compiere operazioni per loro conto, poiché questi risultano essere più performanti rispetto agli agenti umani.

(8)

Entrambe le entità possono essere considerate colme “agenti artificiali” capaci di agire in sostituzione, o in rappresentanza di una persona fisica.4

Uno dei dibattiti più discussi, in particolare a partire dagli anni novanta5, riguarda la qualificazione di tali agenti, nel quadro giuridico.

Per comprendere le opinioni degli studiosi che si sono espressi a tal riguardo, non si può ignorare, come punto di partenza, il percorso tecnologico che ha caratterizzato in particolare gli ultimi tre decenni, che ha portato ad uno straordinario incremento delle capacità di tali agenti, con riferimento in particolare al livello di autonomia da essi raggiunto. Lo sviluppo di evoluti sistemi di machine-learning, reti neurali, algoritmi adattativi, infatti, tende sempre più ad escludere dal processo decisionale l’agente umano, facendo sorgere domande sull’incidenza delle operazioni degli agenti non biologici sulla sfera dei terzi.

4Bert-Japp Koops, Mireille Hildebrandt & David-Oliver Jaquet-Chifelle, Bridging

the Accountability Gap: Rights for New Entities in the Information Society?, 11

Minn. J.L. Sci. & Tech. 497 (2010).

5In particolare dal lavoro di Lawrence B. Solum, Legal Personhood for Artificial

(9)

La distinzione di cui occorre tener conto, per focalizzare il problema di qualificazione degli agenti, è quella tra agenti automatici, agenti “autonomici” e agenti autonomi.6

Per quanto riguarda i primi, la qualificazione sembra scontata. Infatti questi sono dotati di una programmazione “non creativa” che, agli stessi impulsi, risponde sempre allo stesso modo. Sembra pacifico che questi debbano essere considerati meri strumenti.

A riguardo degli agenti autonomici e autonomi, invece, non può adottarsi con semplicità la risposta precedente. I primi, infatti, sono in grado di cambiare la propria programmazione, allo scopo di raggiungere un determinato obiettivo7, i secondi, sono addirittura in grado di stabilire i propri obiettivi, oltre che di cambiare la programmazione, per conseguirli.8

6Bert-Japp Koops, Mireille Hildebrandt & David-Oliver Jaquet-Chifelle, op. cit. pg 515

7Ibidem 8Ibidem

(10)

Dal momento che, allo stato attuale, gli agenti artificiali, quali software e robot, siano considerati meri strumenti, diversi studiosi del diritto si sono interrogati su due diverse questioni cardine della materia.

La prima questione si chiede se sia possibile, o addirittura augurabile, l’attribuzione di una forma di personalità giuridica, agli agenti autonomi.

La domanda conseguente, nel caso in cui si debba optare per la negazione della personalità giuridica a tali agenti, riguarda il come bisogna comportarsi nelle controversie riguardanti la responsabilità civile, nel caso di danno ingiusto, causato da interazione tra uomo e agente autonomo.

1 Categorie di robot

Come evidenziato dal progetto Robolaw, progetto di ricerca finanziato dall’Unione Europea, condotto dalla scuola superiore Sant’Anna di Pisa, allo scopo di arricchire il dibattito su implicazioni tecnologiche, culturali ed

(11)

etico-giuridiche della robotica9, un approccio unitario, che riconduca dunque categorie di robot molto eterogenee ad una disciplina comune, potrebbe rivelarsi sconveniente, tenuto conto delle numerose differenze tra diverse entità robotiche.

Le “Guidelines on regulating robots”, linee guida che hanno raccolto le considerazioni degli studiosi del progetto Robolaw, adottate nel Maggio 2014 e confluite nel workshop “Upcoming Issues of EU Law”, presentato a Bruxelles il 24 settembre del 2014, mettono in risalto le differenze tra almeno sei categorie di robot, utili ad una classificazione delle risorse robotiche, sulla base dell’utilizzo delle stesse.

La prima categoria si sostanzia sullo scopo che l’utilizzo del robot vuole raggiungere, la seconda sull’ambiente il cui l’agente opera, la terza sul modo di operare dello stesso, la quarta sul suo livello di interazione con l’uomo, quinta e sesta rispettivamente su livello di indipendenza del robot e sulle sue caratteristiche e funzioni. Uno schema così

9Luca Marini, Isabella Aprea, Le Guidelines on regulating robotic:una sfida per il

(12)

rappresentato mette in risalto ancora una volta le criticità di un approccio unitario a classi di robot talmente diversi tra loro da non avere in comune alcuna di queste categorie.

Sembra dunque che le guidelines del progetto Robolaw, richiedano un approccio casistico, che possa ricondurre ad una disciplina specifica per ogni classe formata dalle precedenti categorie.

All’interno di tali classi, vi sono applicazioni robotiche, che risultano (o risulteranno in futuro) particolarmente problematiche per quel che riguarda l’individuazione di una regolamentazione che possa risolvere problemi giuridici caratterizzati dal loro utilizzo.

In particolare, sembra necessario indicare quattro applicazioni della robotica, che hanno tuttora, o avranno in futuro, un grande impatto nella vita quotidiana. Si tratta nello specifico di veicoli driverless, ovvero le cosiddette auto a guida autonoma, capaci attraverso un sistema di sensori di muoversi nel traffico cittadino senza la guida di un soggetto umano, i robot chirurgici e le protesi robotiche, che

(13)

coprendono sia un’area di robot “semplici” manovrati dai medici durante interventi chirurgici attraverso un controllo remoto sia le applicazioni di human enhancement quali ad esempio gli arti bionici, controllati dal sistema nervoso umano, che sicuramente presentano problemi giuridici rilevanti in caso di malfunzionamento, i robots companion o

personal care robots che si occupano dell’assistenza a

soggetti con disabilità, ed i cosiddetti negotiating agents, degli agenti capaci di contrattare con i terzi.

Per quanto riguarda i veicoli driverless, va evidenziato come questi siano al momento soggetti alla direttiva europea 85/374/CEE in materia di risarcimento del danno da prodotti difettosi10, ma che tale disciplina risulti dopo attenta analisi, contraddittoria, o quantomeno incompleta. In particolare la normativa fa riferimento ad un sistema di responsabilità oggettiva che rende responsabile il produttore soltanto nel caso in cui il prodotto non “offra il livello di sicurezza che si può legittimamente attendere” dallo stesso, al momento della messa in commercio del prodotto stesso. Tuttavia in

(14)

una fase “primordiale” dell’utilizzo dei veicoli autonomi, il riferimento ad un livello di sicurezza tale sarebbe quantomeno discutibile, in quanto non sembra possibile stabilire con certezza quando questi siano sufficientemente sicuri, sarebbe insomma complicato stabilire quando questi debbano considerarsi difettosi. Una proposta interessante in tale settore potrebbe essere quella di stabilire degli standard di sicurezza delle auto autonome, tali da fornire una sicurezza degli stessi superiore, o almeno di pari livello, a quella garantita dalla guida di autisti esperti, in modo da considerare come difettosi i veicoli autonomi incapaci di evitare un danno che un guidatore esperto avrebbe potuto evitare con le proprie capacità. Per quanto riguarda il regime della responsabilità per danno, il Parlamento Europeo11, ha posto delle linee guida per un futuro intervento della Commissione, invitando la stessa all’adozione di un sistema assicurativo sul modello dell’assicurazione obbligatoria dei veicoli, attraverso il quale il produttore abbia uno strumento

11Parlamento Europeo-Risoluzione 16 febbraio 2017, Norme di diritto civile sulla robotica

(15)

che possa far fronte alle spese in caso di eventuali danni derivanti da un difetto del veicolo autonomo.

Un utilizzo sempre maggiore di robot si riscontra nel campo medico, soprattutto per quanto riguarda robot chirurgici, robot di assistenza domestica e protesi robotiche. Il crescente sviluppo di applicazioni robotiche nel campo, di cui il robot Da Vinci è esempio più illustre, pone diversi interrogativi sulle normative da applicarsi in caso di malfunzionamento degli stessi.

Per quanto riguarda le protesi robotiche ed i robot chirurgici, si pongono problemi simili nel campo della responsabilità civile in caso di malfunzionamento degli stessi. Anche in questo caso, l’attribuzione di responsabilità, sembrerebbe poter incontrare ostacoli, poiché, soprattutto nel caso di arti bionici, ovvero controllati dal sistema nervoso del paziente, è difficile poter prevedere un malfunzionamento del dispositivo, e stabilire quando il danno sia prodotto da un difetto del prodotto.

(16)

Anche in questo caso, adottare la soluzione della responsabilità oggettiva del produttore porterebbe un’eccessiva esposizione dello stesso al risarcimento del danno. Per questo sembrerebbe opportuno utilizzare un sistema di assicurazione obbligatorio, almeno per quanto riguarda la bionica.

Inoltre, le protesi robotiche non pongono soltanto problemi legati all'eventuale risarcimento di un danno ai terzi, ma anche dubbi sul piano etico, poiché ci si chiede quale sia il limite al potenziamento del corpo umano. Se tali protesi permettessero il superamento delle capacità umane (ad esempio protesi che oltre a sostituire una gamba amputata permettano di correre più rapidamente, o saltare più in alto), la legge dovrebbe consentirle o proibirle, e comunque entro quali limiti? Inoltre, la legge dovrebbe considerare tali miglioramenti come parte di corpo umano, o trattare anche essi come prodotti?12

12 Chris Holder, Vikram Khurana, Faye Harrison, Louisa Jacobs, Robotics and law:

Key legal and regulatory implications of the robotics age, Computer Law and

(17)

Per i robot chirurgici, invece la criticità sembra riscontrarsi nella distinzione tra la responsabilità del personale medico per la cosiddetta malpratice e quella del produttore per il malfunzionamento del robot.

Se si adottasse anche in questo campo la responsabilità oggettiva del produttore, l’eventuale risarcimento del danno finirebbe in capo al produttore stesso anche nel caso di negligenza del medico o della struttura sanitaria.

Per quanto riguarda i robots companion o personal care robots, ovvero i robot adoperati nell’assistenza domestica, progettati in modo tale da interagire con l’uomo, potrebbero dar luogo ad azioni imprevedibili sia per utente che produttore, causando una difficoltà nell’individuazione della normativa da applicare, considerato che non esiste un sistema a tutela dei diritti di chi ne usufruisce o dei terzi. Al momento sembra applicabile la direttiva 85/374/CEE, ma la disciplina risulta fin troppo favorevole al produttore, in quanto, questo potrebbe facilmente provare che il difetto non sarebbe risultato prevedibile con le conoscenze

(18)

scientifiche attuali alla messa in commercio del prodotto. All’utente sarebbe complesso dimostrare il difetto del robot, nonché il nesso causale tra lo stesso ed il danno subito.

È importante sottolineare come i robot medici, oltre a sottostare alle norme tradizionali riguardanti l'immissione e sicurezza dei prodotti, godono di una regolamentazione ad hoc. Si tratta in particolare della direttiva CEE n42 del 1993 (come modificata dalla Direttiva 47/2003 CE) cosiddetta “direttiva sui dispositivi medici, e della direttiva 385/1990 CEE, riguardante i dispositivi medici impiantabili.

Ulteriore applicazione della robotica consiste nell’attività negoziale. L’utilizzo di software e robots capaci di porre in essere contratti, che talvolta operano senza l’ausilio di un soggetto umano, ma autonomamente, è sempre più frequente nell’e-commerce. La principale criticità dettata dalla contrattazione dei robot riguarda la validità dei contratti negoziati, in quanto dottrina, seppur minoritaria, ha evidenziato come in contratti “automatici” tra un contraente ed un robot, mancherebbe l’elemento essenziale

(19)

dell’accordo tra le parti. Sembra evidente che il giurista debba trovare, e lo vedremo nel proseguo del lavoro, un metodo per evitare la catastrofica conseguenza della negazione della validità di tutti i contratti posti in essere tramite automi.

(20)

Capitolo 1

Robot Autonomi: oggetti o soggetti del diritto?

Lo sviluppo tecnico e scientifico degli ultimi decenni, ha portato alla nascita di nuove entità, particolarmente rilevanti nella cosiddetta “società dell’informazione”. Si tratta principalmente di software e robot di diversa natura caratterizzati da capacità di natura “cognitiva”, macchine capaci di apprendere e modificare il loro comportamento, per raggiungere determinati obiettivi. Tale innovazione fa sorgere diversi interrogativi sulla natura degli stessi nel quadro giuridico attuale.

Caratteristiche quali l’autonomia, che consente al robot di interagire con l’ambiente esterno senza l’intervento di utenti, l’abilità sociale, ovvero la capacità di comunicare con altri agenti, e la reattività, intesa come capacità di reazione agli stimoli esterni, unite alla capacità di perseguire propri obiettivi e finalità traendo spunto dalle

(21)

loro conoscenze13, costituiscono le basi per la nascita di un interrogativo che si pone alla base della ricerca giuridica nell’ambito della robotica. La domanda in questione è la seguente: “le macchine possono essere considerate soggetti e non più semplici oggetti?”. Ovvero, è possibile, se non auspicabile, l’attribuzione di una personalità giuridica14 a tali soggetti, o bisogna continuare ad utilizzare schemi esistenti per riferire l’attività del robot a soggetti umani?

La questione della personalità giuridica del robot ha radici antiche. Ancor prima dell’intervento dei giuristi infatti, la natura del robot è stata argomento di discussione in svariati campi che spaziano dalla filosofia alla matematica. Possiamo definire tali studi come approcci “ontologici” alla questione dei robot, per contrapporli agli studi di carattere pragmatico dei giuristi che, come

13Maria Angela Biasiotti, Chiara Romano, Franco Sagri- La responsabilità degli

agenti software per i danni prodotti a terzi, Informatica e Diritto, vol XI, 2002, n2,

pp 157-167

14Bert- Jaap Koops, Mirelle Hildebrandt, David-Oliver Jaquet-Chifelle - Bridging

the accountability gap-Rights for New Entities in the Information Society? 11

(22)

vedremo in seguito, si allontaneranno progressivamente dagli interrogativi metafisici15.

Come si vedrà nelle pagine che seguono, l’interrogativo sulla personalità giuridica degli agenti artificiali non è fine a se stesso. Infatti, l’attribuzione di una personalità giuridica (o la mancata attribuzione della stessa), è il punto di partenza per stabilire in che modo l’interprete dovrebbe comportarsi nel caso in cui i soggetti in esame dovessero provocare un danno a terzi, sia esso di natura contrattuale o extracontrattuale. Le attuali norme, infatti, come si vedrà, si dimostrano inadeguate, o quantomeno di dubbia applicazione, a stabilire un responsabile nei casi in cui l’agente robotico abbia agito, non sotto un controllo diretto di un soggetto umano, ma utilizzando le proprie capacità. Diversi studiosi infatti hanno rilevato nelle situazioni in esame, un “gap” di responsabilità, uno spazio “vuoto” nel diritto nel quale il

15Lawrence B. Solum- Legal personhood for Artificial Intellicences, 70 N.C.L., Rev 1231 (1992)

(23)

soggetto danneggiato potrebbe subire il danno, senza ricevere alcun risarcimento16.

Come vedremo, inoltre, la strada per una personalità giuridica dell’automa, sembra essersi ufficialmente aperta con l’invito del Parlamento Europeo alla Commissione europea17, che solleva la questione della natura degli automi stessi alla luce delle categorie giuridiche esistenti, o di futura creazione.

Per analizzare le caratteristiche dei robot autonomi, sembra opportuno partire dal contesto “preistorico” del pensiero giuridico, ovvero dalle premesse metafisiche individuate dalla filosofia, precedentemente all’intervento dei giuristi, sulla natura soggettiva degli automi, per poi specificarlo nel contesto giuridico, caratterizzato dall’opposto approccio pragmatico alla questione.

16Bert Jaap Koops- op. cit.

17Risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica.

(24)

1 Soggettività di tipo ontologico- Il “pensiero di un automa”

“Possono le macchine pensare?” È questo il primo interrogativo che si pone Alan Touring nel suo lavoro “computer machinery and intelligence”18, di fatto il caposaldo della dottrina della cosiddetta “intelligenza artificiale forte”. A coniare tale espressione sarà John Searle19, da oppositore della stessa teoria, per indicare il filone di pensatori convinti che una macchina, ove opportunamente programmata, possa effettivamente mostrare ragionamenti simili a quelli di un essere umano o addirittura sviluppare una forma di coscienza di sé.

La riflessione sulla possibile esistenza di una forma di intelletto artificiale “pensante” affonda le sue basi addirittura sul pensiero aristotelico, che con la creazione del sillogismo configura per la prima volta una sorta di “meccanica” del pensiero umano.

18Alan Turing, Computer Machinery and Intelligence, 1950

19 John. R. Searle, Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457

(25)

Allo stesso modo due filosofi del 1600 contribuiscono alla nascita di una visione “meccanicistica” dell’intelletto. In primis Thomas Hobbes20 il quale configura il pensiero umano come una serie di operazioni matematiche, configurandolo in ottica essenzialmente materialistica. Il filosofo francese Cartesio, contemporaneo di Hobbes, invece, seppur mosso da un punto di vista umanista, individua la figura dell’automa come un corpo meccanico privo di res cogitans, paragonandolo ad un animale21 (il quale viene considerato una complessa macchina priva di anima). Per Cartesio infatti l’automa è soltanto un’imitazione del corpo umano, da quest’ultimo prende le meccaniche. La differenza tra l’automa così delineato e la visione attuale dell’intelligenza artificiale è evidente: se per Cartesio infatti l’automa è un imitatore, non potrà portare significative scoperte all’attenzione degli studiosi, in quanto il suo comportamento è previsto, o quantomeno prevedibile, per la scienza moderna invece, un’analisi della

20Thomas Hobbes- Il Leviatano- 1651 21Rende Descartes- Discorso sul metodo-1637

(26)

performance dell’automa, può portare nuove conoscenze agli studiosi.

Tale impostazione si fa più forte con la nascita dei moderni robot autonomi, capaci, prescindendo dalla programmazione originaria, di apprendere nuovi comportamenti per raggiungere l’obiettivo preposto.

Sempre in tema di imitazione è fondamentale il contributo di Alan Turing, il quale con il suo lavoro compie il passo decisivo per la nascita della teoria della “intelligenza artificiale forte”.

1.1 La teoria dell’intelligenza artificiale forte

Il lavoro del pensatore e matematico inglese Alan Turing, fautore della teoria dell'intelligenza artificiale forte, configura le macchine, non già come “imitatrici” del pensiero umano, ma come entità capaci di esprimere un autentico pensiero, differenziato da quello umano non già per caratteristiche di tipo ontologico- qualitative, ma

(27)

soltanto per la sede, il supporto fisico da cui tale pensiero deriva22.

Per valutare la sussistenza di una forma di ragionamento degli automi, secondo Turing bisogna abbandonare l’idea “classica” di pensiero. La tesi del matematico britannico viene esplicata attraverso quello che lui definisce “il gioco dell’imitazione”. Bisogna esaminare, dunque, alcuni soggetti, umani e non umani. Attraverso la somministrazione di un Test (c.d. Test di Turing) e la successiva analisi delle risposte è possibile distinguere il soggetto umano da quello robotico?

In particolare “il gioco” si sviluppa attraverso due fasi; la prima fase prevede che un interrogante porga una serie di domande a due soggetti, un uomo ed una donna. Lo scopo dell’interrogante è quello di stabilire, attraverso le risposte, quale soggetto sia l’uomo e quale la donna. Al contrario, i due giocatori dovranno cercare di ingannare chi pone le domande per indurlo all’errore. Immaginiamo, però, che al posto di uno dei due giocatori originali ci sia

(28)

una macchina; secondo la tesi di Turing, se la macchina stessa induce all’errore l’interrogante tante volte quante questo si sbagli nella prima versione del gioco, allora si potrebbe dedurre che questa abbia delle capacità cognitive, sia dunque capace di pensare.

Secondo il matematico inglese, sarebbe esistito, in futuro, un calcolatore talmente complesso e con una memoria talmente evoluta da ridurre drasticamente le possibilità di individuazione del giocatore umano. Sembra che la previsione si sia avverata, quando, nel 2014, non senza polemiche e dubbi interpretativi sul risultato del test, un software russo chiamato Eugene ha superato il gioco dell’imitazione, ingannando più del 30% degli interroganti, giudici appartenenti alla Royal Society, l’accademia della scienza del Regno Unito.

Turing dunque sostiene che vi sia la possibilità che un’intelligenza artificiale possa, “a modo suo”, pensare. Inoltre, prosegue, è possibile anche che un giorno gli automi possano essere sottoposti a percorsi educativi, che definisce “non emozionali” (chiaramente se qualcosa

(29)

manca all’automa è appunto la possibilità di provare emozioni, tuttavia attraverso un’adeguata programmazione per Turing è possibile simulare un processo che possa portare nell’automa reazioni simili a soddisfazione o delusione in caso di premi o rimproveri).

La tesi dell’intelligenza artificiale forte dunque sostiene che non vi sia una differenza di tipo ontologico tra pensiero umano ed elettronico.

1.2 Intelligenza artificiale debole

Diretto oppositore delle idee di Turing fu John Searle, al quale dobbiamo la teoria dell’intelligenza artificiale “debole”.

Secondo Searle infatti il pensiero meccanico sarebbe qualcosa di ”non autentico”- Le macchine rappresenterebbero delle copie dell’intelletto umano, un semplice, sebbene potente, strumento al servizio dell’agente umano23.

23John Searle, Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457, 1980

(30)

Searle utilizza un altro test per confutare le teorie dei sostenitori dell’intelligenza artificiale forte. Si tratta del cosiddetto “esperimento della stanza cinese”. Si ipotizza di un soggetto, chiuso all’interno di una stanza, il quale, pur non conoscendo il cinese, sia in grado di tracciare simboli cinesi seguendo delle istruzioni nella propria lingua. Dunque l’ipotesi che si ricava dal test è che benché un programma che rispetti tali caratteristiche possa superare il test di Turing, non si può certo dire che questo sia “cosciente” della propria attività, essendo il suo comportamento limitato al compimento di compiti imposti attraverso specifiche indicazioni.

Secondo Searle, per avvicinarsi all’intelletto umano, un’intelligenza artificiale dovrebbe superare il test delle stanze cinesi, non limitandosi a realizzare simboli in maniera automatica, senza cioè avere un’effettiva conoscenza della lingua, ma dovrebbe azionarsi, dapprima per apprendere il linguaggio, e solo successivamente realizzare simboli. In pratica all’intelligenza artificiale mancherebbe una sorta di consapevolezza di sé e della

(31)

propria attività. L’opera di Searle sposta il problema dal pensare al capire. Il filosofo statunitense non nega infatti che una macchina possa pensare, dove il pensiero sia visto come un procedimento meccanico, tuttavia, rifiuta l’idea che il pensiero di un robot possa essere simile a quello umano, in quanto privo di una consapevolezza diretta delle proprie azioni.

Tornando all’esempio dei simboli cinesi, si può infatti obiettare come sia vero che l’agente attui un ragionamento secondo il programma che detta le istruzioni della sua opera, ma questo ragionamento sia avulso da una effettiva percezione dell’azione stessa da parte dell’agente. Si distingue insomma il piano sintattico da quello semantico. Se un programma è in grado di produrre un risultato sintatticamente uguale a quello dell’uomo, ciò non significa che tale risultato sia semanticamente valido, considerato che lo stesso è privo di significato per il programma stesso.

L’idea di Searle, dunque, si pone in netto contrasto con quella di Turing, riducendo l’intelligenza artificiale ad

(32)

una mera copia dell’intelligenza umana, non riconoscendovi capacità autonome, se non quelle strumentali all’attività umana.

Le due tesi, pur configurando un punto di partenza per il ragionamento giuridico, elevano la discussione ad un livello ontologico, che interessa relativamente il diritto. Se è vero infatti che il riconoscimento di una intelligenza artificiale forte causerebbe difficoltà probabilmente decisive a chi nega la possibilità dell’attribuzione di una personalità giuridica ai soggetti autonomi, essendo di gran lunga maggioritaria la tesi dell’intelligenza artificiale debole, il giurista deve muoversi su un campo diverso da quello del filosofo. Le problematiche attinenti al diritto, ed al suo adeguarsi ai nuovi fenomeni tecnologici, devono necessariamente fondarsi su un approccio pragmatico.

Tale approccio è quello utilizzato dal filosofo del diritto Lawrence B. Solum nel suo lavoro “Legal Personhood for Artificial Intelligences”24 che ipotizza

24Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol. 70, p. 1231, 1992

(33)

l’attribuzione di una personalità giuridica per gli agenti elettronici, non indagando sulla natura degli agenti autonomi stessi, ma sull’opportunità di una classificazione alla luce delle categorie giuridiche esistenti o di nuova creazione.

2 Soggettività giuridica degli Agenti Autonomi

Una delle questioni fondamentali nella discussione sulle intelligenze artificiali, o più genericamente sugli agenti autonomi, riguarda la possibilità (e l’opportunità) di fornire questi di una personalità giuridica. Si tratterebbe di una finzione giuridica, non a riparo da critiche, ma nemmeno, secondo molti, del tutto priva di fondamento. Secondo parte della dottrina, infatti, fornire una personalità giuridica, e quindi rendere soggetti di diritto tali entità sarebbe un modo per semplificare i rapporti di diritto privato che le coinvolgono.

Pioniere dello studio sulla possibilità di attribuire una forma di personalità giuridica ad agenti autonomi è

(34)

Lawrence B. Solum, filosofo del diritto, che per primo, prendendo spunto dalle riflessioni filosofiche ”metafisiche” di Renee Descartes25 e Thomas Hobbes26, sposta la riflessione al campo del diritto, riconducendo la questione della personalità giuridica dei robot ad una proposta prettamente pragmatica.

Si considera in primis la possibilità che possa esistere in futuro27 una forma di intelligenza artificiale talmente potente da imitare i comportamenti umani, ed avere perciò una rilevanza giuridica. Senza dubbio, inoltre, considera possibile che una entità giuridica “inanimata” possa essere soggetto di diritto, in quanto abbraccia l’idea, ormai pacifica, che il concetto di persona per il diritto non si limita all’essere umano, ma comprenda una serie di soggetti di diversa natura2829. Questa riflessione ci porta a considerare la personalità giuridica come un

25Renee Descartes- Discorso sul Metodo, 1637

26La “computational theory of mind” è presente nell’opera di Thomas Hobbes- il Leviatano

27L’opera di Solum è redatta nel 1992 (ndr)

28Lo stesso Solum sottolinea come sin dall’antica Grecia, e a Roma, ad esempio, i Templi erano considerati soggetti del diritto, così come lo sono oggi società, associazioni, fondazioni.

(35)

riconoscimento della “capacità di compiere azioni complesse e/o agire intenzionalmente con (auto)coscienza 30.

Da tali osservazioni derivano domande di carattere pratico, la prima delle quali è: “può un’intelligenza artificiale agire da trustee?”31, ovvero, può essere “soggetto” di un trust? Possiamo individuare tre scenari diversi. Si prende in considerazione un primo modello di intelligenza artificiale che sia in grado, ad esempio, di individuare campi di investimento e segnalarli al “trustee umano” di riferimento, pagare una quota mensile al beneficiario, o formulare la dichiarazione dei redditi. Questo primo passo riguarda azioni in cui il soggetto autonomo gode di un largo spazio di azione, ma l’intervento umano è decisivo, l’agente umano è quello che prende la decisione finale32.

30Bert Jaap Koops, Mireille Hildebrandt, David-Oliver Jaquet-Chiffelle, Bridging

the accountability gap: rights for new entities in the information society. Minnesota

Journal of Law, Science and Technology, 2010, n.11 p519

31Il riferimento è chiaramente all’istituto di origine britannica del trust. 32Bert Jaap Koops, Mireille Hildebrandt, David-Oliver Jaquet-Chiffelle, op cit pg.521

(36)

Il secondo scenario, invece, analizza un sistema autonomo in grado di superare per rendimento il soggetto umano, in modo che quest'ultimo debba seguirne le direttive. In questo caso l’intervento umano si riduce drasticamente, comportando solo la firma del cosiddetto “human trustee” sull’attività prodotta dall’agente autonomo.

Nel terzo caso si analizza la possibilità che il disponente del trust (c.d. settlor) non si fidi più dell’intervento umano e decida di eliderlo. In questo terzo scenario si concretizza il passaggio vero e proprio del ruolo di trustee al programma automatico, estromettendo del tutto il soggetto umano. In questo caso, non potendoci riferire direttamente all’intelligenza artificiale la soggettività giuridica, bisognerà individuare il soggetto che sia proprietario del sistema automatizzato, che sarà a sua volta una persona giuridica, ad esempio una società.

Analizzati questi passaggi bisogna chiedersi se un’intelligenza artificiale possa gestire direttamente un trust, tale questione ci pone innanzi a due obiezioni. Tali

(37)

obiezioni si riferiscono ai concetti di responsabilità e giudizio.

Per quanto riguarda la responsabilità, ci si chiede se un’intelligenza artificiale possa indennizzare il beneficiario nel caso in cui violi obblighi a cui è soggetto per legge. Come potrebbe, un sistema automatico, risarcire i danni da lui procurati?

Rilevante in questo senso è la possibilità di costituire un sistema di assicurazione in grado di compensare i danni prodotti dal sistema, ma, questa soluzione non varrebbe per le situazioni in cui il danno fosse provocato con dolo o in caso di responsabilità penale. Il problema dell’attribuzione della responsabilità penale ad un robot può evidenziarsi su due piani. In primis, bisognerebbe stabilire l’attribuzione di una responsabilità penale che, in linea con gli orientamenti dottrinali moderni del diritto penale, non contempli criteri di imputazione fondati su un regime di responsabilità oggettiva, utilizzando invece criteri di prevedibilità (o evitabilità) riferibili al soggetto umano, di modo da limitare le condanne ad i casi in cui la

(38)

condotta illecita del robot sia riconducibile allo stesso, in quanto concretamente evitabile dallo stesso.

Secondo ostacolo, riguarderebbe la funzione rieducativa della pena, nel caso in cui il soggetto umano non fosse imputabile, per mancanza di prevedibilità dell’evento antigiuridico.

Ovviamente, infatti, nel caso in cui ad essere raggiunto dal provvedimento fosse soltanto il robot, l’utilizzo di una pena tradizionale non raggiungerebbe il suo scopo.

Sarebbe infatti difficile trovare un deterrente adatto ad evitare un’azione antigiuridica del soggetto autonomo, in quanto questo non potrebbe essere colpito dagli effetti deterrenti dei mezzi tipici del sistema penale, quale ad esempio la detenzione. Questa osservazione è necessaria, secondo Solum, perché tutti i soggetti capaci di essere trustee, possono essere puniti con i rimedi tradizionali del diritto penale, mentre, questi rimedi sarebbero chiaramente inefficaci nei confronti di un agente robotico. Tuttavia, se è la deterrenza il motivo della punizione, allora questa semplicemente non avrebbe senso nel caso di

(39)

intelligenza artificiale33. Questa infatti non sarebbe in grado di valutare la deterrenza di una sanzione penale, ed il suo comportamento successivo all’esecuzione della stessa non risulterebbe modificato. Allo stesso modo, la concezione retributiva della pena, non avrebbe significato, considerato che le entità non umane non sono in grado di ragionamenti tali da comprendere la punizione afflitta, ed il suo nesso con il fatto commesso. Infine, Solum si concentra sull’ultima possibilità, quella che riconduce la pena ad una logica rieducativa. Se la pena è un processo rieducativo, sembra difficile trovare un modo di “rieducare” un’intelligenza artificiale, poiché questa non sarà in grado di apprendere nulla dalla punizione.

Tuttavia, l’impossibilità di prevedere una sanzione penale, non sembra decisiva per quanto attiene alla possibilità di un agente robotico di rivestire il ruolo di fiduciario. Infatti si considera che i sistemi presi in considerazione siano incapaci per caratteristiche intrinseche di rubare o di porre in essere una frode. I sistemi in

(40)

questione non sarebbero in grado, infatti, di agire con dolo, non avendo la possibilità di compiere scelte “morali”. In questa luce sembra discutibile negare la possibilità per un’AI di essere soggetto di un trust, soltanto perché questa non sarebbe punibile in sede penale.

Proseguendo con tale ragionamento arriviamo alla conclusione che, per quanto riguarda la responsabilità, l’intelligenza artificiale dovrebbe fronteggiare due criticità; il primo caso riguarda la negligenza, provocata dall’inadempimento dei doveri del trustee con “reasonables skill and care”34; il secondo riguarda, invece, la punibilità del trustee nei casi di responsabilità penale. Per quanto riguarda la prima tipologia, sembra che sia sufficiente instaurare un sistema di assicurazione35 per garantire la solvibilità dell’agente, per la seconda l’obiezione, riguardante l’impossibilità dell’AI di un’intenzionale azione dolosa, sembra giusto sottolineare la mancanza della necessità di una sanzione di carattere penale. Dunque

34Ragionevole perizia e diligenza- Requisiti richiesti dalla figura del trustee 35 Sistema di assicurazione già teorizzato in sede UE su modello dell’assicurazione obbligatoria sui veicoli.

(41)

l’obiezione sulla responsabilità del soggetto robotico sembrerebbe facilmente risolta.

Seconda obiezione, mossa alla possibilità di individuare come trustee un agente autonomo, riguarda la sua capacità di giudizio. I problemi che il trust deve superare in questo ambito concernono le capacità di reagire a cambi di circostanze, porre in essere scelte di natura morale e scelte di tipo “giuridico”.

Tuttavia, possiamo facilmente escludere che l’intelligenza artificiale possa agire in maniera differente da ciò che gli venga imposto dalla programmazione36, in particolare rilevando una carenza di ragionamento critico della stessa propedeutico all’attività giuridica. Per quanto riguarda il primo problema, si evidenzia come all’intelligenza artificiale manchi il “buonsenso” per reagire al cambio di circostanze, e risolvere problemi inattesi; nella seconda obiezione i sistemi automatizzati sembrano mancare del senso di “giustizia” necessario, ad esempio, ad interpretare una legge in maniera differente da quella letterale per giungere

(42)

allo scopo; in terzo luogo, all’intelligenza artificiale risulterebbe impossibile rappresentare in giudizio il suo beneficiario.

Queste tre obiezioni impedirebbero all’intelligenza artificiale di agire allo stesso modo di un trustee umano, soprattutto nel caso in cui circostanze inattese affliggano il rapporto di trust. Dunque, per questi motivi, l’attribuzione di una capacità giuridica “piena” per l’intelligenza artificiale, sembra inadeguata. Sarebbe più funzionale al modello preso in considerazione una personalità “ridotta”, utile a permettere all’intelligenza artificiale di risolvere problematiche, con riferimento al trust, che non presentino grandi problematiche di carattere giuridico e che non richiedano grandi capacità di giudizio da parte dell’intelligenza artificiale.

Tuttavia, sembra opportuno fare riferimento alla distinzione cardine tra dispositivi automatici e dispositivi autonomici3738. Come visto questi dispositivi sono in grado di

37Bert Jaap Koops, Mireille Hildebrandt, David-Oliver Jaquet-Chiffelle, op.cit. 38Per la classificazione si rimanda all’introduzione

(43)

reagire a cambi di circostanze; quando sono impossibilitati al compimento delle loro attività seguendo le regole preposte all’attività stessa, rispondono semplicemente modificando le regole stesse. Per essi dunque, l’unico vero quesito che osta in maniera decisiva all'attribuzione di una capacità è quello riguardante la morale39. Sembra impossibile infatti, ad oggi, immaginare un’AI capace di compiere scelte morali.

3

Personalità ridotta per gli Agenti Autonomi

Il risultato, almeno parziale, delle riflessioni precedenti sembra congeniale alla creazione di una nuova forma di personalità giuridica “ridotta”, funzionale alle caratteristiche degli agenti autonomi.

Nell'analisi dell'attività dell'agente, tuttavia, non possiamo limitarci a teorizzare una forma di personalità limitata per l’intelligenza artificiale, ma dobbiamo compiere un passo avanti, chiedendoci chi, nei casi di coinvolgimento di agenti

(44)

automatici, debba considerarsi il vero trustee, e perché prevedere una forma di personalità giuridica in capo a tali soggetti se, alla fine, sarebbero comunque soggetti umani a prendere le decisioni più rilevanti. Sarebbe infatti il potere di prendere decisioni discrezionali ad identificare l’identità del vero trustee40, e la capacità di prendere tali decisioni, un prerequisito per svolgere il ruolo di trustee. La dottrina favorevole all'attribuzione di una capacità giuridica ha pressoché snobbato la prima obiezione considerandola “essenzialista”41, quindi del tutto inutile alla prospettiva del giurista che si pone su un piano utilitatistico, e rigettato anche la seconda obiezione sostenendo che la grande maggioranza di decisioni, in un rapporto fiduciario, sono più frutto di una routine che di vere e proprie scelte discrezionali. Da qui l’interesse a garantire una personalità giuridica all’intelligenza artificiale.

Numerosi, inoltre, sono i vantaggi derivanti dall’utilizzo di intelligenze artificiali nell’istituto del trust. Si

40Lawrence Solum, op.cit. p.1253 41Koops, op.cit. p.524

(45)

tratta di vantaggi economici: il trust che utilizza un sistema automatizzato fa fronte a minori costi. Inoltre, non è da sottovalutare, l'assenza del pericolo di “self-dealing”42.

Considerato, dunque, che l’intelligenza artificiale è in grado di svolgere la totalità delle azioni che non richiedano una discrezionalità tale da necessitare l’intervento umano, sembra inopportuno considerare la persona fisica, anche quando questa intervenga per coprire le zone di discrezionalità, come il vero trustee.

4

Intelligenze Artificiali e diritti costituzionali

Come visto in relazione alla figura del trustee, l’attribuzione di una personalità giuridica all’AI, frutto di una finzione giuridica, sembrerebbe utile alla dottrina minoritaria per risolvere problematiche legate alla gestione dei patrimoni separati. Tuttavia, parte della dottrina favorevole alla personalità giuridica per i robot autonomi ha

42Che avviene quando il trustee approfitta della sua posizione per ricavarne indebitamente un vantaggio.

(46)

arricchito il dibattito mettendo in risalto un ulteriore scenario. Lo step successivo all'attribuzione di una personalità giuridica ci pone innanzi ad una domanda: “l’intelligenza artificiale dovrebbe aver garantiti diritti costituzionali?”.43

Si tratta di uno scenario che dobbiamo evidentemente collocare temporalmente in un futuro remoto44, poiché, la produzione di intelligenze artificiali che mostrino “qualità“ morali che possano far sorgere tali problematiche, sembra ancora lontana.

Cosa succederebbe, se in un futuro dovessimo interagire con intelligenze artificiali che sembrino avere una mente? Intelligenze artificiali talmente evolute da superare il Test di Turing, da essere considerati dagli umani come soggetti indipendenti, esseri intelligenti?

Quanto più questi si avvicinino a somigliare agli esseri umani, cresce la possibilità che le loro capacità richiedano l’attribuzione di diritti costituzionali, dunque uno status di

43Lawrence B.Solum op cit p.1255

44Sembra opportuno sottolineare come Solum scriva nel 1992, quando anche l’utilizzo di AI quali trustee sembrava frutto di pensieri fantascientifici.

(47)

personalità giuridica “piena” . Uno scenario che sembra più di science-fiction45, che realistico, allo stato attuale.

Tuttavia, molte sono le osservazioni possibili in relazione a tale tema.

Ad esempio, è opportuno che soltanto gli umani possano usufruire di diritti costituzionali? Tale assunto è superabile considerando come alcuni soggetti non umani, quali società ed enti, godono già di diritti costituzionali (quale ad esempio la libertà di espressione). Inoltre, se si ragiona in una prospettiva (molto) futura, non si può escludere che un giorno, le AI si possano sviluppare in modo tale da cambiare la nostra concezione di “personalità”. Tale obiezione può essere definita “antropocentrica”.

Una seconda riflessione possibile viene identificata attraverso la domanda “manca qualcosa?”. Il riferimento è chiaramente a stati cognitivi, emozionali, che sembrano del tutto avulsi dalla natura delle macchine. L’obiezione sottolinea che alcune caratteristiche esclusivamente umane,

45Isaac Asimov, scrittore americano di origini russe, padre della fantascienza con androidi, nonché inventore del termine “robotica”, narra nel suo racconto “l’uomo bicentenario”, le vicende dell’androide Andrew, un robot che richiede l’attribuzione di diritti costituzionali…ottenendola.

(48)

come l’intenzionalità, gli interessi, le emozioni, possono soltanto essere simulate da un’AI, e che quindi non siano riproducibili dalla macchina. Si tratta di un argomento che possiamo definire “teologico”, e che, si colloca lontano dal pragmatismo che dovrebbe contraddistinguere la visione dello studioso del diritto, dobbiamo ritenere irrilevante. In ogni caso, non possiamo escludere la possibilità che in un futuro remoto le intelligenze artificiali possano sviluppare “emozioni”, diverse da quelle umane. In questo caso non vi sarebbe alcuna ragione per negare una forma personalità piena, e pieni diritti alle Ai46

Una terza osservazione che impedirebbe alle macchine di raggiungere lo status di soggetto ragiona sulla necessità che le AI siano un bene di proprietà. Si tratta di una obiezione che ha come punto di partenza la riflessione secondo la quale gli artefatti del lavoro umano sono proprietà di chi li ha realizzati47. Ci riferiamo a quello che la dottrina ha definito “argomento teologico”, che tuttavia non sembra

46Lawrence B. Solum- op cit p.1271

(49)

aggiungere nulla al dibattito. Infatti non sembrerebbe assurdo, nel momento in cui le intelligenze artificiali raggiungessero caratteristiche (morali) simili agli esseri umani, paragonarle a schiavi, che potrebbero richiedere forme di emancipazione per divenire “libere”48.

Ancora una volta, però ci preme sottolineare come, se attribuire una forma di personalità giuridica alle intelligenze artificiali, allo scopo di risolvere questioni “tecniche”, come il risarcimento del danno, ad esempio, potrebbe in astratto portare una qualche utilità nel panorama giuridico, lo stesso invece non può certamente dirsi dell’attribuzione dei diritti costituzionali, in quanto, attribuirli ad agenti robotici che agiscono sulla base di impulsi, per loro stessi non significativi e non espressivi di una “morale”, sembrerebbe insensato, come lo sarebbe attribuirgli una responsabilità penale.

Bisogna capire però se tali osservazioni possano essere valide con riferimento ai cosiddetti “autonomic agents”, nuove realtà emergenti nella società dell'informazione. La

(50)

caratteristica principale di tali agenti è proprio una forte autonomia dalla programmazione iniziale, che gli permette di cambiare il proprio comportamento secondo le esperienze acquisite, rendendoli molto differenti dagli automi del passato, che come visto, erano capaci di azioni prettamente automatiche. Le macchine più evolute, sono infatti capaci di apprendere con la loro esperienza, e di agire, di conseguenza, in maniera non prevedibile anche per il programmatore.

Ci si chiede, allora, quale approccio adottare nei confronti di tali macchine, le quali presentano sempre più caratteristiche che le avvicinano al vero comportamento dell’agente umano. Dunque, è necessario stabilire se la raggiunta autonomia sia il punto di partenza verso l’attribuzione di una forma di personalità piena49. Tuttavia, anche in questa interpretazione, più moderna, si sottolinea come,l’approccio pragmatico, considerato più adatto a fronteggiare il

49Tom Allen & Robin Widdison, Can Computers Make Contracts? Harv. J. L & Tech 26 (1996)

(51)

problema, ci allontani da una valutazione di tipo “metafisico” del fenomeno.

Il diritto infatti deve interrogarsi, non sulle capacità di comprensione di un agente riguardo il significato delle proprie azioni, ma sull’impatto causato sul diritto dalla modifica della sua disciplina. Dunque, se, come visto, garantire una forma di personalità limitata, permetterebbe di considerare gli agenti autonomi come responsabili delle proprie azioni, non avrebbe nessuna utilità effettiva il fornirli di una personalità piena.

Inoltre, l’attribuzione di una personalità giuridica limitata, risolverebbe non pochi problemi di carattere tecnico. Parte della dottrina50, ad esempio, evidenzia come, facendo riferimento ad esempio alla legislazione tedesca, gli agenti autonomi non sarebbero in grado di essere rappresentanti (Stellvertreter), in quanto il rappresentante deve, per legge, essere soggetto di diritto. Senza la personalità giuridica, un agente autonomo, è, agli occhi della legge tedesca, un

50Staffe non Wetting & Eberhard Zehendner, The electronic Agent: a Legal

Personality Under German Law? Im PROCEEDINGS OF THE LAW AND

ELECTRONIC AGENTS WORKSHOP pp97-112 (Oskamp & Weitzenbock Edson.2003)

(52)

semplice “messaggero”dell’altrui volontà, ovvero un mezzo di comunicazione che può essere considerato uno strumento. Secondo parte della dottrina, tuttavia, non sarebbe del tutto necessario attribuire una personalità all’agente, in quanto, nel caso in questo non sia titolare di una forma di personalità, basterebbe ricondurre le sue azioni al proprietario.51

La stessa dottrina ha affrontato l'argomento dell'attribuzione di una forma di personalità “minore” per le intelligenze artificiali52, fornendo una distinzione tra due categorie di soggetti:

La prima categoria riguarda le persone capaci di contrattare e che possono far fronte a conseguenze di tipo civile, senza però essere in grado di comprendere l’errore commesso; La seconda invece, si riferisce alle persone a cui possono essere attribuite responsabilità, sia di tipo civile, che di tipo penale. Tali soggetti sono definibili come “moral persons”.

51Si ipotizza in questo caso un doppio scenario comprendente due categorie di agenti: agenti “riconosciuti”, con un registro di riferimento che ne indichi la solvibilità, e agenti “non riconosciuti” le cui azioni vanno ricondotte, in termini di responsabilità al proprietario dell’agente.

52Andreas Matthias, Automaten AIS Tragen von Rechten. Pladoyer fur eine

(53)

Questa distinzione ci permette di ricondurre le intelligenze artificiali alla prima categoria, che si caratterizzerebbe per la mancanza della necessità dei soggetti di avere una personalità giuridica piena.

5 Tesi contrarie all’attribuzione di personalità giuridica

Nella dottrina giuridica riguardante gli agenti software, la dottrina maggioritaria si è schierata contraria all’attribuzione di una qualsiasi forma di personalità giuridica ai robot, sostenuta dalla attuale normativa che prevede esclusivamente una visione oggettivistica degli agenti robotici. La tesi in questione53, pone al centro del ragionamento un pragmatismo che tende ad evitare soluzioni complicate ai problemi giuridici, ma ad individuare istituti che semplifichino il quadro giuridico. Il problema del diritto è quello di avere una soluzione ai problemi concreti, ad esempio delle controversie riguardanti le “decisioni patologiche” poste in essere dagli agenti autonomi. La

53Curtis Karnow, Liability for Distribuited Artificial Intelligences, 11 Berkely Tech, L.J. 147 (1996)

(54)

soluzione adottata dai legislatori di tutto il mondo è quella di considerare i robot, anche quelli dotati della maggiore autonomia, alla categoria di meri strumenti in ausilio di chi li utilizza.

Sembra opportuno, però, viste le complicazioni portate dallo sviluppo di agenti autonomi, che risultano essere imprevedibili all'utilizzatore, e quindi, in astratto pericolosi, trovare un modo per ridurre o fronteggiare i rischi derivanti dal loro utilizzo.

Gran parte della dottrina suggerisce alle organizzazioni internazionali la creazione di un sistema di assicurazione obbligatoria che possa “alleggerire” i rischi dell'utilizzo di robot. Le intelligenze artificiali operanti nel mercato, potrebbero essere iscritte ad un registro obbligatorio ed soggette ad un regime di assicurazione obbligatoria, sul modello di quella per i veicoli, con la quale far fronte alle decisioni patologiche, spostando il rischio da ex post al comportamento patologico ad ex ante, permettendo soluzioni meno gravose per chi si facesse carico del rischio.

(55)

L’assicurazione dovrebbe richiedere il pagamento di un premio, da parte dell’utilizzatore dell’agente o eventualmente del programmatore, variabile secondo il grado di autonomia dell’agente stesso, con un premio richiesto in misura maggiore per l’assicurazione di dispositivi particolarmente complessi che causerebbero un rischio maggiore.

L'utilizzo di un sistema di assicurazione permetterebbe come detto di spostare ex ante, attraverso il pagamento di un premio assicurativo, il rischio causato dall'utilizzo di un agente robotico, permettendo a chi ha immesso il prodotto sul mercato, all'utilizzatore o al produttore, una migliore gestione del rischio stesso, e garantendo all'eventuale danneggiato un risarcimento del danno.54

Bisogna sottolineare come sembra opportuno che una soluzione di questo tipo richieda una normativa ad hoc che stabilisca un regime assicurativo obbligatorio per legge, affiancando quelli già esistenti come quello per le

54 Andrea Bertolini, Insurance and Risk Management for Robotic Devices:

(56)

autovetture o il più recente sui sistemi a pilotaggio remoto (c.d. droni)55.

Anche se sembrerebbe una soluzione idonea a regolare il campo, senza utilizzare l'istituto della personalità giuridica per gli agenti autonomi, evitando così un eccessiva complicazione dello stesso, non sono mancate critiche a questa proposta. Alcuni studiosi infatti56 hanno sottolineato che un sistema così organizzato presenterebbe almeno due ordini di obiezioni.

In primis, sarebbe un modello molto oneroso, per quanto riguarda soprattutto i costi iniziali (senza considerare che il sistema potrebbe anche risultare insoddisfacente, provocando una perdita netta di tale investimento). In secondo luogo, in un sistema di assicurazione così organizzato, bisognerebbe stabilire aprioristicamente le regole di soluzione delle controversie che riguardino

55 Regolamento ENAC “Mezzi Aerei a Pilotaggio Remoto”, Deliberazione n. 42/2013 Dicembre 16th 2013

56Tessa Onida, Francesco Romano & Serena Santoro, Agenti Elettronici e

Rappresentanza Volontaria nell’Ordinamento Giuridico Italiano, Informatica e

(57)

giurisdizioni diverse, ed identificare i soggetti capaci di sovrintendere a tali controversie.

Inoltre, è da sottolineare come l'innovazione dei robot rappresenti una sfida del tutto nuova e complessa anche per le compagnie di assicurazione, le quali si trovano davanti ad una situazione di incertezza dovuta in primis alla complessità ed all'eterogeneità dei moderni robot ed all'imprevedibilità del danno, e di conseguenza alla difficoltà di stabilire un sistema che possa fare fronte ai rischi dettati dal loro utilizzo.

Tali difficoltà potrebbero portare le compagnie assicurative a rinunciare ad investire su tale campo, rifiutandosi di assicurare determinate categorie di robot, meno appetibili alle prospettive di guadagno, o all'utilizzo di contratti assicurativi già esistenti, che certamente si rivelerebbero inadeguati allo scopo, o tramite l'assegnazione di premi troppo onerosi.57

57 Andrea Bertolini, Insurance and Risk Management for Robotic Devices:

(58)

Per questi motivi sembra opportuno l'intervento del legislatore che fissi delle regole determinate per far fronte a tale fenomeno. In questo modo, si potrebbe facilmente risolvere il problema del rischio causato dall'utilizzo di robot, riconducendo ancora una volta l'attività dei robot autonomi, così come quelli automatici, alla categoria di meri strumenti di ausilio all'utilizzatore.

6 Diritto nel breve, medio e nel lungo termine

Dottrina più recente si è proposta di analizzare quali potrebbero essere le modifiche alla disciplina degli agenti robotici, nel breve, medio e lungo termine, alla luce della nascita di sistemi non più automatici ma “autonomici”58. Tale dottrina suddivide in tre periodi temporali diversi, l’approccio che la legge potrebbe tenere, nel fronteggiare l’immissione sul mercato di tali sistemi.

58Koops, Hildebrandt & Jaquet-Chifelle, Bridging The Accuntability Gap: Rights

For New Entities in The Information Society? Minnesota Journal of Law, Science

(59)

Per quel che riguarda l’approccio al breve termine, sembra, ad esempio in campo contrattuale, possibile raggiungere l’obiettivo di rendere valide le contrattazioni di agenti automatici, soltanto, adattando le leggi esistenti, senza una necessaria forma di personalità. In particolare, non essendo stabilita alcuna forma di responsabilità in capo all’agente autonomo, a chi subisce danno dalla contrattazione con questo, basterebbe chiamare in causa “l’utilizzatore” del sistema stesso, secondo le regole del diritto privato.

In questo modo, i robot, vengono considerati meri strumenti nelle mani dell’utilizzatore. Tuttavia, questo approccio potrebbe risultare insoddisfacente, vista la sempre maggiore autonomia raggiunta dalle AI.

Anche in questo caso, potremmo parlare di finzione giuridica, non essendo tali sistemi, ad oggi, ritenibili “semplici strumenti”. Come visto, infatti, gli agenti autonomi operano al confine tra quella che potrebbe essere intesa come una soggettività ontologica ed una mera strumentalità. Così come sono certamente valide le obiezioni che si oppongono al riconoscimento di uno status

(60)

soggettivo, sicuramente, allo stesso modo, non si può negare come l’attività di tali soggetti abbia dei contenuti di carattere cognitivo; un’attività che ha più punti di contatto con l’azione di un soggetto umano che con quella di un semplice macchinario.

Nel medio termine, invece, vengono poste le due possibilità ipotizzate nei paragrafi precedenti, ovvero, l’attribuzione di una personalità “minore” e la creazione di un registro (accompagnato da una assicurazione obbligatoria).

Per quanto riguarda, invece, il lungo termine, ci si chiede se possa mai venir considerata l’idea di attribuire, ad agenti autonomi, una personalità piena. Questa riflessione si basa sulla seguente domanda: nel caso in cui le macchine dovessero raggiungere la capacità di compiere scelte di tipo morale, contando su una propria forma di coscienza, sarebbe auspicabile attribuirgli una forma completa di personalità?59

59Bert Jaap Koops, Mireille Hildebrandt, David-Oliver Jaquet-Chiffelle, op.cit, p.558

(61)

Per l’attribuzione di una personalità di questo tipo, si riflette come le macchine debbano raggiungere un livello di “self consciousness” tale da sviluppare una forma di riflessione sulle loro azioni. Tuttavia, sembra opportuno sottolineare, come nemmeno le più avanzate macchine autonomiche siano al momento in grado di sviluppare una capacità simile. Dunque, sembra giusto rinviare il ragionamento sui cosiddetti “diritti postumani”6061, ad un futuro remoto, che potrebbe cambiare il nostro stesso concetto di personalità. Alla luce delle osservazioni precedenti, sembra che almeno allo stato attuale, non vi siano ragioni né giuridiche né ontologiche capaci di giustificare la creazione o l'attribuzione di una forma di personalità giuridica per gli agenti artificiali. La dottrina maggioritaria infatti sottolinea che , anche se si considera vero l'assunto per il quale l'agente robotico sia “sfuggito” al controllo dell'utilizzatore, da una prospettiva etica, non si può negare che il comportamento del robot sia in qualche modo determinato

60Lawrence B. Solum, op.cit.

(62)

dall'attività altrui, e quindi sia ben diverso da quello di un soggetto umano, che risulta essere l'unico a determinarsi secondo proprie convinzioni o desideri62.

(63)

Capitolo 2

La responsabilità contrattuale

1 La qualifica dell’Agente Software nella disciplina contrattuale

La nascita di entità chiamate “transaction agents”, ovvero software in grado di porre in essere una vera e propria attività negoziale in sostituzione di un soggetto utilizzatore, pone dei dubbi di qualificazione di tale attività alla luce delle regole generali del diritto privato. Il problema sorge, ancora una volta, dall’autonomia di tali soggetti, i quali, anche se certamente programmati in modo tale da rispettare la volontà di chi ne fa uso, agiscono sul mercato con sempre maggiore autonomia.

L’utilizzo di sistemi informatici nel mondo del diritto privato ha assunto una tale importanza negli ultimi decenni, da portare analisti a pensare che un singolo software, se gestito in un certo modo, possa addirittura condizionare

Riferimenti

Documenti correlati

È risaputo quale sia il punto più debole di questa prospettazione teorica: ben lungi dal costituire un requisito essenziale della fattispecie ascrittiva, la cui sussistenza an-

• In un’impresa, alcuni macchinari possono essere controllati da uomini, che dunque possono ammalarsi o fare sciopero.. AGENTE COME PARTE DI UN MACCHINARIO.. AGENTI COME

24/2015 della Sezione giurisdizionale per la Regione Abruzzo, di rimessione della questione di massima a queste Sezioni riunite, nell’ambito dei giudizi di conto

• sul corpo intero (WB), ossia le vibrazioni meccaniche che, se trasmesse al corpo intero, comportano rischi per la salute e la sicurezza dei lavoratori, in particolare lombalgie

blocco reversibile della crescita batterica (azione batteriostatica).. morte cellulare (azione battericida) I bersagli molecolari

Es: resistenza intrinseca a tutti gli inibitori della sintesi della parete nei micoplasmi. (i micoplasmi sono privi

Un secondo principio che informa l’attività della Commissione conciliativa è la gratuità del pro- cedimento, fatto salvo l’assolvimento della dovuta imposta di bollo. La domanda

Un secondo principio che informa l’attività della Commissione conciliativa è la gratuità del pro- cedimento, fatto salvo l’assolvimento della dovuta imposta di bollo. La domanda