• Non ci sono risultati.

A proposito di algoritmetica

QUALCHE NUOVO S/OGGETTO TRA ALGORITMI, INTELLIGENZA ARTIFICIALE, BIG DATA

I.1. Dalla storia dei desideri e dei simulacri umani – 2 ai moderni meccanism

1. A proposito di algoritmetica

S/oggetto o s-oggetto, persona o personalità elettroniche, co- munque si leggano queste espressioni, ormai riferite agli odier- ni robot, esse rendono tutte decisamente importanti la Carta sul- la robotica e il Codice etico-deontologico degli ingegneri robotici.

I ricercatori della robotica, nell’osservare i principi citati della beneficenza (i robot devono agire nell’interesse degli esseri uma- ni) e della non-malvagità (i robot non devono fare del male a un essere umano), dell’autonomia (la capacità di adottare una de- cisione informata e non imposta sulle condizioni di interazione con i robot) e della giustizia (l’equa ripartizione dei benefici as- sociati alla robotica e l’accessibilità economica dei robot, in par- ticolare per quelli addetti alla cura e all’assistenza sanitaria), de- vono rispettare i diritti fondamentali (primi tra tutti: dignità, be- nessere, autodeterminazione) e il diritto alla privacy (prima, du- rante e dopo l’interazione uomo-macchina, bisogna che siano garantiti: consenso, riservatezza, anonimato, equo trattamento, giusto processo). I ricercatori della robotica devono altresì rispet- tare: il principio di precauzione (prevedendo gli eventuali risvolti in termini di sicurezza del singolo, della società, dell’ambiente), il principio di inclusione (e cioè la partecipazione ai processi deci- sionali di tutti i soggetti coinvolti nelle attività di ricerca sulla ro- botica o di coloro i quali nutrono un interesse nella stessa), la ren- dicontabilità (ovvero rendere conto di possibili incidenze sociali, ambientali e sanitarie della robotica per le generazioni attuali e quelle future), la reversibilità (e cioè la possibilità di annullare l’ultima azione o una sequenza di azioni, così da ritornare alla fase ritenuta ‘corretta’), la sicurezza (e quindi l’obbligo di segna- lare quei fattori che potrebbero mettere a rischio i diritti umani, come pure la collettività o l’ambiente).

A tutto ciò va aggiunto l’obbligo per i ricercatori che si occu- pano di robotica di ridurre al minimo il danno e di massimizzare i vantaggi, e questo vale naturalmente in tutte le fasi (dalla pro- gettazione alla realizzazione e all’uso). Detto in breve: ogni siste- ma robotico richiede un rigoroso processo di valutazione dei ri- schi, improntato ai principi di precauzione e di proporzionalità. In ogni caso, il rischio di danno non può mai essere superiore

rispetto a quello che si darebbe nella vita normale senza l’impie- go dell’IA, del resto il ricorso all’intelligenza artificiale deve rap- presentare sempre un’occasione e un’opportunità, anziché una minaccia e un pericolo 43.

L’intelligenza artificiale rappresenta un grande potenziale a beneficio dell’umanità, purché l’etica e il diritto sappiano affron- tare quel livello 4.0 della realtà attuale, le cui direttrici di svilup- po sono dettate dall’interazione tra uomo e macchina (interfac- ce, realtà aumentata) e dall’uso e dall’analisi dei dati (big data, open data, Internet of Things, machine-to-machine, cloud com- puting, machine learning).

Ma per affrontare adeguatamente quel livello 4.0 proprio della realtà attuale bisogna che etica e diritto muovano dalla fonda- mentale distinzione tra scienza e pseudo-scienza, tra fatti e opi- nioni, e al contempo diano ampio spazio a quella ricerca di ba- se che ha quale primo obiettivo l’avanzamento della conoscenza e la comprensione teorica delle diverse variabili in un determina- to processo. Una ricerca, questa, che fornisce le fondamenta per ulteriori ricerche e che di solito non ha un particolare scopo pra- tico, sebbene i suoi risultati possano avere e abbiano delle rica- dute applicative. Se così, bisogna che etica e diritto si adoperino – riprendendo Isabelle Stengers 44 – per un manifeste pour un ra-

lentissement des sciences.

Per il nostro tema, diventa altresì rilevante che etica e diritto muovano dalla fondamentale distinzione tra ciò che può essere ricondotto all’attività computazionale, tale da poter essere pro- grammato, e ciò che invece ne resta al di fuori, richiedendo del- le scelte che coinvolgono complesse analisi e profonda riflessio- ne. Diverso tempo fa Weizenbaum 45 scriveva che non è bene de-

legare alla macchina quelle funzioni che attengono al giudizio, al

rispetto, alla comprensione, alla cura, all’amore. L’intelligenza arti-

ficiale incontra proprio qui il suo limite ed è a partire da qui che

43 Come temono i firmatari di Autonomous weapons: an open letter from

AI & Robotics researchers, presentata alla 24ª conferenza internazionale

per l’Intelligenza Artificiale (IJCAI – 2015).

44 Une autre science est possible! Manifeste pour un ralentissement des

sciences, Parigi, La Découverte, 2013.

45 Il potere del computer e la ragione umana, i limiti dell’intelligenza arti-

l’algoritmetica può svilupparsi quale disciplina che abbia ad og- getto i criteri da seguire per le nostre scelte e per la loro protezio- ne. Del resto, già il mathwashing, che presenterebbe come ogget- tivi e neutri gli algoritmi e le procedure solo perché strutturate in forma matematica, ha delle notevoli implicazioni economi- che, giuridiche, politiche e sociali, che non lasciano inalterate le nostre capacità di scelta e la nostra stessa vita.

Proprio per le diverse implicazioni e le ricadute, diventa ne- cessario che etica e diritto non perdano di vista quella che è una fondamentale linea di confine. Una linea questa che può essere conclusivamente rappresentata, grazie alla distanza tra il ritrat- to di Edmond de Belamy, prodotto di un software che sulla base di migliaia di dipinti ha appreso alcune regole, e La ragazza col

palloncino (L’amore è nel cestino) creata da Banksy e che battu-

 

IV