• Non ci sono risultati.

Un breve preambolo storico

Nel documento Concetti e processi di categorizzazione (pagine 77-82)

Come le teorie cognitive possono aiutare l’intelligenza artificiale

1. Un breve preambolo storico

Che i robot abbiano segnato la storia del secolo passato – e non solo2 – è un dato inconfutabile: nel 1912 i ricercatori

John Hammond Jr. e Benjamin Miessner davano vita al primo prototipo di robot: una rudimentale (ai nostri occhi) scatola su ruote, che venne chiamata “cane elettrico” – forse perché fedelmente seguiva la luce proiettata verso i suoi sensori dai suoi creatori – che fu visto inizialmente come una curiosità scientifica3. Solo qualche anno dopo, il 25 gennaio 1921, andava in scena al teatro nazionale di Praga il dramma utopico-fantascientifico R.U.R. (sigla che sta per Rossumovi univerzální roboti, traducibile come I

robot universali di Rossum), atto che sancisce l’ingresso

definitivo della parola “robot” nel lessico mondiale, la cui definizione, in prima battuta, può essere appunto quella di un automa dotato di intelligenza artificiale (d’ora in poi AI).

1 Dipartimento di Ingegneria Civile, Ambientale e Meccanica (DICAM),

Università degli Studi di Trento e Istituto per i Processi Chimico–Fisici (IPCF) del Consiglio Nazionale delle Ricerche. E-mail: luciano.celi@unitn.it

2 Per una rassegna storica si veda LOSANO (1991).

3 Il “caso” è tra i più studiati ed è ampiamente descritto sia dagli autori, sia

dagli studiosi che riportano fedelmente le descrizioni originali – si vedano in tal senso CORDESCHI (2002) e TAMBURRINI (2005).

La fantascienza ha sempre precorso, almeno in questo filone, ciò che, prima o dopo, sarebbe accaduto nella real- tà, dipingendo di volta in volta scenari più o meno plausi- bili. Il “cane elettrico” di Hammond e Miessner non può non farci tornare alla mente le “pecore elettriche” di Philip K. Dick4, osannato bestseller del genere e, nell’omologa

trasposizione cinematografica5, divenuto presto una pietra

miliare, anche grazie alla sapiente regia di Ridley Scott. Questa breve nota, apparentemente estranea a ciò che segue, è utile a mettere in mostra il potere che da sempre evoca questa sorta di “trasposizione divina”, secondo la quale l’Uomo si sostituisce all’entità divina che si ipotizza lo abbia creato, per diventare a sua volta creatore tout

court e, a propria immagine e somiglianza, realizzare esse-

ri che sempre più gli si possano avvicinare nella struttura fisica o nel pensiero o, nel più complesso dei casi, in en- trambe le sfere.

2. L’IA oggi

In molti settori l’utilizzo dell’IA, che fino a qualche de- cennio fa sembrava essere fantascienza, è divenuto realtà. Moltissimi passi avanti si sono fatti in settori molto speci- fici, come quello della computer vision: i medici possono essere coadiuvati da sistemi di IA – come Watson dell’IBM – per effettuare diagnosi, in alcuni casi più accu- rate di quanto il solo medico sarebbe riuscito a fare6.

4 Il titolo originale del libro, uscito nel 1968 negli Stati Uniti era infatti Do Androids Dream of Electric Sheep?, tradotto in italiano nel 1971 con un cer-

tamente meno evocativo Il cacciatore di androidi.

5 Blade runner, 1982.

6 Per una spiegazione sugli sviluppi di questo settore si rinvia FORNELL

Da tempo è annunciata da più parti l’auto “che si guida da sola”, capace quindi di riconoscere “ostacoli in movi- mento” come i pedoni. Se in questo specifico compito molte cose sembrano ancora dover essere messe a punto, in commercio si trovano già da qualche tempo auto che in dotazione hanno il fatigue detection, i cui studi, risalenti ormai a una decina d’anni fa7, hanno permessi di realizza-

re un sistema di IA che effettua un monitoraggio costante del viso del guidatore e rileva i segni tipici della stanchez- za.

Ovviamente molte altre sono le applicazioni in cui tro- va sempre più spazio l’IA, ma esulano da questo articolo. 2.1. Il riconoscimento dei pattern

L’apprendimento profondo (deep learning, d’ora in poi DL) nelle reti neurali è una tecnica ormai matura, che in anni recenti ha subito ulteriori accelerazioni. In particolare il deep learning permette ai modelli computazionali che sono composti da più livelli di elaborazione di apprendere le rappresentazioni di dati con più livelli di astrazione8.

Questi metodi hanno migliorato considerevolmente lo sta- to dell'arte nel riconoscimento vocale, nel riconoscimento di oggetti visivi, nel rilevamento degli oggetti e molti altri domini. Basato sostanzialmente su un algoritmo di retroa- zione (feedback), questo agisce “all’indietro” (backpropa-

gation) per indicare come la macchina debba cambiare i

che indicano come virtuosa l’interazione dell’uomo e dell’IA in questo compi- to specifico in relazione alle percentuali di successo nelle diagnosi. Percentua- li che si abbassano di qualche punto percentuale se è solo l’uomo a compierle e di molti punti percentuali se si lascia l’intera attività decisionale all’IA.

7 Cfr., per esempio, SENARATNE, HARDY, VANDERAA, HALGAMUGE (2007). 8 Cfr. su questo argomento lo stato dell’arte di LECUN, BENGIO, HINTON

(2015) e SCHMIDHUBER (2015). Nello specifico, per il caso del riconoscimento

propri parametri interni utilizzati per calcolare la rappre- sentazione per ognuno dei livelli di astrazione.

L’aspetto sconcertante – come hanno mostrato Anh Nguyen, Jason Yosinski e Jeff Clune in un articolo del 2015 – è che le reti neurali così performanti sono indotte a riconoscere immagini, create mediante un algoritmo evo- lutivo, prive di senso per un essere umano, identificandole come chitarre, pinguini reali, jackfruit, stelle marine e molto altro con una percentuale di confidenza, nella quasi totalità dei casi, di oltre il 99% – praticamente la certezza, come evidenziato in figura 1.

Figura 1. Anche se le reti neurali avanzate di ultima generazione pos-

sono riconoscere con sempre maggiore affidabilità le immagini natu- rali (pannello a sinistra), vengono anche facilmente ingannate nel di- chiarare, con una confidenza che spesso è oltre il 99%, che le immagi- ni non riconoscibili sono oggetti familiari (centro). Le immagini che ingannano le DNNs (Deep Neural Networks) sono prodotte da algo- ritmi evolutivi (pannello a destra) che ottimizzano le immagini per ge- nerare previsioni nella rete neurale con elevato grado di confidenza per ogni classe del set di dati su cui la rete stessa viene addestrata (qui, ImageNet).

Fonte: NGUYEN A., YOSINSKI J., CLUNE J. (2015)

L’avvento dei big data in ambito informatico è stato di grande aiuto per lo sviluppo generale del machine lear-

ning, di cui le reti neurali costituiscono un – se non il –

settore di punta. Il meccanismo mediante il quale le reti apprendono è sostanzialmente costituito dalla iterazione di un certo numero di immagini, nel caso del riconoscimento

visivo, e, più alto è il numero di immagini sottoposte alla macchina, più “fine” sarà la sua capacità di discernimento e di categorizzazione nel modo corretto. Mentre questa capacità ha raggiunto livelli sorprendenti, anche su imma- gini complesse e contenenti molte informazioni, questa operazione sembra avere dei bias e dei totali disallinea- menti con compiti semplici o immagini che, appunto, sono prive di significato per un essere umano.

Per quanto vi sia un’opinione scientifica prevalente in sen- so opposto – secondo cui, cioè, vi è ampio consenso sul successo degli algoritmi di DL9 – resta da sottolineare che

spesso lo scopo del riconoscimento e della categorizzazio- ne in sistemi artificiali è – e soprattutto sarà sempre di più – di tipo applicativo: affidereste la vostra vita a un sistema che riconosce come “pinguino” un insieme arbitrario di li- nee e colori privo di significato all’occhio umano?

Figura 2. Altri esempi di immagini riconosciute da ImageNet come

oggetti del mondo reale, senza senso per l’essere umano. Fonte: NGUYEN A., YOSINSKI J., CLUNE J. (2015)

9 VAN RULLEN (2017).

Un altro esempio ben documentato è costituito dal rico- noscimento della grafia umana: numeri e lettere scritti da un essere umano, dopo il dovuto apprendimento, vengono riconosciuti con una confidenza molto alta e con elevato successo. Ma anche qui immagini senza senso, vengono riconosciute come numeri, come mostrato nella figura 3.

A onor del vero le immagini riconosciute dai sistemi di IA come significative sono sempre generate ad hoc e deri- vano da procedimenti di ottimizzazione molto sofisticati: sollevare dubbi però sulla reale affidabilità di questi siste- mi è doveroso.

2.2. Il funzionamento delle DNN

I sostenitori della robustezza delle reti DL, ne mostrano la validità testandole sui “rumori di fondo”, vale a dire, sulla capacità di riconoscere correttamente anche in presenza di elementi di disturbo contenuti all’interno dell’immagine10,

oppure su applicazioni reali, anche molto critiche11. Tutto

questo però non sembra impedire il fatto che se da un lato abbiamo quella che potremmo definire una sovradetermi- nazione del riconoscimento (“x è riconosciuto come appar- tenente alla classe X, anche se realmente non lo è”), dall’altro è stato dimostrato anche il fenomeno contrario, quello della sottodeterminazione (“x non è riconosciuto come appartenente alla classe X, anche se realmente lo è”). Uno studio di Szegedy e colleghi12 ha mostrato come que-

sto fenomeno sia altrettanto frequente: sono state suffi- cienti delle piccole modifiche a una certa immagine – mo- difiche pressoché indistinguibili all’occhio umano, tanto

10 FAWZI, MOOSAVI-DEZFOOLI, FROSSARD (2016).

Nel documento Concetti e processi di categorizzazione (pagine 77-82)