Dipartimento di Civiltà e Forme del Sapere
Corso di Laurea Magistrale in Filosofia e Forme del Sapere
Tesi di Laurea Magistrale in Logica
La trasformazione dell’Intelligenza Artificiale
Relatore:
Chiar.mo Prof. Luca Bellotti
Candidato:
Mauro Comes
Indice
1 Capitolo 1 ... 1
Le fondamenta dell’Intelligenza Artificiale ... 1
1.1 Modelli dell’IA. ... 1
1.1.1 Il Computazionalismo. ... 1
1.1.2 Il Connessionismo. ... 2
1.2 Lo sviluppo del connessionismo. ... 2
1.3 Cos’è il Machine Learning. ... 4
1.4 La grandezza di Turing. ... 6
2 Capitolo 2 ... 9
I traguardi dell’Intelligenza Artificiale ... 9
2.1 Cos’è AlphaGo. ... 9
2.2 Deep Blue vs AlphaGo. ... 10
2.3 Cos’è Watson. ... 12
2.4 Dove si muove l’IA. ... 13
2.4.1 Economia... 13 2.4.2 Sicurezza. ... 13 2.4.3 Sport. ... 15 2.4.4 Comunicazione. ... 16 2.4.5 Arte. ... 18 2.4.6 Sanità. ... 19
2.5 L’IA nel futuro. ... 20
2.5.1 La sfida del self-driving. ... 21
2.5.2 L’intramontabile robotica... 22
2.5.3 L’invisibile visibile: Hyperimaging. ... 25
3 Capitolo 3 ... 31
Esistono le intelligenze artificiali? ... 31
3.1 Intenzioni. ... 31
3.2 L’Intelligenza Artificiale Forte... 32
3.3 L’Intelligenza Artificiale Debole. ... 33
3.4 Ancora Turing. ... 35
3.4.1 Il Test insuperabile. ... 35
3.4.2 Le obiezioni al concetto di Macchina Pensante. ... 36
3.5 L’ombra dell’intelligenza. ... 41
3.5.1 Prospettive. ... 41
3.5.2 Chi è Eugene Goostman? ... 43
3.5.3 Il pensiero meccanico. ... 45
3.5.4 Un po’ di coscienza. ... 52
3.5.5 Comprendere non è da tutti. ... 54
3.5.6 Esiste la creatività meccanica? ... 57
3.5.7 Come si sentono le macchine? ... 60
3.6 I sogni e gli incubi dell’Intelligenza Artificiale. ... 61
3.6.1 I modelli ottimisti. ... 61 3.6.2 Speranze moderate. ... 66 3.7 Game over. ... 72 4 Conclusioni ... 77 5 Bibliografia ... 81 6 Sitografia ... 81
1
1 Capitolo 1
Le fondamenta dell’Intelligenza Artificiale
1.1 Modelli dell’IA.
L’interesse verso il campo di ricerca dell’Intelligenza Artificiale (IA), a partire all’incirca dagli anni Trenta dello scorso secolo, è andato aumentando gradualmente, fino a diventare oggigiorno uno degli ambiti più studiati e dibattuti in Logica e in Filosofia della scienza e della mente. Inoltre, l’enorme progresso tecnologico che stiamo vivendo nella nostra epoca costituisce un terreno fertile affinché gli sviluppi in IA vadano ad interessare anche aree come l’Ingegneria, l’Informatica, l’Economia, la Medicina e il settore dei servizi in generale.
Da un punto di vista storico-scientifico, è possibile individuare due orientamenti fondamentali che sono stati seguiti durante il Novecento nel quadro delle intelligenze artificiali: quello computazionale o funzionalista o simbolista e quello connettivista o connessionista.
1.1.1 Il Computazionalismo.
Il primo approccio prende il nome dalla sua idea di fondo, secondo la quale sarebbe possibile realizzare un’intelligenza artificiale fornendo ad una macchina idonea uno specifico protocollo algoritmico da seguire, il quale poi le permetterebbe di apprendere; si tratta di una tesi che viene tradizionalmente ricondotta al lavoro di Alan Mathison Turing e alla sua elaborazione dell’ideale macchina universale, che in questa sede facciamo risalire al 19361.
Questo paradigma presuppone che i processi legati all’intelligenza siano calcolabili e, di conseguenza, riconducibili a determinate funzioni simboliche, tralasciando l’ aspetto fisico-biologico del cervello umano o, meglio, concependolo come una
1 Anno di stesura (non di pubblicazione) del suo articolo “On computable numbers, with an
2
sorta di macchina a stati discreti (pur funzionando, per esprimerci ancora in questa forma linguistica, come una macchina continua).
1.1.2 Il Connessionismo.
Per quanto concerne il connessionismo, esso si propone di raggiungere lo stesso obiettivo del computazionalismo, ma percorrendo una strada diversa, ovvero mediante la costruzione di un modello matematico per le reti neurali, con l’intento di raggiungere il più possibile un alto livello di fedeltà operativa nella rappresentazione dei processi cerebrali. La paternità di questo approccio viene attribuita convenzionalmente a Warren Sturgis McCulloch e Walter Harry Pitts, i quali hanno creato nel 1943 il modello basilare delle reti neurali artificiali.
Ad ogni modo, bisogna tener presente che nonostante i due percorsi appena introdotti prevedano differenti strumenti per la realizzazione di intelligenze artificiali e, pertanto, presentino alcune diversità nei loro rispettivi progetti, tuttavia nel corso del ventesimo secolo essi hanno avuto dei punti di contatto e si sono influenzati a vicenda, consentendo alla disciplina in questione di progredire in modo florido e di acquisire risonanza planetaria.
1.2 Lo sviluppo del connessionismo.
È proprio osservando lo stato attuale dell’IA a livello globale, analizzando la direzione in cui procedono le tecnologie più all’avanguardia e i traguardi che cercano di toccare, che probabilmente si può eleggere a paradigma vincente quello di McCulloch e Pitts basato sulle reti neurali. Al fine di rendere più chiara l’evoluzione del connessionalismo, si delineano qui di seguito alcune tappe cruciali (posteriori al 1943) che ne hanno segnato il successo:
1958: Frank Rosenblatt realizza il percettrone, cioè la forma più semplice per la simulazione del funzionamento di una rete neurale applicata al pattern recognition2.
2 Si tratta di quella parte dell’IA concernente il riconoscimento di schemi costanti all’interno di
configurazioni caotiche. Esso è uno dei settori tradizionalmente più studiati in Intelligenza Artificiale, nonché uno di quelli in cui si verificano i risultati più convincenti.
3
1980: Kunihiko Fukushima elabora il Neocognitron, ovvero una complessa rete neurale artificiale organizzata gerarchicamente in molteplici strati con la capacità di riconoscere i caratteri della scrittura manuale.
1992: Juyang Weng diffonde Cresceptron, il quale è un sistema a reti neurali complesse con cui si può riconoscere automaticamente un oggetto situato all’interno di una scena tridimensionale che presenta una configurazione disordinata.
1997: la versione aggiornata del computer Deep Blue batte definitivamente Garry Kimovich Kasparov in una partita a scacchi disputata con regole da torneo. È il primo caso in cui una macchina vince contro un essere umano in questo gioco3.
2009: la fondazione NIPS (Neural Information Processing Systems) scopre che, fornendo un insieme di dati sufficientemente ampio ad un sistema di reti neurali per lo Speech Recognition4, esse non necessitano di un
allenamento preliminare per il riconoscimento, bensì hanno la capacità di ridurre gradualmente il tasso di errore in autonomia.
2011: il sistema Watson partecipa e batte clamorosamente gli avversari umani nel quiz “Jeopardy!” ed è la prima volta che accade un evento del genere nella storia dei programmi televisivi.
3 Si tratta del terzo incontro fra Kasparov e Deep Blue, che avevano ottenuto una vittoria a testa in
precedenza. Per completezza, bisogna comunque rilevare che in un certo momento della partita decisiva pare che Deep Blue abbia commesso un errore genuino, del quale inizialmente Kasparov non si rende conto; una volta accortosi del bug momentaneo che aveva colpito la macchina, egli, forse per sudditanza psicologica, comincia a giocare peggio del solito e perde la sfida.
Questo dettaglio ha sollevato più di una polemica circa la validità dell’esito della gara e sulla parità della condizione iniziale dei due giocatori.
4 È quella branca dell’Intelligenza Artificiale che si occupa del riconoscimento delle espressioni
orali e scritte nel linguaggio naturale. Siri, il software sviluppato da Apple, ne rappresenta forse l’esempio più conosciuto.
4
2015: nel social network Facebook viene introdotto DeepFace5, un metodo
avanzato di riconoscimento dei volti che utilizza reti neurali profonde a più livelli.
2017: il software AlphaGo batte Ke Jie in una partita al millenario gioco cinese del go.
A questo punto è bene descrivere più accuratamente il contesto generale in cui si inseriscono, da un punto di vista concettuale, le reti neurali artificiali.
1.3 Cos’è il Machine Learning.
Il modello avente come fulcro le reti neurali ci sembra oggi, come è stato detto, il mezzo migliore per tentare di produrre delle vere intelligenze artificiali, ma in linea teorica rappresenta solo un’opzione all’interno di una gamma di metodi possibili per l’apprendimento automatico o machine learning.
Si perché è questa la posta in gioco: riuscire a dimostrare in qualche modo che una macchina possa manifestare una forma d’intelligenza paragonabile a quella umana. E se è vero che questa aspirazione può essere soddisfatta, allora risulta chiaro (perlomeno a partire dalla riflessione di Turing in poi) come un processo imprescindibile per una macchina intelligente sia quello dell’apprendimento. Procediamo con ordine: il machine learning nasce come branca dell’informatica, ma nel suo sviluppo è spesso sconfinata in molte aree diverse del sapere e l’obiettivo iniziale di ottenere un’intelligenza artificiale ha dovuto fare i conti con ardue difficoltà sia di carattere matematico-ingegneristico, sia logico-filosofico; pertanto, il progetto originale è stato ridimensionato e sostituito, secondo alcuni, con quello di riuscire al limite ad implementare sistemi per la risoluzione di compiti specifici. Tanto premesso, le maniere tramite cui avviene l’apprendimento automatico sono fondamentalmente tre:
Apprendimento supervisionato: vengono forniti alla macchina sia i dati in ingresso, sia gli output corrispondenti, affinché venga elaborata una regola
5 È un sistema in grado di rilevare e circoscrivere la presenza di facce umane all’interno di immagini.
5
(che abbia il più alto grado di generalità possibile) che metta in correlazione i primi con i secondi.
Apprendimento senza supervisione: vengono forniti alla macchina i dati di input, ma non i risultati, al fine di far emergere schemi intrinseci, celati nelle informazioni in entrata.
Apprendimento rinforzato: la macchina viene messa in condizione di cogliere autonomamente gli input all’interno di un ambiente e, tramite un sistema di “premi e punizioni”, la scelta dei dati raccolti viene segnalata al calcolatore come adeguata o erronea.
A queste tre vie teoriche appena viste, devono aggiungersi poi le opzioni operative idonee per metterle in atto; le più utilizzate fra esse sono:
L’albero decisionale: un grafo a forma d’albero che contiene nelle proprie ramificazioni le possibili scelte che può effettuare la macchina e le rispettive conseguenze.
Gli algoritmi genetici: le soluzioni migliori per un problema specifico vengono calcolate dalla macchina tramite un processo algoritmico che prevede la reiterazione dei calcoli step by step, mentre le scelte meno convenienti vengono così recise automaticamente.
L’analisi dei gruppi o clustering: nella macchina vengono introdotti degli algoritmi che le permettono di identificare certe proprietà sulla base delle quali isolare alcuni oggetti, formando così dei gruppi.
La programmazione tramite logica induttiva: viene fornita una conoscenza di base alla macchina e un elevato numero di esempi, in modo tale che essa riesca a derivare i casi coerentemente inseribili nel proprio bagaglio conoscitivo.
Le reti neurali artificiali: vengono costruiti dei modelli per la simulazione delle reti neurali biologiche in maniera tale che ogni nodo possa svolgere la propria computazione, ma sia anche interconnesso con gli altri. Nel caso di massima complessità l’architettura generale si presenta composta da più livelli o strati e si parla di deep learning.
6
Affrontando la questione da una prospettiva cronologica deve essere riconosciuto che, verosimilmente, non esisterebbe la disciplina del machine learning come la stiamo sviluppando da circa sessant’anni a questa parte, se non ci fossero state le idee geniali di Turing ad inaugurare un modo particolare di interrogarsi circa le condizioni di possibilità di una macchina da un lato, e del relativo linguaggio in cui ne parla l’essere umano dall’altro.
Per questa ragione, riteniamo doveroso affrontare almeno a grandi linee alcuni elementi fondamentali del pensiero turinghiano, cercando di mettere in luce come essi abbiano influenzato ogni singolo progetto successivo in IA.
Insomma, chiunque oggi voglia cimentarsi in questo settore del sapere scientifico non può esimersi dal fare i conti con ciò che è stato realizzato (a volte anche solo a livello mentale) dal logico inglese.
1.4 La grandezza di Turing.
I concetti sui quali vorremmo soffermarci sono principalmente quelli di macchina universale e apprendimento di una macchina mediante una sorta di educazione impartitale da un essere umano.
Per quanto riguarda la prima nozione, essa consiste nell’elaborazione di una macchina ideale in grado di simulare il comportamento di qualsiasi calcolatore elettronico, purché le siano forniti i protocolli adatti da seguire: questa caratteristica mimetica la renderebbe, appunto, universale6.
6 Brevemente, le caratteristiche fondamentali per capire la straordinarietà della Macchina di Turing
(MdT) sono: la sua struttura fisica ideale e i momenti che logicamente ne descrivono lo stato in cui può trovarsi.
Per quanto riguarda la prima, essa consta di un nastro teoricamente infinito, suddiviso in celle, e di una testina di lettura-scrittura (TLS), capace di: leggere il simbolo inscritto in una singola cella alla volta, muoversi lungo il nastro in entrambi i sensi e cancellare/scrivere un simbolo all’interno di una cella.
Riguardo agli elementi che conseguono dall’architettura appena vista, essi sono cinque: a) lo stato attuale della macchina, b) il simbolo letto dalla TLS nello stato attuale, c) lo stato della macchina nel momento immediatamente successivo, d) il simbolo scritto dalla TLS nel momento successivo, e) il verso in cui si muove sul nastro la TLS.
7
Si può notare come questa astrazione sia rilevante per le odierne tecnologie artificiali, per esempio avendo trasmesso l’aspirazione a raggiungere il massimo grado di generalizzazione nella costruzione delle reti neurali; per non parlare dell’influenza avuta nel campo della programmazione e delle architetture informatiche. Quindi, quella della macchina universale è una rappresentazione mentale che ha il pregio di ricondurre un’elevatissima potenza operativa ad una struttura davvero semplice.
A proposito dell’idea di educare una macchina e di metterla in condizione di imparare, invece, il discorso è un po’ più complicato.
Bisogna innanzitutto inquadrare il tipo di processo educativo che si vorrebbe attuare: dovrebbe essere una dinamica regolata da istruzioni prive di ambiguità, organizzate secondo una precisa gerarchia da rispettare; a seconda che esse vengano infrante o meno, sarebbe poi necessario ricorrere ad un sistema di punizioni e premi (un po’ come si fa con gli scolari) impartite in linguaggio simbolico; infine, risulta indispensabile che la macchina sia in possesso di un requisito su cui tanto ha insistito Turing, il quale aveva già colto l’importanza straordinaria che questo attributo avrebbe assunto in futuro: la memoria. Infatti, è anche la capacità di memorizzare che consentirebbe alla macchina di migliorare le proprie prestazioni. Proviamo ad essere più chiari: dotando il nostro computer di ampio spazio di memoria, esso dovrebbe essere in grado di immagazzinare e, conseguentemente, di ricordare le azioni svolte in modo corretto e in modo errato. Se questo si verificasse, allora la macchina imparerebbe dagli errori commessi in precedenza, evitando di ripeterli nuovamente (per non incorrere un’altra volta nella punizione): sarebbe il miglior esito possibile di quel procedimento conosciuto come trial and error, il quale consiste nel compiere tentativi di risoluzione per specifici problemi, fallire e riprovare.
Ora, un tratto precipuo degli esseri intelligenti è quello di far tesoro dei passi falsi precedenti e cambiare il proprio atteggiamento, scegliendo una diversa condotta per giungere allo scopo prefissato; per questo motivo, quando Turing affronta il tema dell’educazione delle macchine nel processo di apprendimento si auspica che esse possano gradualmente migliorare in maniera intelligente il loro modo di agire,
8
proprio grazie alla memoria di cui dispongono e al loro essere immuni agli equivoci linguistici7, la qual cosa costituisce una garanzia di comprensione delle regole
imposte dall’uomo.
Adesso che sono state indicate le coordinate generali dei sogni tradizionali dell’Intelligenza Artificiale, possiamo procedere verso la trattazione dei sistemi algoritmici più evoluti presenti nel panorama odierno. Nello specifico, abbiamo nel mirino l’approfondimento dei già citati AlphaGo e Watson, incluse alcune sue derivazioni modernissime.
7 Si intende dire che, prestando la giusta attenzione alla precisione delle istruzioni assegnate alla
macchina, si azzera il rischio che essa le fraintenda, compiendo un’operazione che non le è stata richiesta.
9
2 Capitolo 2
I traguardi dell’Intelligenza Artificiale
2.1 Cos’è AlphaGo.
AlphaGo è il primo sistema informatico capace di sconfiggere un giocatore professionista umano al celebre gioco cinese del Go. Esso è stato implementato da Google, precisamente dalla divisione che va sotto il nome di DeepMind, la quale nasce in Gran Bretagna nel 2010 come azienda autonoma (con il nome di DeepMind Technologies Limited) per poi essere acquisita da Google appunto, nel 2014, per una somma di circa 400000 sterline.
I risultati più clamorosi finora ottenuti da AlphaGo sono la vittoria contro il campione europeo in carica Fan Hui, il veterano sudcoreano Lee Sedol e l’attuale campione del mondo Ke Jie.
Da un punto di vista tecnico, è interessante notare come la peculiarità di questo software non consista in un insieme di mosse o strategie precise, quanto piuttosto nella sorprendente capacità di adattare il proprio stile di gioco a seconda dell’avversario che sta affrontando. Questo significa che AlphaGo riesce a raggiungere i risultati migliori non perché trova sempre il modo di attuare la propria sequenza di movimenti prediletti sulla scacchiera, ma esattamente per il motivo inverso: oggi è il più forte giocatore del pianeta perché non possiede un proprio stile definito, però ha una sviluppatissima apertura mentale (così la chiameremmo se fosse un essere umano) e capacità di adattamento rispetto alle configurazioni che di volta in volta deve esaminare e a cui deve rispondere, trovando la contromossa più conveniente.
È quasi immediato che la bravura di AlphaGo riconduca la nostra memoria ad un altro evento importante riguardante le applicazioni dell’IA in ambito ludico-scientifico.
10
2.2 Deep Blue vs AlphaGo.
Volendo instaurare un confronto col successo di Deep Blue contro Kasparov, risalente a vent’anni fa, segnaliamo alcune differenze che gli addetti ai lavori di Google non hanno tardato a mettere in evidenza, anche per manifestare una sorta di supremazia in IA nei confronti dell’IBM e del suo supercomputer.
In primo luogo, mentre l’abilità di Deep Blue negli scacchi era centrata sulla velocità nella scansione delle mosse possibili, nel caso di AlphaGo si tratta più di una specie di riflessione algoritmica che la macchina compie sull’adeguamento delle giocate (volte più all’attacco o alla difesa) a seconda dell’andamento della partita. In altre parole, Deep Blue utilizza fondamentalmente la forza bruta calcolatrice, come si suol dire classicamente, mentre AlphaGo funziona in modo un po’ diverso, riunendo due processi complementari: la scelta basata sulla ricerca ramificata fra varie opzioni possibili e quel tipo di esecuzione che ha per modello le reti neurali profonde.
Va detto inoltre che il meccanismo computazionale in stile Deep Blue sarebbe difficilmente applicabile al gioco del Go, anche solo per il fatto che fra Scacchi e Go c’è una differenza numerica di circa un googol8 riguardo ai posizionamenti
consentiti sulla scacchiera che un giocatore può effettuare. Questa è una delle ragioni che ci spingono ad attribuire al go un livello di complessità superiore rispetto a quello degli scacchi.
Gli altri motivi che possono indurre a proporre questo tipo di valutazione sono riassumibili nei seguenti punti:
Differenza di superficie fra la scacchiera e il goban9: rispettivamente 8x8 e
19x19, per cui c’è un maggiore spazio da analizzare prima di posizionare un proprio pezzo.
Maggiore libertà di movimento nel go rispetto alle restrizioni che vigono per ciascun pezzo degli scacchi.
8 Numero composto da 1 seguito da 100 zeri. 9 Superficie di gioco del Go.
11
Infine, il fatto che il go abbia come obiettivo la conquista di una sfera d’influenza maggiore rispetto a quella dell’avversario, mentre gli scacchi l’annientamento dell’esercito nemico, impone al giocatore di tenere una linea di condotta rigorosamente equilibrata nel primo caso, in cui mosse offensive e difensive siano saggiamente bilanciate.
In secondo luogo: pur ammettendo, come è stato sostenuto da alcuni, che la pura (seppur smisurata) capacità di calcolo di Deep Blue non fosse la sua unica arma, in ogni caso era sicuramente molto distante dalla raffinata articolazione interna di AlphaGo.
Nello specifico, stiamo parlando di un sistema che, come abbiamo già accennato, combina un potente procedimento di ricerca a forma d’albero con un modello iper avanzato di reti neurali artificiali. Esse sono distribuite su ben 12 strati contenenti svariati milioni di connessioni e tutto questo impianto è supervisionato da due reti particolari: la “policy network” e la “value network”; la prima è quella che, in seguito ad una complessiva analisi accurata delle mosse, seleziona effettivamente la giocata da compiere, mentre la seconda predice volta per volta chi sarà il vincitore dell’incontro in base allo stato attuale della partita.
È grazie a questa organizzazione multistratificata appena descritta, associata ad un training10 di più di 30 milioni di movimenti eseguiti da giocatori esperti durante
vecchie gare disputate, che si è raggiunto un tale grado di qualità nel cosiddetto reinforcement deep learning11.
Insomma, non è un caso che AlphaGo venga considerato da molti studiosi il prodotto più vicino alla realizzazione del progetto iniziale in IA: costruire
10 L’allenamento a cui vengono sottoposte questo tipo di reti neurali consiste nell’essere informate
di una gran quantità di mosse corrette, affinché il sistema acquisisca un’ampia conoscenza strategica.
11 Il bagaglio di cui il sistema delle reti neurali artificiali è entrato in possesso mediante il training
viene analizzato dalla macchina e dall’interno di esso viene scelta un’opzione sull’azione successiva da compiere. A questo punto la mossa viene valutata positivamente o negativamente dal programmatore e in questa considerazione a posteriori consiste il rinforzo per l’abilità decisionale del sistema .
12
un’intelligenza artificiale che sia in grado di pensare e comportarsi come un essere umano.
2.3 Cos’è Watson.
Watson è un sistema informatico implementato da IBM12 a partire dal 2005 e tuttora
in fase di perfezionamento, ideato per il riconoscimento del linguaggio naturale (speech recognition) e, precisamente, per competere all’interno del celebre quiz televisivo americano “Jeopardy!”, in cui consegue la vittoria nel 2011.
In questa sede preferiamo tralasciare l’aspetto ludico della questione, impegnandoci piuttosto ad evidenziare le applicazioni presenti e future nelle quali può essere utilizzato Watson, a volte impiegandolo non singolarmente, bensì associato ad altri sistemi dei quali comunque non parleremo troppo nel dettaglio.
A livello generale, possiamo descrivere la versione iniziale di Watson come un sistema dotato delle seguenti caratteristiche:
Vasta capacità di memoria, il che significa poter accedere ed immagazzinare grandi quantità di dati.
Capacità di esaminare le informazioni contenute al proprio interno senza il bisogno di essere costantemente connesso ad internet.
Straordinaria velocità di calcolo, il che significa poter catturare rapidamente l’informazione desiderata.
Capacità di comprendere il linguaggio naturale, specialmente nel caso di frasi dettagliate.
Capacità di elaborare risposte in linguaggio naturale. Chiaramente, però, c’è molto di più. Vediamo cosa.
13
2.4 Dove si muove l’IA.
Riservandoci di dare nel terzo capitolo le valutazioni dei risultati attuali in Intelligenza Artificiale, dividiamo questa sezione descrittiva in base ai contesti applicativi delle espansioni di Watson stesso.
2.4.1 Economia.
Di quest’area si occupa un’espansione che si basa sull’analisi di Big Data, al fine di migliorare la gestione e la pianificazione delle risorse finanziarie da parte di un’impresa e di garantire un alto livello di controllo del risk management.
In sostanza, si tratta di esaminare abbondanti quantità di dati, per cercare di governare i rischi intrinseci in cui può incorrere qualsiasi gestione strategica di capitali13, con l’obiettivo di ridurre al minimo il tasso di questi rischi e, viceversa,
di incrementare il margine di sicurezza.
Watson sta trovando sempre maggiore spazio in questo ambito operativo, per via delle grandi quantità di dati che è necessario manipolare prima dell’impiego di cospicue risorse economiche e le prospettive future delineano una situazione in cui l’utilizzo di questi software ausiliari risulta sempre più indispensabile, specialmente considerando le dimensioni mondiali raggiunte dai rapporti commerciali.
2.4.2 Sicurezza.
Quello della sicurezza è senza dubbio uno degli ambiti più ricchi di significato oggigiorno in cui Watson può risultare di notevole utilità e va ad intrecciarsi, inoltre, col settore economico.
Il concetto che esprime il nucleo centrale di questo punto è quello di cybersecurity, col quale si intende la questione della sicurezza informatica come nodo delicato delle nostre vite.
Infatti, insieme allo sviluppo tecnologico al quale abbiamo partecipato negli scorsi anni e nel quale siamo immersi tuttora di continuo, crescono, in maniera quasi
13 Basti pensare al mercato globale degli investimenti e delle quotazioni in Borsa o
14
direttamente proporzionale, i pericoli legati al nostro esser spesso connessi ad una rete internet e al nostro utilizzo di strumenti coi quali è bene relazionarsi prestando attenzione, poiché le informazioni di cui terze parti potrebbero entrare in possesso sono di vario genere e importanza.
È per questo motivo che gli ultimi sviluppi dei software moderni di cybersecurity si muovono principalmente nella direzione della protezione dei dati personali, in particolar modo quelli legati a pagamenti online o comunque all’utilizzo di moneta elettronica (ecco la relazione con l’ambito economico), ma anche quelli riguardanti le attività che svolgiamo quotidianamente o i luoghi che frequentiamo14.
A questo punto bisogna spiegare come funziona il sistema Watson che stiamo prendendo in esame e soprattutto in cosa risulta essere uno scudo adatto per impedire il furto dei cosidetti dati sensibili.
Esso è un programma che consta dell’unione di due software complementari, i quali danno come risultante “QRadar Advisor with Watson”, che racchiude in sé le capacità di elaborazione dei dati tipica di Watson con un’acuta sensibilità nel rilevare elementi esterni che tentano di forzare l’accesso ad un sistema.
Il protocollo seguito è quello tradizionalmente adoperato dai sistemi di sicurezza virtuale in questa branca dell’informatica, ma l’elemento innovativo è rappresentato dalla velocità con cui quest’espansione di Watson riesce a sfuggire agli attacchi, producendo automaticamente nuove chiavi d’accesso non simulabili in tempo sufficientemente breve per danneggiare il sistema in causa.
Nello specifico, i passi eseguiti da questo programma sono: Identificazione di un problema.
Protezione del sistema mediante gli strumenti algoritmici ritenuti più appropriati.
Rilevamento della natura del problema che ha aggredito il sistema.
14 Ci si riferisce alle informazioni condivise sui social network e alla diffusione delle nostre
15
Risposta del software, affinché il sistema sia in grado di evitare i successivi eventuali attacchi della stessa tipologia.
Ripristino della condizione iniziale del sistema in salute.
In un mondo sempre più interconnesso dunque, appare quantomai opportuna l’implementazione di sistemi di questo tipo che possano fungere da barriera contro le incursioni indesiderate, tutelando la nostra privacy nel senso più ampio del termine.
È bene sottolineare, però, che la cybersecurity non è l’unica applicazione che le intelligenze artificiali trovano in questo campo. Infatti, esse possono risultare molto funzionali anche nell’ambito della sicurezza industriale.
In particolar modo nel settore energetico, annualmente vengono spese ingenti somme di denaro dalle imprese, per la manutenzione di oleodotti e gasdotti; proprio al fine di ridurre i costi di queste operazioni necessarie, è stato implementato un software che viene installato su un drone e sostanzialmente è in grado di sostituire la fase del controllo precedente all’intervento manutentivo stesso.
Esso è un sistema che analizza lo stato di deterioramento dei componenti, i quali vengono opportunamente ispezionati, e trasmette una sorta di mappa nella quale sono automaticamente messe in evidenza le zone su cui andare ad operare, dopo averne calcolati i rischi, seguendo una scala di priorità stabilita tramite algoritmi. 2.4.3 Sport.
All’interno del mondo sportivo stiamo assistendo in misura sempre più evidente all’attenzione che viene prestata ai dettagli delle gare, ai numeri, alle statistiche. Ciò è dovuto all’idea preponderante secondo la quale aumentare la “scientificità” e la cura dell’analisi sportiva abbia come conseguenza la possibilità di migliorare l’esperienza stessa dello sport.
Senza dubbio la precisione è un elemento che non può mancare in tutte le discipline sportive, però oggiogiorno viviamo in un contesto in cui questa caratteristica tende a raggiungere un livello che non era affatto pensabile dagli spettatori di pochi
16
decenni fa. Ogni giocata, ogni movimento di qualsiasi atleta e squadra è monitorata e inserita all’interno di un’analisi onnicomprensiva degli incontri sportivi disputati. In questo quadro si situano nuovi software, anche scaricabili sui propri dispositivi portatili, che garantiscono all’utente la consultazione quasi in tempo reale di statistiche puntuali, al fine di consentire al fruitore di queste tecnologie di essere aggiornato come mai prima d’ora.
Insomma, anche le performance sportive sono oggetto di analisi e diffusione ad opera delle intelligenze artificiali.
Concludiamo questo sottoparagrafo con una nota curiosa: il 31 Ottobre terminerà una competizione davvero particolare che consiste nel creare un modello per la simulazione dei movimenti che si compiono durante una corsa ad ostacoli, il tutto all’interno di uno spazio tridimensionale. Sembra, dunque, che lo sport possa divenire un’attività praticata anche dalle intelligenze artificiali!
2.4.4 Comunicazione.
Affrontiamo ora la sfera comunicativa, nella quale si possono trovare molteplici applicazioni di ultima generazione che stanno già cambiando il nostro modo di relazionarci e introducendo nuove forme d’espressione.
Incominciando dalla comunicazione di tipo linguistico, l’elemento più innovativo è senz’altro quello dei chatterbot (o chatbot). Si tratta di programmi di dialogo utilizzati per gli scopi più disparati:
Assistenza del cliente da parte delle aziende, rispondendo a domande e fornendo informazioni tecniche sui prodotti.
Ausilio nella ricerca di informazioni afferenti a vari argomenti.
Assistenza all’insegnamento, mediante applicazioni alle quali lo studente può accedere in prima persona, per reperire informazioni sia di carattere generale circa l’organizzazione degli insegnamenti, sia più specifiche riguardo a un determinato argomento di studio.
17
Diagnosi di patologie psichiche15.
Garanzia di un interlocutore fittizio sempre disponibile con cui poter comunicare.
È interessante notare che la prima forma ideale di chatterbot si può far risalire al test16 di Turing, con la differenza sostanziale che in quel caso vi erano alla base la
riflessione e gli studi riguardanti seri temi di ordine filosofico, come l’eventualità che una macchina possa pensare e la giustificazione delle forme linguistiche che adoperiamo quando ragioniamo su questa specie di problematiche.
Nel concetto di comunicazione ci sembra incluso anche quello di pubblicità. Ebbene, anche in questo contesto l’IA ha compiuto passi in avanti; facciamo riferimento alle inserzioni presenti nelle pagine web in cui navighiamo17. Questi
annunci pubblicitari o, meglio, consigli rivolti all’utente, sono fondamentalmente dei calcoli compiuti dai programmi applicati ai vari motori di ricerca. Il punto è che i dati elaborati riguardano il fruitore nella sua specificità, del quale vengono analizzate nel dettaglio le ricerche, le abitudini come consumatore, le preferenze. E tutto questo costituisce l’input che viene assorbito dal sistema per poi essere trasformato in un output costituito dalla presenza costante di un’offerta, che verosimilmente sarà conforme ai gusti di ogni determinato individuo.
15 È uno degli sviluppi più recenti derivati da Watson e consiste in un programma in grado di
sostenere conversazioni con esseri umani e rilevare all’interno di esse alcune espressioni che potrebbero essere sintomatiche di un disturbo di carattere psichico.
16 Nonostante Turing non abbia mai usato la parola “test” per indicare questo esperimento mentale,
eccetto durante una trasmissione radiofonica della BBC nel 1952, è lui che ne detiene la paternità. Si tratta di una versione modificata del cosiddetto gioco dell’imitazione e prevede che ci sia un interrogante umano, situato fuori da una stanza che contiene due partecipanti al gioco: un uomo e una macchina, la quale ha il compito di non farsi smascherare dall’interrogante, riuscendo dunque a spacciarsi per essere umano, durante una conversazione scritta della durata di 5 minuti.
17 Tre esempi utili per chiarire il concetto possono essere: Amazon, per quanto riguarda l’acquisto
di prodotti in generale; Netflix, a proposito della visualizzazione di file multimediali come film, serie TV e documentari; Youtube, per l’accesso a video e tracce musicali.
18
Continuando su questa linea, anche la produzione musicale e cinematografica rientrano certamente nell’ambito comunicativo e i programmatori stanno ci stanno lavorando da non poco tempo.
Riguardo all’aspetto musicale, il massimo che si è riusciti ad ottenere è una sorta di processo mimetico, in cui il software viene sottoposto all’ascolto di numerosissime sequenze sonore, per poi ritagliarne alcune parti e ricongiungerle in maniera più o meno coerente con lo stile che si desidera ottenere. Viene messo in atto, dunque, solo un meccanismo di imitazione di un qualcosa ascoltato in precedenza. Specialmente nel caso della musica classica è risultato a volte difficile distinguere i brani creati dal sistema artificialmente da quelli originali di grandi maestri compositori. Questo, come si può ben intuire, genera almeno due problemi ai quali non si trova facilmente una risposta univoca, ovvero l’attribuzione del merito circa la composizione della nuova trama musicale e la presenza o meno di quella caratteristica che da molti studiosi di Intelligenza Artificiale viene esclusa a priori dall’ambito meccanico: l’originalità.
Per quanto concerne l’aspetto cinematografico invece, il traguardo più convincente è probabilmente la creazione di un trailer ad opera di un software, sempre con Watson come punto di partenza. Non si tratta di un risultato da nulla, poichè una volta sottoposto il programma all’allenamento (visualizzazione di altri video della stessa categoria) la scelta delle brevi sequenze video che poi andranno a comporre il trailer completo di un film avviene autonomamente. Questo dovrebbe significare che il sistema è in grado di cogliere i passaggi importanti di un film intero che potrebbero risultare attraenti per il pubblico, senza che sia necessaria la guida costante dell’uomo.
2.4.5 Arte.
Pur assumendo una posizione di severo scetticismo nei confronti dei programmi implementati per le varie aree in cui l’IA cerca di trovare spazio, tuttavia, non appare del tutto assurdo che questa gamma di tecnologie esista; ma cosa succederebbe se affermassimo che perfino in campo artistico le intelligenze artificiali possono avere un ruolo?
19
Sembra incredibile, forse, ma un sistema artificiale dotato dei giusti elementi può realizzare questo obiettivo18.
Gli strumenti di cui deve essere costituito, inoltre, sono principalmente soltanto due: un generatore di immagini e un discriminante algoritmico, il quale ha la funzione di valutare la qualità della porzione d’immagine prodotta fino a un certo punto e regolare lo stato del lavoro automatico, stabilendo se è il caso di correggere quanto ottenuto o proseguire nella composizione dell’opera.
Ciò che può sembrare stupefacente è il fatto che già ad un livello intuitivo, se proprio deve esistere un qualcosa degno di essere chiamato “intelligenza artificiale”, ci si aspetta che essa si occupi di attività rigide e matematicamente precise, che non richiedano per nulla una dose di creatività; ma l’arte, invece, esige proprio questo: che il soggetto agente sia un soggetto creativo, mentre la macchina non può esserlo.
Più avanti in questo lavoro si cercherà di fare i conti con tale problematica spigolosa, discutendo le incongruenze che delineano questa discrepanza ontologica e provando a capire se e in che termini sono individuabili dei punti di tangenza fra il meccanico e il creativo.
2.4.6 Sanità.
Il settore della sanità rappresenta una delle sfide più ardue per i sistemi d’Intelligenza Artificiale, ma anche una di quelle più stimolanti in cui i risultati positivi possono cambiare profondamente i processi diagnostici.
L’espansione di Watson che è stata elaborata per questo ambito scientifico ha come obiettivo primario il rilevamento tempestivo della presenza di tumori negli individui, per cui dovrebbe adempiere ad una funzione propriamente diagnostica. Pur trattandosi ancora solo di un prototipo, tale ruolo verrebbe svolto grazie alla combinazione di più aspetti in fase di sviluppo all’interno dell’IA, precisamente della comprensione del linguaggio naturale, del riconoscimento di schemi e
18 Al solito, il primo passo è un allenamento; tramite esso il software entra in contatto con diversi
20
dell’analisi di dati. Nel dettaglio, l’utilizzo di questo software si articolerebbe in tre fasi:
Nella prima fase il medico esprime in forma scritta i sintomi rilevati e le osservazioni legate allo stato di salute del paziente, per poi presentare il report redatto al software. Quest’ultimo assimila la descrizione scritta (effettuando un tipo di speech recognition) e ciò costituisce una prima raccolta d’informazioni.
Nel secondo passaggio il medico fornisce al software le immagini relative alla scansione del corpo del paziente, in modo da aggiungere anche delle informazioni di natura visiva. A questo punto entra in gioco il graphic pattern recognition19, indispensabile affinché il programma sia in grado di
individuare forme e dettagli tipici di una condizione patologica.
Infine, il software analizza sia il testo scritto dal medico, sia le immagini del paziente memorizzate, avanzando una proposta diagnostica che possa aiutare l’essere umano a riconoscere e circoscrivere la presenza di una massa tumorale.
Emerge quindi in modo lampante come quest’area di ricerca sia ricca di frutti che, probabilmente, siamo sul punto di rendere maturi, affidando ai supporti dell’IA compiti inimmaginabili fino a non molti anni fa.
2.5 L’IA nel futuro.
Passiamo ora in rassegna alcuni fra i più importanti20 progetti dell’Intelligenza
Artificiale che possono incidere in maniera considerevole su alcuni aspetti rilevanti della nostra vita nel futuro.
19 Esso consiste nell’abilità da parte di un programma di riconoscere schemi grafici ricorrenti
analizzando un certo numero di immagini. Per giungere a risultati discreti è necessario un lungo allenamento in modo che il software abbia il tempo di abituarsi a un certo tipo di schemi visivi e sappia identificarli quando compaiono all’interno di immagini complesse.
20 Importanti in termini di: denaro investito per il raggiungimento di questi target, potenziale
miglioramento della qualità della vita in alcuni campi specifici ed estensione del coinvolgimento della comunità scientifica impegnata su progetti afferenti a questo settore.
21
Incominciamo con l’individuazione di alcuni nuclei tematici che ci sembrano rappresentativi di questo contesto e che fungono da punti cardinali per orientarci in esso.
Questi sono: il self-driving, la robotica e l’hyperimaging. 2.5.1 La sfida del self-driving.
Il self-driving21 o guida automatica è uno degli obiettivi più rivoluzionari
dell’Intelligenza Artificiale contemporanea, ma anche uno fra i più riusciti.
Il driverless car è, in quest’area di ricerca, lo sbocco applicativo più studiato e si può ben dire che il risultato completo è vicinissimo. I sistemi che riguardano questo progetto funzionano più o meno tutti mediante gli stessi strumenti:
Una mappa generale dello spazio che circonda il veicolo (una sorta di Google Maps).
Un sistema che regola il movimento automatico del volante in base al percorso e consente i cambiamenti di direzione.
Un sistema per regolare e controllare la velocità del veicolo.
Un sensore in grado di percepire i dislivelli e le imperfezioni del manto stradale, nonché di riconoscere il tipo di superficie sulla quale ci si sta muovendo.
Sensori ottici22 capaci di comprendere la configurazione spaziale nella
quale si trova il veicolo, l’ubicazione degli oggetti e la loro forma, eventuali ostacoli presenti sul percorso e cambiamenti dello scenario.
21 Con questo concetto si intende la capacità di un sistema artificiale di pilotare automaticamente un
veicolo, senza il supporto umano.
22 I recenti sviluppi nel visual computing hanno suscitato dei miglioramenti enormi in questo aspetto,
incrementando sia la precisione dell’analisi visiva, sia la velocità di reazione a pericoli improvvisi e ai cambiamenti di stato.
22
Aggiustando alcuni difetti di carattere ingegneristico23 e risolvendo quindi le
imprecisioni più diffuse in questi sistemi artificiali, ci sono buone speranze di ottenere prossimamente una categoria di automobili in grado di guidare se stesse in modo autonomo meglio di come farebbero dei conducenti umani di medio livello. I motivi di questa futura prospettiva rovesciata sono molteplici:
Innanzitutto, un sistema di guida automatica possiede, per così dire, una sorta di prudenza intrinseca che poggia su basi algoritmiche, le quali garantiscono un esatto calcolo del rischio in ogni manovra.
Poi, un sistema siffatto è regolato dalla massima precisione possibile, pertanto consente al veicolo di muoversi seguendo le traiettorie migliori e ottimizzando tempo e consumi.
Inoltre, si tratta di un sistema che è esente, per sua stessa costituzione, da tutte quelle alterazioni in cui, viceversa, può incorrere un pilota in carne ed ossa: assunzione di sostanze stupefacenti, superamento del tasso alcolemico consentito, sonnolenza, distrazione, umore disturbato, infrazione volontaria del codice stradale, errori nella valutazione di distanze e spostamenti del veicolo.
Ecco, dunque, che risulta straordinario il cambiamento al quale stiamo andando incontro: affidando in qualche modo la nostra vita (quanto è rischioso spostarsi tramite autoveicoli?) alla presunta infallibilità delle intelligenze artificiali. Nel capitolo finale torneremo anche su questo argomento.
2.5.2 L’intramontabile robotica.
L’interesse per la costruzione di robot umanoidi non è recente, ma proviene dal medesimo periodo in cui si stava sviluppando l’Intelligenza Artificiale stessa. Inoltre, è un ambito specifico che non ha attraversato momenti di particolare crisi, a differenza di quanto accaduto per l’IA intesa nella sua totalità (più d’una volta
23
considerata terminata definitivamente); questo perché il progresso ingegneristico è stato abbastanza in grado di tenere il passo con l’idea fondamentale secondo la quale, per ottenere un qualcosa che possa essere paragonato all’essere umano24, è
necessario che lo si realizzi ad immagine e somiglianza dell’uomo stesso.
Col tempo si è fatta strada anche la prospettiva che questi robot potessero servirci a svolgere compiti specifici e, di conseguenza, che una serena convivenza con essi non fosse da escludere, in quanto avrebbe potuto migliorare alcuni aspetti propri della vita della nostra specie.
È proprio questo che i ricercatori impegnati sui progetti futuri in questo settore si propongono di raggiungere: utilizzare robot costruiti ad hoc, affinché possano sollevarci dallo svolgimento di alcune attività (solo quelle meccaniche?) e, parzialmente, ci stanno già riuscendo da qualche anno.
Addentrandoci più a fondo nella questione, bisogna separare due aspetti complementari nella costruzione di intelligenze umanoidi artificiali: quello fisico e quello cognitivo.
Per quanto concerne la parte fisica, l’idea di riprodurre artificialmente un essere umano in modo puntuale va incontro a difficoltà insormontabili di carattere pratico, ma ci si può accontentare del fatto che il robot abbia sembianze estetiche paragonabili a quelle di una persona. A questo livello i problemi più ostici riguardano la fedeltà delle espressioni facciali, la naturalezza dei movimenti articolati, il timbro vocalico e la fluidità lingusitica25, l’abilità manuale.
L’aspetto cognitivo, invece, si può articolare in cinque punti principali:
Problem solving: acquisire le abilità idonee alla risoluzione di un problema specifico.
24 In termini di facoltà di pensiero, ragionamento e intelligenza.
25 Appartenente all’insieme delle difficoltà di ordine fisico e non cognitivo in virtù del presupposto
che, in un’intelligenza artificiale, non si verifichi il processo della comprensione, pur potendo riscontrare una certa padronanza lessicale.
24
Learning: imparare a svolgere compiti nel modo giusto e ampliare le proprie conoscenze, imitando un essere umano o memorizzandone gli insegnamenti.
Speech recognition: riconoscere le espressioni del linguaggio naturale. Pattern recognition: riconoscere schemi situazionali costanti.
Socially interacting: essere capace di interagire socialmente all’interno di circostanze informali.
Osservando i risultati conseguiti più o meno negli ultimi 10 anni da parte di diverse società che operano nel campo, notiamo che si è raggiunto un ottimo livello sia sotto il profilo fisico, sia in quello cognitivo, ma soprattutto quando queste due facce della stessa medaglia vengono giudicate singolarmente. In altre parole, sembra che viga una sorta di proporzionalità inversa tra queste due componenti, per cui quando si curano maggiormente le rifiniture fisiche, al fine di rendere più credibile e familiare l’aspetto dell’umanoide, di contro scende il livello delle sue prestazioni cognitive; e viceversa.
Dal punto di vista fisico-motorio i traguardi più sorprendenti sono rappresentati dai robot capaci di camminare perfettamente e da quelli che possiedono una straordinaria destrezza nella manipolazione degli oggetti, ma ciò che stupisce ancor di più è quello che riescono a fare in termini di intelligenza26.
Ebbene, sono stati costruiti (specialmente nell’ultimo lustro) robot capaci di recepire ed esprimersi nel linguaggio naturale, percepire l’umore dell’interlocutore in base al tono della voce, riconoscere alcune gestualità della comunicazione non verbale (linguaggio del corpo) e agire di conseguenza, e perfino trovare autonomamente le soluzioni migliori per alcune funzioni da eseguire e memorizzarle per le occasioni successive della stessa categoria.
Allora, se già ci troviamo ad uno stato estremamente avanzato del settore, si potrebbero domandare le regioni per cui si investono ancora milioni di dollari nella
26 Usiamo qui questa parola senza preoccuparci di averne una definizione precisa, ma nel suo
25
robotica specializzata nella costruzione di umanoidi. La risposta è che vi sono ancora numerose applicazioni per le quali il punto in cui siamo giunti non è ancora sufficiente.
Uno degli obiettivi più concreti nel breve/medio periodo è quello di ottenere un robot che sia funzionale all’interno dell’ambiente domestico sotto entrambi gli aspetti trattati poco fa (fisico e cognitivo).
In sostanza, si vuol realizzare una tecnologia artificiale che possieda:
La fisicità adeguata a compiere azioni in uno spazio privato, il che impone delle dimensioni né troppo ridotte, né eccessivamente ingombranti.
La giusta dose di forza per lo svolgimento di mansioni casalinghe, coordinata ad un appropriato sistema percettivo.
Le abilità comunicative più all’avanguardia, come una vasta gamma di espressioni facciali, una certa aria di familiarità, l’uso del linguaggio naturale e l’interazione tramite il linguaggio del corpo.
La capacità di aver cura dell’essere umano, riconoscendone le emozioni, i sentimenti e gli stati d’animo.
Insomma, non si desidera giungere ad un futuro nel quale in ogni casa ci sia semplicemente una sorta di factotum che esegue alla lettera i nostri ordini, quanto a entrare in relazione con un essere (seppur artificiale) col quale approcciarsi come faremmo nei confronti di un individuo simile a noi.
Questo perché il vero bisogno che questa ricerca sottende, probabilmente, non è il mero alleggerirsi dal peso delle faccende domestiche, ma una necessità ben più profonda e ineludibile: quella del dialogo sociale, in ogni sua forma e in tutte le modalità nelle quali esso può dispiegarsi.
2.5.3 L’invisibile visibile: Hyperimaging.
Con il termine “hyperimaging”, si intende quel processo mediante cui lo spettro visibile grazie alla luce viene suddiviso in un numero di bande elettromagnetiche superiore a quanto accade normalmente nell’occhio umano. Questo fa in modo che
26
si possa esplorare, quindi, anche una vasta porzione di lunghezze d’onda per natura inaccessibili all’uomo, facendoci varcare la soglia dell’invisibile (divenuto adesso parte del nostro mondo).
In particolar modo nel caso della vista, il non riuscire fisiologicamente ad osservare qualcosa, ne rende molto più complicato lo studio e il conseguente tentativo di controllo. Ecco, dunque, che si intraprende la strada dell’hyperimaging.
I team di ricercatori dell’IBM impegnati in questo ambito prevedono che nell’arco di cinque anni saranno disponibili delle applicazioni ben rifinite che utilizzano l’hyperimaging e scaricabili sui dispositivi portatili, in grado di consentirci l’accesso a un enorme bacino d’informazioni riguardanti i campi più svariati. Passiamo quindi in rassegna le molteplici aree in cui questa nuova tecnologia può, in potenza, trovare i principali sbocchi operativi:
1) Nutrizione
2) Chimica farmaceutica 3) Driving
4) Gaming
5) Assistenza per il coordinamento motorio 6) Salute mentale
7) Analisi dei Big Data 8) Medicina
9) Ambiente
1) Il modo in cui ci si nutre rappresenta uno dei temi più delicati dello stile di vita contemporaneo e per questa ragione l’hyperimaging può rivelarsi uno strumento adeguato per l’analisi dei cibi.
27
Si tratterebbe di sensori ottici capaci di riconoscere il livello di salubrità del prodotto, rilevando nel dettaglio i valori nutrizionali di ciò che mangiamo e le sue proprietà chimico-biologiche e, di conseguenza, calcolare la qualità della nostra alimentazione sulla base di dati periodici.
2) In ambito chimico-farmaceutico questa tecnologia verrebbe applicata all’analisi dei medicinali, per poterne analizzare le proprietà curative e la loro legalità, aumentando sia il controllo sugli effetti collaterali, sia sulle pratiche di doping. 3) Questa applicazione è connessa all’argomento del self-driving, affrontato in precedenza all’interno di questo stesso paragrafo e consentirebbe, quindi, di migliorare la qualità della guida da parte di un sistema artificiale o di assistere un individuo nella conduzione di un veicolo27.
4) Le grandi multinazionali che si occupano dello sviluppo di videogames si stanno decisamente muovendo in questa direzione collegata all’hyperimaging: vogliono fornire all’utente un livello di fedeltà e di adesione alla realtà sempre maggiore. Attualmente si raggiungono già dei risultati davvero notevoli, ma è una tendenza che potrebbere compiere un decisivo passo in avanti.
Il modo in cui si cerca di incrementare la qualità dell’esperienza del gaming nel futuro è mettendo insieme gli strumenti ad oggi disponibili per la cosiddetta “realtà aumentata” e l’hyperimaging tridimensionale, appunto. In questa maniera, si spera di consentire ai giocatori di provare non solo situazioni che simulino la realtà come mai prima d’ora, ma esperienze che nella vita quotidiana sono loro precluse, come vedere l’interno degli oggetti.
5) Ci si riferisce alla possibilità di assistere tramite questo tipo di software quei soggetti che, essendo non vedenti, hanno delle difficoltà nel muovere il proprio corpo in modo consono allo spazio che occupano. Questa tecnologia potrebbe fornire un supporto per un’idonea percezione dell’ambiente circostante
27 In particolar modo rilevando oggetti attraverso consistenti strati di nebbia o pioggia e la presenza
28
(specialmente nel caso di spazi caotici) e, naturalmente, per un maggiore benessere in rapporto alla situazione individuale.
6) Questo aspetto si lega chiaramente al discorso dei chatterbot come strumento diagnostico, ma sono presenti delle differenze fra i due sistemi.
Infatti, mentre nello scorso paragrafo si descriveva un procedimento di stampo più cognitivo, in base al quale il software doveva riconoscere i sintomi di disturbi mentali tramite l’analisi di ciò che esprimeva l’interlocutore, nel meccanismo trattato adesso è mediante una messa a fuoco di tipo visivo che si cercano i segni di eventuali disordini psichici. Pertanto, nel primo caso si è più soggetti all’errore e ad incorrere in valutazioni fuorvianti, mentre in questa proposta futura si svolge tutto seguendo schemi fissi e ricorrenti.
Sia chiaro, non si desidera sostituire una tecnologia da sviluppare in seguito con i mezzi attualmente in uso per ottenere lo stesso scopo, quanto piuttosto integrare lo speech recognition di tipo già noto con un originale supporto visivo avanzato, che sia capace di riconoscere pattern grafici (anche parole scritte a mano) e avvertire circa l’individuazione di tracce peculiari in psicosi, schizofrenia e depressione. È evidente come da questi sistemi possano derivare notevoli guadagni di tempo in termini di diagnosi precoci delle patologie psichiatriche.
7) L’analisi di quantità enormi di dati e delle connessioni tramite cui essi sono intrecciati tra di loro è uno dei progetti più ambiziosi da portare a compimento tramite le intelligenze artificiali dell’hyperimaging.
L’idea di fondo è quella del macroscopio: come mediante i microscopi e i telescopi si riescono ad osservare, rispettivamente, oggetti molto piccoli e molto lontani, con i macroscopi si vogliono catturare dettagli celati in spazi geologici e digitali. Nello specifico, il macroscopio dovrebbe riuscire a elaborare sia le informazioni derivate dall’osservazione del nostro pianeta da un punto di vista fisico, sia quelle carpite dalla trasmissione di dati tramite dispositivi elettonici.
Questo strumento ci renderebbe muniti della possibilità di organizzare le nozioni riguardanti lo stato di salute della Terra, i cambiamenti climatici a livello globale,
29
lo stato delle risorse energetiche e alimentari; ma anche quelle circa le condizioni politiche, sociali ed economiche dei Paesi.
Insomma, si aspira ad una tale profondità di osservazione analitica in quanto si ritiene che in questa maniera sia fattibile comprendere maggiormente il mondo che abitiamo, conoscendo i legami che si instaurano senza sosta fra persone, cose e luoghi.
8) I sistemi artificiali che verranno proposti prossimamente riguardano in particolar modo l’ambito medico delle nanobiotecnologie, nel quale l’hyperimaging può ricoprire un ruolo davvero di prim’ordine.
L’obiettivo è quello di riuscire a vedere concretamente ad un livello più profondo di quanto siamo in grado di fare tramite i mezzi di cui disponiamo oggigiorno e, per arrivare a questo traguardo, si sta lavorando alla costruzione di chip ottici che ci permettano di osservare il nostro corpo ad un livello di grandezza davvero minimo; nei progetti più promettenti stiamo parlando di rilevamenti effettuati nell’ordine di nanometri.
I pregi che potrebbero provenire da queste tecnologie riguardano la precisione delle scansioni interne dell’organismo, il fatto che esse siano misure preventive per nulla invasive e, infine, la possibilità di utilizzare questi nuovi strumenti abbinandoli ad altri dispositivi28, in maniera tale da avere in tempo reale i dati necessari a comporre
un quadro clinico completo.
9) L’inquinamento ambientale è certamente uno dei temi di maggior interesse a livello globale, pertanto si stanno progettando dei sensori che opportunamente inseriti nel sottosuolo o all’interno di droni automatici, possono sfruttare la potenza dell’hyperimaging per rilevare tracce di sostanze tossiche altrimenti impercettibili con i mezzi ad oggi disponibili.
Nello specifico, si tratta di sistemi artificiali che raccolgono informazioni riguardanti lo stato di salute di terreni, acque e atmosfera per poi trasmetterle ad un
28 In particolare, si conseguono buoni risultati abbinando i chip visivi con smart watch e sleep
30
software realizzato al fine di elaborare questi dati e fornirci in breve tempo una descrizione chiara delle zone in cui è necessario intervenire. Inoltrre, questo stesso programma ha il compito di strutturare dei modelli ambientali tramite i quali poter tenere costantemente sotto controllo lo stato dell’inquinamento terrestre.
Insomma, mediante questa tecnologia, sarebbe possibile creare un’ampia rete di informazioni tramite chip che garantiscano un monitoraggio completo delle aree più delicate del pianeta.
31
3 Capitolo 3
Esistono le intelligenze artificiali?
3.1 Intenzioni.
Fino a questo punto l’approccio del presente elaborato è stato piuttosto descrittivo. Infatti, lo scopo delle prime due parti era quello di fornire (speriamo con chiarezza) un quadro generale, che includesse sia una trattazione dei fondamenti contemporanei dell’Intelligenza Artificiale, sia un’analisi delle prospettive classiche legate all’apprendimento automatico; ma essi non erano gli unici obiettivi. Pertanto, abbiamo proseguito il discorso esibendo alcuni risultati raggiunti, che ci sembravano rappresentativi dello stato attuale della ricerca in IA e svariati progetti, che si prevede di realizzare in un lasso di tempo relativamente breve, specificandone i contesti applicativi e la risonanza che potrebbero esercitare in termini di miglioramento scientifico/sociale sotto numerosi punti di vista.
Abbiamo tentato, dunque, di affrontare queste tematiche senza dichiarare apertamente le nostre convinzioni a riguardo, dando più spazio all’esposizione delle informazioni fondamentali, le quali ci servono ora come base su cui strutturare la nostra riflessione filosofica.
Quindi, in questo terzo capitolo, procederemo a “scoprire le carte”, assegnando valutazioni sia ai progetti tradizionali dell’Intelligenza Artificiale, sia ai programmi attuali, giustificando propriamente la nostra posizione di pensiero, che rappresenta il fulcro centrale di questo lavoro.
Per chiarezza allora, affermiamo fin da subito che la tesi da noi sostenuta ha uno specifico intento polemico e questa sezione è volta a spiegarne i motivi.
In particolare, mostreremo le ragioni per le quali non consideriamo legittimo utilizzare l’espressione “intelligenza artificiale” per indicare un certo tipo di macchina, bensì esclusivamente per fare riferimento a un ambito di studio. Ciò significa, in altre parole, che riconosciamo la presenza concreta di una complessa e
32
pluridisciplinare area scientifica che chiamiamo “Intelligenza Artificiale”, ma non crediamo che, ad oggi, vada attribuito lo statuto d’esistenza ad una particolare intelligenza artificiale29.
Prima di rendere manifeste le motivazioni delle nostre idee, però, introduciamo i due classici paradigmi filosofici dell’IA ai quali è possibile aderire.
3.2 L’Intelligenza Artificiale Forte.
Questa posizione è una delle due alternative fondamentali che si possono scegliere in Intelligenza Artificiale e, come si intuisce dal nome, rappresenta l’opzione che ripone maggior fiducia nei progetti dell’IA, ma soprattutto è quella che ad essi attribuisce un significato enorme.
Sia il computazionalismo, sia il connessionismo (descritti all’inizio del presente lavoro) possono essere considerate due proposte metodologiche afferenti alla Strong Artificial Intelligence, appunto.
L’assunto fondamentale dell’IA Forte è che, utilizzando i mezzi adeguati30, non si
è in grado semplicemente di ottenere degli strumenti funzionali allo studio della mente umana o alla sua simulazione, ma si può di fatto realizzare una mente artificiale, in modo tale da rendere la macchina un qualcosa di pensante e intelligente a pieno titolo.
Ora, si comprende bene come questo presupposto carichi di aspettative e di significato i lavori in Intelligenza Artificiale, nonostante non si possieda una definizione univoca in grado di stabilire cosa sia o no una “mente”, dando per assodato che essa non coincida esattamente con il cervello.
Insomma, si tratta di un paradigma audace che, tra l’altro, è stato cronologicamente il primo a svilupparsi: poiché erano i sogni iniziali dell’IA, le aspirazioni non si tenevano a freno e puntavano a vette davvero ambiziose.
29 Si intende affermare che non esiste un qualcosa a cui l’etichetta “intelligenza artificiale” sia
applicabile: nessuna macchina, nessun oggetto e nessun programma informatico.
30 Programmi o reti neurali artificiali a seconda che si sostenga, rispettivamente, funzionalismo o
33
Più tardi ci si è resi conto che forse ridimensionare le attese sarebbe stata una mossa, questa sì, intelligente.
3.3 L’Intelligenza Artificiale Debole.
Si giunge così all’altra concezione principale dell’IA, cioè quella che viene denominata debole.
Essa si contrappone alla prima opzione esaminata, in quanto i suoi sostenitori non credono che sarà mai possibile costruire una macchina intelligente, ovvero una mente artificiale, in laboratorio.
Quel che al massimo si può ottenere in questo campo sono, secondo tale prospettiva, degli strumenti mediante i quali si possono sia studiare e simulare alcuni (attenzione, soltanto alcuni) dei processi che vengono svolti dalla mente umana, sia corroborare con un elevato grado di rigore alcune ipotesi pensate dall’uomo. Si può notare, quindi, come in questa versione weak dell’Intelligenza Artificiale sia assente tutta una serie di convinzioni riguardanti le condizioni di possibilità delle macchine che, invece, sono sottintese nel caso della concezione strong.
Si tratta di idee che concernono soprattutto il machine learning, ma che sfociano in un territorio ulteriormente complesso e connesso al primo; ed è all’interno di esso che ci si presentano temi cruciali come, ad esempio, quello della coscienza, della comprensione, dell’autoconsapevolezza e della creatività/originalità, tutte intese come caratteristiche e operazioni coinvolte nel mondo delle macchine.
L’esempio più rappresentativo della diffidenza che i sostenitori della Weak Artificial Intelligence nutrono circa la plausibilità di realizzare questi processi in una macchina e, in generale, nei confronti del modello Forte dell’IA, è forse l’esperimento mentale della “Chinese Room”, proposto con intenti polemici da John Rogers Searle.
3.3.1 La Stanza Cinese.
La situazione immaginata da Searle è la seguente: pensiamo di essere chiusi in una stanza e dall’esterno qualcuno ci consegna un foglio pieno di ideogrammi cinesi
34
che noi non comprendiamo, poiché non abbiamo alcuna conoscenza della lingua cinese.
Poi, ci viene dato un secondo foglio scritto in cinese, ma con in allegato un insieme di regole, espresse nella nostra madrelingua, che suggeriscono come mettere in relazione i due fogli.
Infine, riceviamo un terzo ed ultimo foglio, anch’esso scritto in cinese, con allegate le istruzioni per otttenere simboli cinesi coerenti con gli altri fogli di cui disponiamo.
A questo punto, siamo in possesso rispettivamente di un alfabeto, di una storia e di una serie di domande riguardanti la storia. Inoltre, le indicazioni scritte nella lingua che conosciamo costituiscono il nostro “programma”, pertanto abbiamo tutto il necessario per rispondere ai quesiti del terzo foglio e instaurare un dialogo in cinese con chi si trova fuori dalla stanza.
In linea teorica, chi è situato all’esterno del nostro spazio non potrebbe sapere che siamo ignoranti di cinese, in quanto i risultati sarebbero convincenti nonostante la mancanza da parte nostra di un’interpretazione consapevole dei simboli. Infatti, sia la ricezione degli ideogrammi cinesi presenti sui fogli, sia la scrittura di nuovi simboli verrebbero redatti in modo automatico, esclusivamente tramite una manipolazione formale regolata dal programma di cui siamo stati dotati insieme alle parti scritte in cinese.
Cosa vuole dimostrare Searle proponendo questo scenario? Egli ha come obiettivo polemico il Test di Turing, inteso come discriminante per decidere se una macchina possa manifestare o meno una forma d’intelligenza dello stesso tipo di quella presente nell’uomo.
In altri termini, Searle si oppone all’Intelligenza Artificiale Forte, ponendo su due livelli distinti il piano della comprensione effettiva (intelligente) di qualcosa e quello della mera manipolazione simbolica (meccanica) guidata da un protocollo che bisogna seguire per raggiungere un certo risultato.
Insomma, non basta sostenere decentemente una breve conversazione per rendersi credibili in merito alla propria intelligenza ed essere pensanti in senso proprio (sia