• Non ci sono risultati.

Claude Shannon

Nel documento Intelligenza artificiale: i primi 50 anni (pagine 58-63)

2. Gli Automata Studies

2.1 Claude Shannon

Claude Elwood Shannon viene generalmente considerato il fondatore della teoria dell‟informazione di scuola americana. Il cuore della sua teoria risiedeva in una nuova concettualizzazione del termine “informazione”. Per rendere la teoria della comunicazione una disciplina scientifica, Shannon aveva bisogno di trasformare l‟informazione in un parametro fisico quantificabile, e ciò fu reso possibile tramite la distinzione semantica tra informazione e significato (meaning). Con “significato” Shannon intendeva il contenuto specifico di un particolare messaggio, mentre l‟“informazione” era il numero di messaggi che potevano essere trasmessi su un canale: maggiore era il numero di messaggi possibili, maggiori sarebbero state le informazioni trasmesse, perché si sarebbe potuti risalire al contenuto originale scartando più alternative.83

Sebbene gli studi sulla teoria dell‟informazione occupassero gran parte

59

della sua vita, Shannon ebbe sempre un grande interesse per la cibernetica e la teoria degli automi. Nato a Petoskey nel 1916, egli mostrò già da

bambino una certa predisposizione per la scienza, in particolare per tutto ciò che riguardava gli apparecchi meccanici, tanto da costruire, prima della maggiore età e con materiali di fortuna, una nave giocattolo telecomandata e un telegrafo.84 Cresciuto con i miti di Edison, Newton, Darwin ed

Einstein, nel 1938, all‟età di ventidue anni, venne assunto come assistente da Vannevar Bush.

Nel 1931, Bush aveva progettato l‟analizzatore differenziale, in grado non solo di sommare e moltiplicare numeri, ma anche di risolvere equazioni differenziali tramite l‟utilizzo di alberi rotanti come dispositivi per l‟integrazione, rendendola una delle prime macchine di calcolo a essere impiegate operativamente.85 La macchina di Bush era di fatto un calcolatore analogico, dal momento che la posizione angolare di un albero poteva assumere qualunque valore, e la precisione della macchina era limitata solo da quanto correttamente si potesse calcolare la loro posizione.

Ma anche se il cuore della macchina era meccanico e analogico, essa era controllata da un circuito digitale che faceva uso di relè elettromeccanici. Questo fatto diede a Shannon una forte intuizione: perché non rendere la macchina meno complessa, lasciando l‟elaborazione ai soli relè? Queste considerazioni lo portarono a dimostrare che si sarebbe potuto costruire,

84 Sloane, Wyner 1993: xi. 85 Hodges 2006: 207.

60

usando solo degli interruttori interconnessi che potevano essere accesi o spenti, una macchina a calcolo digitale capace di eseguire ogni possibile operazione numerica. Gli interruttori avevano il vantaggio di operare molto più velocemente rispetto alle ruote dentate precedentemente usate nelle macchine digitali. Ma dal momento che essi potevano assumere solo due posizioni (accesi o spenti), erano possibili solo due valori (0 e 1) per la rappresentazione digitale dei numeri, ed è per questo che inizialmente i calcolatori usavano l‟aritmetica binaria. Fu da questo momento che relè e interruttori presero a sostituire gli ingranaggi nelle operazioni di calcolo meccanico.86

Come visto nel precedente capitolo, Shannon iniziò presto a interessarsi ai calcolatori digitali, scrivendo articoli come Programming a Computer for

Playing Chess e instaurando nel frattempo una corrispondenza con Wiener

(che era stato suo professore al MIT) sull‟argomento.87 Nei primi anni

Cinquanta partecipò a tre conferenze Macy, dove presentò i risultati delle sue ricerche riguardanti la teoria dell‟informazione e quella degli automi; qui ebbe modo di conoscere McCulloch, Pitts, Walter, Bigelow e Mackay, uno dei fondatori della scuola inglese della teoria dell‟informazione che già in precedenza aveva compiuto delle ricerche sugli automi.88 Dopo aver partecipato alla conferenza Macy del 1949 in qualità di oratore, McCulloch

86 Crevier 1993: 11-12 87 Kline 2011: 6.

61

invitò Shannon a presenziare alle due successive come ospite. Nei loro scambi epistolari, Shannon scriveva che:

There is a considerable activity here (ai Bell Labs) in information theory, computing machines and other „Cybernetic‟ questions, and a fresh viewpoint is stimulating.89

La conferenza Macy del 1950 aveva come tema il linguaggio, e la teoria dell‟informazione di Shannon si occupava, tra le altre cose, della sua struttura statistica. Shannon fu accolto piuttosto positivamente dal gruppo dei cibernetici. Solo Pitts lo incalzò con domande di natura tecnica, mentre Wiener confrontò i risultati di Shannon con il suo metodo di previsione delle serie temporali.

Sempre nel 1950 fu la volta dell‟articolo Presentation of a Maze-Solving

Machine, in cui Shannon illustrava il funzionamento della sua ultima

creazione: si trattava di Theseus, un topo meccanico comandato da relè, la cui peculiarità era quella di riuscire a orientarsi nel labirinto in cui era stato posto. In Theseus, sia il “cervello” che i “muscoli” erano separati dal topo stesso e collocati sotto il labirinto. Il cervello era un circuito di circa 100 relè, e i muscoli costituiti da una coppia di motori guidati da un

elettromagnete che muoveva il topo attraverso il labirinto. Quest‟ultimo, costituito da 25 caselle, poteva essere modificato a piacimento: il topo

89 Tratto dai Warren McCulloch Papers 2 giugno 1949; la corrispondenza private di McCulloch è

62

avrebbe cercato, al suo interno, il posto arbitrariamente prefissato come obiettivo da raggiungere, riuscendo a orientarsi. Anche il topo poteva essere collocato in qualunque punto del labirinto; vagando per esso alla ricerca di un posto già conosciuto, avrebbe poi proceduto verso la meta,

immagazzinando le nuove conoscenze nella sua memoria.90 Per via di queste capacità, Theseus viene generalmente considerato uno dei primi dispositivi capaci di apprendimento.91

Sebbene il suo interesse primario fosse la teoria dell‟informazione (e tale sarebbe rimasto per tutta la vita), Shannon non abbandonò mai del tutto la cibernetica, tanto da scrivere, nel 1957 e su raccomandazione di Wiener, un lungo articolo per la prestigiosa Encyclopaedia Britannica avente come oggetto proprio la cibernetica. Nell‟articolo, veniva descritta usando la stessa definizione coniata da Wiener, ovvero come la “science of control and communication processes in both animal and machines”. Riguardo i confini tra cibernetica e teoria dell‟informazione, Shannon affermava che la cibernetica si “sovrappone” (overlaps) a campi quali la neurologia, la scienza dei calcolatori e la teoria dell‟informazione. Per Shannon, la cibernetica era “universale”, in quanto cercava di trovare le caratteristiche comuni a queste diverse discipline.92

L‟interesse di Shannon nei confronti della cibernetica aiuta a capire meglio i motivi che lo portarono, nei primi anni Cinquanta del secolo scorso, a co-

90 Shannon 1951: 681. 91 Sloane, Wyner 1993.: xiv 92 Shannon 1957: 916.

63

editare con McCarthy gli Automata Studies: evento fondamentale che convincerà quest‟ultimo a organizzare la Conferenza di Dartmouth del 1956.

Nel documento Intelligenza artificiale: i primi 50 anni (pagine 58-63)