• Non ci sono risultati.

Sinistrainrete Archivio di documenti e articoli per la discussione politica nella sinistra

N/A
N/A
Protected

Academic year: 2022

Condividi "Sinistrainrete Archivio di documenti e articoli per la discussione politica nella sinistra"

Copied!
5
0
0

Testo completo

(1)

Sinistrainrete

Archivio di documenti e articoli per la discussione politica nella sinistra

Search ...   SearchSearch

 

Vuoi iscriverti alla Newsletter?

Clicca per scegliere la lista Name

E-mail

Receive Text HTML

Subscribe Subscribe

Ultimi articoli in evidenza

Tommaso Baris: Violenti desideri

Salvatore Bravo:

Dialettica e domanda filosofica all’epoca del turbocapitalismo Francesco Bolici: Come ti spiego i Bitcoin al Cenone di Natale Guglielmo Forges Davanzati:

L’irrazionalità del neomercantilismo Riccardo Achilli: La battaglia anti-euro è ancora

possibile/auspicabile?

Avviso

Ricordiamo agli utenti che gli articoli possono essere inviati per email, stampati e salvati in formato pdf cliccando sul simbolo dell'ingranaggio in alto a destra dell'articolo (nel menù a tendina la voce "Stampa" o "Print" consente sia di stampare che di salvare in pdf).

Details

C  Created: 26 December 2017

<  Hits: 1

Ripensare l’Intelligenza Artificiale

di Nicola Nosengo*

Algoritmi come cervelli umani: promesse e illusioni del deep learning, la tecnica che ha rivoluzionato il campo

Come l’inverno dello scontento di cui parla Riccardo III

nell’omonimo dramma shakespeariano, anche l’inverno

dell’intelligenza artificiale si è oramai trasformato in una gloriosa estate. È stato un inverno freddo e lungo. Magari non trent’anni, come la guerra delle Due Rose a cui allude Riccardo, ma a chi lavora in quel settore sembrava comunque non finire mai. La metafora non ce la siamo inventata, nell’ambiente si dice proprio così: “AI winter”, il periodo in cui gli investimenti sull’intelligenza artificiale erano ai minimi storici, il pubblico si era stufato di promesse strombazzate e non mantenute, e molti tra gli stessi ricercatori dubitavano che il loro lavoro andasse mai da qualche parte. Per la precisione di inverni ce ne sono stati due, uno alla fine degli anni Settanta e un altro, il più rigido, tra la

Seguici anche sui social!

                

 

Potere al popolo!

ABBIAMO ACCETTATO LA SFIDA! 

Costruiamo una lista popolare per le prossime elezioni politiche!

Resoconto assemblea di presentazione all'AMBRA jOVINELLI della lista POTERE AL POPOLO

Ulteriori indicazioni e i prossimi appuntamenti territoriali li trovate:

Qui, Qui 

 Qui

Potere al popolo - Padova

in evidenza marxismo crisi mondiale europa analisi di classe teoria filosofia politica neoliberismo globalizzazione politica italiana politica economica lavoro sinistra radicale cultura mondo/imperialismo geopolitica

ecologia e ambiente società storia finanza/moneta spesa pubblica teoria economica keynes note

i più letti da sempre

8  

1 / 6

058509

(2)

Maurizio Ricciardi:

Tempo, ordine, potere Roberto Villani: Potere al popolo, il fronte anticapitalista e l’unità dei comunisti Alessandro Somma:

L’Europa tedesca sempre più irriformabile Panagiotis Grigoriou:

Asimmetrie

Ascanio Bernardeschi:

Lenin per l’oggi: la centralità della politica contro i piloti automatici Sebastian Torres:

Argentina 2017.

Violenza neoliberale e trasformazione dello Stato

Andrea Fumagalli e Gianluca Giannelli: La parabola del Bitcoin Alessandro Visalli:

Domenico Losurdo, “Il marxismo occidentale”

Alexander Rabinowitch:

Come hanno vinto i bolscevichi

Moneta Fiscale, le bugie di Bankitalia

Michael Löwy: Marx e la Rivoluzione francese; la

"poesia del passato"

Renato Curcio: La società artificiale Damiano Palano:

Sinistra senza popolo Franco La Cecla: Chi scrive è un maschio Jean-Luc Debry: Il meraviglioso mondo del lavoro deregolamentato Salvatore Bravo: Il più impolitico e capitalistico dei gesti: il selfie Luca Grecchi:

Educazione classica:

educazione

fine degli Ottanta e la prima metà dei Novanta. Ma le temperature sono rimaste bassine anche dopo, se è vero che ancora nel 2012 il fisico David Deutsch scriveva, nei primi paragrafi di un suo saggio pubblicato su Aeon, che “il tentativo di ottenere un’intelligenza artificiale generale non ha fatto alcun progresso durante sei decenni di esistenza”.

Quanto sembra lontano, quel gelo. Ora i successi dell’intelligenza artificiale riempiono le pagine dei giornali, spazi pubblicitari compresi:

avete notato quante case automobilistiche o produttori di telefonini si vantino nei loro annunci di avere una qualche forma di intelligenza artificiale a bordo dei loro prodotti? Qualche anno fa l’effetto sarebbe stato comico, ora è già cliché. E ai successi si accompagnano i timori: quelli relativi all’impatto che queste tecnologie avranno sull’occupazione, o al modo in cui gli algoritmi condizionano il dibattito pubblico con i loro bias più o meno espliciti.

Il sole di York che ha spazzato via l’inverno della AI è il deep learning, una varietà di intelligenza artificiale che in realtà affonda le sue radici proprio in quei freddi anni Novanta, ma che solo negli ultimi anni è fiorita, accumulando primati scientifici e applicativi. Ha tanto successo che sta eclissando gli approcci alternativi, e porta qualcuno a chiedersi se il settore dell’intelligenza artificiale non stia rischiando troppo, mettendo tutte le uova nello stesso paniere. Nello specifico, non stia rischiando una nuova overdose di promesse impossibili da mantenere, che porterebbero dritti verso un nuovo inverno.

 

L’alba del deep learning

Per cominciare, un piccolo riassunto. Un sistema di deep learning è una rete neurale con molti, molti strati nascosti. Ovvero: è un sistema informatico che imita alcuni aspetti della struttura del cervello umano, con una rete di unità, o neuroni artificiali, collegate tra loro con connessioni, proprio come i neuroni veri sono collegati da sinapsi. Ogni nodo riceve un segnale in entrata, lo modifica, lo trasmette ad altri nodi, che a loro volta fanno lo stesso. I nodi della rete non sono programmati in nessun modo, non sanno nulla del compito che devono svolgere. Semplicemente, la rete riceve un input (per esempio, la foto di un gatto) e deve restituire un output (scrivere “gatto” nella didascalia). All’inizio, non ne azzecca una. Ma ogni volta che sbaglia, riaggiusta le connessioni tra i suoi nodi (ovvero il modo in cui ogni neurone artificiale modifica e trasmette ad altri il suo segnale), e ci riprova, fino a che l’output non si avvicina a quello atteso.

Fin dagli anni Novanta si è capito che le reti neurali potevano funzionare molto meglio se costruite a strati: tra i neuroni che ricevono l’input esterno e quelli che devono produrre l’output si inseriscono tanti, tantissimi strati nascosti di neuroni, ognuno con regole diverse (ovvero, una diversa funzione matematica che ne regola il funzionamento). Ogni strato riceve il segnale dallo strato precedente, lo filtra e lo passa allo strato successivo. Come nel gioco del telefono senza fili, solo che in questo caso la precisione dell’informazione aumenta con il numero di passaggi, anziché diminuire.

Un sistema di deep learning è un sistema informatico che imita alcuni aspetti della struttura del cervello umano, con una rete di unità collegate tra loro con connessioni.

Questa è una rete “deep”, profonda, e la tecnica con cui tipicamente viene addestrata è la backpropagation. Si prendono gli ultimi neuroni, quelli che danno l’output (“gatto!”) e si misura di quanto hanno sbagliato rispetto al risultato atteso (c’è differenza tra scambiare per gatto una lince o una balena). Da quelli si procede all’indietro. Per ogni strato di neuroni sottostante si calcola quanto ha contribuito a quell’errore, in base alla struttura matematica della rete. Arrivati in fondo, si riaggiustano tutte le connessioni in modo proporzionale al loro contributo all’errore. Poi si ricomincia: nuovo input, nuovo output, nuovo errore, nuova propagazione all’indietro. Ripetere per

Dic 7 GIO

Padova - Potere al Popolo!

Seconda Assemblea Territoriale

20:30 · Via Domenico Piacentino, 27, 35135 Padova PD, Italia

Ultime note pubblicate

Moreno Pasquinelli:

"Potere al popolo"...

Quale popolo?

Antonino Infranca:

Marx rivisitato. Un contributo dall’America Latina

Francesco Piccioni:

L’automazione manda in disoccupazione anche gli avvocati…

Militant: Spot elettorali e supporto mediatico al neofascismo

Alessandra Ciattini:

L’anarchia selvaggia di Pierre Clastres Alessandro Avvisato:

Padoan scarica la Boschi (e Renzi) Claudio Zanetti: Il fenomeno bitcoin:

cerchiamo di capirci qualcosa

Sossio Giametta: La religione come selfie Militant: Il fascismo come fonte di legittimazione (come volevasi dimostrare) Collettivo Clash City Workers: Le nuove politiche attive Aldo Giannuli: Etruria:

tanto tuonò che piovve Federico Rucco: Potere al popolo. La sfida è accettata e sarà

“militante”

Alessandra Daniele:

Viale del Cazzaro Checchino Antonini:

Potere al popolo! Si

2 / 6

Codice abbonamento:058509

(3)

conservatrice?

Nancy Fraser:

Contraddizioni del capitale e del ‘lavoro di cura’

Glenn Greenwald: Così una fake news della CNN su Wikileaks raggiunge milioni di persone

Marta Fana e Davide Villani: Perché la rivoluzione tech non spiega i bassi salari italiani

Il Pedante: Il punto della concentrazione Michele Castaldo:

Elezioni e “Potere al popolo”

Lucio Gobbi: “Austerity vs Stimulus”

Christian Laval:

Neoliberalismo, concorrenza, volti dell’insubordinazione Militant: Mitologie criminali, distorsione della realtà e fascinazione mafiosa:

Suburra (la serie) Dante Lepore: Il nodo ecologico nel marxismo del XXI secolo Antonio Caronia: Sulla Teoria delle Catastrofi Sandro Vero: Le passioni fra processi di soggettivazione e macchine Sandro Dell’Orco:

Socialismo reale, Scuola di Francoforte, arte letteraria

Cristina Cecchi:

L’origine della diseguaglianza. Da Rousseau al Paleolitico Maurizio Franzini:

Amazon e il capitalismo senza profitti

qualche milione di volte e il gioco è fatto.

Perché funzioni però ci vogliono due cose che negli anni Novanta non erano ancora in vista: grande potenza di calcolo, come quella oggi garantita dalle Graphic Processing Unit (i potenti processori sviluppati inizialmente per i videogiochi, diventati ferri del mestiere della computazione più avanzata). E poi enormi quantità di dati da dare in pasto alla rete come esempi, che oggi si possono immagazzinare su un hard disk portatile ma ancora venti anni fa richiedevano intere stanze. Grazie a questi sviluppi, i sistemi di deep learning hanno avuto enorme successo nel riconoscimento delle immagini, per esempio aiutando i motori di ricerca a riconoscerne il contenuto e indicizzarle. Ancora, è al deep learning che dobbiamo il rapido progresso della traduzione automatica, per cui le traduzioni di Google Translate da un paio d’anni non sono più comiche come un tempo, anzi sono in media decisamente buone.

 

Vincere a Go

Il successo più eclatante del deep learning lo dobbiamo però a DeepMind, società del gruppo Google, e al suo AlphaGo, un sistema di deep learning che fa solo una cosa: gioca a Go, antico gioco da tavola cinese in cui si dispongono pedine bianche e nere su una scacchiera, e si muovono con lo scopo di circondare le pedine avversarie. Quando ci riesci, la mangi. Alla fine della partita (di solito, molte ore dopo), quando nessuno dei due giocatori ha più mosse utili, vince chi controlla la parte più grande di scacchiera. Nella semplicità delle sue regole, Go è un gioco di enorme complessità matematica.

Molto, molto superiore a quella degli scacchi, tanto è vero che, mentre Deep Blue già nel 1996 batteva Kasparov, GO è stato a lungo considerato un banco di prova e un obiettivo irraggiungibile per l’AI.

Fino alla primavera del 2016, quando AlphaGo ha battuto Lee Sedol, mega campione coreano, al meglio delle cinque partite. Per allenarsi, Alpha Go aveva digerito migliaia di partite giocate da umani, imparando da solo sia le regole, sia la strategia.

Vittoria sorprendente e giustamente celebrata, ma con un limite:

l’apprendimento di AlphaGo era del tipo “supervised”, basato sulla disponibilità di un grande database di esempi opportunamente etichettati (mosse vincenti, mosse perdenti, partite dove ha vinto il bianco o il nero, e così via). “In questo senso non c’era molto di nuovo in AlphaGo” spiega a Il Tascabile Marco Zorzi, professore di psicologia all’Università di Padova e tra i maggiori esperti italiani di intelligenza artificiale. “Quel tipo di apprendimento esiste in letteratura fin dagli anni Novanta, qui c’è solo più potenza di calcolo e più dati. Oggi si arriva a mettere in fila 100 strati nascosti di neuroni, cosa folle da pensare quindi anni fa”.

Perché il deep learning funzioni servono due cose che negli anni Novanta non erano ancora in vista: grande potenza di calcolo ed enormi quantità di dati.

Il fatto è che non tutti i problemi del mondo offrono un catalogo di dati su cui imparare, paragonabile all’archivio di milioni di partite che AlphaGo ha potuto digerire prima di battere Lee. Un bel passo avanti è arrivato però qualche settimana fa con una nuova versione, AlphaGoZero, basata stavolta sul cosiddetto reinforcement learning.

Questa volta, cioè, il sistema sapeva le regole del gioco dall’inizio (che d’altronde è come un umano impara a giocare), ma ha imparato giocando contro se stesso e basta, senza esempi di partite reali giocate “come si deve” dagli esseri umani. Semplicemente, riceveva un “premio” ogni volta che vinceva una partita.

“Stavolta si tratta di un tipo di apprendimento molto plausibile in senso psicologico” spiega Zorzi. “È un po’ come nei famosi

esperimenti di Skinner, in cui il topo scopre che schiacciando la leva gli arriva una pallina di cibo. Si rinforzano le azioni che hanno prodotto una ricompensa, anziché indicare esplicitamente quale è la risposta corretta”.

Nel giro di tre giorni, AlphaGoZero era arrivato al livello “Lee Sedol”, ovvero poteva battere la sua versione precedente del 2016. Nel giro

parte, davvero. Ecco il simbolo

Michele Raitano:

Allungamenti equi ed efficienti

Lorenzo Vita: Putin adesso punta la Nord Corea

Quarantotto: Al riparo dal processo elettorale Giorgio Cremaschi:

Fiscal Compact e povertà di massa: il regime d'usura dell'UE e i suoi complici Giovanna Cracco:

Democrazia digitale Dante Barontini:

#Poterealpopolo, la passione delle cose ragionevoli

Francesco Gesualdi: La democrazia in mano a tre manager

I Diavoli: Star Wars 8:

raccontare per non morire

comidad: Stagnazione, finanziarizzazione e colpevolizzazione Roberto Finelli: I germogli della nuova società

Costantino Leoni:

Nepal, il popolo scarica Modi e abbraccia la Cina Xi Jinping Paolo Bagnoli: In assenza del socialismo Andrea Ventura: La scalata del Monte dei fiaschi

Giorgio Mascitelli: La via reputazionale alla selezione

Giampiero Venturi:

Gerusalemme capitale di Israele?

Girolamo De Michele:

Ilva is a killer Alberto Fazolo: Gli avvoltoi atlantici tornano a volteggiare sui Balcani

Alessandro Barile: Il fallimento europeo visto dagli altri Silvia Ribeiro: Il business climatico Giorgio Cremaschi: 12 dicembre 1969: strage fascista, di stato, della NATO, ricordiamolo sempre

Militant: Come si racconta la mafia Bill Mitchell: I Tory britannici rifiutano il mito neoliberista del

“libero mercato”

3 / 6

058509

(4)

stagione politica Fabrizio Marchi:

Elezioni, conflitto sociale e sovranità nazionale

Samuele Mazzolini: La faglia destra-sinistra è morta in Italia Mimmo Porcaro: L’etica di Lenin (ed altre note sul ’17)

Dani Rodrik: Il difetto fatale del neoliberismo:

è un modello economico scadente

Elmar Altvater:

Benvenuti nel Capitalocene!

Norbert Trenkle: La corsa alla produttività e la distruzione della produzione di valore Militant: Sinistra ed elezioni, la traversata nel deserto è appena iniziata

Giacomo Gabbuti: Ricchi per caso. La parabola dello sviluppo italiano Ascanio Bernardeschi:

L'economia della rivoluzione Massimo D’Angelillo:

Ricominciare da Keynes?

Peter Frase: Quattro futuri, la vita dopo il capitalismo

Moreno Pasquinelli: Je so' pazzo: l'esercito dei sognatori

Il Pungolo Rosso:

Intorno al patto di Abidjan. Immigrazione, Africa, Europa Francesco Biagi: I Paria urbani fra le due sponde dell’Atlantico

Pierluigi Fagan: Il "Che  

Scontro tra modelli

La vittoria a Go cementa ulteriormente la posizione dominante del deep learning tra le scuole di intelligenza artificiale (e quelle di Deep Mind sul relativo mercato). Ma è davvero questa la strada per l’agognata Intelligenza Artificiale Generale, capace non solo di risolvere brillantemente un problema ben definito, come un gioco da tavola, ma che sappia trovare una strategia per affrontare situazioni nuove e impreviste? Da un vero assistente personale, software o robotico che fosse, ci aspettiamo esattamente questo, vorremmo che capisse le nostre intenzioni, riconoscesse le sfumature nelle situazioni, sapesse consigliarci o aiutarci nella vita quotidiana.

Insomma, che pensasse un po’ come noi.

Qui iniziano i problemi. Come spiega a Il Tascabile Giovanni Pezzulo, ricercatore all’Istituto di Scienze e Tecnologie Cognitive del CNR di Roma, un grande spartiacque divide i sistemi di intelligenza artificiale e la stessa comunità di ricerca. “Questo mondo si divide tra approcci basati su model based (basati su modelli, ndr) e model free (privi di modelli), e quasi tutti i successi del deep learning si basano su un approccio model free” spiega il ricercatore. Noi esseri umani (ma vale per la maggior parte degli animali) affrontiamo i fenomeni affidandoci a modelli che ci permettono di interpretarli. Per esempio, abbiamo una fisica intuitiva e una psicologia intuitiva che ci permettono di prevedere la traiettoria di un oggetto che cade, o di aspettarci che una persona reagisca in un certo modo se le diamo un pugno. Se poi questi modelli siano (in parte, in tutto, per niente) innati oppure appresi, è questione dibattuta. Ma di sicuro li abbiamo, e quando impariamo non ci limitiamo a memorizzare esempi di un fenomeno fino a dire “nella maggior parte dei casi le cose vanno così” – che, semplificando molto, è quello che fa un sistema di Deep Learning.

Quanta differenza possa fare la presenza o assenza di un modello lo si vede persino nel settore in cui le reti neurali hanno avuto finora i maggiori successi: il riconoscimento di immagini. Joshua Tenenbaum del MIT si è divertito a far lavorare un sistema – generalmente molto efficiente – basato su reti neurali che assegna automaticamente didascalie a delle foto. Il sistema funziona benissimo il 99 per cento dei casi, ma diventa comico di fronte a foto di situazioni estreme, come quella che mostra gli istanti prima dell’incidente aereo del volo TransAsia nel 2015. All’immagine che mostra l’aereo fuori controllo, completamente inclinato sul fianco, che tocca con l’ala un ponte autostradale prima di cadere in un fiume, il sistema assegna la didascalia “un aeroplano parcheggiato sull’asfalto in aeroporto”.

Certo, c’è un aereo visto da vicino, c’è dell’asfalto, ma la situazione è tutt’altra. Un’altra foto che mostra una famiglia in fuga da una casa travolta da un’alluvione diventa un tranquillo “gruppo di persone sulla spiaggia”.

I modelli spiegano perché gli esseri umani siano, a parità di potenza computazionale, enormemente più efficienti delle macchine nell’imparare.

“La comprensione umana”, spiega Tennenbaum commentando questi errori, “comporta la creazione di una narrazione che spieghi ciò che viene osservato, basato su una fisica intuitiva e una psicologia intuitiva. La percezione, senza questi ingredienti, e senza nessi causali a tenerli assieme, porta a errori molto istruttivi. In molti casi, le reti neurali identificano bene gli oggetti in una scena ma non riescono a capire le forze fisiche in azione su di essi, gli stati mentali delle persone, o le relazioni causali tra gli oggetti. In altre parole, non costruiscono i giusti modelli casuali per spiegare i dati”. Oltre a produrre risultati comici in questi casi volutamente estremi, l’assenza di modelli è quella che impedisce a un sistema di AI di passare con naturalezza da un problema a un altro, per quanto simile. Per esempio, mentre un giocatore di Go in carne e ossa può facilmente giocare su un tabellone con più o meno caselle di quello ufficiale, AlphaGo va in panne se cambia il numero di caselle, e deve imparare

viva della politica Manlio Dinucci: Italia- Israele, la «diplomazia dei caccia»

Paul Craig Roberts:

L’America cammina verso l’Armageddon Marco Bersani: Quando il nemico è la

democrazia Aldo Giannuli: Piero Grasso e LE:

cominciamo bene!

Antonio A. Casilli: «I robot non rubano il lavoro. Siamo noi il cuore dell’algoritmo»

Felice Mometti: L’ombra lunga di una rivoluzione Carlo Clericetti: Basta un poco e il Fiscal compact va giù Federico Stoppa: Il cortocircuito tra sinistra e popolo sull’immigrazione Vincenzo Comito:

Aspettando il Minsky moment

Alessandra Daniele:

L’Uovo del Serpente ccw: Chi pagherà lo Stadio del(la) capitale?

Andrea Vento:

Honduras, il ritorno del Golpe Soave... in forma preventiva

Manolo Monereo:

Sinistra sovranista Redazione Contropiano:

“Potere al popolo”

lancia la sfida. Il manifesto

“Fine pena mai”

Federico Dezzani:

Gerusalemme capitale:

il Medio Oriente americano si è ristretto I Diavoli: Vite segrete dell’era digitale Davide Malacaria:

Cambia la capitale di Israele: “tempesta perfetta” in arrivo Gennaro Zezza: Quanti disoccupati?

Mauro Casadio: Potere al popolo? Il nodo della rottura con l’Unione Europea

Autori Vari: L’appello:

superare il Fiscal compact per un nuovo sviluppo europeo Giusi Greta Di Cristina:

Honduras, quel che è accaduto, quel che sta accadendo

4 / 6

Codice abbonamento:058509

(5)

fare?" di Carl Schmitt Quarantotto: Il ritorno allo "stato forte"?

L'innesco della globalizzazione ulteriore...

Noi Restiamo:

Alternanza scuola- lavoro

JeSo'Pazzo: Potere al Popolo! Una proposta di programma

Mimmo Cangiano: Il mito dell’autonomia intellettuale Tom Thomas: A proposito di "Populismo"

Steven Forti e Giacomo Russo Spena:

Puidgemont o Ada Colau?

Salvatore Bravo: Sul Trattato del ribelle di Jὒnger

Mimmo Porcaro e Ugo Boghetta: La sinistra Subbuteo e la vera partita del paese

Gli articoli in evidenza più letti degli ultimi tre mesi

Diego Angelo Bertozzi e Francesco Maringiò: Il Partito Comunista Cinese allo specchio (Hits 2820)

Pierluigi Fagan: Cina, un fatto fuori teoria (Hits 2248)

Silvia Vida:

Neoliberismo, biopolitica e schiavitù (Hits 1703) Elisabetta Teghil:

“Ritorno a casa” (Hits 1674)

Alain Badiou: Tredici

da capo.

Sempre i modelli spiegano perché gli esseri umani siano, a parità di potenza computazionale, enormemente più efficienti delle macchine nell’imparare. Un bambino impara a riconoscere i gatti dopo averne visti due o tre, non milioni. Impara a parlare in un tempo

sorprendentemente veloce. E i campioni di Go, quelli che ora AlphaGo umilia, sono diventati campioni giocando al massimo qualche migliaio di partite, non i milioni su cui si è addestrato il sistema di deep learning.

“Chi lavora a Deep Mind sa benissimo che servono i modelli, il problema è che nessuno è riuscito a farli lavorare bene: i sistemi senza modelli sono più efficienti” chiarisce Pezzulo. Ma sono anche opachi: fanno alcune cose molto bene, ma non sanno spiegare come.

O meglio (ma è la stessa cosa) chi li analizza non sa spiegare esplicitamente perché facciano una scelta anziché un’altra.  AlphaGo è imbattibile, ma se gli si chiedesse perché fa una certa mossa risponderebbe, se solo sapesse parlare: non capisco la domanda.

“Questo è un limite non solo per la plausibilità psicologica, ma anche per le applicazioni e l’accettabilità da parte degli utenti” secondo Pezzulo. “Un assistente medico o finanziario per esempio deve essere capace di spiegare le proprie ragioni”. Se una macchina mi dice di comprare certe azioni o di aumentare il dosaggio di una medicina, difficilmente lo accetterò senza chiedere “perché” come farei con un medico o un consulente finanziario. Ma anche un’auto senza pilota ha bisogno, per non causare incidenti e non investire nessuno, di modelli della realtà. Se non li ha, può scambiare il colore del posteriore di un TIR per il cielo e accelerarci dritto dentro, come ha fatto una Tesla in un incidente diventato un caso di scuola.

 

Altre opzioni

Le alternative ci sono. Per esempio c’è una famiglia di algoritmi che va sotto il nome di machine learning probabilistico, o Bayesiano, dal nome della statistica ispirata al lavoro di Thomas Bayes, che calcola le probabilità a partire da ipotesi e conoscenze pregresse, e non solo misurando le frequenze di certi eventi nei dati osservati. Si tratta di reti neurali, o altri sistemi di calcolo, dotati di ipotesi e conoscenze pregresse sul mondo: modelli, appunto. Ipotesi che si possono inserire a priori, come fa il gruppo di Tennenbaum al MIT, ma così si apre il problema di quanti e quali modelli dare a un sistema di AI che abbia ambizioni di intelligenza generale. Oppure, ed è la strada più intrigante, si può fare in modo che la rete crei da sola i propri modelli.

È quanto fa il gruppo di Zorzi a Padova, lavorando in particolare con una famiglia di reti neurali chiamate macchine di Boltzmann.

Nelle macchine di Boltzmann, c’è un assetto che permette il salto verso l’apprendimento non supervisionato: quello in cui la rete se la cava davvero da sola.

Nelle reti classiche, Alpha Go compreso, il segnale va solo in avanti:

da un nodo all’altro, dallo strato che riceve l’input esterno a quello che produce l’output. Beh, in un tipo di reti, chiamate non a caso recurrent, c’è un po’ di feedback, ma niente di paragonabile al cervello, dove per ogni fascio di connessioni che collega una regione della corteccia a un’altra, c’è di solito un fascio altrettanto denso che torna indietro. Secondo molti psicologi e neurobiologi, questo permette al cervello di fare continuamente ipotesi su quello che sta per succedere: mentre vedo una scena, le zone superiori del cervello fanno già ipotesi su quello che sta per succedere, e le mandano ai neuroni che elaborano le percezioni, perché verifichino se la previsione era azzeccata, e rendano la prossima previsione più precisa. E così il cervello impara a far fronte velocemente a situazioni nuove. Nelle macchine di Boltzmann, invece, ci sono molte

connessioni “rientranti” tra i livelli superiori e quelli inferiori, un assetto che permette il salto verso l’apprendimento non supervisionato: quello in cui la rete se la cava davvero da sola, e riproduce almeno in piccola parte ciò che vediamo all’opera

comidad: Il

Dipartimento di Stato Usa, ovvero la fonte delle fonti

Fulvio Scaglione:

Gerusalemme capitale d'Israele

Angelo Baracca: Test missilistico della Corea del Nord

Lorenzo Vita:

Gerusalemme, così il piano di Trump può provocare una (nuova) guerra

Marina Boscaino e Renata Puleo: Le insanabili contraddizioni dell'Alternanza Scuola Lavoro

Salvatore Bravo: "L'uso politico dei paradigmi storici"

Carlo Formenti: Le fake news di Angelo Panebianco Manlio Dinucci: Le grandi opere del Pentagono a spese nostre

Andre Vltchek: Gli Stati Uniti genocidi

Damiano Palano: Il tradimento delle élite occidentali

Antonello Boassa:

L’Auschwitz della società dello spettacolo Biagio Bossone: Il futuro dell’Italia: come uscire dalla crisi?

ilsimplicissimus: Dal Mistyc River all’Honduras, storia di un tacchino all’americana Quarantotto: Lo scontento per disoccupazion€ e creazion€ di working poors è una minaccia per la "democrazia"?

Orazio Vasta: Catania.

#poterealpopolo Francesca Fornario:

Liberi e uguali, la sinistra di Grasso e quella che non si rassegna

Figure: Su Potere al Popolo. Assemblea di Padova

Franco Berardi Bifo: Se qualcuno ha l’indirizzo di Veltroni può inoltrare?

Fulvio Scaglione:

5 / 6

058509

Riferimenti

Documenti correlati

Si tratta del più popolare mariachi italia- no che fa parte di un gruppo, creato anche questo in Italia, che porta il nome di 'Maria- chi Romatitlan' le cui origi- ni, come è

La ritroviamo, a un livello più generale, nella concezione (non definizione, ma obiettivo problematico) del diritto quale hominis ad hominem proportio, quae servata

Ma, raggiunto questo concetto antintellettualistico, per cui lo spiri- to ricomprende e stringe in sé tutto il reale come il suo stesso svolgi- mento o la sua vita, è chiaro che

Due sono i motivi principali che mi hanno spinta a scrivere questo articolo: anzitutto, ritengo che l’importanza dei fatti della Jasic all’interno del movimento operaio

In particolare, il deficit energetico si è ridotto di quasi due punti percentuali di PIL in tre anni (fino all’1,4% nel primo trimestre 2016), grazie alla caduta delle

L’intelligence del marciapiede: la criminalità organizzata osservata attraverso le indagini Pag.. Cos’è l’intelligence

Questo manuale, pensato per i corsi universitari di Relazioni internazionali, è stato struttu- rato a partire dai temi fondamentali della disciplina: la politica estera,