• Non ci sono risultati.

L'Hypernudge: i Big Data come modello di regolazione by design

Nel documento Big Data, mercato e amministrazione pubblica (pagine 181-200)

La collezione dei dati digitali, personali e non, ed il loro massiccio impiego per il tramite della tecnologia dei big data pone alcuni profili problematici, non solo per i rischi della privacy degli individui precedentemente sottolineati, ma anche per il loro utilizzo volto a scolpire i processi decisionali individuali al fine di allinearsi agli interessi propri del mercato.

Tuttavia, ciò che non pare del tutto evidente, se non a rigor di logica, è che, nonostante la complessità e la macchinosità dei processi algoritmici sottesi al funzionamento dei big data, le loro applicazioni poggiano, da ultimo, su uno dei meccanismi regolatori di influenza by design: il nudge.

Arrivando a configurare il contesto di riferimento delle scelte a disposizione di un soggetto, solitamente grazie all’analisi inferenziale di flussi di dati provenienti da molteplici sorgenti, che pretendono di offrire previsioni sulle preferenze, le abitudini e gli interessi di gruppi specifici di agenti economici, questa peculiare modalità di nudging incanala le scelte dei regolati sul sentiero tracciato dall’architetto delle scelte43, attraverso processi

non invasivi né intrusivi, ma al tempo stesso estremamente efficaci.

La caratterizzazione delle tecniche di big data analytics, quali una forma di nudge, fornisce allo studioso la lente con la quale valutare le loro capacità persuasive e manipolative, nonché la loro dimensione legale e politica44.

Due sono i processi decisionali analitici improntati alla tecnologia dei big data che, essenzialmente, aiutano a comprendere come gli stessi si servano di particolari tecniche di nudging. Il primo è quello rispondente ad un processo decisionale automatico, che non necessita di un intervento

43 Cfr. R. H. Thaler, C. R. Sunstein, Nudge. La spinta gentile, op. cit., p. 9; K. Yeung, The

Forms and Limits of Choice Architecture as a Tool of Government, in Law & Policy, 38, 3,

2016, pp. 186-210.

umano al di là dell’input iniziale di fornitura dei dati rilevanti e, così, rappresenta una forma di regolazione by design di stampo coercitivo45.

Il secondo – di maggiore interesse per la nostra trattazione in questa sede – attiene, al contrario, ad un processo decisionale “guidato” digitalmente, nel senso che non è la macchina, bensì il regolato ad assumere la decisione effettiva. Queste tecnologie cercano di dirigere i meccanismi decisionali individuali verso indirizzi ritenuti ottimali da criteri algoritmici “sotterranei”, offrendo, quindi, all’utente suggerimenti in merito alle scelte preferite da parte dell’architetto delle scelte46.

Rovesciando la medaglia, nonostante il concetto sottostante al nudge sia di per sé semplice da comprendere, un processo decisionale “data- guidato” utilizza il nudge in maniera estremamente sofisticata.

Mentre diverse elaborazioni di regolazione by design ricorrono a forme statiche ed immediatamente eseguibili di intervento, in grado, cioè, di ovviare alla necessarietà dell’intervento umano, cosicché la risposta coercitiva sia automaticamente erogata una volta che il requisito standardizzato sia stato raggiunto – ciò le rende delle modalità di controllo

45 Si è trattato delle applicazioni pratiche dell’automazione dei processi decisionali del settore pubblico nel capitolo 2, § 1, cui si rimanda.

46 E. Selinger, T. P. Seager, Do apps that promote ethical behavior diminish our ability to make

just decisions? in Slate (blog), 13 luglio 2012. Disponibile su:

www.slate.com/technology/2018/03/the-deadly-uber-self-driving-car-crash-is-just-the- beginning.html.

grossolane ed indistinte47 –, al contrario, i big data offrono un modello di

nudge di stampo dinamico, in grado di aggiornare e rifinire costantemente lo stesso standard e la sua esecuzione. Il tutto avviene all’interno di un contesto in grado di immagazzinare i dati in tempo reale; vantaggio, questo, che può essere impiegato per “personalizzare” i risultati degli algoritmi. Le strategie regolatorie guidate dai big data operano, così, come un sistema digitale autosufficiente, in cui la triade del ciclo d’intervento regolatorio48

viene continuamente implementata attraverso un feedback ricorrente, il quale permette che vengano messe a punto in maniera dinamica sia la fase dell’imposizione dello standard ottimale, sia la fase della modificazione del comportamento. L’architettura delle scelte viene, dunque, ad essere riconfigurata in tempo reale in ulteriori tre direzioni: a) l’aggiustamento del contesto delle scelte individuali, in relazione ai cambiamenti dell’atteggiamento del regolato e dell’ambiente circostante, secondo quanto ritenuto rilevante dal regolatore nell’impostazione dell’algoritmo che tenga conto della continua espansione dei dataset utili alla profilazione; b) i riscontri sull’utilizzo dei dati che tornano all’architetto delle scelte e che possono, a loro volta, essere collezionati, stoccati e reimpiegati per utilizzi 47 Un esempio – in parte avulso dall’intento espositivo di questo elaborato, ma estremamente efficace – è quello dei delimitatori di velocità nei centri urbani, che impongono, indiscriminatamente per chiunque (anche per i mezzi di soccorso), l’atto coercitivo nel momento stesso in cui un veicolo sia costretto a rallentare e raggiunga lo standard della velocità massima consentita.

secondari; c) il monitoraggio e la definizione del parterre delle scelte individuali alla luce delle tendenze a livello collettivo, identificate tramite la sorveglianza e l’analisi a mezzo big data49.

In virtù di questa ricostruzione, il nudging “data-guidato” è discreto, non invadente e al tempo stesso estremamente efficace, dal momento in cui fornisce il risultato dell’attività di big data analytics in un contesto di scelte altamente personalizzato. Da qui il termine di “Hypernudge” che dà il titolo a questo paragrafo e al testo omonimo di Karen Yeung. L’hypernudge poggia su correlazioni, illustrate tramite appositi algoritmi, tra specifici oggetti d’interesse e banche dati che non potrebbero essere osservate facendo ricorso alla sola cognizione umana o alla tradizionale computazione informatica50. Conferire particolare rilievo al motivo illustrato, che faccia da

trama tra i dati, implica una risposta nel regolato che, analogamente a quanto avviene con la tecnica del priming51, flette la scelta informata dello

stesso secondo gli indirizzi modellati dall’architetto delle scelte.

Sebbene, come abbiamo già accennato, l’hypernudging si serva di un potere regolatorio “leggero”, esso è al tempo stesso estremamente potente. E dove risiede l’esercizio di una forma di potere, ivi risiedono anche potenziali rischi di abuso ed utilizzo spregiudicato. È inevitabile, allora, 49 K. Yeung, ‘Hypernudge’: Big Data as a Mode of Regulation by Design, cit., p. 8.

50 J. Shaw, Why “Big Data” Is a Big Deal?, in Harvard Magazine, 116 (4), pp. 30-35.

51 Con tale termine si intende l’effetto psicologico secondo il quale l’esposizione ad un determinato stimolo influenza la risposta a stimoli successivi.

interrogarsi sulla legittimità dell’hypernudge “data-guidato”, soprattutto in relazione alla conformità dello stesso allo sviluppo dei principi liberali di democrazia, nel rispetto dell’autonomia individuale. Bisogna, innanzitutto, partire dalla considerazione per la quale l’hypernudging sia in grado di operare nei confronti di un’indecifrabile moltitudine di soggetti simultaneamente52.

Un’inevitabile linea critica che emerga da tale ricostruzione non attiene, quindi, tanto alla efficacia, ormai riconosciuta, dei big data analytics, quanto piuttosto al ricorso ad una manipolazione latente degli stessi e celata ai più.

Le caratteristiche manipolative, talvolta palesemente ingannevoli, si manifestano a partire dal deliberato sfruttamento delle debolezze cognitive che pervadono il processo decisionale degli individui, sì da incanalare i comportamenti nelle direzioni ritenute preferibili dal regolatore.

Oltremodo, per i fautori del paternalismo libertario53, salvo che per

palesi casi di raggiro, non si pongono particolari problemi di legittimità, una volta appurato il rispetto delle previsioni in materia di consenso informato quando venga resa nota ai regolati l’intenzione dell’architetto delle scelte. Eppure, il binomio dell’informativa e del consenso in un network digitalizzato fallisce nel proprio intento, dal momento in cui difficilmente gli utenti si dimostrano in grado di comprendere o leggere con cognizione di causa il significato delle clausole online sulla privacy; intento che nient’altro 52 A differenza di quanto avvenga con l’installazione dei delimitatori di velocità, in grado

di colpire solo i veicoli che circolino in un determinato lasso di tempo. 53 Thaler e Sunstein in prima linea.

consiste che nel consentire l’interferenza dell’attività dei big data analytics con il godimento dei diritti fondamentali.

Gran parte di tali clausole rappresentano, oltretutto, un ulteriore esempio del fallimento del regime sulla trasparenza. Esse ruotano attorno alla finzione per la quale gli utenti intendano e siano in grado di contrattare per la loro privacy, oppure di esercitare opzioni di opt-out da servizi e accordi che ritengano eccessivamente intrusivi della loro riservatezza. Ma quand’è l’ultima volta che un consumatore/utente ha rinegoziato i termini di servizio in suo favore?54 La medesima prospettiva di rimodulare gli stessi,

per accedere ai benefici garantiti dall’accesso ad una piattaforma digitale o ad un network, va decisamente al di là degli intenti della maggior parte degli utenti55.

Le tecnologie digitali data-guidate rendono evidente una palese difficoltà avvertita dagli individui a resistervi, dal momento in cui si servano di una sottile persuasione anziché di un’indiscriminata e grossolana coercizione. Ciò vale tanto nel settore della regolazione quanto in quello dell’industria ICT, improntato ad un principio di sviluppo neo-liberale, ove le tecnologie legate ai big data offrono una miriade di soluzioni tagliate su misura e servizi altamente personalizzati che sono appositamente strutturati 54 D. J. Solove, Introduction: Privacy Self-Management and the Consent Dilemma, in Harvard Law

Review, 126, 2013, pp. 1880-1903.

55 F. Pasquale, The Black Box Society. The Secret Alghoritms That Control Money and

tramite algoritmi per rispondere nel modo più rapido, dinamico e discreto possibile.

Fin quando i regolati permettano di essere costantemente sottoposti in maniera pervasiva alle strategie di hypernudging improntate ai big data analytics, si fa sì che la relazione sussistente con i regolatori, in considerazione dei riflessi che questa abbia sul mercato, ripristini forme di collusione asimmetrica. Laddove gli output della regolazione by design investano un determinato settore di interesse commerciale, si crea un sistema collusivo in grado di massimizzare il beneficio di coloro che siano in grado di gestire e manipolare gli algoritmi, facendo all’apparenza l’interesse di quanti operino sul mercato. Attraverso la volontarietà degli utenti di sottoporsi alla continua sorveglianza assicurata dagli algoritmi, in cambio di servizi e di efficienza di “taglio sartoriale”, grazie all’ottimizzazione che i mezzi digitali sono in grado di raggiungere in tal senso, gli stessi partecipano ad un sistema collusivo che minaccia la salubrità del panorama competitivo. La costante brama di accesso a beni e servizi personalizzati, comporta, al pari di qualsiasi altra dipendenza, un detrimento nel lungo termine della massimizzazione dell’interesse economico degli agenti sul mercato56.

Sebbene si sia tentati di liquidare queste preoccupazioni sulla base della formula del rilascio del consenso informato, sostenuta dalla volontà di incorporare tali servizi nella vita quotidiana, lo stesso consenso sembra in qualche modo avvicinarsi di più ad una dipendenza compulsiva da gioco d’azzardo che ad un concetto liberale di autodeterminazione dell’individuo.

Per comprendere le implicazioni della rivoluzione “data-guidata” su cui ci stiamo imbarcando, dobbiamo lanciare il nostro sguardo oltre l’orizzonte della formula binaria dell’informativa e del consenso57. Prima di

soccombere alle attrattive della comodità e dell’efficienza che i big data decantano di offrire, è bene vigilare circa il loro potere regolatorio, che opera quale forma di controllo al tempo stesso estremamente potente e pervasiva, ma attuata tramite uno strumentario più vicino – perlomeno in principio – al quadro di riferimento del soft law. L’hypernudging modula il contesto informativo di riferimento secondo logiche che sono in definitiva estranee al controllo dei regolati e che erodono la loro capacità di autodeterminazione secondo un più ampio concetto di democraticità58. Il

rischio è quello di preferire la creazione di un sistema di scatole nere composta da algoritmi, in grado di filtrare la sfera della personalità, alla 57 Ecco che per la prima volta con il Reg. 2016/679, all’art. 22, si ribadisce il diritto dell’interessato di non essere sottoposto a decisioni basate unicamente sul trattamento automatizzato e la profilazione, che producano effetti giuridici che lo riguardino o che indicidano significativamente sulla sua persona. Sono fatti salvi i casi indicati dal comma 2 del medesimo articolo.

58 J. E. Cohen, Studying Law Studying Surveillance, in Surveillance & Society, 13 (1), 2015, pp. 91-101.

condivisione delle esperienze, diverse ed imprevedibili, che risultano essere essenziali per il fiorire del benessere individuale e della partecipazione democratica.

Se l’intento, invece, è quello di evitare la determinazione di vite anguste, vagliate alla luce degli interessi commerciali e demarcate “algoritmicamente”, allora è necessario stabilire dei confini più efficaci ed eseguibili nella pratica, entro i quali addomesticare gli eccessi dell’hypernudging “data-guidato”. Solo così si può assicurare un’indefettibile responsabilità sugli algoritmi che esercitano una sempre maggiore influenza sulle nostre vite, secondo indirizzi di genuina partecipazione democratica e di ristrutturazione dell’architettura delle tecnologie informatiche, di cui ogni giorno di più subiamo il fascino59.

CONCLUSIONI

L’intento di questo lavoro è stato quello di fornire una ricostruzione, sebbene parziale, di quali siano e potrebbero essere gli spazi di manovra nell’utilizzo dei dati e delle informazioni da parte della pubblica amministrazione alla luce del sempre più vertiginoso sviluppo tecnologico che investe, ormai, qualsiasi aspetto del mercato e della vita quotidiana di ciascuno.

Le pubbliche amministrazioni in Italia, che inevitabilmente si affaccino al progredire dei tempi e degli sviluppi informatici, sono sprovviste, la maggior parte delle volte, delle strumentazioni e del personale idonei a conseguire i numerosi obiettivi strategici di crescita digitale.

Questi pertanto rappresentano ancora, su più fronti, degli intenti meramente programmatici di non immediata attuazione. L’e-government descrive, in parte, una destinazione utopica per tanti uffici periferici, che si devono rapportare a scarsità di risorse economiche e infrastrutturali, le quali, a loro volta, contribuiscono ad accrescere il divario digitale con le amministrazioni più virtuose.

Ove la digitalizzazione, consistente nell’abbandono dei server fisici in favore dei sistemi cloud, segni davvero il passo del processo di trasformazione della macchina amministrativa, si apprezza un primo effetto

che consta nell’interoperabilità e nell’interconnessione delle banche dati pubbliche, consentendo, quindi, l’aggregazione di sempre più vasti volumi di dati. Si interpongono, a colpo d’occhio, in questo contesto le quattro “V” (Velocità, Varietà, Velocità e Veracità) con cui si tendono a tratteggiare le caratteristiche essenziali dei big data e non si può non constatare come, quando ciò avvenga, sussista un’indubbia interferenza degli stessi nel funzionamento e nell’espletamento della funzione pubblica.

Non solo i big data offrono uno spunto per innovare e reindirizzare l’efficacia dell’azione amministrativa, consentendo, oltretutto, di prevedere i comportamenti e le preferenze dei consociati e, così, riequilibrando gli interessi in gioco all’interno di uno specifico procedimento, ma presentano delle prospettive alternative per ripensare lo sforzo regolatorio.

In un panorama pienamente realizzato alla luce degli indirizzi programmatici di sviluppo tecnologico dell’apparato amministrativo, sorge l’esigenza della definizione di un modello di Open Government che tenga conto degli effetti dirompenti che i big data sarebbero in grado di arrecare alla regolazione sulla trasparenza. Alla luce di un’eventuale implementazione degli strumenti big data nell’armamentario infrastrutturale della pubblica amministrazione, una disclosure personalizzata potrebbe, allora, essere facilmente presa in considerazione anche nel nostro ordinamento. Ciò consentirebbe una migliore efficacia della divulgazione dell’informazione, la

quale raggiungerebbe i destinatari interessati senza disperdersi tra un pubblico indistinto e generalizzato. Certe informazioni, che siano oggetto di specifici obblighi informativi, oppure sottoposte al diritto di accesso esercitabile da parte dei cittadini, potrebbero essere più facilmente e precisamente recapitate se la disclosure fosse posta in essere da parte dell’amministrazione secondo un modello personalizzato sulla base dei big data. In tal modo la pubblica amministrazione sarebbe in grado di fornire determinate informazioni, ad esempio di carattere ambientale o sanitario, in tempo reale ad una cerchia ristretta di individui interessati, che abbia rilasciato il proprio consenso al trattamento dei dati personali (di geolocalizzazione o di consumo), sì da poter distinguere algoritmicamente gli stessi.

Si raggiunge, così, anche il duplice obiettivo di perseguire quello che è lo scopo primario della trasparenza amministrativa, ovvero lo sviluppo di una modalità di controllo sociale, che in tal sede sembrerebbe essere promossa grazie ad un dialogo privilegiato tra uffici pubblici e consociati. Il cittadino, interessato ad ottenere particolari informazioni con costanza da parte di un’amministrazione pubblica, a sua volta eserciterebbe la propria opera di verifica, sì da fungere da controllore sociale così come sancito dal dettato della legge. Questa ricostruzione, oltretutto, non fornisce uno schema di riutilizzo degli open data pubblici, né risulta essere un’ulteriore

forma di accesso ai dati e ai documenti della pubblica amministrazione che si aggiunga a quelli già esaminati nei capitoli precedenti; essa, più che una diversa e nuova forma di trasparenza amministrativa, rappresenta una diversa modalità attuativa che miri a “coniugare l’innovazione tecnologica con quegli istituti giuridici, al fine di renderli più aderenti al fine pubblico perseguito”. Si intende, quindi, dar vita ad una “regolazione algoritmica”, in grado di integrare l’apparato tecnico-conoscitivo del regolatore, nella fase istruttoria che precede l’adozione della decisione regolatoria.

Possiamo, dunque, parlare di “fallimento regolatorio” quando trattiamo di disclosure regulation? È, questa, destinata ad un insuccesso o ad un’insufficienza nel tentativo di conseguire il proprio scopo? In questo contesto, l’unica accezione ammissibile di “fallimento regolatorio” consiste nel riconoscimento del mancato approntamento di mezzi idonei al raggiungimento dei fini che si intendano perseguire. Ergo, da un punto di vista strettamente analitico, si deve osservare come l’impostazione alla base dell’implementazione della regolazione sulla trasparenza sia informata ad una logica di bad design. O, forse, si tratta di una regolazione frutto di un percorso evolutivo stratificatosi nel tempo, che non sia stato in grado di prevedere o di tener conto del significativo balzo in avanti del progresso tecnologico del ventunesimo secolo.

Il Foia e gli obblighi informativi, esistenti nel nostro ordinamento, rappresentano strumenti in grado di operare nel contesto venutosi a delineare a seguito dell’avvento della seconda rivoluzione industriale. Ad oggi, nel suo complesso, tale disclosure regulation, che si potrebbe definire “tradizionale”, non può che entrare in rotta di collisione con alcuni fattori estrinseci, estremamente dirompenti, che ne dimostrano l’attuale fallacia.

Il progresso delle tecnologie IT ha contribuito a frastagliare i confini giuridici dei beneficiari degli obblighi di pubblicità, i quali erano ritenuti parti deboli (solitamente nella veste di consumatori), all’interno di un rapporto eccessivamente squilibrato dal punto di vista informativo. La destrutturazione del profilo giuridico del soggetto debole subisce un forte scossone con il sopraggiungere della “rivoluzione big data”: l’individuo non è più solo ricettore delle informazioni erogategli dal destinatario degli obblighi informativi, ma è egli stesso produttore di informazioni e dati.

Laddove prodotti, servizi e prezzi vengano personalizzati sulla base della predizione delle preferenze dei cittadini, consentita dai big data analytics, si dà vita ad ulteriori forme di complessità che aggravano oltremodo l’asimmetria informativa in capo agli individui, di cui gli stessi, pertanto, diventano concausa.

La standardizzazione dell’informazione, vero cuore della regolazione sulla trasparenza, in quanto volta ad assicurare ai consociati strumenti di

empowerment che ne rafforzino la consapevolezza nelle dinamiche di mercato, viene svilita in un contesto ad elevata personalizzazione. La devoluzione dell’informazione al fine di favorire la concorrenza, ad esempio, nei mercati dei servizi energetici o delle comunicazioni elettroniche, non è in grado di funzionare laddove le tecniche dei big data consentano la definizione di prezzi personalizzati e, quindi, disinneschino le capacità comparative delle offerte da parte dei consumatori/utenti.

Gli strumenti di big data analytics, combinando dati e metadati, “fanno emergere infinite narrazioni” degli individui, tutte possibili e tutte reali, di cui

Nel documento Big Data, mercato e amministrazione pubblica (pagine 181-200)

Documenti correlati