• Non ci sono risultati.

Il caso di Cambridge analytica

Profilazione e democrazia.

2.1 Introduzione: cosa intendiamo per democrazia

2.3.3 Il caso di Cambridge analytica

Cambridge analitica è una società che si occupa di profilazione nata nel 2013 e di proprietà dell’imprenditore statunitense Robert Mercer.180

Mercer è un uomo politicamente attivo, è stato dal 2006 al 2016 il terzo maggior finanziatore del partito repubblicano statunitense181 e uno dei finanziatori del sito d’informazione di estrema destra Breitbart News, il cui direttore, Steve Bannon, è stato consigliere di Donald Trump durante e dopo le elezioni del 2016.182

L’azienda è stata travolta dalle polemiche con la pubblicazione di due articoli nel marzo 2018 che rivelarono come questa avesse acquisito dal 2014 al 2018 i dati di 50 milioni di utenti senza chiederne il permesso e avesse usato questi dati per creare una campagna personalizzata e targettizzata sulle varie tipologie di elettore.183

La società si è sviluppata grazie all’app creata dal ricercatore dell’università di Cambridge Aleksander Kogan, “mydigitallife”, app che scaricava i dati Facebook di coloro che utilizzavano la loro app e di tutti i loro contatti, arrivando a formare un database di oltre 50 milioni di utenti.184

180 Emanuele Menietti “Il caso Cambridge Analytica, spiegato bene”, Il Post, 19 marzo 2018. https://www.ilpost.it/2018/03/19/facebook-cambridge-analytica/

181 Rita Lofano, “Chi è Robert Mercer, il miliardario senza il quale Trump non sarebbe presidente”, AGI, 20 marzo 2018. https://www.agi.it/blog-italia/trumpland/robert_mercer_cambridge_analytica-

3675825/post/2018-03-20/ 182 Emanuele Menietti, Ibidem.

183 Matthew Rosenberg, Nicholas Confessore, Carole Cadwalladr, “How Trump Consultants Exploited

the Facebook Data of Millions”, The New York Times, 17 marzo 2018.

https://www.nytimes.com/2018/03/17/us/politics/cambridge-analytica-trump-campaign.html Carole Cadwalladr, Emma Graham-Harrison, “Revealed: 50 million Facebook profiles harvested for

Cambridge Analytica in major data breach”, The Guardian, 17 marzo 2018.

theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election 184 Redazione AGI, “Chi è Aleksandr Kogan, il giovane matematico mente del caso Cambridge

Analytica”, AGI, 22 marzo 2018.

77

Cambridge analytica non si limitava a ottenere e processare i dati degli utenti ma produceva anche contenuti da sottoporre a gruppi targettizzati di utenti con lo scopo di influenzarne le opinioni.185

Le attività dell’azienda cercavano di influenzare i possibili elettori e allo stesso tempo influenzare il flusso d’informazioni attorno ai propri avversari politici con lo scopo di modificare la loro percezione della situazione politica e quindi anticiparne e alterarne le reazioni.186

Le tecniche di profilazione sono inoltre state usate per sopprimere il voto agli avversari politici nei cosiddetti swing -state, alle presidenziali statunitensi del 2016, targettizzando con pubblicità dedite a scoraggiare il voto di alcune categorie: giovani donne, la comunità afroamericana e degli idealisti liberali bianchi.187

Il fatto preoccupante è che la famigerata campagna di Donald Trump del 2016, come quella degli altri candidati, non ha fatto altro che usare i mezzi messi a disposizione dalla tecnologia digitale che vengono utilizzati quotidianamente a scopo commerciale, per questo è diventato semplice per chiunque cercare di influenzare le elezioni.188

Queste stesse tecniche, seppur in forma rudimentale e chiedendo il consenso degli interessati, hanno consentito nel 2012 a micro - targettizzare la campagna di Barack Obama, lodata per la sua innovatività nelle tecniche di GOTV.

Lo scandalo ha portato al fallimento di Cambridge analytica, i cui clienti hanno lasciato in massa l’azienda a causa del clamore mediatico suscitato.189

185 Carole Cadwalladr, Emma Graham-Harrison, Ibidem. 186 Ibidem.

187Jeff Chester, Steven Rosenfeld, “Enough Already! Protect Yourself from Online Political Manipulation

and False News in Election 2018”, Center for Digital Democracy, 2018.

188 Paul-Olivier Dehaye, Anna Fielder, Michael McEvoy, Irina Vasiliu, Jeffrey Chester, Juhi Kulshrestha, Hans Bredow, "Can Democracy Survive Big Data and Micro-Profiling in Elections?", Centre for Digital Democracy and Transatlantic Consumer Dialogue, 24 gennaio 2018.

https://www.youtube.com/watch?v=etDFVtVYo2I

189 Simonetta Biagio, “Cambridge Analytica fallisce, ma i personaggi chiave si spostano in Emerdata”, il Sole 24 ore, 5 maggio 2018.

https://www.ilsole24ore.com/art/cambridge-analytica-fallisce-ma-personaggi-chiave-si-spostano- emerdata-AEXw0ijE

78

La vicenda è interessante perché ha chiaramente mostrato come i nuovi strumenti digitali possano influenzare la vita della democrazia e come potrebbero aver influenzato anche le elezioni europee del 2019.

Nonostante vi sia stato uno sforzo da parte dei legislatori nazionali, le tempistiche hanno fatto sì che tranne che in Francia, le elezioni europee 2019 si siano svolte all’interno di un quadro normativo invariato rispetto alle elezioni precedenti.190

2.3.4 La profilazione e i suoi rischi.

La profilazione si presenta agli utenti come una comodità, grazie a essa quando sono in rete mi vengono proposte pubblicità riguardo ai nostri interessi e non riguardo a prodotti verso cui non abbiamo interesse, potremmo leggere notizie sponsorizzate che confermino quanto già pensavamo, che confermino la nostra visione o potremmo trovare proprio il tipo di scarpe che cercavamo ma potrebbero anche escluderci dal ricevere alcune informazioni in base alle nostre caratteristiche sociali.

Il fenomeno di cui stiamo parlando è quello del redlining, ossia la discriminazione economica o politica in base a sesso età, etnia o a altri dati sensibili delle persone. Gli acquirenti di servizi pubblicitari possono ritenere che alcune fasce della popolazione siano più interessanti di altre e per questo rivolgere a essi le loro pubblicità.

Se questo fenomeno può apparire più che ragionevole in ambito commerciale, non si può dire lo stesso in campo politico.

Vi è un rischio effettivo che rivolgendo la comunicazione politica soltanto a coloro che si ritiene siano più inclini al voto si marginalizzi ancor di più quei soggetti che sono più lontani dal processo politico.191

La profilazione può diventare uno strumento di discriminazione che accresce il divario sociale e mina la libera circolazione delle informazioni che è alla base di uno Stato democratico.

Possiamo prendere come esempi di profilazione negativa alcuni casi, sicuramente il più noto è quello legato al fatto che dopo l’attacco alle torri gemelle del 11 settembre 2001

190 Damian Tambini, “Disinformation, data, manipulation and the European elections of 2019”, Euroflections, Leading academics on the European elections 2019, Mittuniversitetet. 2019. 191 Damian Tambini, “Internet and Electoral Campaigns, Study on the use of internet

79

gli USA hanno iniziato a profilare e discriminare su base etnica e religiosa la propria popolazione nell’ottica della lotta al movimento terroristico di Al-Quaeda.192

Ovviamente la normativa attuale non permette la profilazione sulla base di caratteristiche etniche o religiose ma è interessante notare come anche l’utilizzo dei dati secondari possa portare comunque a discriminazioni altrettanto gravi.

Ne è esempio un caso trattato nel 2000 dalla suprema corte olandese, Hoge Raad.

La questione riguardava il proprietario di una discoteca che aveva proibito l’ingresso a un gruppo di persone sulla base del loro indirizzo di residenza.

L’indirizzo di residenza corrispondeva a quello di un centro dove risiedevano i richiedenti di asilo politico in attesa di espulsione.

Essendo fatto noto che i residenti in tale struttura avevano determinate caratteristiche etniche, religiose e culturali, possiamo vedere come quello che può apparire come un dato secondario come l’indirizzo di residenza possa essere utilizzato per profilare delle persone e negare loro dei servizi.

La suprema corte olandese in primo grado condannò il proprietario della struttura per discriminazione razziale indiretta ma lo assolse in appello in quanto la decisione era basata su precedenti incidenti avvenuti all’interno del locale che coinvolgevano i residenti del centro in questione e si riconobbe l’impossibilità del proprietario di arginare in altro modo il problema delle risse.193

Anche se la profilazione attuata dal proprietario della discoteca non è certamente la stessa di quella attuata in rete, l’esempio mostra bene quali possano essere le conseguenze discriminatorie della profilazione e l’importanza della normativa sulla profilazione. Il GDPR prevede infatti all’articolo 22 primo comma che:

“L'interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.”

192 Deborah A Ramirez, Jennifer Hoopes, Tara Lai Quinlan, “Defining Racial Profiling in a Post-

September 11 World”. American Criminal Law Review, Vol. 40, p. 1195, 2003.

https://ssrn.com/abstract=2257284

193 Mireille Hildebrandt, Serge Gutwirth, “Profiling the European Citizen Cross-Disciplinary

80

mentre all’articolo 9 primo comma:

“È vietato trattare dati personali che rivelino l'origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l'appartenenza sindacale, nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all'orientamento sessuale della persona.”

I due articoli prevedono inoltre le eccezioni in cui sia consentito l’utilizzo dei dati sensibili e i casi in cui la profilazione possa portare a conseguenze legali per coloro che vengono profilati.

Purtroppo, la normativa non ha previsto situazioni di discriminazione indiretta come quella precedentemente descritta riguardo la discoteca olandese.

Un algoritmo potrebbe giungere a delle conclusioni sulla base di informazioni secondarie che identificano una determinata categoria di persone, come ad esempio l’indirizzo di residenza come nel caso indicato.

Bisogna ricordare che l’articolo 9 del GDPR non riconosce l’indirizzo di residenza come un dato sensibile e potrebbe quindi essere legalmente usato per profilare gli individui, possibilmente creando delle discriminazioni, in maniera del tutto legale.194

194 Davide Baldini, “Article 22 GDPR and Prohibition of Discrimination. An Outdated Provision?”, Cyberlaws, 20 agosto 2019.

81