• Non ci sono risultati.

L’impatto della profilazione sui valori fondamental

Profilazione e risch

1. L’impatto della profilazione sui valori fondamental

La profilazione, come precedentemente detto, è una tecnica che, mediante l’impiego di algoritmi programmati dagli esseri umani, consente di processare automaticamente i big

data, al fine di ottenere una conoscenza predittiva degli individui, sotto forma di profili

che possono essere poi utilizzati per prendere decisioni operative.

Dunque, i profili sono un insieme di dati correlati che descrivono un soggetto, e tali profili possono essere classificati in:

• profili di gruppo, i quali identificano e rappresentano un gruppo. Possono essere profili di gruppo distributivi e non distributivi; nel primo caso tutte le persone identificate condividono le medesime peculiarità, mentre nel secondo caso un determinato numero di persone non condivide gli stessi attributi del profilo di gruppo.

• profili diretti, ove i dati sono raccolti da una singola persona o un gruppo, e le informazioni che scaturiscono dall’elaborazione dei dati saranno applicate soltanto alla medesima persona o gruppo. Invece, la profilazione indiretta implica la raccolta di dati da una grande popolazione, e quindi gli individui sono identificati usando gli attributi che emergono da tale raccolta di dati.

Al fine di avere una più profonda conoscenza del comportamento umano l’utilizzo dei

big data, senza dubbio, apporta differenti benefici a riguardo, tant’è che questi per

esempio potrebbero determinare una maggiore efficienza delle misure volte a mutare il comportamento (nudging)264.

Si osserva come l’obiettivo finale “di molta parte dei sistemi di data analytics non è più la mera profilazione del singolo sulla base dei comportamenti posti in essere dallo

264 Il nudging è una strategia che si propone di indurre i soggetti a compiere certe tipologie di scelte,

mediante sistemi di incentivi e rinforzi comportamentali ben strutturati, senza comportare costrizione. In tal senso si veda Thaler R. H., Sunstein C. R., Nudge: Improving Decisions about Health, Wealth, and

135 stesso, quanto piuttosto la capacità di predire i futuri trends nei comportamenti di gruppi di individui”265

.

Tuttavia, non si possono sottovalutare le problematiche che possono essere connesse all’utilizzo dei big data, in quanto gli algoritmi266

mediante cui si realizza la profilazione non sempre sono corretti e di conseguenza potrebbero scaturire degli errori, ed inoltre vi è il rischio per gli individui di incorrere nella discriminazione da profilazione, in virtù del fatto che essi “spesso sono ignari dell’esistenza delle analisi”267

che vengono eseguite.

È pertanto, necessario porre l’attenzione non soltanto sulle lesioni che possono derivare ai singoli, specie se consumatori, ma anche sulle potenziali minacce che possono generarsi per il quadro socio-giuridico e politico della democrazia e della rule of law. Ciò in virtù del fatto che l’uso di analisi e l’assunzione di decisioni sulla base di comportamenti di gruppo, piuttosto che su quelli dei singoli individui, non sono limitati ad ambiti commerciali e di mercato, bensì si rinvengono anche in ulteriori importanti contesti, quali la sicurezza, l’assistenza sanitaria e le politiche sociali, in ordine ai quali deve essere applicata una diversa valutazione comparata, data l’importanza delle questioni di interesse pubblico268. In tal senso, un esempio è fornito da alcuni software utilizzati dalle forze di polizia per anticipare, evitare e rispondere in maniera più efficace alla criminalità, utilizzando l’incrocio dei dati, circa i luoghi e le modalità dei recenti crimini. Tali software sono capaci di prevedere i crimini futuri e la loro localizzazione: se, ciò consente una migliore organizzazione circa le risorse che potranno essere allocate nelle aree evidenziate269, è indubbio che si crea il rischio di una potenziale discriminazione.

265

In tal senso Bollier D., The Promise and Peril of Big Data, The Aspen Institute, Washington, 2010, pag. 1-66.

266 Gli algoritmi sono tutelati come trade secrets e pertanto disciplinati dalla Direttiva (UE) 2016/943 del

Parlamento Europeo e del Consiglio, dell'8 giugno 2016, sulla protezione del know-how riservato e delle

informazioni commerciali riservate (segreti commerciali) contro l'acquisizione, l'utilizzo e la divulgazione illeciti. In www.eur-lex.europa.eu.

267 Spina A., Alla ricerca di un modello di regolazione per l’economia dei dati Commento al

Regolamento (UE) 2016/679, cit., pag. 151.

268

Mantelero A., Personal data for decisional purposes in the age of analytics: From an individual to a

collective dimension of data protection, in Computer law & Security review, 2016, pag. 240.

269 In tal senso Brakel R., De Hert P., Policing, surveillance and law in a pre-crime society:

Understanding the consequences of technology based strategies, in Journal of Police Studies, 2011, pag.

136 La profilazione, quindi, comporta sicuramente benefici, ma implica altresì rilevanti rischi, per via del suo impatto, sui diritti fondamentali dell’individuo. Pertanto, rischi quali “discriminazione, sterotipizzazione, diseguaglianza, inaffidabilità e limitatezza del processo decisionale possono seriamente compromettere valori come la democrazia, la

rule of law, il diritto a non essere discriminati o quello alla protezione dei propri dati

personali”270

.

Una democrazia sostenibile presuppone e mantiene la rule of law271, che solitamente viene definita facendo riferimento alla tutela dei diritti umani e al governo limitato. Relativamente alle implicazioni delle tecnologie di profilazione, il risultato più rilevante della rule of law sembra essere la combinazione tra libertà negativa e libertà positiva. La libertà positiva (freedom to) riguarda la libertà di partecipare ai processi decisionali pubblici o la libertà di raggiungere i propri obiettivi personali; mentre la libertà negativa (freedom from) riguarda l’assenza di vincoli irragionevoli imposti ad una persona. Se la libertà positiva ha una lunga storia, viceversa la libertà negativa, quale valore della democrazia liberale272, è un’accezione relativamente recente273.

Per riuscire ad alimentare una democrazia sostenibile sono necessarie ambedue le tipologie di libertà, come previsto dalla rule of law.

La profilazione potrebbe rappresentare un pericolo per la libertà sia negativa che positiva. La libertà negativa è solitamente identificata con il ritirarsi in uno spazio privato, con il diritto all’oblio e l’invisibilità agli occhi del pubblico. Tale libertà negativa è connessa con un bisogno di agire, di anticipare e di partecipare nello spazio pubblico, per cui una certa trasparenza in merito al trattamento è necessaria. Senza trasparenza non si possono anticipare né intraprendere adeguate azioni. Infatti si può

270 Ferraris V., La profilazione e i suoi rischi, in Informatica Giuridica, collana del CIRSFID, Aracne

Editrice, 2015, pag. 72.

271

Il presupposto di base dello Stato di diritto o della rule of law è il riconoscimento dei membri di una società quali liberi ed uguali. O, in altre parole: il potere statale non deve mai diventare fine a se stesso, non deve mai pretendere di comprendere l’uomo nella totalità della sua vita, in tutte le sue manifestazioni e in tutti i suoi rapporti sociali. Il controllo dello stato può essere, a seconda dei compiti determinati dal «bene comune», più o meno intenso, ma in ogni caso deve rispettare certi limiti dell’intervento contro la libertà del cittadino. Il caso limite è l’uso della forza fisica, della violenza. La più concisa, la più concentrata e la più ricca (di contenuto) definizione di rule of law o di stato di diritto ha trovato espressione in una breve frase della nuova Costituzione federale svizzera del 18 aprile 1999: «Il diritto è il fondamento e il limite dell’agire dello stato». In tal senso Denninger E., I pilastri di una cultura europea

dello Stato di diritto, in Quaderni costituzionali, 2002, pag. 539.

272 In tal senso Zakaria F., The Rise of Illiberal Democracy, in Foreign Affairs, 1997, pag. 22- 43.

273 Hildebrandt M., The Dawn of a Critical Transparency Right for the Profiling Era, Digital

137 affermare che la libertà negativa è un’illusione finché la trasparenza è assente; in tal senso, gli individui potranno valutare la realtà nella privacy dei loro pensieri, nella misura in cui non hanno accesso alle conoscenze necessarie per valutare la realtà. Così l’utilizzo diffuso di tecnologie di profiling può mettere in pericolo la combinazione complessa di libertà negativa e positiva ogni volta che (1) si pensa di essere soli, ma in realtà si è guardati da macchine che osservano il comportamento assunto online ed offline; (2) si pensa che si stiano attuando decisioni private sulla base di una giusta idea di quello che sta succedendo, mentre in realtà non si ha alcun indizio sul perché ad esempio i fornitori di servizi, le compagnie di assicurazione o le agenzie di governo hanno a che fare con noi274.

Per tali ragioni la privacy non può intendersi solamente come un interesse privato, ma rappresenta anche un bene pubblico.

La profilazione è di certo una tecnica attraente, che rinvia all’idea che gli esseri umani siano in grado di raggiungere un livello di conoscenza non previamente prevedibile, che consentirà loro di effettuare scelte migliori, perciò essa, mediante l’utilizzo di una macchina, “rende visibile ciò che è invisibile all’occhio umano”275

. Tuttavia, tutto ciò che non potrà essere convertito dalla macchina in dati leggibili, continuerà ad essere invisibile per l’uomo. Perciò, per via della complessità degli algoritmi adoperati per effettuare la profilazione automatizzata, in presenza di un errore, gli individui non potranno eventualmente intervenire per porre un rimedio a quest’ultimo.

Pertanto la profilazione potrebbe comportare una serie di minacce quali:

• l’influenza occulta, la formattazione e la personalizzazione del comportamento individuale, che rappresentano una minaccia di manipolazione e deterioramento dell’autonomia personale, definito come “autonomy trap”276

, in quanto i

profilers possono facilmente manipolare una persona relativamente ad alcune

azioni da intraprendere, in virtù del fatto che questa non è consapevole della conoscenza circa se stessa detenuta da chi esegue la profilazione.

274 Hildebrandt M., Profiling and the rule of law , in Identity in the Information Society, Springer, 2008,

pag. 61.

275

Gutwirth S., Hildebrandt M., Some Caveats on Profiling, in Data Protection in a Profiled World, Springer, 2010, pag. 33.

276 Zarsky T. Z., Thinking Outside the Box: Considering Transparency, Anonymity, and Pseudonymity as

Overall Solutions to the Problems of Information Privacy in the Internet Society,University of Miami law review, 2004, pag. 1325.

138 Uno dei molteplici esempi proposti da Zarsky relativamente alla potenziale manipolazione della profilazione è il seguente:

Mr. Orange often purchases through an e-commerce grocer and has recently stopped buying cigarettes. The grocer, anxious to cash in on potentially lucrative tobacco sales, notices that Mr. Orange has just purchased a "nicotine patch" and concludes that he is trying to quit smoking. Mr. Orange is then presented with cigarette ads at the websites he visits, and even receives a "complementary" cigarette pack in his most recent grocery shipment277.

Si potrebbero individuare tattiche più creative, come per esempio inserire banner sui siti preferiti di Mr. Orange, circa l’esistenza di una ricerca scientifica sulla diminuzione delle probabilità di sviluppare la demenza per il fumatore; si può anche prevedere che i professionisti possano estrarre tali informazioni e successivamente venderle a chiunque si aspetta di fare un profitto sulla vendita di sigarette. Il punto non è, per rimanere all’esempio, che Mr. Orange sia fornito di sigarette gratis o che sia informato circa la ricerca scientifica. Piuttosto, il punto è che lui non ha consapevolezza di ciò che altri conoscono circa le sue abitudini di fumare, da chi è estratta tale conoscenza, a chi è venduta o distribuita, né come questa conoscenza viene utilizzata per influenzare il suo comportamento278.

• l’aumento di disparità fra i profilers e coloro che sono profilati, che costituisce una minaccia per la privacy come autonomia personale, per via della potenziale manipolazione inerente alle asimmetrie della conoscenza279.

• la realizzazione di decisioni sbagliate per via di falsi positivi e falsi negativi, che rappresenta una minaccia poiché una persona potrebbe essere giudicata sulla base di dati inesatti ed anche perché potrebbe non essere a conoscenza dell’utilizzo di profili di gruppo. Inoltre, le caratteristiche potrebbero essere

277 Zarsky T. Z.,“Mine your own business”: Making the case for the implications of the data mining of

personal information in the forum of public opinion, in Yale Journal of Law and Technology, 2003, pag.

20.

278 Gutwirth S., Poullet Y., De Hert P., Terwangne C., Nouwt S., Reinventing Data Protection?, Springer,

2009, pag. 243.

279 In tal senso Solove D. J., The Digital Person Technology and Privacy in the Information Age, New

139 valide per i membri del gruppo, sebbene potrebbero non essere valide per i singoli membri del gruppo280.

• la realizzazione di decisioni inique sulla base di profili corretti che permettono un’ingiustificata e invisibile discriminazione, che rappresenta una minaccia per il diritto alla non discriminazione, in quanto le categorizzazioni possono essere utilizzate per una discriminazione ingiustificata ed invisibile281.

• l’adozione di decisioni immotivate e unilaterali sugli individui, che pone minacce per l'autonomia personale in quanto tali decisioni non possono essere contestate o possono essere contestate solo con difficoltà (inversione dell’onus

probandi)282.

Pertanto, la profilazione è per sua natura in contrasto con valori quali l’autonomia personale283 e l’autodeterminazione informativa284, poiché l’individuo non ha la possibilità di sapere i motivi su cui si fonda una determinata decisione ed eventualmente contestarla, neppure conosce in che modo i propri dati saranno utilizzati per elaborare dei profili e tanto meno se questi saranno applicati anche a lui.

Non essere a conoscenza delle ragioni per cui ad esempio si riceve una determinata offerta commerciale o certe condizioni per usufruire di un prestito, limita lo sviluppo personale e l’attiva partecipazione dell’individuo; perciò nel momento in cui non si è consapevoli di cosa verrà elaborato dai dati previamente rilasciati, a volte anche inconsapevolmente, lo scambio di dati qualunque sia il vantaggio all’orizzonte non può ritenersi equo285.

Inoltre, occorre porre attenzione allo status giuridico dei profili. Il dibattito sui diritti di proprietà intellettuale in relazione alla privacy si è incentrato interamente sull’idea di attribuire qualche tipo di diritto di proprietà ai dati personali. In tal senso alcuni autori

280 In tal senso Vedder A., KDD: The challenge to individualism, Ethics and Information Technology,

1999, pag. 277.

281

Gutwirth S., Hildebrandt M., Some Caveats on Profiling, cit., pag. 34.

282 In tal senso Citron D. K.,Technological Due Proces, Washington University Law Review, 2007. 283 Intesa come partecipazione attiva alla vita democratica. Ferraris V., La profilazione e i suoi rischi, cit.,

pag. 73.

284 Concetto sviluppatosi ad opera della Corte Costituzionale Tedesca del 1983, la quale sancisce che

“l’autodeterminazione informativa implica che il singolo abbia il controllo dei suoi dati e delle informazioni che lo riguardano”. In tal senso BVerfGE- Bundesverfassungsgericht (1983): BVerfGE 65, 1 – Volkszählung Urteil des Ersten Senats vom 15. Dezember 1983 auf die mündliche Verhandlung vom 18. und 19. Oktober 1983.

285

140 hanno evidenziato che ciò aumenterà il potere dei singoli cittadini286, secondi altri a causa dell’asimmetria della conoscenza un fallimento del mercato ostacolerà ogni tipo di potere, altri autori altresì ritengono che i dati personali non dovrebbero essere mercificati, ma trattati come diritti inalienabili della personalità e che non devono essere scambiati al fine di ottenere vantaggi banali287.

Relativamente allo status giuridico dei profili, questo non risulta essere molto chiaro, in quanto possono essere protetti dai diritti di proprietà intellettuale del titolare, o essere considerati parte di un segreto industriale dell’azienda288

.

Inoltre, il Considerando 63 del GDPR ha affermato che i diritti di trasparenza e di accesso dell’interessato, relativamente alla logica di trasformazione, non devono comunque ledere i diritti di coloro che hanno creato i profili.

In conclusione, è bene ricordare che il Regolamento 679/2016 prevede l’obbligo per i titolari del trattamento di fornire all’interessato le informazioni circa l’esistenza del processo decisionale automatizzato, compresa la profilazione, e le relative conseguenze.

Le minacce alla privacy e all’autonomia personale, ad opera dell’attività di profilazione, scaturiscono dal fatto che non si è consapevoli delle modalità mediante cui i dati saranno raggruppati insieme ad altri dati, al fine di rivelare per esempio comportamenti futuri, inclinazioni, informazioni circa la salute, etc.

Perciò, il GDPR dedicando maggiore attenzione al processo decisionale automatizzato, compresa la profilazione, obbligando altresì l’industria ad utilizzare un’infrastruttura tecnologica ed organizzativa idonea a garantire la conformità con quanto dettato dal suddetto Regolamento, sembra essere un buon punto di partenza per garantire la particolare combinazione di libertà positiva e libertà negativa289.

286 In tal senso Lessig L., Code and other laws of cyberspace, Basic Books, New York, 1999. 287

Prins, C., When personal data, behavior and virtual identities become a commodity: Would a property

rights approach matter?, SCRIPT-ed, 2006, pag. 293.

288 Hildebrandt M., Profiling into the future: An assessment of profiling technologies in the context of

Ambient Intelligence, in FIDIS Journal on Identity in the Information Society, 2007, pag. 13.

289

141 2. La profilazione ed i rischi per il diritto alla non discriminazione

Al giorno d’oggi le nuove e diverse tecnologie sviluppatesi, quali ad esempio le smart TV a circuito chiuso (CCTV)290, i body scanner, la tecnologia RFID, la biometria, etc., costituiscono una grande sfida per il diritto alla privacy e alla protezione dei dati. Così, tutte le preoccupazioni che possono emergere dall’uso di tali tecnologie in merito alla protezione della privacy e dei dati, possono essere sollevate anche nel caso della profilazione291.

Come precedentemente detto, i singoli individui possono ritrovarsi nella situazione in cui non siano consapevoli dei potenziali pregiudizi connessi all’utilizzo dei big data, ed anche nel caso in cui ne siano consci, solitamente non sono in grado di reagire in maniera adeguata a fronte di usi discriminatori delle informazioni personali, poiché sono inibiti dallo squilibrio di forza che sovente esiste tra i soggetti cui i dati si riferiscono e gli autori del trattamento292.

Pertanto, i valori fondamentali di autonomia personale e autodeterminazione informativa sono strettamente connessi con il diritto alla privacy e alla protezione dei dati personali e, altresì, con il diritto alla non discriminazione.

Il diritto alla non discriminazione è l’essenza di una democrazia293

. In tal senso, la Corte di Giustizia Europea, in merito a due casi in materia di profilazione294, ha invocato sia la legislazione in materia di protezione dei dati personali, che la normativa antidiscriminazione a fini di tutela dei diritti dei cittadini.

Il diritto alla non discriminazione è un principio guida della legislazione europea, che è stato recentemente introdotto come diritto fondamentale nell’articolo 21295

della Carta

290 Il termine “closed circuit” si riferisce al fatto che il sistema è autosufficiente,

i segnali sono accessibili solo da apparecchiature all'interno del sistema. Ciò è in contrasto con il concetto di “broadcast television”, dove i segnali possono essere raggiunti da chiunque tramite un’idonea attrezzatura di ricezione. In tal senso Cieszynski J., Closed Circuit Television, Newnes, Elsevier, 2007, pag. 1.

291 Ferraris V., Bosco A. F., Cafiero G., D’Angelo E., Suloyeva Y., The impact of profiling on

Fundamental Rights, UNICRI, Working paper, 2013, pag. 20.

292 Mantelero A., Rilevanza e tutela della dimensione collettiva della protezione dei dati personali, in

Contratto e Impresa, 2015, pag. 149.

293 Ferraris V., La profilazione e i suoi rischi, cit., pag. 74.

294 CGUE Sentenza del 16 dicembre 2008, Causa C-524/06, Heinz Huber contro Bundesrepublik

Deutschland. CGUE Sentenza del 1 marzo 2011, Causa C-236/09, Association Belge des Consommateurs Test-Achats ASBL e altri contro Conseil des ministres. In www.curia.europa.eu.

295 Ai sensi dell’art.21 è “vietata qualsiasi forma di discriminazione fondata, in particolare, sul sesso, la

razza, il colore della pelle o l’origine etnica o sociale, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l’appartenenza ad una minoranza

142 dei diritti fondamentali dell’UE (detta anche Carta di Nizza). Si compone di un principio generale di uguaglianza, ove situazioni simili vanno trattate nello stesso modo e situazione diverse vanno trattate in modo diverso, ed include specifiche disposizioni sviluppate in legislazione contro la discriminazione relativa a determinati motivi (per esempio la razza, l’età, il sesso, la religione, l’orientamento sessuale) e i campi di applicazione (per esempio sul mercato del lavoro, l’istruzione, la sicurezza sociale, l'assistenza sanitaria, l’accesso a beni e servizi, diritto penale).

Tale articolo detta il divieto di qualsiasi forma di discriminazione, prevedendo una lista di motivi esemplificativa e non tassativa296. Pertanto, la previsione di un elenco non tassativo permette di assegnare agli interpreti del diritto, in primis ai giudici, il potere di valutare il dato sociale e da quello selezionare i motivi di non discriminazione