CAPITOLO 4 IL RUOLO DELLA TRASPARENZA
III. Dimensione commerciale
La segretezza dei sistemi automatizzati ha un forte impatto anche nell’ambito della concorrenza. Ad oggi, il mercato digitale è nelle mani di pochi soggetti (c.d. gatekeepers), i quali sono in grado di alterare i normali equilibri della concorrenza. Le eventuali condotte abusive, però, sono protette dall’opacità e dalla segretezza dei loro sistemi. In particolare, questi soggetti oltre ad offrire servizi divenuti quasi indispensabili per gli utenti (come il motore di ricerca di Google, o la piattaforma per il commercio digitale di Amazon), di fatto controllano anche l’accesso al mercato digitale dei concorrenti.
Alcuni esempi concreti sono offerti da recenti vicende giudiziarie che hanno colpito Amazon e Google. Il primo è attualmente al centro di un’indagine condotta dalla Commissione europea463 volta ad accertare se Amazon sfrutti la grande quantità di informazioni non pubbliche in suo possesso sui venditori che utilizzano la sua piattaforma per indirizzare gli utenti verso i propri prodotti. Amazon, infatti, opera su due livelli distinti: da una parte offre una piattaforma che mette in contatto imprenditori esterni (venditori) ed utenti; dall’altra è a sua volta impegnata nella commercializzazione di prodotti propri, in rapporto di concorrenza diretta con gli altri venditori. La condotta indagata dalla
460 Wachter S., Mittelstadt B., Russell C., Why Fairness Cannot Be Automated: Bridging the Gap Between EU Non-
Discrimination Law and AI, (prossima pubblicazione), disponibile al link:
https://arxiv.org/ftp/arxiv/papers/2005/2005.05906.pdf, p. 11. 461Ivi, p. 10.
462 Cavallaro M. C., Smorto G., Decisione pubblica e responsabilità dell’amministrazione nella società dell’algoritmo, in
Federalismi.it (2019), 16, p. 7; Gebru T. et al., Closing the AI Accountability Gap: Defining an End-to-End Framework for Internal Algorithmic Auditing, in Fariness, Accountability and Transparency conference 2020, Barcelona, Spain,
disponibile al link: https://arxiv.org/abs/2001.00973, p. 10: «AI has the potential to benefit the whole of society,
however there is currently an inequitable risk distribution such that those who already face patterns of structural vulnerability or bias disproportionately bear the costs and harms of many of these systems».
463 Commissione europea, caso n. AT.40462:
https://ec.europa.eu/competition/elojade/isef/case_details.cfm?proc_code=1_40462 (ultimo accesso il 19/02/2021).
104
Commissione consisterebbe nello sfruttamento di informazioni riguardanti i venditori acquisite in qualità di mero intermediario (tra cui il numero di unità di prodotti ordinati e spediti, i ricavi dei venditori, il numero di visite alle offerte dei venditori, i dati relativi alle spedizioni, alle prestazioni passate dei venditori, e ai reclami dei consumatori sui prodotti464) allo scopo di formulare offerte al dettaglio e decisioni strategiche di business per la commercializzazione dei prodotti di Amazon stessa, a scapito di tali venditori.
Anche Google sfrutta il suo posizionamento in rete per favorire i suoi stessi servizi. Com’è noto, oltre al suo monopolio nell’ambito dei motori di ricerca (Google Search), Google offre una miriade di altri servizi, tra cui la vendita di spazi pubblicitari digitali (Google Ads) e il servizio che permette agli utenti di confrontare i vari siti di e-commerce in modo da trovare rapidamente i prodotti che si intendono acquistare (Google Shopping). Nel 2017465, la Commissione europea ha sanzionato Google con una multa di 2,4 miliardi di euro per abuso di posizione dominante, dal momento che tramite il suo motore di ricerca riservava un trattamento più favorevole, in termini di posizionamento e di visualizzazione, al proprio servizio Google Shopping, a discapito dei servizi di acquisti comparativi concorrenti. In particolare, quando un consumatore cerca un prodotto nella barra di ricerca di Google, i risultati di Google Shopping vengono mostrati in cima alla pagina dei risultati, mentre gli altri siti web di acquisti comparativi subiscono una degradazione ad opera dell’algoritmo di Google. È stato infatti dimostrato che anche i servizi più conosciuti non apparivano mai prima della quarta pagina dei risultati di Google Search.
Tra le numerose azioni intentate contro Google da diverse Autorità antitrust, risultano rilevanti quelle che si concentrano sul mercato della pubblicità digitale, all’interno del quale Google occupa una posizione dominante. L’accesso ad una enorme mole di dati sugli utenti garantisce al colosso americano una impareggiabile capacità di targeting degli annunci pubblicitari. L’incisiva attività di profilazione da parte di Google è resa possibile proprio grazie alla sua “struttura tentacolare”, che consente di raccogliere dati da fonti diverse (Google Search, Google Maps, Google Shopping, YouTube, ecc.). Nel 2019466 la Commissione europea ha sanzionato Google con una multa di 1,49 miliardi di euro per una serie di condotte abusive volte a impedire ai concorrenti di stringere accordi con i maggiori siti web per la gestione degli spazi pubblicitari o comunque ad assicurarsi una posizione privilegiata. In relazione all’ambito pubblicitario, assume rilievo anche l’istruttoria avviata dall’Autorità Garante della Concorrenza e del Mercato italiana (AGCM) il 20 ottobre 2020467, che si concentra sull’utilizzo discriminatorio da parte di Google dell’enorme mole di dati raccolti attraverso le proprie applicazioni, impedendo agli operatori concorrenti nei mercati della raccolta pubblicitaria online di poter competere in modo efficace468.
Questo tipo di condotte abusive sono agevolate anche dalla mancanza di trasparenza nelle operazioni dei gatekeepers, i quali gestiscono liberamente i propri servizi, imponendo delle condizioni non conoscibili che spesso danneggiano la concorrenza. Come spiegato da uno studioso statunitense, questi soggetti sono naturalmente poco inclini alla
464https://ec.europa.eu/commission/presscorner/detail/en/ip_20_2077 (ultimo accesso il 19/02/2021). 465 Commissione europea, caso n. AT.39740, decisione del 27 giugno 2017:
https://ec.europa.eu/competition/elojade/isef/case_details.cfm?proc_code=1_39740 (ultimo accesso il 19/02/2021).
466 Commissione europea, caso n. AT.40411:
https://ec.europa.eu/competition/elojade/isef/case_details.cfm?proc_code=1_40411 (ultimo accesso il 19/02/2021).
467 AGCM, provvedimento A542, 20 ottobre 2020: https://www.agcm.it/dotcmsdoc/allegati-
news/A542_avvio%20istruttoria.pdf (ultimo accesso il 19/02/2021).
105
trasparenza e nascondono informazioni significative e decisioni importanti per il mercato dietro la complessità della tecnologia utilizzata e contratti standardizzati469.
4.1.3 Rischi e svantaggi della trasparenza
La trasparenza è una condizione necessaria a salvaguardare e garantire libertà e diritti fondamentali. In alcuni casi essa potrebbe avere delle conseguenze negative, che devono essere sempre tenute in considerazione. Tale valutazione può variare a seconda degli obiettivi per cui si è scelto di ricorrere ad un sistema decisionale automatizzato. Solitamente si individuano i seguenti aspetti problematici: il rischio che gli utenti aggirino il sistema, il rischio che vengano esposti segreti industriali, ed il rischio di pratiche commerciali scorrette da parte dei concorrenti.
Innanzitutto, per quanto riguarda il rischio di elusione del sistema, bisogna considerare che la conoscenza del contenuto del dataset utilizzato, delle presunzioni in base alle quali è stato effettuato il campionamento, o dei parametri con cui l’algoritmo classifica i nuovi inputs, potrebbe essere usata dagli utenti per trarre un vantaggio personale470. Il caso dell’e-screener utilizzato per valutare l’idoneità psichica necessaria per concedere il porto d’armi illustra in modo chiaro questo problema. Una eccessiva trasparenza sul funzionamento del sistema porterebbe a due conseguenze negative: in primo luogo i risultati del sistema non sarebbero più attendibili perché si baserebbero su inputs (le risposte alle domande del questionario) costruiti ad arte per ottenere un responso positivo; in secondo luogo, il sistema genererebbe un numero eccessivo di falsi positivi, ponendo una diretta minaccia alla sicurezza pubblica.
In merito, invece, alle problematicità legate alla necessità di tutelare i segreti industriali per evitare ingerenze da parte dei concorrenti, va preliminarmente ricordato che nell’attuale regime di opacità non è dato sapere se la segretezza invocata dai produttori dei sistemi automatizzati sia effettivamente funzionale a tutelare informazioni meritevoli di protezione o a celare altri elementi. Come esaminato nel secondo capitolo, la tutela del segreto industriale può estendersi ad elementi di diversa natura, ma non può agire come ostacolo all’esercizio dei diritti e delle libertà fondamentali degli individui.
Oltre ai rischi brevemente esaminati, spesso si osserva come l’imposizione di una maggiore trasparenza nell’utilizzo di sistemi decisionali automatizzati non apporterebbe alcun beneficio alla collettività, dal momento che è necessaria una conoscenza tecnica adeguata per comprendere il funzionamento di questi sistemi471. Pur essendo innegabile che il funzionamento degli algoritmi più complessi sia difficilmente apprezzabile dai non addetti ai lavori, questa complessità non dovrebbe essere considerata come una circostanza indipendente che esime il produttore del sistema da qualunque tipo di scrutinio. È stato infatti osservato che l’ordinamento giuridico non dovrebbe lasciare che tale difficoltà
469 Pasquale F., The black box society, cit., p. 61.
470 Taddeo M. et al., The Ethics of Algorithms: Key Problems and Solutions, cit., p. 8; Kroll J., Huey J., Barocas S., Felten E. W., Reidenberg J. R., Robinson D. G., Yu H., Accountable Algorithms, in University of Pennsylvania Law
Review 165 (2017), p. 658.
471 A titolo esemplificativo si vedano: Martini M., Regulating Algorithms, cit., p. 113: «In most cases, a general
disclosure of an algorithm’s source code would neither be required nor helpful: Just because something is openly accessible, it is not yet comprehensible for the general public. Even experts who know the code often fail to predict exact results of the software – not to mention the complexity of software applications with millions of lines of code. Furthermore, with certain forms of machine learning, for example with neural networks, the source code does not even reveal the dynamic decision patterns»; Yeung K., Why worry about decision-making by machine, cit., p. 28: «[…] even if the algorithms were disclosed, they would be meaningless to all but those with the specialist technical expertise needed to decipher them, particularly for data mining algorithms that are configured to identify unexpected (“hidden”) patterns and correlations in massive (and often multiple) data sets».
106
incentivi le organizzazioni a sviluppare sistemi sempre più complessi per sottrarsi alle responsabilità472.
Bisogna, ad ogni modo, considerare che non esiste un concetto di trasparenza unitario: il livello di apertura e di leggibilità può essere modulato in base agli interessi e ai diritti in gioco. Come è stato osservato473, gli obblighi di trasparenza non dovrebbero riferirsi all’utilizzo di sistemi automatizzati di per sé, bensì alla specifica azione o decisione conseguente dall’utilizzo di tali sistemi. Nel valutare il livello di trasparenza adeguato bisognerebbe tenere in considerazione il contesto e il potenziale pregiudizio che potrebbe conseguire dalla decisione in questione.
4.2 Trasparenza e GDPR
4.2.1 GDPR: Ambito di applicazione e riferimenti normativi
Il diritto alla protezione dei dati personali è considerato, in dottrina, come un “nuovo” diritto della personalità, ovvero come una specifica concretizzazione del “diritto generale della personalità”474. La logica, alla base di questo “nuovo” diritto, è quella per cui, in assenza di adeguate garanzie circa le modalità di raccolta ed utilizzazione dei dati personali, nessuna persona può dirsi realmente libera di manifestare il proprio pensiero, le proprie attitudini, di rivendicare i propri diritti, in breve di aprirsi alla comunicazione intersoggettiva475. Questa concezione è il risultato della “reinvenzione”476 del concetto di privacy avvenuta negli ultimi decenni, il quale non coincide più solo con il “right to be let
alone” teorizzato da Warren e Brandeis nel 1890 – e quindi con il diritto alla riservatezza –,
ma comprende anche il diritto all’autodeterminazione della persona. In Unione europea, queste due dimensioni sono parimenti considerate espressioni di diritti fondamentali, e sono codificate nella Carta dei diritti fondamentali dell’Unione europea (c.d. “Carta di Nizza”)477: il diritto alla riservatezza è tutelato dall’articolo 7 («Ogni persona ha diritto al rispetto della propria vita privata e familiare, del proprio domicilio e delle proprie comunicazioni»), mentre il diritto alla protezione dei dati personali è salvaguardato dal successivo articolo 8 («Ogni persona ha diritto alla protezione dei dati di carattere personale che la riguardano»).
Il Regolamento 2016/679 (“GDPR”) mira a fornire degli strumenti concreti ed efficaci per la tutela del diritto alla protezione dei dati personali, e pone particolare enfasi sul ruolo della trasparenza.