• Non ci sono risultati.

Benefici e rischi nell’uso degli algoritm

Nel documento Profilazione e Decisioni Automatizzate (pagine 65-74)

Capitolo II La Profilazione tramite l’uso de

III.2. Benefici e rischi nell’uso degli algoritm

Il passaggio all'intelligenza artificiale e al processo decisionale automatizzato promette di dare un impulso alla convenienza per i consumatori: in futuro, ci saranno applicazioni intelligenti per semplificare la loro vita o aiutarli a prendere le decisioni migliori.

Un esempio tipico è l'uso del connubio tra intelligenza artificiale e processo decisionale automatizzato per aumentare l'efficienza della ricerca online e alimentare gli assistenti digitali. Le grandi aziende tecnologiche hanno riconosciuto l'opportunità di competere per quel settore e molti hanno già immesso sul mercato i loro assistenti digitali come ad esempio Apple con Siri, Amazon con Alexa, Google con Google Assistant e Microsoft con Cortana162.

Un altro esempio paradigmatico potrebbero essere le applicazioni che aiutano i consumatori a ridurre i loro consumi. In questo senso, l'intelligenza artificiale potrebbe aiutare a ottimizzare i consumi di una famiglia in base all'apprendimento automatico dei loro consumi abituali, aumentando così il comfort nelle case delle persone e rendendo le spese più basse.

Altre applicazioni popolari già oggi sul mercato porteranno comodità offrendo macchine completamente autonome, come l’auto a guida autonoma o il robot domestico automatizzato. Le applicazioni basate sull'intelligenza artificiale dovrebbero anche

aiutare gli anziani o le persone con disabilità ad avere un migliore accesso ai servizi e migliorare l'inclusione sociale.

Grazie all'analisi dei big data, l'oceano di dati raccolti dalle aziende può essere utilizzato per personalizzare servizi e contenuti in un modo che prima non era possibile. Dalla ricerca scientifica alla diagnosi medica, dall'ingegneria di precisione alla chirurgia, l’intelligenza artificiale e il processo decisionale automatizzato potrebbero anche portare a promettenti benefici nel modo in cui tutte queste attività vengono eseguite. Le tecnologie di intelligenza artificiale vengono sempre più utilizzate dalle comunità di ricerca scientifica e medica per progredire più rapidamente e innovare meglio in molti settori.

Oltre ai numerosi vantaggi che l'apprendimento automatico può apportare, ci sono diversi rischi associati a queste nuove tecnologie che richiedono un'attenta attenzione e analisi anche a livello politico e legislativo.

In questo senso, gli algoritmi utilizzati dalle aziende acquisiscono il controllo sul funzionamento di prodotti e servizi e influenzano l'inclusione e l'esclusione di persone e informazioni. Ciò può creare situazioni di informazione e asimmetrie di potere che impediscono ai consumatori di prendere decisioni informate.

L'impegno con tali prodotti e servizi basati su intelligenza artificiale e processo decisionale automatizzato pone una domanda correlata su come garantire che i consumatori abbiano l'alfabetizzazione digitale necessaria per utilizzare o interagire con questi prodotti e servizi.

Altri rischi includono il fatto che il processo decisionale da parte delle macchine può portare alla discriminazione di determinati gruppi di persone o provocare effetti di blocco, incidendo negativamente sulla concorrenza nel mercato163.

Altre importanti sfide per i consumatori includono come proteggere i loro diritti, in particolare in relazione alla protezione dei dati, e se le attuali norme sulla protezione dei consumatori sono idonee allo scopo.

Infine, si deve discutere di chi è responsabile se qualcosa va storto (responsabilità algoritmica) e chi ha il potere di controllare coloro che hanno il potere sugli algoritmi (auditing e controllo del processo decisionale automatizzato).

Ogni volta che i consumatori interagiscono con le tecnologie intelligenti, devono confrontarsi con un'ondata di contenuti personalizzati e mirati, spesso senza nemmeno saperlo. I profili utente e gli algoritmi sono invisibili agli utenti che di solito non possono rinunciare. I consumatori non devono entrare in un contesto di mercato specifico (negozio online) affinché la pubblicità funzioni. Gli algoritmi intelligenti scelgono il momento in cui è meglio avvicinarsi al consumatore e decidere sulle offerte che i consumatori ricevono.

L'analisi dei big data consente alle aziende di analizzare il modello comportamentale degli utenti e di prevedere le risposte emotive necessarie per far agire l'utente e quali stimoli possono essere utilizzati per provocare tali risposte. I consumatori non hanno modo di conoscere i profili che si creano su di loro e non hanno informazioni sul metodo di base utilizzato per indirizzarli e influenzarli.

L'aumento della personalizzazione e del targeting di servizi e informazioni potrebbe ridurre le scelte degli utenti e ostacolare la loro capacità di trovare informazioni che ritengono significative per prendere una decisione informata. Maggiore è la dipendenza dell'individuo da queste tecnologie per prendere una decisione informata, meno è probabile che avranno una scelta reale.

I sistemi tecnici e gli algoritmi sottostanti utilizzati dalle imprese non sono esposti al controllo pubblico e sono generalmente protetti dai diritti di proprietà intellettuale e dai segreti commerciali, dando origine a punti opaci dell'algoritmo.

A causa della mancanza di trasparenza di questi algoritmi, gli utenti non sanno come i loro dati personali sono stati analizzati, a che scopo e da chi, o perché hanno ricevuto un contenuto specifico o una risposta dal servizio o prodotto da intelligenza artificiale e processo decisionale automatizzato.

In tale ambiente, i consumatori sono altamente vulnerabili a essere manipolati dalle imprese in una specifica scelta di acquisto. Ciò può comportare un danno economico e sociale concreto, quando ad esempio un credito o un'assicurazione viene negato al consumatore sulla base di elementi irrilevanti e discriminatori, come sesso, razza, religione o addirittura area geografica164.

Altri esempi di danni possono derivare dall'uso di dati personali da parte di aziende che mostrano un determinato modello comportamentale dei consumatori. Ad esempio, quando si tratta di contatori intelligenti, gli algoritmi apprendono cosa sta succedendo in casa, il che potrebbe portare alla profilazione comportamentale, alla pubblicità mirata e, eventualmente, anche alla determinazione del comportamento che potrebbe essere utilizzato per valutare l'affidabilità creditizia del consumatore165.

Possono verificarsi anche danni fisici, ad esempio nei casi in cui la Big Data Analytics utilizzi informazioni non contestualizzate per influenzare il comportamento del consumatore quando si tratta di decisioni relative alla salute, come ad esempio smettere di fumare. Lo stesso vale nel caso di quelle applicazioni che raccolgono informazioni sugli utenti e uniscono contenuti sanitari e contenuti commerciali, spingendo infine i consumatori in una certa direzione senza che loro lo sappiano.

È necessario valutare l'impatto sulle pratiche commerciali e il conseguente funzionamento dei mercati con queste nuove tecnologie.

164 Art. 52 DLT 206/2005 Informazioni per il consumatore 165 Ibid.

Bisogna comprendere appieno se i concetti e il paradigma su cui si basa il Diritto Europeo dei consumatori, come la responsabilizzazione dei consumatori attraverso l'informazione e la trasparenza, la protezione dei consumatori della persona avveduta che può fare una scelta informata confrontando le offerte, possano resistere ad un test di idoneità.

Ad esempio, bisogna comprendere se è realistico proteggere i consumatori attraverso le informazioni fornite loro dalle imprese, quando queste informazioni sono individualmente indirizzate a loro in base al loro profilo stabilito dall'azienda, in che modo i consumatori saranno protetti quando subiranno risultati discriminatori dell'ADM basato sull'intelligenza artificiale o se essi possono confrontare offerte e prezzi, e anche qual è l'indicazione di riferimento per un prezzo equo quando nessuno, tranne i mediatori di dati, ha accesso alle informazioni sui prezzi.

È necessario affrontare nuove forme di pubblicità potenzialmente sleale e altre pratiche. I consumatori saranno spesso inconsapevoli delle restrizioni quando si tratta di offerte commerciali o non saranno consapevoli che ad esempio il prezzo di un prodotto è determinato in base al loro profilo utente (prezzi personalizzati).

La legge sulle pratiche commerciali sleali ha le sue radici nell'idea che ai consumatori debbano essere fornite informazioni essenziali affinché possano prendere una decisione informata. Le informazioni essenziali sono ancora un concetto valido quando nessuno può ripercorrere perché e come è stata presa una decisione specifica.

Chiaramente, è in gioco l'idea di autonomia e libero processo decisionale in cui i consumatori non hanno alcuna comprensione di come funziona il mercato o di come sono state generate le offerte che ricevono. A seconda di come funzionano gli algoritmi, il posizionamento dei prezzi può essere opaco, rendendo molto difficile il confronto delle offerte per i consumatori. I consumatori dovrebbero avere il potere di comprendere come sono organizzate e presentate le informazioni e quali criteri sono stati utilizzati per classificare le informazioni.

Problemi simili sorgono quando si tratta di acquistare prodotti o servizi che utilizzano o funzionano con algoritmi. Le norme dell'UE che disciplinano i requisiti in materia di informazioni precontrattuali, come la direttiva sui diritti dei consumatori, non sono aggiornate per gestire tali prodotti o servizi.

In base alle norme vigenti, i consumatori hanno il diritto di ricevere informazioni essenziali sul prodotto o sul servizio, ad esempio le sue caratteristiche o il suo prezzo.

Tuttavia, il diritto dell'UE non stabilisce elementi informativi sul processo decisionale automatizzato, sui prezzi individuali o dinamici. Ciò è rilevante non solo per i servizi digitali ma anche per i prodotti che funzionano con processi decisionali automatizzati per il loro funzionamento. Vale la pena notare che la proposta di direttiva sull'ammodernamento e l'applicazione della legislazione dei consumatori suggerisce l'inclusione di nuove informazioni relative ai parametri di classificazione.

Tuttavia, non vi è alcun obbligo di informare il consumatore in merito all'importanza relativa dei parametri di classificazione e ai motivi per cui tali criteri sono stati scelti. Le informazioni sugli algoritmi sottostanti non sono incluse nello standard di trasparenza.

Un altro esempio è la direttiva sulle clausole abusive. Le regole attuali sono formulate in modo astratto, senza tenere in debita considerazione le specificità dell'elaborazione dei dati, dei Big Data o degli algoritmi. Inoltre, la direttiva non affronta in modo sufficiente la prassi comune in cui le società utilizzano un disclaimer generale per rimuovere qualsiasi responsabilità in caso di danno al consumatore.

Altri atti legislativi, come la direttiva sull'indicazione dei prezzi, non si applicano ai servizi digitali e non tengono conto delle offerte flessibili basate su algoritmi. Ciò è rilevante perché i consumatori dovrebbero essere in grado di confrontare i prezzi in modo efficace.

L'onere della prova è un requisito fondamentale per il rispetto dei diritti dei consumatori, ad esempio per invocare i diritti di garanzia legale ai sensi della direttiva sulle vendite o per stabilire la responsabilità ai sensi della direttiva sulla responsabilità del prodotto. Tuttavia, più complesso è il prodotto, più sarà difficile per i consumatori fare valere la propria causa.

Questi esempi dimostrano l'importante ruolo del diritto dei consumatori nello sviluppo di un quadro giuridico per l'intelligenza artificiale. Il diritto del consumatore può aiutare a garantire che i consumatori ottengano informazioni accurate e affidabili sulla natura del modello di business e sulla natura dell'offerta specifica e può prevenire lo sfruttamento e affrontare i problemi di trasparenza.

Mentre la protezione dei dati prevede i limiti per la raccolta e l'elaborazione dei dati dei consumatori allo scopo di fornire soluzioni di intelligenza artificiale, il diritto dei consumatori può garantire che i consumatori comprendano le implicazioni di tali tecnologie e il risultato delle decisioni prese dalle tecnologie di apprendimento dei macchinari.

Inoltre, il diritto dei consumatori può aiutare il decollo dell'intelligenza artificiale nell'Unione europea. Se non vi è trasparenza sull'uso di prodotti basati su algoritmi, la fiducia dei consumatori nei prodotti di intelligenza artificiale sarà influenzata negativamente.

Ciò che è necessario è una mappatura dettagliata e un'attenta valutazione dell'intero diritto dei consumatori dell'UE, nonché norme settoriali specifiche, in particolare la legislazione sui servizi sanitari, i servizi finanziari e i servizi energetici per verificare se tali quadri giuridici sono idonei per l’intelligenza artificiale e il processo decisionale automatizzato Inoltre, la Commissione Europea, nella sua strategia sull'intelligenza

artificiale pubblicata di recente, non riconosce l'urgenza di svolgere questo esercizio cruciale per i consumatori166.

Un altro aspetto importante che deriva dall'aumento del rapporto tra intelligenza artificiale e processo decisionale automatizzato è legato alla categorizzazione e alla discriminazione dei consumatori. I consumatori, in base al loro profilo, sono assegnati ai segmenti di mercato con un crescente grado di precisione. Tale categorizzazione può rivelarsi problematica in diverse situazioni.

Ad esempio, c'è un problema se il processo di profilazione ha raggiunto il risultato sbagliato e viene applicato un profilo sbagliato. Ciò potrebbe essere dovuto a errori intrinseci nella tecnica di calcolo dell'analisi statistica o a database distorti che potrebbero far sì che il sistema raggiunga falsi positivi o falsi negativi.

La discriminazione può verificarsi laddove i dati inseriti nel consumatore non siano sufficientemente rilevanti per giungere a una conclusione corretta. Le conseguenze di tali decisioni automatizzate possono essere gravi: l'utente può essere privato di un servizio o negato l'accesso alle informazioni.

È anche possibile che coloro che controllano gli algoritmi cerchino intenzionalmente di ottenere risultati sleali, discriminatori o distorti al fine di escludere determinati gruppi di persone.

Un esempio potrebbe essere il caso in cui la profilazione indica che è altamente probabile che un individuo appartenga a un determinato gruppo nella società e pertanto non viene fornito un invito ad acquistare un servizio o le offerte di tale individuo vengono automaticamente respinte. Le implicazioni sociali possono essere gravi167.

166 TURBAN, E., ARONSON, J. E., LIANG, T.-P. AND MCCARTHY, R. (2005). Decision support systems and intelligent systems, 7th edn., London: Prentice-Hall.

Inoltre, le registrazioni digitali del comportamento umano possono rivelare dati altamente sensibili, non solo in termini di preferenze, ma anche riguardo all'orientamento sessuale, all'età, al genere e alle opinioni religiose e politiche.

In questo modo, colui che controlla tali informazioni può valutare ciò che ha innescato un determinato comportamento, ad esempio dipendenza da droghe o gioco d'azzardo, reddito basso o alto, una certa condizione medica o un certo umore e usarlo a suo vantaggio, ad esempio ricevere prodotti personalizzati la mattina dopo che l'utente ha perso il lavoro o se il programma prevede che l'autostima dell'utente è al minimo.

Questo tipo di categorizzazione porta a un trattamento diverso a seconda dell'utente. Gli individui riceveranno diversi tipi di prezzi o diversi tipi di offerte speciali e offerte perché sono associati a un determinato gruppo, mentre altri non hanno accesso alle stesse offerte.

Ad esempio, le persone che sono classificate come ricche possono ricevere annunci su un trattamento medico rivoluzionario solo perché si ritiene che siano in grado di pagarlo. Altri possono essere esclusi dai servizi come gruppo ad alto rischio, in base alla loro nazionalità o credenze religiose.

Nel documento Profilazione e Decisioni Automatizzate (pagine 65-74)