• Non ci sono risultati.

Immigrati. Se anche gli algoritmi hanno pregiudizi

N/A
N/A
Protected

Academic year: 2022

Condividi "Immigrati. Se anche gli algoritmi hanno pregiudizi"

Copied!
6
0
0

Testo completo

(1)

| 1 Cos’è l’uguaglianza nel XXI secolo? A un anno dallo scoppio della pandemia cosa ci attende?

“Uguaglianza” è una parola concreta, che la pandemia ha reso ancor più significativa nella sua declinazione negativa. Le disuguaglianze, infatti, sono cresciute, anche drammaticamente. Questo e molto altro, come sempre a tutto campo nel nuovo numero della rivista Arel [l’intero numero è scaricabile da chi l’acquista o dagli abbonati, per essere successivamente pubblicato su carta e diffuso nelle principali librerie Feltrinelli]. Proponiamo qui di seguito uno degli articoli del numero.

Ringraziamo la direzione e la redazione di Arel per la gradita cortesia, che rinnova l’ormai consolidata collaborazione tra le due riviste.

Gli algoritmi di Intelligenza Artificiale (IA) sono degli strumenti sempre più diffusi in molti ambiti della vita quotidiana. Questi sistemi elaborano diverse quantità e tipologie di dati per produrre un determinato risultato, chiamato anche output. Molti paesi hanno deciso di fare affidamento su queste tecnologie per gestire i flussi migratori e controllare i propri confini nazionali. Le autorità canadesi impiegano ad esempio un sistema di analisi predittive per valutare la legittimità delle richieste di visto di ingresso ricevute, nonché per scongiurare l’entrata nel proprio territorio di soggetti considerati potenziali pericoli per la sicurezza interna.

(2)

ytali è una rivista indipendente. Vive del lavoro volontario e gratuito di giornalisti e collaboratori che quotidianamente s’impegnano per dare voce a un’informazione approfondita, plurale e libera da vincoli. Il

sostegno dei lettori è il nostro unico strumento di autofinanziamento. Se anche tu vuoi contribuire con una donazione clicca QUI

L’Unione europea ha individuato diverse modalità in cui impiegare programmi di IA nel contesto delle migrazioni. Le chatbot, ossia software capaci di rispondere adeguatamente a stimoli esterni quali domande e interrogativi, potrebbero aiutare i migranti a compilare i moduli necessari per le richieste di visto e di permesso di soggiorno. Gli algoritmi di IA potrebbero inoltre essere

impiegati per gestire in maniera rapida ed efficiente i dati raccolti dai funzionari

dell’immigrazione durante i controlli alle frontiere. Potrebbero assistere i decisori umani, quali giudici o funzionari dell’immigrazione, nel valutare la legittimità degli ingressi nel territorio nazionale: gli algoritmi sarebbero infatti capaci di individuare se un documento di riconoscimento è stato falsificato o se una domanda di visto è stata presentata più volte dalla stessa persona sotto diverse identità.

(3)

| 3 Un utilizzo non attentamente disciplinato dei sistemi di IA in tale ambito può però esacerbare delle situazioni già esistenti di disuguaglianza e discriminazione, rendendo ancora più vulnerabile e precaria la posizione di migranti e rifugiati. Gli algoritmi di IA necessitano di informazioni per produrre un output. Richiedono perciò dati attendibili e veritieri per generare prodotti affidabili.

La presenza di pregiudizi e inesattezze nelle informazioni inserite negli algoritmi rischia viceversa di riprodurre e incentivare disuguaglianze storiche, sociali o culturali. Questo porterebbe di conseguenza a decisioni amministrative e giudiziali basate su presupposti discriminatori. Si pensi, a mero titolo di esempio, al rifiuto di un visto o di un permesso di soggiorno giustificato da un output formulato sulla base di dati falsati. Gli algoritmi utilizzati dalle autorità nazionali per controllare i propri confini, se costretti a elaborare informazioni errate o pregiudizievoli,

potrebbero andare a colpire particolari categorie di persone individuate sulla base di aspetti quali l’appartenenza etnica o la fede religiosa.

L’Intelligenza Artificiale non è una tecnologia intrinsecamente neutrale, poiché la sua funzionalità dipende dall’uso che ne viene fatto e dalle finalità per cui viene impiegata. Può quindi riprodurre le convinzioni e i pregiudizi degli individui che hanno raccolto i dati da elaborare o che hanno predisposto l’algoritmo stesso.

Il tema dei pregiudizi algoritmici è al centro del dibattito politico in merito all’utilizzo di sistemi di

(4)

IA nella gestione dell’immigrazione, dato il possibile impatto che questi potrebbero avere per la tutela dei diritti fondamentali delle persone coinvolte. Non è una questione di semplice soluzione, considerando anche lo specifico funzionamento degli algoritmi di IA. Il riferimento è alla

cosiddetta “barriera della scatola nera” che impedisce a un qualsiasi osservatore umano di comprendere e riprodurre il percorso di elaborazione compiuto dal software.

L’opacità e la mancanza di trasparenza insita nel funzionamento algoritmico possono mettere a repentaglio l’applicazione del principio di non discriminazione, che rappresenta un elemento cardine del diritto internazionale. Risulta infatti complesso individuare la presenza di errori o pregiudizi nell’elaborazione dei dati se è impossibile identificare le modalità con cui tale processo viene condotto. Diventa parimenti complicato garantire la tutela del diritto fondamentale a un giusto processo. L’impossibilità di capire le motivazioni dietro a un determinato output spingono il decisore umano a doversi fidare ciecamente della giustezza del ragionamento compiuto

dall’algoritmo, senza poter sindacare alcunché. La presenza di pregiudizi algoritmici potrebbe rendere di conseguenza vana l’aspettativa di avere un giudizio imparziale. Il diritto a proporre appello avverso una decisione sfavorevole potrebbe essere altrettanto vanificato. Non potendo comprendere le motivazioni alla base della suddetta decisione, a causa della mancanza di trasparenza del ragionamento algoritmico, non si possono individuare le ragioni sulle quali fondare una richiesta di appello.

(5)

| 5 L’operato degli algoritmi di IA impiegati nelle operazioni di gestione dei flussi migratori può avere delle conseguenze anche in materia di privacy e diritto alla riservatezza per migranti e rifugiati.

Questi sistemi tecnologici richiedono una grande quantità di dati per poter produrre i propri elaborati diagnostici. Le informazioni necessarie sono di diverso tipo e possono includere elementi particolarmente sensibili quali dati biometrici o relativi alle condizioni di salute. Il diritto

dell’Unione Europea in materia di data protection prevede che le operazioni di raccolta ed elaborazione dei dati vengano condotte all’insegna dei principi di trasparenza e proporzionalità.

L’opacità intrinseca al funzionamento dei sistemi di IA non può però garantire il rispetto di tali valori, a discapito delle persone che vedono le proprie informazioni processate dai suddetti algoritmi.

Questa situazione è particolarmente evidente nel contesto dei controlli ai confini nazionali. I soggetti migranti potrebbero non avere effettiva contezza di quali dati che li riguardano sono effettivamente processati, per quali finalità e per quanto tempo tali informazioni verranno archiviate dalle autorità nazionali dei paesi membri. Occorre tenere conto anche della distanza culturale che intercorre tra migranti che arrivano da paesi extra-europei e funzionari

dell’immigrazione “occidentali”. Il concetto di privacy non è infatti statico nel tempo, ma si evolve

(6)

e si adatta per rispondere ai bisogni di una società in continuo divenire. Questo può comportare che persone provenienti da diversi contesti culturali e geografici possono essere più propense a condividere determinate informazioni personali rispetto ad altre.

Alla luce di quanto appena considerato, si comprende che un utilizzo non attentamente

regolamentato delle tecnologie di IA nelle operazioni di controllo delle frontiere può aumentare le differenze e le diseguaglianze che intercorrono tra individui in condizioni particolarmente

vulnerabili, quali migranti e rifugiati, e la restante parte della popolazione. Occorre agire su diversi versanti per porre rimedio a una simile eventualità. Si rende necessaria la supervisione umana al dispiegamento degli algoritmi di IA nella gestione dei flussi migratori per impedire possibili abusi e trattamenti discriminatori. I migranti e i richiedenti asilo dovrebbero essere inoltre accompagnati nelle operazioni di controllo dell’identità e di richiesta di visto di ingresso, se necessario, da operatori adeguatamente formati in materia di privacy e di Intelligenza Artificiale per ridurre le distanze culturali prima menzionate. Per quanto riguarda l’aspetto tecnologico, gli sviluppatori dovrebbero introdurre requisiti tecnici in tema di privacy e protezione dei dati nella creazione dei propri algoritmi per ridurre quanto più possibile il rischio di pregiudizi algoritmici e per tutelare i diritti dei migranti e rifugiati coinvolti nelle operazioni di controllo.

Questo tipo di tecnologia può essere tuttavia utilizzata per perseguire fini che, diversamente dai casi-rischio menzionati, promuovono l’inclusione sociale e l’uguaglianza e andrebbero quindi incoraggiati. Gli algoritmi di IA possono facilitare l’integrazione degli stranieri nel territorio di destinazione. Ad esempio, la Svizzera impiega tali sistemi per individuare le zone più adatte a cui assegnare le persone a cui è stato concesso lo status di rifugiati; tenendo conto di diversi elementi (il tasso di occupazione della zona, la presenza di scuole capaci di accogliere figli di rifugiati, la presenza di connazionali etc.) si cerca di favorire l’integrazione di queste persone nel territorio di destinazione.

Riferimenti

Documenti correlati

● Se gli estremi degli scaglioni e/o le percentuali cambiano, devo cambiare solo l'array e non il programma che fa la ricerca!.. Algoritmi su

Tutte le operazioni dell’algoritmo devono essere di base e poter essere eseguite in un tempo finito.

se la chiave si trova nella posizione indicata dall’indice hash se la chiave si trova nella posizione indicata dall’indice hash allora allora poni le condizioni per la

Supponiamo di avere un algoritmo “black box” che mi ritorni un valore che dista al più 10 3 n dal mediano (nell’ordinamento) Potrei utilizzarlo per ottimizzare il problema

Insertion Sort, Merge Sort, Heap Sort, Quick Sort, Pigeonhole Sort Come si può rendere un qualunque algoritmo

• Finitezza Finitezza: il numero totale di azioni da eseguire, per : il numero totale di azioni da eseguire, per ogni insieme di dati di ingresso, deve essere finito ogni insieme

Un diagramma a blocchi descrive il flusso flusso delle operazioni da eseguire per realizzare la trasformazione, definita nell’algoritmo, dai dati iniziali ai risultati Ogni

• l’algoritmo di ricerca, nel caso pessimo, richiede un tempo proporzionale a |L|. • non interessa conoscere