Nel 2018, a seguito dello sviluppo sempre più veloce delle tecnologie legate all’intelligenza artificiale, la commissione europea ha formato un gruppo di esperti, definito AI HLEG (High Level Expert Group on Artificial Intelligence) al fine da realizzare delle linee guida etiche che potessero portare all’adozione dell’intelligenza artificiale in modo appropriato. L’intelligenza artificiale può portare a grandi benefici con l’utilizzo dei dati e lo sviluppo di tecnologie in vari ambiti quali la guida autonoma, la salute, i servizi robotici, l’educazione ecc. Oltre agli innumerevoli benefici queste tecnologie possono portare anche a numerosi rischi. Per evitare ciò la commissione ha stabilito che vi sono due ambiti principali nei quali operare per avere piena fiducia verso l’IA: essa deve rispettare i diritti fondamentali con un presupposto etico. Il secondo ambito invece è quello tecnico, in quanto questa tecnologia deve essere abbastanza solida da evitare che eventuali lacune possano causare del male (AI HLEG, 2018).
Nello specifico i principi etici correlati all’intelligenza artificiale devono essere:
- Il principio della beneficienza “fare bene”: i sistemi IA devono essere progettati e sviluppati per migliorare il benessere individuale e collettivo, creando prosperità e creazione di valore.
- Il principio della non maleficenza “non fare male”. I sistemi IA devono essere progettati al fine di non procurare danno agli esseri umani, né di accentuare eventuali aspetti negativi.
- Il principio dell’autonomia: l’autonomia implica la libertà dell’essere umano dall’essere subordinato o sotto coercizione da parte di sistemi guidati da intelligenza artificiale. Questo implica il diritto di essere soggetto direttamente o indirettamente di decisioni da parte dell’IA.
- Il principio della giustizia “essere corretti”. I sistemi di IA devono essere sviluppati, usati e regolamentati con principi di giustizia ed etici. Sviluppatori e implementatori devono assicurare che minoranze individuali o di gruppo siano libere da pregiudizi. - Il principio della “spiegabilità”: operare in modo trasparente. La trasparenza è la
chiave per costruire e mantenere nei cittadini la fiducia nei sistemi IA. Questi sistemi devono essere verificabili e comprensibili agli altri esseri umani i quali devono essere informati sulle intenzioni degli sviluppatori di queste tecnologie sul loro utilizzo.
Nello sviluppare questi principi da parte della commissione sono emersi anche dei punti critici riguardanti questa tecnologia, che sono male (AI HLEG, 2018):
- L’identificazione senza consenso. Queste tecnologie permettono la facile individuazione e identificazione delle persone, per questo c’è bisogno di proporzionalità nell’uso delle tecniche di controllo della popolazione. Bisognerà
distinguere i casi in cui potranno essere usate queste tecnologie per l’identificazione personale, il tracciamento individuale o la sorveglianza. Si dovrà quindi chiedere il consenso informato alle persone se verranno coinvolte nell’uso di queste tecnologie - Sistemi IA nascosti. Un essere umano deve sempre essere a conoscenza se sta
interagendo con un essere umano oppure con una macchina ed è responsabilità degli sviluppatori, o di chi adotta tali tecnologie, fare in modo che ciò avvenga. Altrimenti, qualcuno che controlla questi sistemi può manipolare altre persone come meglio crede.
- Classificazione dei cittadini in violazione dei diritti fondamentali. La classificazione delle persone in tutti gli aspetti della vita sociale e su larga scala può mettere in pericolo i valori della società e andare contro i diritti fondamentali delle persone. Per questo, per tali tipologie di valutazioni, i cittadini devono avere a disposizione delle chiare indicazioni su come ciò avviene.
- Sistemi autonomi letali d’arma. Questi sistemi possono operare senza il controllo umano e prendere decisioni critiche nel selezionare e attaccare singoli bersagli. L’essere umano deve essere e rimanere l’unico responsabile e colpevole di ogni eventuale morte. Dal momento che, molte nazioni stanno sviluppando questa tipologia di tecnologie, c’è il rischio che si arrivi a dei conflitti scaturiti senza alcun controllo da parte degli esseri umani.
- Potenziali rischi a lungo termine. Attualmente, le tecnologie IA sono legate a singoli ambiti specifici seguiti da esperti del settore che sviluppano queste tecnologie per scopi previsi. Su lungo termine però bisogna pensare che possano sorgere nuove elementi critici che al momento non sono ben chiari o speculativi.
Sempre secondo la stessa commissione, affinché l’intelligenza artificiale sia degna di fiducia, deve possedere dieci requisiti riguardante l’applicazione o chi la sviluppa (AI HLEG, 2018):
- Responsabilità: devono esserci meccanismi di responsabilità nel caso dovessero insorgere dei problemi. Meccanismi di rimborso o presa a carico responsabilità in caso di problemi.
- Governance dei dati: la qualità dei dati raccolti è pari alle performance delle machine learning che vanno ad allenare. È quindi fondamentale che questi dati abbiano meno errori possibili e siano raccolti con criteri e principi rigidi.
- Progettato per tutti: i sistemi devono essere progettati in una maniera tale che tutti i cittadini possano usarne i prodotti o i servizi, senza limitazioni di età, disabilità o status sociale nonché per genere o nazionalità. Deve essere incentrata sulle persone e a tutte le abilità umane, capacità e requisiti.
- Governance dell’autonomia dell’IA: maggiore è l’autonomia data ad un sistema IA e maggiore sarà la governance e le regole che saranno necessarie. Bisogna controllare che nel tempo l’IA continui a comportarsi come è previsto che si comporti, soprattutto
se essa ha impatto su individui o comunità e garantire che l’uomo possa eventualmente porre rimedio ad eventuali problemi prima che insorgano.
- Niente discriminazione: l’IA non deve in modo volontario o involontario discriminare gli individui, evitando pregiudizi o azioni che marginalizzino gruppi di individui. Questo deve essere evitato sia nella fase di progettazione che attuazione ma soprattutto i dati raccolti per l’addestramento delle macchine devono essere prive di bias.
- Rispetto autonomia umana: tutti i sistemi IA devono essere progettati non solo per seguire i diritti, i valori e i principi umani ma anche per proteggere dagli abusi i cittadini in tutte le loro diversità dal governo o dai privati. A tal scopo bisogna evitare che i programmi vengano manipolati per arrecare danni a determinati individui
- Rispetto della privacy: la privacy e la protezione dei dati devono essere garantiti in ogni fase del ciclo di vita del sistema.
- Robustezza: gli algoritmi usati devono essere sicuri e fatti in modo che possano far fronte ad errori in tutte le fasi di sviluppo e utilizzo dell’IA. La precisione dei risultati deve essere confermata e riprodotta in modo indipendente. L’IA deve poi essere programmata affinché processi correttamente i dati al fine di dare output corretti e sia in grado di resistere ad eventuali attacchi esterni.
- Sicurezza: bisogna assicurare che i sistemi svolgano i loro compiti come si è programmato e che funzionino senza che arrechino nessun tipo di danno agli utenti, minimizzando eventuali e potenziali errori.
- Trasparenza: bisogna essere in grado di poter descrivere, ispezionare e riprodurre i meccanismi tramite i quali i sistemi IA prendono decisioni e imparano ad adattarsi all’ambiente.