• Non ci sono risultati.

EMENDAMENTI IT Unita nella diversità IT. Parlamento europeo 2020/2014(INL) Progetto di relazione Axel Voss (PE650.

N/A
N/A
Protected

Academic year: 2022

Condividi "EMENDAMENTI IT Unita nella diversità IT. Parlamento europeo 2020/2014(INL) Progetto di relazione Axel Voss (PE650."

Copied!
86
0
0

Testo completo

(1)

AM\1206225IT.docx PE652.518

IT

Unita nella diversità

IT

Parlamento europeo

2019-2024

Commissione giuridica

2020/2014(INL) 28.5.2020

EMENDAMENTI 251 - 430

Progetto di relazione Axel Voss

(PE650.556v01-00)

Regime di responsabilità civile per l'intelligenza artificiale (2020/2014(INL))

(2)

PE652.518 2/86 AM\1206225IT.docx

IT

AM_Com_NonLegReport

(3)

AM\1206225IT.docx 3/86 PE652.518

IT

Emendamento 251 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – considerando 21

Proposta di risoluzione Emendamento

(21) È estremamente importante che qualsiasi modifica futura del presente testo proceda di pari passo con un necessario riesame della direttiva sulla responsabilità per danno da prodotti difettosi.

L'introduzione di un nuovo regime di responsabilità civile per l'operatore di sistemi di IA richiede lo stretto coordinamento tra le disposizioni del presente regolamento e il riesame della direttiva sulla responsabilità per danno da prodotti difettosi per quanto riguarda sia il contenuto sia l'approccio, affinché insieme essi formino un quadro coerente in materia di responsabilità per i sistemi di IA,

contemperando gli interessi del produttore, dell'operatore e della persona interessata relativamente al rischio di responsabilità civile. Si rendono pertanto necessari l'adattamento e l'ottimizzazione delle definizioni di sistema di IA, operatore, produttore, sviluppatore, difetto, prodotto e servizio in tutti gli atti legislativi.

(21) È estremamente importante che qualsiasi modifica futura del presente testo proceda di pari passo con un necessario riesame della direttiva sulla responsabilità per danno da prodotti difettosi, al fine di rivedere in modo completo e coerente i diritti e gli obblighi di tutte le parti interessate lungo l'intera catena delle responsabilità. L'introduzione di un nuovo regime di responsabilità civile per

l'operatore di sistemi di IA richiede lo stretto coordinamento tra le disposizioni del presente regolamento e il riesame della direttiva sulla responsabilità per danno da prodotti difettosi per quanto riguarda sia il contenuto sia l'approccio, affinché insieme essi formino un quadro coerente in materia di responsabilità per i sistemi di IA,

contemperando gli interessi del produttore, dell'operatore, del consumatore e della persona interessata relativamente al rischio di responsabilità civile e alle modalità di compensazione pertinenti. Si rendono pertanto necessari l'adattamento e

l'ottimizzazione delle definizioni di sistema di IA, operatore, produttore, sviluppatore, difetto, prodotto e servizio in tutti gli atti legislativi.

Or. en

Emendamento 252

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – considerando 21

Proposta di risoluzione Emendamento

(21) È estremamente importante che (21) È estremamente importante che

(4)

PE652.518 4/86 AM\1206225IT.docx

IT

qualsiasi modifica futura del presente testo proceda di pari passo con un necessario riesame della direttiva sulla responsabilità per danno da prodotti difettosi.

L'introduzione di un nuovo regime di responsabilità civile per l'operatore di sistemi di IA richiede lo stretto coordinamento tra le disposizioni del presente regolamento e il riesame della direttiva sulla responsabilità per danno da prodotti difettosi per quanto riguarda sia il contenuto sia l'approccio, affinché insieme essi formino un quadro coerente in materia di responsabilità per i sistemi di IA,

contemperando gli interessi del produttore, dell'operatore e della persona interessata relativamente al rischio di responsabilità civile. Si rendono pertanto necessari l'adattamento e l'ottimizzazione delle definizioni di sistema di IA, operatore, produttore, sviluppatore, difetto, prodotto e servizio in tutti gli atti legislativi.

qualsiasi modifica futura del presente testo proceda di pari passo con il necessario riesame della direttiva sulla responsabilità per danno da prodotti difettosi.

L'introduzione di un nuovo regime di responsabilità civile per l'operatore di sistemi di IA richiede lo stretto coordinamento tra le disposizioni del presente regolamento e il riesame della direttiva sulla responsabilità per danno da prodotti difettosi per quanto riguarda sia il contenuto sia l'approccio, affinché insieme essi formino un quadro coerente in materia di responsabilità per i sistemi di IA,

contemperando gli interessi del produttore, dell'operatore e della persona interessata relativamente al rischio di responsabilità civile. Si rendono pertanto necessari l'adattamento e l'ottimizzazione delle definizioni di sistema di IA, operatore, produttore, sviluppatore, difetto, prodotto e servizio in tutti gli atti legislativi, e tale adeguamento dovrebbe avvenire in parallelo.

Or. en

Emendamento 253

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – considerando 21 bis (nuovo)

Proposta di risoluzione Emendamento

(21 bis) A livello di responsabilità un approccio all'IA basato sul rischio non è adeguato, in quanto il danno si è

verificato e il prodotto ha dimostrato di essere un prodotto a rischio. Anche le cosiddette applicazioni a basso rischio potrebbero arrecare gravi danni o pregiudizi. Pertanto, il modello di responsabilità per i prodotti contenenti applicazioni di IA dovrebbe essere

affrontato con un processo in due fasi. In primo luogo, prevedendo una

responsabilità per colpa dell'operatore di

(5)

AM\1206225IT.docx 5/86 PE652.518

IT

front-end nei confronti del quale l'interessato dovrebbe avere il diritto di presentare una domanda di risarcimento.

L'operatore di front-end dovrebbe essere in grado di dimostrare l'assenza di colpa con l'adempimento al dovere di diligenza, che consiste nella regolare installazione di tutti gli aggiornamenti disponibili. Se tale obbligo è soddisfatto, si dovrebbe

presumere che la dovuta diligenza sia stata osservata. In secondo luogo, qualora non si possa accertare la colpa

dell'operatore di front-end, si dovrebbero ritenere oggettivamente responsabili il produttore o l'operatore di back-end. Tale processo in due fasi è essenziale per garantire che le vittime siano

effettivamente risarcite per i danni causati da sistemi basati sull'IA.

Or. en

Emendamento 254 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – considerando 22

Proposta di risoluzione Emendamento

(22) Gli obiettivi del presente

regolamento, ovvero creare un approccio orientato al futuro e unificato a livello di Unione che stabilisca norme comuni per i cittadini e le imprese europei e garantire la coerenza dei diritti e la certezza giuridica in tutta l'UE, al fine di evitare la

frammentazione del mercato unico digitale, che ostacolerebbe l'obiettivo di mantenere la sovranità digitale e di promuovere l'innovazione digitale in Europa,

richiedono che i regimi di responsabilità per i sistemi IA siano pienamente

armonizzati. Tale obiettivo non può essere conseguito in modo sufficiente dagli Stati membri a causa della rapidità

dell'evoluzione tecnologica, dello sviluppo transfrontaliero e dell'utilizzo di sistemi di

(22) Gli obiettivi del presente

regolamento, ovvero creare un approccio orientato al futuro e unificato a livello di Unione che stabilisca norme comuni per i cittadini e le imprese europei e garantire la coerenza dei diritti e la certezza giuridica in tutta l'UE, al fine di evitare la

frammentazione del mercato unico digitale, che ostacolerebbe l'obiettivo di mantenere la sovranità digitale, di promuovere l'innovazione digitale e di garantire un elevato livello di tutela dei diritti del cittadino e del consumatore in Europa, richiedono che i regimi di responsabilità per i sistemi IA siano pienamente

armonizzati. Tale obiettivo non può essere conseguito in modo sufficiente dagli Stati membri a causa della rapidità

(6)

PE652.518 6/86 AM\1206225IT.docx

IT

IA e, in definitiva, degli approcci

legislativi contrastanti nell'Unione, ma può invece essere realizzato a livello di Unione, in ragione delle dimensioni o degli effetti dell'azione. L'Unione può pertanto intervenire in base al principio di sussidiarietà sancito dall'articolo 5 del trattato sull'Unione europea. Il presente regolamento si limita a quanto è necessario per conseguire tali obiettivi in

ottemperanza al principio di

proporzionalità enunciato nello stesso articolo,

dell'evoluzione tecnologica, dello sviluppo transfrontaliero e dell'utilizzo di sistemi di IA e, in definitiva, degli approcci

legislativi contrastanti nell'Unione, ma può invece essere realizzato a livello di Unione, in ragione delle dimensioni o degli effetti dell'azione. L'Unione può pertanto intervenire in base al principio di sussidiarietà sancito dall'articolo 5 del trattato sull'Unione europea. Il presente regolamento si limita a quanto è necessario per conseguire tali obiettivi in

ottemperanza al principio di

proporzionalità enunciato nello stesso articolo.

Or. en

Emendamento 255

Emmanuel Maurel, Manon Aubry Proposta di risoluzione

Allegato I – parte B – considerando 22

Proposta di risoluzione Emendamento

(22) Gli obiettivi del presente

regolamento, ovvero creare un approccio orientato al futuro e unificato a livello di Unione che stabilisca norme comuni per i cittadini e le imprese europei e garantire la coerenza dei diritti e la certezza giuridica in tutta l'UE, al fine di evitare la

frammentazione del mercato unico digitale, che ostacolerebbe l'obiettivo di mantenere la sovranità digitale e di promuovere l'innovazione digitale in Europa,

richiedono che i regimi di responsabilità per i sistemi IA siano pienamente

armonizzati. Tale obiettivo non può essere conseguito in modo sufficiente dagli Stati membri a causa della rapidità

dell'evoluzione tecnologica, dello sviluppo transfrontaliero e dell'utilizzo di sistemi di IA e, in definitiva, degli approcci

legislativi contrastanti nell'Unione, ma può invece essere realizzato a livello di Unione, in ragione delle dimensioni o degli effetti

(22) Gli obiettivi del presente

regolamento, ovvero creare un approccio unificato e fondato sul principio di sicurezza e affidabilità dei prodotti che stabilisca norme comuni per i cittadini e le imprese europei e garantire la coerenza dei diritti e la certezza giuridica in tutta l'UE, al fine di evitare la frammentazione del mercato unico digitale, che ostacolerebbe l'obiettivo di mantenere la sovranità digitale e di promuovere l'innovazione digitale in Europa, richiedono che i regimi di responsabilità per i sistemi IA siano pienamente armonizzati. Tale obiettivo non può essere conseguito in modo sufficiente dagli Stati membri a causa della rapidità dell'evoluzione tecnologica, dello sviluppo transfrontaliero e dell'utilizzo di sistemi di IA e, in definitiva, degli approcci

legislativi contrastanti nell'Unione, ma può invece essere realizzato a livello di Unione, in ragione delle dimensioni o degli effetti

(7)

AM\1206225IT.docx 7/86 PE652.518

IT

dell'azione. L'Unione può pertanto intervenire in base al principio di sussidiarietà sancito dall'articolo 5 del trattato sull'Unione europea. Il presente regolamento si limita a quanto è necessario per conseguire tali obiettivi in

ottemperanza al principio di

proporzionalità enunciato nello stesso articolo,

dell'azione. L'Unione può pertanto intervenire in base al principio di sussidiarietà sancito dall'articolo 5 del trattato sull'Unione europea. Il presente regolamento si limita a quanto è necessario per conseguire tali obiettivi in

ottemperanza al principio di

proporzionalità enunciato nello stesso articolo,

Or. fr

Emendamento 256

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 1

Proposta di risoluzione Emendamento

Il presente regolamento stabilisce norme per le azioni per responsabilità civile intentate da persone fisiche e giuridiche nei confronti dell'operatore di sistemi di IA.

Il presente regolamento stabilisce norme per le azioni per responsabilità civile intentate da persone fisiche e giuridiche nei confronti dell'operatore di front-end e dell'operatore di back-end di sistemi di IA.

Or. en

Emendamento 257

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – articolo 1

Proposta di risoluzione Emendamento

Il presente regolamento stabilisce norme per le azioni per responsabilità civile intentate da persone fisiche e giuridiche nei confronti dell'operatore di sistemi di IA.

(Non concerne la versione italiana)

Or. en

Emendamento 258

(8)

PE652.518 8/86 AM\1206225IT.docx

IT

Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 1

Proposta di risoluzione Emendamento

Il presente regolamento stabilisce norme per le azioni per responsabilità civile intentate da persone fisiche e giuridiche nei confronti dell'operatore di sistemi di IA.

(Non concerne la versione italiana)

Or. en

Emendamento 259 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 2 – paragrafo 1

Proposta di risoluzione Emendamento

1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica o al patrimonio di una persona fisica o giuridica.

1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA o da un sistema decisionale autonomo

(autonomous decision-making, ADM) abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica e al patrimonio di una persona fisica o

giuridica, inclusi i dati e l'ambiente digitale della persona interessata nonché altri diritti giuridici erga omnes, purché la relativa violazione possa arrecare un danno materiale.

Or. en

Emendamento 260

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior, Svenja Hahn

Proposta di risoluzione

Allegato I – parte B – articolo 2 – paragrafo 1

(9)

AM\1206225IT.docx 9/86 PE652.518

IT

Proposta di risoluzione Emendamento

1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica o al patrimonio di una persona fisica o giuridica.

1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica e al patrimonio di una persona fisica o giuridica o abbia arrecato un danno immateriale rilevante a una persona fisica o giuridica.

Or. en

Emendamento 261

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 2 – paragrafo 1

Proposta di risoluzione Emendamento

1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica o al patrimonio di una persona fisica o giuridica.

1. Il presente regolamento si applica nel territorio dell'Unione dove un

dispositivo connesso e dotato di autoapprendimento, un contenuto digitale, un bene e/o un servizio digitale abbia arrecato un danno o un pregiudizio tipico a una persona fisica o giuridica.

Or. en

Emendamento 262

Emmanuel Maurel, Manon Aubry Proposta di risoluzione

Allegato I – parte B – articolo 2 – paragrafo 1

Proposta di risoluzione Emendamento

1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica o al patrimonio di

1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica, psichica o

(10)

PE652.518 10/86 AM\1206225IT.docx

IT

una persona fisica o giuridica. morale o al patrimonio di una persona fisica o giuridica.

Or. fr

Emendamento 263 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 2 – paragrafo 2

Proposta di risoluzione Emendamento

2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato nullo e privo di effetti.

2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato inefficace per quanto

riguarda i diritti e gli obblighi sanciti dal presente regolamento.

Or. en

Emendamento 264

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 2 – paragrafo 2

Proposta di risoluzione Emendamento

2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato nullo e privo di effetti.

2. Qualsiasi contratto tra l'operatore di front-end o di back-end di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente

regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato nullo e privo di effetti.

(11)

AM\1206225IT.docx 11/86 PE652.518

IT

Or. en

Emendamento 265

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – articolo 2 – paragrafo 2

Proposta di risoluzione Emendamento

2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato nullo e privo di effetti.

(Non concerne la versione italiana)

Or. en

Emendamento 266 Kosma Złotowski Proposta di risoluzione

Allegato I – parte B – articolo 2 – paragrafo 2

Proposta di risoluzione Emendamento

2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato nullo e privo di effetti.

2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima che si manifesti il danno o il pregiudizio, è considerato nullo e privo di effetti.

Or. en

Emendamento 267 Sergey Lagodinsky Proposta di risoluzione

(12)

PE652.518 12/86 AM\1206225IT.docx

IT

Allegato I – parte B – articolo 2 – paragrafo 3

Proposta di risoluzione Emendamento

3. Il presente regolamento fa salve le eventuali ulteriori azioni per responsabilità derivanti da rapporti contrattuali tra

l'operatore e la persona fisica o giuridica vittima di un danno o pregiudizio a causa del sistema di IA.

3. Il presente regolamento fa salve le eventuali ulteriori azioni per responsabilità derivanti da rapporti contrattuali nonché da normative in materia di responsabilità per danno da prodotti difettosi, protezione del consumatore, anti-discriminazione, lavoro e tutela ambientale tra l'operatore e la persona fisica o giuridica vittima di un danno o pregiudizio a causa del sistema di IA.

Or. en

Emendamento 268 Kosma Złotowski Proposta di risoluzione

Allegato I – parte B – articolo 2 – paragrafo 3

Proposta di risoluzione Emendamento

3. Il presente regolamento fa salve le eventuali ulteriori azioni per responsabilità derivanti da rapporti contrattuali tra

l'operatore e la persona fisica o giuridica vittima di un danno o pregiudizio a causa del sistema di IA.

3. Il presente regolamento fa salve le eventuali ulteriori azioni per responsabilità derivanti da rapporti contrattuali tra

l'operatore e la persona fisica o giuridica vittima di un danno o pregiudizio a causa del sistema di IA e che possono essere intraprese contro l'operatore secondo il diritto dell'Unione o nazionale.

Or. en

Emendamento 269

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – articolo 2 – paragrafo 3

Proposta di risoluzione Emendamento

3. Il presente regolamento fa salve le

eventuali ulteriori azioni per responsabilità (Non concerne la versione italiana)

(13)

AM\1206225IT.docx 13/86 PE652.518

IT

derivanti da rapporti contrattuali tra l'operatore e la persona fisica o giuridica vittima di un danno o pregiudizio a causa del sistema di IA.

Or. en

Emendamento 270 Marion Walsmann Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera a

Proposta di risoluzione Emendamento

a) "sistema di intelligenza artificiale (IA)": un sistema che mostra un

comportamento intelligente analizzando un determinato input e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici. I sistemi di IA possono consistere solo in software che agiscono nel mondo virtuale oppure essere integrati in dispositivi hardware;

a) "sistema di intelligenza artificiale (IA)": un sistema i cui metodi e processi consentono ai sistemi tecnici di osservare il loro ambiente, elaborare quanto

osservato e risolvere problemi, prendere decisioni e intraprendere azioni in autonomia nonché di imparare dalle conseguenze di tali decisioni e azioni. I sistemi di IA possono consistere solo in software che agiscono nel mondo virtuale oppure essere integrati in dispositivi hardware;

Or. de

Emendamento 271 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera a)

Proposta di risoluzione Emendamento

a) "sistema di intelligenza artificiale (IA)": un sistema che mostra un

comportamento intelligente analizzando un determinato input e compiendo azioni, con un certo grado di autonomia, per

raggiungere obiettivi specifici. I sistemi di IA possono consistere solo in software che agiscono nel mondo virtuale oppure

a) "sistema di intelligenza artificiale (IA)": un sistema che mostra un

comportamento che simula l'intelligenza analizzando un determinato input e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici;

(14)

PE652.518 14/86 AM\1206225IT.docx

IT

essere integrati in dispositivi hardware;

Or. en

Emendamento 272

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera a)

Proposta di risoluzione Emendamento

a) "sistema di intelligenza artificiale (IA)": un sistema che mostra un

comportamento intelligente analizzando un determinato input e compiendo azioni, con un certo grado di autonomia, per

raggiungere obiettivi specifici. I sistemi di IA possono consistere solo in software che agiscono nel mondo virtuale oppure essere integrati in dispositivi hardware;

a) "sistema di intelligenza artificiale (IA)": un sistema che mostra un

comportamento intelligente analizzando l'ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici. I sistemi di IA possono consistere solo in software che agiscono nel mondo virtuale oppure essere integrati in dispositivi hardware;

Or. en

Emendamento 273

Sergey Lagodinsky, Evelyne Gebhardt Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera a bis) (nuova)

Proposta di risoluzione Emendamento

a bis) "sistema decisionale automatizzato (ADM), di supporto o di informazione per l'attività decisionale": una procedura in base alla quale le decisioni sono

inizialmente delegate, in parte o

interamente, a un operatore utilizzando un software o un servizio che a sua volta utilizza modelli decisionali automatizzati per lo svolgimento di un'azione;

Or. en

(15)

AM\1206225IT.docx 15/86 PE652.518

IT

Emendamento 274 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera b)

Proposta di risoluzione Emendamento

b) "autonomo": un sistema di IA che opera percependo un determinato input e senza aver bisogno di seguire istruzioni predefinite, nonostante il suo

comportamento sia limitato dallo scopo che gli è stato attribuito e da altre pertinenti scelte di progettazione compiute dal suo sviluppatore;

b) "autonomo": un sistema di IA o un sistema ADM che opera per conto del proprietario ma senza alcuna interferenza da parte di quest'ultimo, percependo un determinato input e andando oltre le istruzioni predefinite, nonostante il suo comportamento sia limitato dallo scopo che gli è stato attribuito e finalizzato al suo conseguimento, e nonostante sia limitato da altre pertinenti scelte di progettazione compiute dal suo sviluppatore;

Or. en

Emendamento 275

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera c)

Proposta di risoluzione Emendamento

c) "alto rischio": un potenziale significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e impossibile da prevedere in anticipo; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;

soppresso

Or. en

Emendamento 276 Sergey Lagodinsky

(16)

PE652.518 16/86 AM\1206225IT.docx

IT

Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera c)

Proposta di risoluzione Emendamento

c) "alto rischio": un potenziale

significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e impossibile da prevedere in anticipo; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;

c) "alto rischio": un potenziale

significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo difficilmente prevedibile in anticipo;

l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, il grado di autonomia decisionale e la modalità e il contesto di utilizzo del sistema di IA, in particolare il valore dei beni e dei diritti esposti al rischio;

Or. en

Emendamento 277

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior, Svenja Hahn

Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera c)

Proposta di risoluzione Emendamento

c) "alto rischio": un potenziale

significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e impossibile da prevedere in anticipo; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;

c) "alto rischio": un potenziale

significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e che va oltre quanto ci si possa ragionevolmente aspettare dal suo utilizzo previsto; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;

Or. en

Emendamento 278 Marion Walsmann

(17)

AM\1206225IT.docx 17/86 PE652.518

IT

Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera c

Proposta di risoluzione Emendamento

c) "alto rischio": un potenziale

significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e impossibile da prevedere in anticipo; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;

c) "alto rischio": un potenziale

significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi significativi a una o più persone in modo casuale e impossibile da prevedere in anticipo; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;

Or. de

Emendamento 279 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera d)

Proposta di risoluzione Emendamento

d) "operatore": la persona che decide in merito all'utilizzo del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;

d) "operatore": la persona che esercita il controllo sul rischio associato e beneficia del suo funzionamento, inclusi l'operatore di front-end e l'operatore di back-end, ossia la persona che definisce

continuamente le caratteristiche della tecnologia pertinente e fornisce sostegno di back-end essenziale e continuativo;

Or. en

Emendamento 280 Marion Walsmann Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera d

Proposta di risoluzione Emendamento

d) "operatore": la persona che decide d) "operatore": qualsiasi persona

(18)

PE652.518 18/86 AM\1206225IT.docx

IT

in merito all'utilizzo del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;

fisica o giuridica che decide in merito all'impiego concreto del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;

Or. de

Emendamento 281

Emmanuel Maurel, Manon Aubry Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera d

Proposta di risoluzione Emendamento

d) "operatore": la persona che decide in merito all'utilizzo del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;

d) "operatore": la persona fisica o giuridica che contribuisce all'immissione in commercio del sistema di IA o alla sua messa a disposizione in favore degli utenti e che controlla o gestisce tale sistema;

Or. fr

Emendamento 282

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera d)

Proposta di risoluzione Emendamento

d) "operatore": la persona che decide in merito all'utilizzo del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;

d) "operatore": la persona che esercita il controllo sul rischio associato e beneficia del suo funzionamento;

Or. en

Emendamento 283

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera d)

(19)

AM\1206225IT.docx 19/86 PE652.518

IT

Proposta di risoluzione Emendamento

d) "operatore": la persona che decide in merito all'utilizzo del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;

d) "operatore di front-end": la persona che principalmente decide in merito all'utilizzo della tecnologia pertinente e ne trae beneficio;

Or. en

Emendamento 284

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera d bis) (nuova)

Proposta di risoluzione Emendamento

d bis) "controllo": l'influenza sull'utilizzo e sul funzionamento del sistema di IA dall'inizio alla fine e, pertanto, sulla misura in cui il sistema espone terzi a potenziali rischi;

Or. en

Emendamento 285

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera d bis) (nuova)

Proposta di risoluzione Emendamento

d bis) "operatore di back-end": la persona che definisce continuamente le caratteristiche della tecnologia pertinente e fornisce sostegno di back-end essenziale e continuativo;

Or. en

Emendamento 286

Evelyne Gebhardt, Brando Benifei

(20)

PE652.518 20/86 AM\1206225IT.docx

IT

Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera e)

Proposta di risoluzione Emendamento

e) "persona interessata": qualsiasi persona che subisca i danni o pregiudizi causati da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA e che non sia l'operatore di tale sistema;

e) "persona interessata": qualsiasi persona che subisca i danni o pregiudizi causati da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA e che non sia l'operatore di front-end di tale sistema;

Or. en

Emendamento 287

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera e)

Proposta di risoluzione Emendamento

e) "persona interessata": qualsiasi persona che subisca i danni o pregiudizi causati da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA e che non sia l'operatore di tale sistema;

(Non concerne la versione italiana)

Or. en

Emendamento 288 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera e)

Proposta di risoluzione Emendamento

e) "persona interessata": qualsiasi persona che subisca i danni o pregiudizi causati da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA e che non sia l'operatore di tale sistema;

e) "persona interessata": qualsiasi persona i cui beni o diritti siano danneggiati o lesi da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA;

(21)

AM\1206225IT.docx 21/86 PE652.518

IT

Or. en

Emendamento 289 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera f)

Proposta di risoluzione Emendamento

f) "danno o pregiudizio": un effetto negativo che influisce sulla vita, la salute, l'integrità fisica o il patrimonio di una persona fisica o giuridica, con l'eccezione del danno morale;

f) "danno o pregiudizio": un effetto negativo sui beni e sui diritti citati;

Or. en

Emendamento 290

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior, Svenja Hahn

Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera f)

Proposta di risoluzione Emendamento

f) "danno o pregiudizio": un effetto negativo che influisce sulla vita, la salute, l'integrità fisica o il patrimonio di una persona fisica o giuridica, con l'eccezione del danno morale;

f) "danno o pregiudizio": un effetto negativo che influisce sulla vita, la salute, l'integrità fisica, il patrimonio di una persona fisica o giuridica o che causa un rilevante danno immateriale;

Or. en

Emendamento 291

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera f)

Proposta di risoluzione Emendamento

f) "danno o pregiudizio": un effetto f) "danno o pregiudizio": qualunque

(22)

PE652.518 22/86 AM\1206225IT.docx

IT

negativo che influisce sulla vita, la salute, l'integrità fisica o il patrimonio di una persona fisica o giuridica, con l'eccezione del danno morale;

danno o pregiudizio tipico, materiale o morale, per cui si concretizzi il rischio particolare dei sistemi di IA o dei dispositivi connessi;

Or. en

Emendamento 292

Emmanuel Maurel, Manon Aubry Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera f

Proposta di risoluzione Emendamento

f) "danno o pregiudizio": un effetto negativo che influisce sulla vita, la salute, l'integrità fisica o il patrimonio di una persona fisica o giuridica, con l'eccezione del danno morale;

f) "danno o pregiudizio": un effetto negativo che influisce sulla vita, la salute, l'integrità fisica, psichica o morale o il patrimonio di una persona fisica o giuridica;

Or. fr

Emendamento 293

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera g)

Proposta di risoluzione Emendamento

g) "produttore": lo sviluppatore o l'operatore di back-end di un sistema di IA o il produttore quale definito

all'articolo 3 della direttiva 85/374/CEE del Consiglio7.

soppresso

_________________

7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative,

regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.

(23)

AM\1206225IT.docx 23/86 PE652.518

IT

Or. en

Emendamento 294

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera g)

Proposta di risoluzione Emendamento

g) "produttore": lo sviluppatore o l'operatore di back-end di un sistema di IA o il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del

Consiglio7.

g) "produttore": il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del Consiglio7.

_________________ _________________

7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.

7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.

Or. en

Emendamento 295 Kosma Złotowski Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera g)

Proposta di risoluzione Emendamento

g) "produttore": lo sviluppatore o l'operatore di back-end di un sistema di IA o il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del Consiglio7.

g) "produttore": lo sviluppatore, il gestore o l'operatore di back-end di un sistema di IA o il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del Consiglio7.

_________________ _________________

7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in

7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in

(24)

PE652.518 24/86 AM\1206225IT.docx

IT

materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.

materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.

Or. en

Emendamento 296 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera g)

Proposta di risoluzione Emendamento

g) "produttore": lo sviluppatore o l'operatore di back-end di un sistema di IA o il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del Consiglio7.

g) "produttore": lo sviluppatore di un sistema di IA o il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del Consiglio7.

_________________ _________________

7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.

7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.

Or. en

Emendamento 297 Marion Walsmann Proposta di risoluzione

Allegato I – parte B – articolo 3 – lettera g bis (nuova)

Proposta di risoluzione Emendamento

g bis) "forza maggiore": conformemente alle norme nazionali, circostanze

eccezionali e imprevedibili che sfuggono al controllo dell'operatore e le cui

conseguenze non avrebbero potuto essere evitate nemmeno se si fosse osservata la massima diligenza.

(25)

AM\1206225IT.docx 25/86 PE652.518

IT

Or. de

Emendamento 298

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – capo 2– titolo

Proposta di risoluzione Emendamento

Sistemi di IA ad alto rischio Regimi di responsabilità

Or. en

Emendamento 299

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 4 – titolo

Proposta di risoluzione Emendamento

Responsabilità oggettiva per i sistemi di IA ad alto rischio

Responsabilità per colpa e responsabilità oggettiva per i sistemi di IA

Or. en

Emendamento 300

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 1

Proposta di risoluzione Emendamento

1. L'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA.

1. L'operatore di front-end di un sistema di IA ad alto rischio è responsabile per colpa di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA. L'operatore di front-end deve adempiere al dovere di diligenza che consiste nella regolare installazione di tutti gli aggiornamenti disponibili. Se tale

(26)

PE652.518 26/86 AM\1206225IT.docx

IT

obbligo è soddisfatto, si presume che la dovuta diligenza sia stata osservata.

Or. en

Emendamento 301 Daniel Buda

Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 1

Proposta di risoluzione Emendamento

1. L'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA.

1. L'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio alla vita, alla salute, all'integrità fisica o ai beni di persone fisiche o giuridiche causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA.

Or. ro

Emendamento 302

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 1

Proposta di risoluzione Emendamento

1. L'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA.

(Non concerne la versione italiana)

Or. en

Emendamento 303 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 1

(27)

AM\1206225IT.docx 27/86 PE652.518

IT

Proposta di risoluzione Emendamento

1. L'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA.

(Non concerne la versione italiana)

Or. en

Emendamento 304 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – parte introduttiva

Proposta di risoluzione Emendamento

2. I sistemi di IA ad alto rischio e i settori fondamentali in cui sono utilizzati sono elencati nell'allegato al presente regolamento. Alla Commissione è

conferito il potere di adottare atti delegati conformemente all'articolo 13 per

modificare l'elenco esaustivo contenuto nell'allegato:

2. Le categorie di sistemi di IA ad alto rischio e i criteri utilizzati per definire l'alto rischio sono stabiliti nell'ambito di un processo di consultazione strutturato tra la Commissione, le autorità di controllo competenti e tutte le parti interessate, inclusi rappresentanti della società civile, con aggiornamenti regolari al fine di riflettere il rapido percorso del cambiamento tecnologico.

Or. en

Emendamento 305

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – parte introduttiva

Proposta di risoluzione Emendamento

2. I sistemi di IA ad alto rischio e i settori fondamentali in cui sono utilizzati sono elencati nell'allegato al presente regolamento. Alla Commissione è

conferito il potere di adottare atti delegati conformemente all'articolo 13 per

2. Qualora non si possa accertare la colpa dell'operatore di front-end, si deve ritenere oggettivamente responsabile l'operatore di back-end.

(28)

PE652.518 28/86 AM\1206225IT.docx

IT

modificare l'elenco esaustivo contenuto nell'allegato:

Or. en

Emendamento 306 Marion Walsmann Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – parte introduttiva

Proposta di risoluzione Emendamento

2. I sistemi di IA ad alto rischio e i settori fondamentali in cui sono utilizzati sono elencati nell'allegato al presente regolamento. Alla Commissione è

conferito il potere di adottare atti delegati conformemente all'articolo 13 per

modificare l'elenco esaustivo contenuto nell'allegato:

2. La Commissione è incaricata della redazione di un elenco dei sistemi di IA ad alto rischio e dei settori fondamentali in cui essisono utilizzati nell'ambito di atti delegati conformemente all'articolo 13.

Or. de

Emendamento 307

Emmanuel Maurel, Manon Aubry Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – parte introduttiva

Proposta di risoluzione Emendamento

2. I sistemi di IA ad alto rischio e i settori fondamentali in cui sono utilizzati sono elencati nell'allegato al presente regolamento. Alla Commissione è

conferito il potere di adottare atti delegati conformemente all'articolo 13 per

modificare l'elenco esaustivo contenuto nell'allegato:

2. I sistemi di IA ad alto rischio e i settori fondamentali in cui sono utilizzati sono elencati nell'allegato al presente regolamento. Alla Commissione è

conferito il potere di adottare atti delegati conformemente all'articolo 13 per

modificare l'elenco contenuto nell'allegato:

Or. fr

Emendamento 308

(29)

AM\1206225IT.docx 29/86 PE652.518

IT

Marion Walsmann Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – lettera a

Proposta di risoluzione Emendamento

a) inserendo nuovi tipi di sistemi di IA ad alto rischio e settori fondamentali in cui sono utilizzati;

soppresso

Or. de

Emendamento 309 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – lettera a)

Proposta di risoluzione Emendamento

a) inserendo nuovi tipi di sistemi di IA ad alto rischio e settori fondamentali in cui sono utilizzati;

soppresso

Or. en

Emendamento 310

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – lettera a)

Proposta di risoluzione Emendamento

a) inserendo nuovi tipi di sistemi di IA ad alto rischio e settori fondamentali in cui sono utilizzati;

soppresso

Or. en

Emendamento 311 Marion Walsmann

(30)

PE652.518 30/86 AM\1206225IT.docx

IT

Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – lettera b

Proposta di risoluzione Emendamento

b) eliminando tipi di sistemi di IA che non possono più essere considerati ad alto rischio; e/o

soppresso

Or. de

Emendamento 312

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – lettera b)

Proposta di risoluzione Emendamento

b) eliminando tipi di sistemi di IA che non possono più essere considerati ad alto rischio; e/o

soppresso

Or. en

Emendamento 313 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – lettera b)

Proposta di risoluzione Emendamento

b) eliminando tipi di sistemi di IA che non possono più essere considerati ad alto rischio; e/o

soppresso

Or. en

Emendamento 314 Marion Walsmann Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – lettera c

(31)

AM\1206225IT.docx 31/86 PE652.518

IT

Proposta di risoluzione Emendamento

c) modificando i settori fondamentali per i sistemi di IA ad alto rischio esistenti.

soppresso

Or. de

Emendamento 315 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – lettera c)

Proposta di risoluzione Emendamento

c) modificando i settori fondamentali per i sistemi di IA ad alto rischio esistenti.

soppresso

Or. en

Emendamento 316

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – lettera c)

Proposta di risoluzione Emendamento

c) modificando i settori fondamentali

per i sistemi di IA ad alto rischio esistenti. soppresso

Or. en

Emendamento 317 Marion Walsmann Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – comma 2

Proposta di risoluzione Emendamento

Qualsiasi atto delegato che modifichi l'allegato entra in vigore sei mesi dopo la

soppresso

(32)

PE652.518 32/86 AM\1206225IT.docx

IT

sua adozione. Nel determinare i nuovi settori fondamentali e/o sistemi di IA ad alto rischio da inserire nell'allegato mediante atti delegati, la Commissione tiene pienamente conto dei criteri stabiliti dal presente regolamento, in particolare di quelli enunciati all'articolo 3, lettera c).

Or. de

Emendamento 318 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – comma 2

Proposta di risoluzione Emendamento

Qualsiasi atto delegato che modifichi l'allegato entra in vigore sei mesi dopo la sua adozione. Nel determinare i nuovi settori fondamentali e/o sistemi di IA ad alto rischio da inserire nell'allegato mediante atti delegati, la Commissione tiene pienamente conto dei criteri stabiliti dal presente regolamento, in particolare di quelli enunciati all'articolo 3, lettera c).

soppresso

Or. en

Emendamento 319

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 2 – comma 2

Proposta di risoluzione Emendamento

Qualsiasi atto delegato che modifichi l'allegato entra in vigore sei mesi dopo la sua adozione. Nel determinare i nuovi settori fondamentali e/o sistemi di IA ad alto rischio da inserire nell'allegato mediante atti delegati, la Commissione tiene pienamente conto dei criteri stabiliti dal presente regolamento, in particolare

soppresso

(33)

AM\1206225IT.docx 33/86 PE652.518

IT

di quelli enunciati all'articolo 3, lettera c).

Or. en

Emendamento 320

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 3

Proposta di risoluzione Emendamento

3. L'operatore di un sistema di IA ad alto rischio non può discolparsi

sostenendo di avere agito con la dovuta diligenza o che il danno o il pregiudizio sia stato cagionato da un'attività,

dispositivo o processo autonomo guidato dal suo sistema di IA. L'operatore non è considerato responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.

soppresso

Or. en

Emendamento 321 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 3

Proposta di risoluzione Emendamento

3. L'operatore di un sistema di IA ad alto rischio non può discolparsi sostenendo di avere agito con la dovuta diligenza o che il danno o il pregiudizio sia stato cagionato da un'attività, dispositivo o processo autonomo guidato dal suo sistema di IA.

L'operatore non è considerato

responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.

3. L'operatore di un sistema di IA ad alto rischio non può discolparsi sostenendo di avere agito con la dovuta diligenza o che il danno o il pregiudizio sia stato cagionato da un'attività, dispositivo o processo autonomo guidato dal suo sistema di IA.

Or. en

(34)

PE652.518 34/86 AM\1206225IT.docx

IT

Emendamento 322

Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 3

Proposta di risoluzione Emendamento

3. L'operatore di un sistema di IA ad alto rischio non può discolparsi sostenendo di avere agito con la dovuta diligenza o che il danno o il pregiudizio sia stato cagionato da un'attività, dispositivo o processo autonomo guidato dal suo sistema di IA.

L'operatore non è considerato responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.

(Non concerne la versione italiana)

Or. en

Emendamento 323 Sergey Lagodinsky Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 3 bis (nuovo)

Proposta di risoluzione Emendamento

3 bis. Quando l'operatore è un operatore di front-end, questi deve essere in grado di dimostrare la veridicità della propria colpa. L'operatore non è considerato responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.

Or. en

Emendamento 324 Sabrina Pignedoli Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 3 bis (nuovo)

Proposta di risoluzione Emendamento

3 bis. L'onere di provare il danno o il

(35)

AM\1206225IT.docx 35/86 PE652.518

IT

pregiudizio causato da un'attività di IA ad alto rischio incombe sull'operatore e non sulla persona interessata.

Or. it

Emendamento 325 Sabrina Pignedoli Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 3 ter (nuovo)

Proposta di risoluzione Emendamento

3 ter. L'operatore di un sistema di IA ad alto rischio deve assicurarsi che i sistemi di IA siano dotati di un registratore dei dati che impieghi un sistema digitale di registrazione e di memorizzazione dei dati e per il quale sia disponibile un sistema che permetta di estrarre facilmente tali dati dal supporto di memorizzazione.

L'operatore mette a disposizione tutte le registrazioni dei registratori che sono state conservate, se lo stabilisce l'autorità competente.

L'operatore deve garantire la continua efficienza dei registratori.

A seguito di un incidente o di un

inconveniente che causi un danno o un pregiudizio a una persona interessata, l'operatore di un sistema di IA ad alto rischio deve conservare i dati originali pertinenti per un periodo di 60 giorni, a meno che l'autorità inquirente non abbia dato istruzioni diverse al riguardo.

Or. it

Emendamento 326

Evelyne Gebhardt, Brando Benifei Proposta di risoluzione

Allegato I – parte B – articolo 4 – paragrafo 4

Riferimenti

Documenti correlati

considerando che è importante informare i consumatori e consentire loro di assumersi la responsabilità delle conseguenze legate alla scelta di prodotti alimentari

condizioni di lavoro e della protezione sociale; invita la Commissione e gli Stati membri a modificare l'attuale legislazione dando la priorità ai diritti dei lavoratori

sulla proposta di decisione del Consiglio relativa alla conclusione, a nome dell'Unione europea, del protocollo di modifica dell'accordo tra la Comunità europea e la

conseguenti forti riduzioni delle possibilità di pesca e alla luce delle misure specifiche previste dal piano pluriennale per il Mar Baltico, è opportuno che l'aiuto pubblico

Joachim Schuster, Paul Tang, Jonás Fernández, Pedro Marques, Csaba Molnár, Margarida Marques, Aurore Lalucq, Evelyn Regner, Pedro Silva Pereira, Marc Angel Proposta di

La proposta intende offrire ai viaggiatori che utilizzano il collegamento fisso sotto la Manica dalla Francia al Regno Unito infrastrutture per gli acquisti in esenzione da

è del parere che, al fine di agevolare il commercio e aumentare la certezza del diritto nel mercato interno, la Commissione, in cooperazione con gli Stati membri, dovrebbe

Arba Kokalari, Ivan Štefanec, Barbara Thaler, Edina Tóth, Tomislav Sokol, Pascal Arimont, Marion Walsmann, Andreas Schwab, Kris Peeters, Maria da Graça Carvalho Proposta