AM\1206225IT.docx PE652.518
IT
Unita nella diversitàIT
Parlamento europeo
2019-2024
Commissione giuridica
2020/2014(INL) 28.5.2020
EMENDAMENTI 251 - 430
Progetto di relazione Axel Voss
(PE650.556v01-00)
Regime di responsabilità civile per l'intelligenza artificiale (2020/2014(INL))
PE652.518 2/86 AM\1206225IT.docx
IT
AM_Com_NonLegReport
AM\1206225IT.docx 3/86 PE652.518
IT
Emendamento 251 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – considerando 21
Proposta di risoluzione Emendamento
(21) È estremamente importante che qualsiasi modifica futura del presente testo proceda di pari passo con un necessario riesame della direttiva sulla responsabilità per danno da prodotti difettosi.
L'introduzione di un nuovo regime di responsabilità civile per l'operatore di sistemi di IA richiede lo stretto coordinamento tra le disposizioni del presente regolamento e il riesame della direttiva sulla responsabilità per danno da prodotti difettosi per quanto riguarda sia il contenuto sia l'approccio, affinché insieme essi formino un quadro coerente in materia di responsabilità per i sistemi di IA,
contemperando gli interessi del produttore, dell'operatore e della persona interessata relativamente al rischio di responsabilità civile. Si rendono pertanto necessari l'adattamento e l'ottimizzazione delle definizioni di sistema di IA, operatore, produttore, sviluppatore, difetto, prodotto e servizio in tutti gli atti legislativi.
(21) È estremamente importante che qualsiasi modifica futura del presente testo proceda di pari passo con un necessario riesame della direttiva sulla responsabilità per danno da prodotti difettosi, al fine di rivedere in modo completo e coerente i diritti e gli obblighi di tutte le parti interessate lungo l'intera catena delle responsabilità. L'introduzione di un nuovo regime di responsabilità civile per
l'operatore di sistemi di IA richiede lo stretto coordinamento tra le disposizioni del presente regolamento e il riesame della direttiva sulla responsabilità per danno da prodotti difettosi per quanto riguarda sia il contenuto sia l'approccio, affinché insieme essi formino un quadro coerente in materia di responsabilità per i sistemi di IA,
contemperando gli interessi del produttore, dell'operatore, del consumatore e della persona interessata relativamente al rischio di responsabilità civile e alle modalità di compensazione pertinenti. Si rendono pertanto necessari l'adattamento e
l'ottimizzazione delle definizioni di sistema di IA, operatore, produttore, sviluppatore, difetto, prodotto e servizio in tutti gli atti legislativi.
Or. en
Emendamento 252
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – considerando 21
Proposta di risoluzione Emendamento
(21) È estremamente importante che (21) È estremamente importante che
PE652.518 4/86 AM\1206225IT.docx
IT
qualsiasi modifica futura del presente testo proceda di pari passo con un necessario riesame della direttiva sulla responsabilità per danno da prodotti difettosi.
L'introduzione di un nuovo regime di responsabilità civile per l'operatore di sistemi di IA richiede lo stretto coordinamento tra le disposizioni del presente regolamento e il riesame della direttiva sulla responsabilità per danno da prodotti difettosi per quanto riguarda sia il contenuto sia l'approccio, affinché insieme essi formino un quadro coerente in materia di responsabilità per i sistemi di IA,
contemperando gli interessi del produttore, dell'operatore e della persona interessata relativamente al rischio di responsabilità civile. Si rendono pertanto necessari l'adattamento e l'ottimizzazione delle definizioni di sistema di IA, operatore, produttore, sviluppatore, difetto, prodotto e servizio in tutti gli atti legislativi.
qualsiasi modifica futura del presente testo proceda di pari passo con il necessario riesame della direttiva sulla responsabilità per danno da prodotti difettosi.
L'introduzione di un nuovo regime di responsabilità civile per l'operatore di sistemi di IA richiede lo stretto coordinamento tra le disposizioni del presente regolamento e il riesame della direttiva sulla responsabilità per danno da prodotti difettosi per quanto riguarda sia il contenuto sia l'approccio, affinché insieme essi formino un quadro coerente in materia di responsabilità per i sistemi di IA,
contemperando gli interessi del produttore, dell'operatore e della persona interessata relativamente al rischio di responsabilità civile. Si rendono pertanto necessari l'adattamento e l'ottimizzazione delle definizioni di sistema di IA, operatore, produttore, sviluppatore, difetto, prodotto e servizio in tutti gli atti legislativi, e tale adeguamento dovrebbe avvenire in parallelo.
Or. en
Emendamento 253
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – considerando 21 bis (nuovo)
Proposta di risoluzione Emendamento
(21 bis) A livello di responsabilità un approccio all'IA basato sul rischio non è adeguato, in quanto il danno si è
verificato e il prodotto ha dimostrato di essere un prodotto a rischio. Anche le cosiddette applicazioni a basso rischio potrebbero arrecare gravi danni o pregiudizi. Pertanto, il modello di responsabilità per i prodotti contenenti applicazioni di IA dovrebbe essere
affrontato con un processo in due fasi. In primo luogo, prevedendo una
responsabilità per colpa dell'operatore di
AM\1206225IT.docx 5/86 PE652.518
IT
front-end nei confronti del quale l'interessato dovrebbe avere il diritto di presentare una domanda di risarcimento.
L'operatore di front-end dovrebbe essere in grado di dimostrare l'assenza di colpa con l'adempimento al dovere di diligenza, che consiste nella regolare installazione di tutti gli aggiornamenti disponibili. Se tale obbligo è soddisfatto, si dovrebbe
presumere che la dovuta diligenza sia stata osservata. In secondo luogo, qualora non si possa accertare la colpa
dell'operatore di front-end, si dovrebbero ritenere oggettivamente responsabili il produttore o l'operatore di back-end. Tale processo in due fasi è essenziale per garantire che le vittime siano
effettivamente risarcite per i danni causati da sistemi basati sull'IA.
Or. en
Emendamento 254 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – considerando 22
Proposta di risoluzione Emendamento
(22) Gli obiettivi del presente
regolamento, ovvero creare un approccio orientato al futuro e unificato a livello di Unione che stabilisca norme comuni per i cittadini e le imprese europei e garantire la coerenza dei diritti e la certezza giuridica in tutta l'UE, al fine di evitare la
frammentazione del mercato unico digitale, che ostacolerebbe l'obiettivo di mantenere la sovranità digitale e di promuovere l'innovazione digitale in Europa,
richiedono che i regimi di responsabilità per i sistemi IA siano pienamente
armonizzati. Tale obiettivo non può essere conseguito in modo sufficiente dagli Stati membri a causa della rapidità
dell'evoluzione tecnologica, dello sviluppo transfrontaliero e dell'utilizzo di sistemi di
(22) Gli obiettivi del presente
regolamento, ovvero creare un approccio orientato al futuro e unificato a livello di Unione che stabilisca norme comuni per i cittadini e le imprese europei e garantire la coerenza dei diritti e la certezza giuridica in tutta l'UE, al fine di evitare la
frammentazione del mercato unico digitale, che ostacolerebbe l'obiettivo di mantenere la sovranità digitale, di promuovere l'innovazione digitale e di garantire un elevato livello di tutela dei diritti del cittadino e del consumatore in Europa, richiedono che i regimi di responsabilità per i sistemi IA siano pienamente
armonizzati. Tale obiettivo non può essere conseguito in modo sufficiente dagli Stati membri a causa della rapidità
PE652.518 6/86 AM\1206225IT.docx
IT
IA e, in definitiva, degli approcci
legislativi contrastanti nell'Unione, ma può invece essere realizzato a livello di Unione, in ragione delle dimensioni o degli effetti dell'azione. L'Unione può pertanto intervenire in base al principio di sussidiarietà sancito dall'articolo 5 del trattato sull'Unione europea. Il presente regolamento si limita a quanto è necessario per conseguire tali obiettivi in
ottemperanza al principio di
proporzionalità enunciato nello stesso articolo,
dell'evoluzione tecnologica, dello sviluppo transfrontaliero e dell'utilizzo di sistemi di IA e, in definitiva, degli approcci
legislativi contrastanti nell'Unione, ma può invece essere realizzato a livello di Unione, in ragione delle dimensioni o degli effetti dell'azione. L'Unione può pertanto intervenire in base al principio di sussidiarietà sancito dall'articolo 5 del trattato sull'Unione europea. Il presente regolamento si limita a quanto è necessario per conseguire tali obiettivi in
ottemperanza al principio di
proporzionalità enunciato nello stesso articolo.
Or. en
Emendamento 255
Emmanuel Maurel, Manon Aubry Proposta di risoluzione
Allegato I – parte B – considerando 22
Proposta di risoluzione Emendamento
(22) Gli obiettivi del presente
regolamento, ovvero creare un approccio orientato al futuro e unificato a livello di Unione che stabilisca norme comuni per i cittadini e le imprese europei e garantire la coerenza dei diritti e la certezza giuridica in tutta l'UE, al fine di evitare la
frammentazione del mercato unico digitale, che ostacolerebbe l'obiettivo di mantenere la sovranità digitale e di promuovere l'innovazione digitale in Europa,
richiedono che i regimi di responsabilità per i sistemi IA siano pienamente
armonizzati. Tale obiettivo non può essere conseguito in modo sufficiente dagli Stati membri a causa della rapidità
dell'evoluzione tecnologica, dello sviluppo transfrontaliero e dell'utilizzo di sistemi di IA e, in definitiva, degli approcci
legislativi contrastanti nell'Unione, ma può invece essere realizzato a livello di Unione, in ragione delle dimensioni o degli effetti
(22) Gli obiettivi del presente
regolamento, ovvero creare un approccio unificato e fondato sul principio di sicurezza e affidabilità dei prodotti che stabilisca norme comuni per i cittadini e le imprese europei e garantire la coerenza dei diritti e la certezza giuridica in tutta l'UE, al fine di evitare la frammentazione del mercato unico digitale, che ostacolerebbe l'obiettivo di mantenere la sovranità digitale e di promuovere l'innovazione digitale in Europa, richiedono che i regimi di responsabilità per i sistemi IA siano pienamente armonizzati. Tale obiettivo non può essere conseguito in modo sufficiente dagli Stati membri a causa della rapidità dell'evoluzione tecnologica, dello sviluppo transfrontaliero e dell'utilizzo di sistemi di IA e, in definitiva, degli approcci
legislativi contrastanti nell'Unione, ma può invece essere realizzato a livello di Unione, in ragione delle dimensioni o degli effetti
AM\1206225IT.docx 7/86 PE652.518
IT
dell'azione. L'Unione può pertanto intervenire in base al principio di sussidiarietà sancito dall'articolo 5 del trattato sull'Unione europea. Il presente regolamento si limita a quanto è necessario per conseguire tali obiettivi in
ottemperanza al principio di
proporzionalità enunciato nello stesso articolo,
dell'azione. L'Unione può pertanto intervenire in base al principio di sussidiarietà sancito dall'articolo 5 del trattato sull'Unione europea. Il presente regolamento si limita a quanto è necessario per conseguire tali obiettivi in
ottemperanza al principio di
proporzionalità enunciato nello stesso articolo,
Or. fr
Emendamento 256
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 1
Proposta di risoluzione Emendamento
Il presente regolamento stabilisce norme per le azioni per responsabilità civile intentate da persone fisiche e giuridiche nei confronti dell'operatore di sistemi di IA.
Il presente regolamento stabilisce norme per le azioni per responsabilità civile intentate da persone fisiche e giuridiche nei confronti dell'operatore di front-end e dell'operatore di back-end di sistemi di IA.
Or. en
Emendamento 257
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – articolo 1
Proposta di risoluzione Emendamento
Il presente regolamento stabilisce norme per le azioni per responsabilità civile intentate da persone fisiche e giuridiche nei confronti dell'operatore di sistemi di IA.
(Non concerne la versione italiana)
Or. en
Emendamento 258
PE652.518 8/86 AM\1206225IT.docx
IT
Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 1
Proposta di risoluzione Emendamento
Il presente regolamento stabilisce norme per le azioni per responsabilità civile intentate da persone fisiche e giuridiche nei confronti dell'operatore di sistemi di IA.
(Non concerne la versione italiana)
Or. en
Emendamento 259 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 2 – paragrafo 1
Proposta di risoluzione Emendamento
1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica o al patrimonio di una persona fisica o giuridica.
1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA o da un sistema decisionale autonomo
(autonomous decision-making, ADM) abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica e al patrimonio di una persona fisica o
giuridica, inclusi i dati e l'ambiente digitale della persona interessata nonché altri diritti giuridici erga omnes, purché la relativa violazione possa arrecare un danno materiale.
Or. en
Emendamento 260
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior, Svenja Hahn
Proposta di risoluzione
Allegato I – parte B – articolo 2 – paragrafo 1
AM\1206225IT.docx 9/86 PE652.518
IT
Proposta di risoluzione Emendamento
1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica o al patrimonio di una persona fisica o giuridica.
1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica e al patrimonio di una persona fisica o giuridica o abbia arrecato un danno immateriale rilevante a una persona fisica o giuridica.
Or. en
Emendamento 261
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 2 – paragrafo 1
Proposta di risoluzione Emendamento
1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica o al patrimonio di una persona fisica o giuridica.
1. Il presente regolamento si applica nel territorio dell'Unione dove un
dispositivo connesso e dotato di autoapprendimento, un contenuto digitale, un bene e/o un servizio digitale abbia arrecato un danno o un pregiudizio tipico a una persona fisica o giuridica.
Or. en
Emendamento 262
Emmanuel Maurel, Manon Aubry Proposta di risoluzione
Allegato I – parte B – articolo 2 – paragrafo 1
Proposta di risoluzione Emendamento
1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica o al patrimonio di
1. Il presente regolamento si applica nel territorio dell'Unione dove un'attività, dispositivo o processo virtuale o fisico guidato da un sistema di IA abbia arrecato un danno o un pregiudizio alla vita, alla salute, all'integrità fisica, psichica o
PE652.518 10/86 AM\1206225IT.docx
IT
una persona fisica o giuridica. morale o al patrimonio di una persona fisica o giuridica.
Or. fr
Emendamento 263 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 2 – paragrafo 2
Proposta di risoluzione Emendamento
2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato nullo e privo di effetti.
2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato inefficace per quanto
riguarda i diritti e gli obblighi sanciti dal presente regolamento.
Or. en
Emendamento 264
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 2 – paragrafo 2
Proposta di risoluzione Emendamento
2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato nullo e privo di effetti.
2. Qualsiasi contratto tra l'operatore di front-end o di back-end di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente
regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato nullo e privo di effetti.
AM\1206225IT.docx 11/86 PE652.518
IT
Or. en
Emendamento 265
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – articolo 2 – paragrafo 2
Proposta di risoluzione Emendamento
2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato nullo e privo di effetti.
(Non concerne la versione italiana)
Or. en
Emendamento 266 Kosma Złotowski Proposta di risoluzione
Allegato I – parte B – articolo 2 – paragrafo 2
Proposta di risoluzione Emendamento
2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima o dopo che il danno o il pregiudizio sia stato cagionato, è considerato nullo e privo di effetti.
2. Qualsiasi contratto tra l'operatore di un sistema di IA e una persona fisica o giuridica vittima di un danno o pregiudizio causa di un sistema di IA che eluda o limiti i diritti e gli obblighi sanciti dal presente regolamento, stipulato prima che si manifesti il danno o il pregiudizio, è considerato nullo e privo di effetti.
Or. en
Emendamento 267 Sergey Lagodinsky Proposta di risoluzione
PE652.518 12/86 AM\1206225IT.docx
IT
Allegato I – parte B – articolo 2 – paragrafo 3
Proposta di risoluzione Emendamento
3. Il presente regolamento fa salve le eventuali ulteriori azioni per responsabilità derivanti da rapporti contrattuali tra
l'operatore e la persona fisica o giuridica vittima di un danno o pregiudizio a causa del sistema di IA.
3. Il presente regolamento fa salve le eventuali ulteriori azioni per responsabilità derivanti da rapporti contrattuali nonché da normative in materia di responsabilità per danno da prodotti difettosi, protezione del consumatore, anti-discriminazione, lavoro e tutela ambientale tra l'operatore e la persona fisica o giuridica vittima di un danno o pregiudizio a causa del sistema di IA.
Or. en
Emendamento 268 Kosma Złotowski Proposta di risoluzione
Allegato I – parte B – articolo 2 – paragrafo 3
Proposta di risoluzione Emendamento
3. Il presente regolamento fa salve le eventuali ulteriori azioni per responsabilità derivanti da rapporti contrattuali tra
l'operatore e la persona fisica o giuridica vittima di un danno o pregiudizio a causa del sistema di IA.
3. Il presente regolamento fa salve le eventuali ulteriori azioni per responsabilità derivanti da rapporti contrattuali tra
l'operatore e la persona fisica o giuridica vittima di un danno o pregiudizio a causa del sistema di IA e che possono essere intraprese contro l'operatore secondo il diritto dell'Unione o nazionale.
Or. en
Emendamento 269
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – articolo 2 – paragrafo 3
Proposta di risoluzione Emendamento
3. Il presente regolamento fa salve le
eventuali ulteriori azioni per responsabilità (Non concerne la versione italiana)
AM\1206225IT.docx 13/86 PE652.518
IT
derivanti da rapporti contrattuali tra l'operatore e la persona fisica o giuridica vittima di un danno o pregiudizio a causa del sistema di IA.
Or. en
Emendamento 270 Marion Walsmann Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera a
Proposta di risoluzione Emendamento
a) "sistema di intelligenza artificiale (IA)": un sistema che mostra un
comportamento intelligente analizzando un determinato input e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici. I sistemi di IA possono consistere solo in software che agiscono nel mondo virtuale oppure essere integrati in dispositivi hardware;
a) "sistema di intelligenza artificiale (IA)": un sistema i cui metodi e processi consentono ai sistemi tecnici di osservare il loro ambiente, elaborare quanto
osservato e risolvere problemi, prendere decisioni e intraprendere azioni in autonomia nonché di imparare dalle conseguenze di tali decisioni e azioni. I sistemi di IA possono consistere solo in software che agiscono nel mondo virtuale oppure essere integrati in dispositivi hardware;
Or. de
Emendamento 271 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera a)
Proposta di risoluzione Emendamento
a) "sistema di intelligenza artificiale (IA)": un sistema che mostra un
comportamento intelligente analizzando un determinato input e compiendo azioni, con un certo grado di autonomia, per
raggiungere obiettivi specifici. I sistemi di IA possono consistere solo in software che agiscono nel mondo virtuale oppure
a) "sistema di intelligenza artificiale (IA)": un sistema che mostra un
comportamento che simula l'intelligenza analizzando un determinato input e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici;
PE652.518 14/86 AM\1206225IT.docx
IT
essere integrati in dispositivi hardware;
Or. en
Emendamento 272
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera a)
Proposta di risoluzione Emendamento
a) "sistema di intelligenza artificiale (IA)": un sistema che mostra un
comportamento intelligente analizzando un determinato input e compiendo azioni, con un certo grado di autonomia, per
raggiungere obiettivi specifici. I sistemi di IA possono consistere solo in software che agiscono nel mondo virtuale oppure essere integrati in dispositivi hardware;
a) "sistema di intelligenza artificiale (IA)": un sistema che mostra un
comportamento intelligente analizzando l'ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici. I sistemi di IA possono consistere solo in software che agiscono nel mondo virtuale oppure essere integrati in dispositivi hardware;
Or. en
Emendamento 273
Sergey Lagodinsky, Evelyne Gebhardt Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera a bis) (nuova)
Proposta di risoluzione Emendamento
a bis) "sistema decisionale automatizzato (ADM), di supporto o di informazione per l'attività decisionale": una procedura in base alla quale le decisioni sono
inizialmente delegate, in parte o
interamente, a un operatore utilizzando un software o un servizio che a sua volta utilizza modelli decisionali automatizzati per lo svolgimento di un'azione;
Or. en
AM\1206225IT.docx 15/86 PE652.518
IT
Emendamento 274 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera b)
Proposta di risoluzione Emendamento
b) "autonomo": un sistema di IA che opera percependo un determinato input e senza aver bisogno di seguire istruzioni predefinite, nonostante il suo
comportamento sia limitato dallo scopo che gli è stato attribuito e da altre pertinenti scelte di progettazione compiute dal suo sviluppatore;
b) "autonomo": un sistema di IA o un sistema ADM che opera per conto del proprietario ma senza alcuna interferenza da parte di quest'ultimo, percependo un determinato input e andando oltre le istruzioni predefinite, nonostante il suo comportamento sia limitato dallo scopo che gli è stato attribuito e finalizzato al suo conseguimento, e nonostante sia limitato da altre pertinenti scelte di progettazione compiute dal suo sviluppatore;
Or. en
Emendamento 275
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera c)
Proposta di risoluzione Emendamento
c) "alto rischio": un potenziale significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e impossibile da prevedere in anticipo; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;
soppresso
Or. en
Emendamento 276 Sergey Lagodinsky
PE652.518 16/86 AM\1206225IT.docx
IT
Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera c)
Proposta di risoluzione Emendamento
c) "alto rischio": un potenziale
significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e impossibile da prevedere in anticipo; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;
c) "alto rischio": un potenziale
significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo difficilmente prevedibile in anticipo;
l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, il grado di autonomia decisionale e la modalità e il contesto di utilizzo del sistema di IA, in particolare il valore dei beni e dei diritti esposti al rischio;
Or. en
Emendamento 277
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior, Svenja Hahn
Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera c)
Proposta di risoluzione Emendamento
c) "alto rischio": un potenziale
significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e impossibile da prevedere in anticipo; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;
c) "alto rischio": un potenziale
significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e che va oltre quanto ci si possa ragionevolmente aspettare dal suo utilizzo previsto; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;
Or. en
Emendamento 278 Marion Walsmann
AM\1206225IT.docx 17/86 PE652.518
IT
Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera c
Proposta di risoluzione Emendamento
c) "alto rischio": un potenziale
significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e impossibile da prevedere in anticipo; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;
c) "alto rischio": un potenziale
significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi significativi a una o più persone in modo casuale e impossibile da prevedere in anticipo; l'importanza del potenziale dipende dall'interazione tra la gravità dei possibili danni o pregiudizi, la probabilità che il rischio si concretizzi e la modalità di utilizzo del sistema di IA;
Or. de
Emendamento 279 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera d)
Proposta di risoluzione Emendamento
d) "operatore": la persona che decide in merito all'utilizzo del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;
d) "operatore": la persona che esercita il controllo sul rischio associato e beneficia del suo funzionamento, inclusi l'operatore di front-end e l'operatore di back-end, ossia la persona che definisce
continuamente le caratteristiche della tecnologia pertinente e fornisce sostegno di back-end essenziale e continuativo;
Or. en
Emendamento 280 Marion Walsmann Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera d
Proposta di risoluzione Emendamento
d) "operatore": la persona che decide d) "operatore": qualsiasi persona
PE652.518 18/86 AM\1206225IT.docx
IT
in merito all'utilizzo del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;
fisica o giuridica che decide in merito all'impiego concreto del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;
Or. de
Emendamento 281
Emmanuel Maurel, Manon Aubry Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera d
Proposta di risoluzione Emendamento
d) "operatore": la persona che decide in merito all'utilizzo del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;
d) "operatore": la persona fisica o giuridica che contribuisce all'immissione in commercio del sistema di IA o alla sua messa a disposizione in favore degli utenti e che controlla o gestisce tale sistema;
Or. fr
Emendamento 282
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera d)
Proposta di risoluzione Emendamento
d) "operatore": la persona che decide in merito all'utilizzo del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;
d) "operatore": la persona che esercita il controllo sul rischio associato e beneficia del suo funzionamento;
Or. en
Emendamento 283
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera d)
AM\1206225IT.docx 19/86 PE652.518
IT
Proposta di risoluzione Emendamento
d) "operatore": la persona che decide in merito all'utilizzo del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;
d) "operatore di front-end": la persona che principalmente decide in merito all'utilizzo della tecnologia pertinente e ne trae beneficio;
Or. en
Emendamento 284
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera d bis) (nuova)
Proposta di risoluzione Emendamento
d bis) "controllo": l'influenza sull'utilizzo e sul funzionamento del sistema di IA dall'inizio alla fine e, pertanto, sulla misura in cui il sistema espone terzi a potenziali rischi;
Or. en
Emendamento 285
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera d bis) (nuova)
Proposta di risoluzione Emendamento
d bis) "operatore di back-end": la persona che definisce continuamente le caratteristiche della tecnologia pertinente e fornisce sostegno di back-end essenziale e continuativo;
Or. en
Emendamento 286
Evelyne Gebhardt, Brando Benifei
PE652.518 20/86 AM\1206225IT.docx
IT
Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera e)
Proposta di risoluzione Emendamento
e) "persona interessata": qualsiasi persona che subisca i danni o pregiudizi causati da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA e che non sia l'operatore di tale sistema;
e) "persona interessata": qualsiasi persona che subisca i danni o pregiudizi causati da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA e che non sia l'operatore di front-end di tale sistema;
Or. en
Emendamento 287
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera e)
Proposta di risoluzione Emendamento
e) "persona interessata": qualsiasi persona che subisca i danni o pregiudizi causati da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA e che non sia l'operatore di tale sistema;
(Non concerne la versione italiana)
Or. en
Emendamento 288 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera e)
Proposta di risoluzione Emendamento
e) "persona interessata": qualsiasi persona che subisca i danni o pregiudizi causati da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA e che non sia l'operatore di tale sistema;
e) "persona interessata": qualsiasi persona i cui beni o diritti siano danneggiati o lesi da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA;
AM\1206225IT.docx 21/86 PE652.518
IT
Or. en
Emendamento 289 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera f)
Proposta di risoluzione Emendamento
f) "danno o pregiudizio": un effetto negativo che influisce sulla vita, la salute, l'integrità fisica o il patrimonio di una persona fisica o giuridica, con l'eccezione del danno morale;
f) "danno o pregiudizio": un effetto negativo sui beni e sui diritti citati;
Or. en
Emendamento 290
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior, Svenja Hahn
Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera f)
Proposta di risoluzione Emendamento
f) "danno o pregiudizio": un effetto negativo che influisce sulla vita, la salute, l'integrità fisica o il patrimonio di una persona fisica o giuridica, con l'eccezione del danno morale;
f) "danno o pregiudizio": un effetto negativo che influisce sulla vita, la salute, l'integrità fisica, il patrimonio di una persona fisica o giuridica o che causa un rilevante danno immateriale;
Or. en
Emendamento 291
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera f)
Proposta di risoluzione Emendamento
f) "danno o pregiudizio": un effetto f) "danno o pregiudizio": qualunque
PE652.518 22/86 AM\1206225IT.docx
IT
negativo che influisce sulla vita, la salute, l'integrità fisica o il patrimonio di una persona fisica o giuridica, con l'eccezione del danno morale;
danno o pregiudizio tipico, materiale o morale, per cui si concretizzi il rischio particolare dei sistemi di IA o dei dispositivi connessi;
Or. en
Emendamento 292
Emmanuel Maurel, Manon Aubry Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera f
Proposta di risoluzione Emendamento
f) "danno o pregiudizio": un effetto negativo che influisce sulla vita, la salute, l'integrità fisica o il patrimonio di una persona fisica o giuridica, con l'eccezione del danno morale;
f) "danno o pregiudizio": un effetto negativo che influisce sulla vita, la salute, l'integrità fisica, psichica o morale o il patrimonio di una persona fisica o giuridica;
Or. fr
Emendamento 293
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera g)
Proposta di risoluzione Emendamento
g) "produttore": lo sviluppatore o l'operatore di back-end di un sistema di IA o il produttore quale definito
all'articolo 3 della direttiva 85/374/CEE del Consiglio7.
soppresso
_________________
7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative,
regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.
AM\1206225IT.docx 23/86 PE652.518
IT
Or. en
Emendamento 294
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera g)
Proposta di risoluzione Emendamento
g) "produttore": lo sviluppatore o l'operatore di back-end di un sistema di IA o il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del
Consiglio7.
g) "produttore": il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del Consiglio7.
_________________ _________________
7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.
7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.
Or. en
Emendamento 295 Kosma Złotowski Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera g)
Proposta di risoluzione Emendamento
g) "produttore": lo sviluppatore o l'operatore di back-end di un sistema di IA o il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del Consiglio7.
g) "produttore": lo sviluppatore, il gestore o l'operatore di back-end di un sistema di IA o il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del Consiglio7.
_________________ _________________
7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in
7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in
PE652.518 24/86 AM\1206225IT.docx
IT
materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.
materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.
Or. en
Emendamento 296 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera g)
Proposta di risoluzione Emendamento
g) "produttore": lo sviluppatore o l'operatore di back-end di un sistema di IA o il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del Consiglio7.
g) "produttore": lo sviluppatore di un sistema di IA o il produttore quale definito all'articolo 3 della direttiva 85/374/CEE del Consiglio7.
_________________ _________________
7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.
7Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 210 del 7.8.1985, pag. 29.
Or. en
Emendamento 297 Marion Walsmann Proposta di risoluzione
Allegato I – parte B – articolo 3 – lettera g bis (nuova)
Proposta di risoluzione Emendamento
g bis) "forza maggiore": conformemente alle norme nazionali, circostanze
eccezionali e imprevedibili che sfuggono al controllo dell'operatore e le cui
conseguenze non avrebbero potuto essere evitate nemmeno se si fosse osservata la massima diligenza.
AM\1206225IT.docx 25/86 PE652.518
IT
Or. de
Emendamento 298
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – capo 2– titolo
Proposta di risoluzione Emendamento
Sistemi di IA ad alto rischio Regimi di responsabilità
Or. en
Emendamento 299
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 4 – titolo
Proposta di risoluzione Emendamento
Responsabilità oggettiva per i sistemi di IA ad alto rischio
Responsabilità per colpa e responsabilità oggettiva per i sistemi di IA
Or. en
Emendamento 300
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 1
Proposta di risoluzione Emendamento
1. L'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA.
1. L'operatore di front-end di un sistema di IA ad alto rischio è responsabile per colpa di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA. L'operatore di front-end deve adempiere al dovere di diligenza che consiste nella regolare installazione di tutti gli aggiornamenti disponibili. Se tale
PE652.518 26/86 AM\1206225IT.docx
IT
obbligo è soddisfatto, si presume che la dovuta diligenza sia stata osservata.
Or. en
Emendamento 301 Daniel Buda
Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 1
Proposta di risoluzione Emendamento
1. L'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA.
1. L'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio alla vita, alla salute, all'integrità fisica o ai beni di persone fisiche o giuridiche causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA.
Or. ro
Emendamento 302
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 1
Proposta di risoluzione Emendamento
1. L'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA.
(Non concerne la versione italiana)
Or. en
Emendamento 303 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 1
AM\1206225IT.docx 27/86 PE652.518
IT
Proposta di risoluzione Emendamento
1. L'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA.
(Non concerne la versione italiana)
Or. en
Emendamento 304 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – parte introduttiva
Proposta di risoluzione Emendamento
2. I sistemi di IA ad alto rischio e i settori fondamentali in cui sono utilizzati sono elencati nell'allegato al presente regolamento. Alla Commissione è
conferito il potere di adottare atti delegati conformemente all'articolo 13 per
modificare l'elenco esaustivo contenuto nell'allegato:
2. Le categorie di sistemi di IA ad alto rischio e i criteri utilizzati per definire l'alto rischio sono stabiliti nell'ambito di un processo di consultazione strutturato tra la Commissione, le autorità di controllo competenti e tutte le parti interessate, inclusi rappresentanti della società civile, con aggiornamenti regolari al fine di riflettere il rapido percorso del cambiamento tecnologico.
Or. en
Emendamento 305
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – parte introduttiva
Proposta di risoluzione Emendamento
2. I sistemi di IA ad alto rischio e i settori fondamentali in cui sono utilizzati sono elencati nell'allegato al presente regolamento. Alla Commissione è
conferito il potere di adottare atti delegati conformemente all'articolo 13 per
2. Qualora non si possa accertare la colpa dell'operatore di front-end, si deve ritenere oggettivamente responsabile l'operatore di back-end.
PE652.518 28/86 AM\1206225IT.docx
IT
modificare l'elenco esaustivo contenuto nell'allegato:
Or. en
Emendamento 306 Marion Walsmann Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – parte introduttiva
Proposta di risoluzione Emendamento
2. I sistemi di IA ad alto rischio e i settori fondamentali in cui sono utilizzati sono elencati nell'allegato al presente regolamento. Alla Commissione è
conferito il potere di adottare atti delegati conformemente all'articolo 13 per
modificare l'elenco esaustivo contenuto nell'allegato:
2. La Commissione è incaricata della redazione di un elenco dei sistemi di IA ad alto rischio e dei settori fondamentali in cui essisono utilizzati nell'ambito di atti delegati conformemente all'articolo 13.
Or. de
Emendamento 307
Emmanuel Maurel, Manon Aubry Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – parte introduttiva
Proposta di risoluzione Emendamento
2. I sistemi di IA ad alto rischio e i settori fondamentali in cui sono utilizzati sono elencati nell'allegato al presente regolamento. Alla Commissione è
conferito il potere di adottare atti delegati conformemente all'articolo 13 per
modificare l'elenco esaustivo contenuto nell'allegato:
2. I sistemi di IA ad alto rischio e i settori fondamentali in cui sono utilizzati sono elencati nell'allegato al presente regolamento. Alla Commissione è
conferito il potere di adottare atti delegati conformemente all'articolo 13 per
modificare l'elenco contenuto nell'allegato:
Or. fr
Emendamento 308
AM\1206225IT.docx 29/86 PE652.518
IT
Marion Walsmann Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – lettera a
Proposta di risoluzione Emendamento
a) inserendo nuovi tipi di sistemi di IA ad alto rischio e settori fondamentali in cui sono utilizzati;
soppresso
Or. de
Emendamento 309 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – lettera a)
Proposta di risoluzione Emendamento
a) inserendo nuovi tipi di sistemi di IA ad alto rischio e settori fondamentali in cui sono utilizzati;
soppresso
Or. en
Emendamento 310
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – lettera a)
Proposta di risoluzione Emendamento
a) inserendo nuovi tipi di sistemi di IA ad alto rischio e settori fondamentali in cui sono utilizzati;
soppresso
Or. en
Emendamento 311 Marion Walsmann
PE652.518 30/86 AM\1206225IT.docx
IT
Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – lettera b
Proposta di risoluzione Emendamento
b) eliminando tipi di sistemi di IA che non possono più essere considerati ad alto rischio; e/o
soppresso
Or. de
Emendamento 312
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – lettera b)
Proposta di risoluzione Emendamento
b) eliminando tipi di sistemi di IA che non possono più essere considerati ad alto rischio; e/o
soppresso
Or. en
Emendamento 313 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – lettera b)
Proposta di risoluzione Emendamento
b) eliminando tipi di sistemi di IA che non possono più essere considerati ad alto rischio; e/o
soppresso
Or. en
Emendamento 314 Marion Walsmann Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – lettera c
AM\1206225IT.docx 31/86 PE652.518
IT
Proposta di risoluzione Emendamento
c) modificando i settori fondamentali per i sistemi di IA ad alto rischio esistenti.
soppresso
Or. de
Emendamento 315 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – lettera c)
Proposta di risoluzione Emendamento
c) modificando i settori fondamentali per i sistemi di IA ad alto rischio esistenti.
soppresso
Or. en
Emendamento 316
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – lettera c)
Proposta di risoluzione Emendamento
c) modificando i settori fondamentali
per i sistemi di IA ad alto rischio esistenti. soppresso
Or. en
Emendamento 317 Marion Walsmann Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – comma 2
Proposta di risoluzione Emendamento
Qualsiasi atto delegato che modifichi l'allegato entra in vigore sei mesi dopo la
soppresso
PE652.518 32/86 AM\1206225IT.docx
IT
sua adozione. Nel determinare i nuovi settori fondamentali e/o sistemi di IA ad alto rischio da inserire nell'allegato mediante atti delegati, la Commissione tiene pienamente conto dei criteri stabiliti dal presente regolamento, in particolare di quelli enunciati all'articolo 3, lettera c).
Or. de
Emendamento 318 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – comma 2
Proposta di risoluzione Emendamento
Qualsiasi atto delegato che modifichi l'allegato entra in vigore sei mesi dopo la sua adozione. Nel determinare i nuovi settori fondamentali e/o sistemi di IA ad alto rischio da inserire nell'allegato mediante atti delegati, la Commissione tiene pienamente conto dei criteri stabiliti dal presente regolamento, in particolare di quelli enunciati all'articolo 3, lettera c).
soppresso
Or. en
Emendamento 319
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 2 – comma 2
Proposta di risoluzione Emendamento
Qualsiasi atto delegato che modifichi l'allegato entra in vigore sei mesi dopo la sua adozione. Nel determinare i nuovi settori fondamentali e/o sistemi di IA ad alto rischio da inserire nell'allegato mediante atti delegati, la Commissione tiene pienamente conto dei criteri stabiliti dal presente regolamento, in particolare
soppresso
AM\1206225IT.docx 33/86 PE652.518
IT
di quelli enunciati all'articolo 3, lettera c).
Or. en
Emendamento 320
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 3
Proposta di risoluzione Emendamento
3. L'operatore di un sistema di IA ad alto rischio non può discolparsi
sostenendo di avere agito con la dovuta diligenza o che il danno o il pregiudizio sia stato cagionato da un'attività,
dispositivo o processo autonomo guidato dal suo sistema di IA. L'operatore non è considerato responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.
soppresso
Or. en
Emendamento 321 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 3
Proposta di risoluzione Emendamento
3. L'operatore di un sistema di IA ad alto rischio non può discolparsi sostenendo di avere agito con la dovuta diligenza o che il danno o il pregiudizio sia stato cagionato da un'attività, dispositivo o processo autonomo guidato dal suo sistema di IA.
L'operatore non è considerato
responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.
3. L'operatore di un sistema di IA ad alto rischio non può discolparsi sostenendo di avere agito con la dovuta diligenza o che il danno o il pregiudizio sia stato cagionato da un'attività, dispositivo o processo autonomo guidato dal suo sistema di IA.
Or. en
PE652.518 34/86 AM\1206225IT.docx
IT
Emendamento 322
Liesje Schreinemacher, Adrián Vázquez Lázara, Javier Nart, Karen Melchior Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 3
Proposta di risoluzione Emendamento
3. L'operatore di un sistema di IA ad alto rischio non può discolparsi sostenendo di avere agito con la dovuta diligenza o che il danno o il pregiudizio sia stato cagionato da un'attività, dispositivo o processo autonomo guidato dal suo sistema di IA.
L'operatore non è considerato responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.
(Non concerne la versione italiana)
Or. en
Emendamento 323 Sergey Lagodinsky Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 3 bis (nuovo)
Proposta di risoluzione Emendamento
3 bis. Quando l'operatore è un operatore di front-end, questi deve essere in grado di dimostrare la veridicità della propria colpa. L'operatore non è considerato responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore.
Or. en
Emendamento 324 Sabrina Pignedoli Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 3 bis (nuovo)
Proposta di risoluzione Emendamento
3 bis. L'onere di provare il danno o il
AM\1206225IT.docx 35/86 PE652.518
IT
pregiudizio causato da un'attività di IA ad alto rischio incombe sull'operatore e non sulla persona interessata.
Or. it
Emendamento 325 Sabrina Pignedoli Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 3 ter (nuovo)
Proposta di risoluzione Emendamento
3 ter. L'operatore di un sistema di IA ad alto rischio deve assicurarsi che i sistemi di IA siano dotati di un registratore dei dati che impieghi un sistema digitale di registrazione e di memorizzazione dei dati e per il quale sia disponibile un sistema che permetta di estrarre facilmente tali dati dal supporto di memorizzazione.
L'operatore mette a disposizione tutte le registrazioni dei registratori che sono state conservate, se lo stabilisce l'autorità competente.
L'operatore deve garantire la continua efficienza dei registratori.
A seguito di un incidente o di un
inconveniente che causi un danno o un pregiudizio a una persona interessata, l'operatore di un sistema di IA ad alto rischio deve conservare i dati originali pertinenti per un periodo di 60 giorni, a meno che l'autorità inquirente non abbia dato istruzioni diverse al riguardo.
Or. it
Emendamento 326
Evelyne Gebhardt, Brando Benifei Proposta di risoluzione
Allegato I – parte B – articolo 4 – paragrafo 4