• Non ci sono risultati.

Governare la complessità:l’INAIL e i nuovi scenari

N/A
N/A
Protected

Academic year: 2022

Condividi "Governare la complessità:l’INAIL e i nuovi scenari"

Copied!
193
0
0

Testo completo

(1)
(2)

15-16 febbraio 2011

Governare la complessità:

l’INAIL e i nuovi scenari

Edizione 2011

(3)

Stampato dalla Tipolitografia INAIL di Milano nel mese di novembre 2011

(4)

Jules Henri Poincaré

(5)
(6)

Lo studio della complessità, che si avvale di molte discipline, cognitive, metodologiche, della cibernetica, dell'intelligenza artificiale, della teoria dei sistemi, della teoria del caos, dell'informatica e del management, appare un fattore abilitante nella costruzione dei grandi sistemi informativi come quelli delle Pubbliche Amministrazioni.

È, altresì, opinione condivisa che, per affrontare la complessità, avvalendosi dei modelli elaborati dalle varie discipline, occorra comunque elaborare una propria visione che consenta di tracciare in maniera coerente percorsi, fornire indirizzi, nonché elaborare obiettivi e strategie necessari per gestire la complessa rete di interazioni con il mondo reale.

Per rispondere alle sfide della complessità, indotta altresì dalle trasformazioni sollecitate da scenari in sempre più rapido mutamento, occorre mettere insieme intelligenze provenienti da tutte le sensibilità tecnico-amministrative nel “pensare”

a dei servizi in grado di utilizzare, in modo coerente, la firma digitale, i documenti informatici, le tecniche di comunicazione web e multicanale, per interagire con il nuovo mondo digitale.

L’evento, condotto dalla Consulenza per l’Innovazione Tecnologica, con il valido supporto della Direzione Centrale Programmazione Organizzazione e Controllo, dei colleghi della Consulenza Statistico Attuariale, dell’ex-ISPESL e dell’ex-IPSEMA, ha inteso costituire un momento di riflessione e confronto - aperto alle più autorevoli voci dell’Istituto ed a significativi rappresentanti del mondo esterno - su come si possa operare per governare la complessità in un contesto in cui l’innovazione tecnologica e organizzativa viene sempre più chiamata a sostenere le scelte necessarie per l’evoluzione sul piano informativo dell’Istituto.

(7)
(8)

INTERVENTI E MONOGRAFIE

IL PROCESSO DI VIRTUALIZZAZIONE DELLE RISORSE TECNOLOGICHE ... 11 Augusto Albo

L’OTTIMIZZAZIONE DELLE INFRASTRUTTURE DEI DATA CENTER ... 17 Augusto Albo

LA VALUTAZIONE ECONOMICA DELLA SALUTE E SICUREZZA

NELLE AZIENDE ... 21 Silvia Amatucci - Giuseppe Morinelli - Maria Ilaria Barra - Antonio Terracina

TESTO UNICO E DANNO BIOLOGICO: UN’IPOTESI DI ARMONIZZAZIONE

DELLE DUE DISCIPLINE ... 33 Laura Baradel

IL BILANCIO TECNICO DELL’EX IPSEMA. L’EQUILIBRIO DELLA

GESTIONE E LE ANALISI DI TIPO “WHAT IF” ... 45 Roberta Bencini

COMPLESSITÀ NELLO SVILUPPO DEL SOFTWARE: IL RUOLO DEL COMMITTENTE .. 57 Guido Borsetti

LA SICUREZZA DELLE INFORMAZIONI ... 65 Carmela De Padova

COMPLESSITÀ E CONTROLLI - dalla teoria alla pratica ... 75 Paolo Di Panfilo

AFFRONTARE LA COMPLESSITÀ - quali le regole d’oro? ... 83 Paolo Di Panfilo

LA DIFFUSIONE DELLA CONOSCENZA DEGLI STRUMENTI DI COMUNICAZIONE E COLLABORAZIONE IN AMBITO LOCALE ... 91 Mario Laurelli

Pag.

(9)

ALCUNE CONSIDERAZIONI SULL’ALLINEAMENTO FRA LE RISERVE INAIL

NEL SETTORE INDUSTRIA E LE RISERVE IPSEMA ... 109 Raffaello Marcelloni

L’ASSICURAZIONE CONTRO GLI INFORTUNI IN AMBITO DOMESTICO.

UN ESEMPIO DI GESTIONE DELLA COMPLESSITA TRAMITE

LA TECNICA ATTUARIALE ... 119 Daniela Martini

CONTRASTO ALLE FRODI, PROBLEMATICHE E POSSIBILI SOLUZIONI ... 135 Vittorio Mordanini

APPLICAZIONE DEL MODELLO DI “CLASSIFICAZIONE INTERNAZIONALE DEL FUNZIONAMENTO, DELLA DISABILITÀ E DELLA SALUTE” (ICF)

AGLI INABILI INAIL COME AUSILIO AL GOVERNO DEL SISTEMA ... 143 Maria Cristina Paoletti

LA MISURAZIONE DELLA SODDISFAZIONE DELL’UTENTE: UN INDICE

PER IL GOVERNO DEL SISTEMA ... 155 Alessandro Simonetta - Maria Cristina Paoletti

MODELLI STATISTICI MULTIVARIATI COME STRUMENTO PER LA GESTIONE DELLA COMPLESSITÀ: UN’APPLICAZIONE DI ANALISI FATTORIALE

PER LA VALUTAZIONE SINTETICA E LA COMPARAZIONE

DELLE REALTÀ ASSICURATIVE DI SEDE. ... 171 Massimiliano Veltroni

(10)
(11)
(12)

SOMMARIO

1. Premessa. - 2. La virtualizzazione. - 3. Vantaggi principali. - 4. Aree di utilizzo della Virtualizzazione.

1. PREMESSA

I reparti IT di ogni Organizzazione devono confrontarsi con la necessità di offrire al proprio interno e al mondo esterno una moltitudine di servizi informatici. Fino a qualche tempo fa l’andamento generale era di istallare ogni servizio o applicativo su una macchina server dif- ferente. Tuttavia col passare del tempo i progressi tecnologici hanno reso i componenti hardware così potenti da superare le reali necessità di utilizzo.

Per questa ragione si è giunti a un punto in cui, da una parte, i sistemi Server offrono una piattaforma hardware molto performante mentre, dall’altra, i sistemi e le applicazioni ne utilizzano soltanto una bassa percentuale.

Ciò ha reso più complesse le operazioni di gestione dei sistemi IT come conseguenza dell’utilizzo di hardware, sistemi operativi, storage e di rete diversi in un ambiente di rete eterogeneo.

Infine la proliferazione del numero dei server ha reso ancora più complessa e difficile l’interazione tra tutti i sistemi aumentando la complessità degli strati (layer) legati alla comunicazione.

La virtualizzazione è una tecnologia collaudata che è stata sviluppata negli anni ‘60 per par- tizionare l’hardware dei mainframe di grandi dimensioni.

La tecnologia di virtualizzazione per gli ambienti open basati su piattaforma x86 è nata già diversi anni fa per soddisfare l’esigenza di avere più sistemi in esecuzione sulla stessa macchina.

Gli attuali computer basati sull’architettura x86 ripropongono, quindi, gli stessi problemi di rigidità e sottoutilizzo che caratterizzavano i mainframe negli anni sessanta. Per far fronte a questa proliferazione di server sono stati messi a punto dei metodi per l’installazione di sistemi operativi, applicazioni ed hardware all’interno di macchine virtuali. In tal modo, rete, storage e potenza elaborativa diventano pool di risorse raccolti e gestiti tramite un

* Consulenza per l’Innovazione Tecnologica - Direzione Generale INAIL.

(13)

livello di virtualizzazione. Rendere disponibile la potenza di elaborazione come pool di risorse fa sì che queste siano utilizzate in modo più efficiente rispetto all’approccio tradizio- nale che prevede l’utilizzo di un’applicazione per server.

2. LA VIRTUALIZZAZIONE

I sistemi operativi di nuova generazione sfruttano la potenza della virtualizzazione per tra- sformare i data center in infrastrutture di cloud computing semplificate e consentono alle organizzazioni IT di erogare servizi di nuova generazione, affidabili e flessibili, che fanno uso delle risorse interne ed esterne e garantiscono massima sicurezza e rischi contenuti.

Facendo leva sulla potenza delle piattaforme virtualizzate, ormai adottate con successo da migliaia di utenti, si riducono sensibilmente sia i costi operativi sia di capitale, incremen- tando il controllo sui servizi IT garantendo al tempo stesso la libertà di scegliere qualunque tipo di sistema operativo, applicazione e dispositivo hardware, sia eseguito internamente all’azienda, sia erogato da risorse esterne (cloud computing).

La virtualizzazione consente a un hardware fisico di ospitare più macchine virtuali, condivi- dendo le risorse fisiche disponibili attraverso differenti ambienti. I server virtuali e i desktop virtuali consentono di ospitare differenti sistemi operativi e applicazioni localmente e in remoto, annullando tutti i problemi delle infrastrutture fisiche e superando i limiti geografici.

La virtualizzazione consente, quindi, di eseguire simultaneamente applicazioni differenti, e persino sistemi operativi differenti, sullo stesso server di fascia “enterprise” partizionando le risorse del sistema in più macchine virtuali (VM). L’esecuzione di più applicazioni su un unico server aumenta l’efficienza del sistema e riduce il numero di server da gestire e man- tenere. Quando i carichi di lavoro aumentano, è possibile creare rapidamente altre VM per rispondere in modo flessibile alle mutate esigenze senza aggiungere fisicamente altri server.

Inoltre il miglior utilizzo delle risorse hardware porta a importanti risparmi di costi sia di capitale sia di energia consumata. Aumentano anche la disponibilità delle risorse, migliora e si semplifica la gestione dei desktop, aumenta il livello di sicurezza dell’infrastruttura.

Con un’infrastruttura virtuale è anche possibile migliorare i processi legati al “disaster reco- very” e alla disponibilità complessiva dei sistemi.

Stack Fisico Standard Stack Logici con Virtualizzazione

(14)

La virtualizzazione garantisce, rispetto alla macchina reale, una maggiore scalabilità e con- temporaneamente una cooperazione ottimizzata con altri componenti di rete, come ad esempio sistemi di storage condiviso.

Utilizzando il potenziale completo di ciascun server, l’incremento in utilizzo per unità con- sente un significativo risparmio economico, altrimenti speso nell’acquisto di hardware aggiuntivo e componenti necessari ad implementarlo ed a supportarlo. Minore è la quantità di hardware, minore sarà il supporto necessario, il che si traduce in una riduzione dello spa- zio richiesto per le operazioni del data center, in un risparmio di energia elettrica utilizzata per l’alimentazione ed il raffreddamento delle macchine e così via.

Le tecnologie di virtualizzazione si sono evolute nel tempo fino a coprire molteplici aree: il modo in cui gli utenti accedono alle soluzioni di elaborazione, le modalità di sviluppo, implementazione ed utilizzo delle applicazioni, la posizione e il modo in cui le applicazioni vengono archiviate, le modalità di comunicazione tra i sistemi e, naturalmente, le soluzioni per rendere sicuro e allo stesso tempo gestibile un ambiente di sistema esteso.

La più conosciuta tecnica di virtualizzazione è la “Virtualizzazione dei Server”, un metodo in base al quale differenti ambienti operativi condividono le risorse di elaborazione (CPU, memoria, etc.) sulla stessa macchina. Tuttavia, il mercato della virtualizzazione offre anche altre differenti soluzioni, includendo, ad esempio:

• “Virtualizzazione delle applicazioni” - garantire una singola applicazione senza la necessità di installarla completamente su un sistema locale dedicato;

• “Virtualizzazione dei Desktop” - fornire un ambiente elaborativo completo (con un sistema operativo indipendente, applicazioni e dati) a un utente finale, indipendentemen- te dal suo desktop fisico di accesso;

• “Virtualizzazione dello Storage” - fornire l’accesso ai dati senza necessità di definire ai sistemi e alle applicazioni dove lo storage è fisicamente dislocato e gestito;

• “Virtualizzazione del Network” - astraendo i servizi di rete, le risorse o i componenti dai sistemi, le applicazioni ed i sottosistemi di rete che utilizzano o comunicano con que- sti componenti.

La virtualizzazione permette, quindi, di modificare tutto l’approccio sino ad ora seguito nell’adeguare le risorse di elaborazione, di storage o di rete alle esigenze delle applicazioni.

La sua validità consiste proprio nel fatto che è applicabile a tutti i diversi sottoinsiemi dell’ICT e non solo a una sua esclusiva parte.

Le soluzioni di virtualizzazione su più livelli (server, rete, storage, etc.) garantiscono gli stessi livelli di servizio pre-virtualizzazione riducendo i costi, i consumi energetici e la complessità dell’infrastruttura. Si tratta, in definitiva, di un approccio che permette di non sprecare risorse e che rappresenta un ulteriore elemento di una visione globale orientata al Green IT.

3. VANTAGGI PRINCIPALI

La virtualizzazione astrae le applicazioni e i dati della complessa infrastruttura sottostante per creare un’infrastruttura cloud interna che consenta al dipartimento IT di concentrarsi sul supporto e sul conseguimento degli obiettivi istituzionali. I vantaggi della virtualizzazione sono così riassumibili.

(15)

Riduzione dei costi e massimizzazione dell’efficienza IT: la virtualizzazione aiuta le organizzazioni a erogare i servizi IT in maniera più efficiente eliminando gli investimenti non necessari e riducendo costi e complessità associati alla gestione e manutenzione dell’infrastruttura IT. Con l’adozione della virtualizzazione si possono ridurre del 50% gli investimenti di capitale e di oltre il 60% le spese operative di ciascuna applicazione, abbat- tendo il costo complessivo di gestione delle applicazioni aziendali.

Le organizzazioni che utilizzano la virtualizzazione sono in grado di conseguire rapporti di consolidamento molto elevati, con gestione automatizzata e allocazione dinamica delle risorse alle applicazioni eseguite in infrastrutture cloud interne ed esterne. Come risultato, si abbandona il tradizionale e costoso modello di distribuzione delle applicazioni e dei dati vincolato a specifici sistemi e architetture, per passare a un ambiente IT autogestito e otti- mizzato in modo dinamico capace di assicurare la massima efficienza nell’erogazione dei servizi aziendali.

Maggiore controllo IT attraverso l’automazione dei livelli di servizio: poiché le orga- nizzazioni dipendono in misura sempre maggiore dai servizi IT, la distribuzione efficace delle applicazioni può fare la differenza tra sviluppo e declino, successo e fallimento. Le organizzazioni si affidano completamente al dipartimento IT che è tenuto a controllare e garantire la qualità del servizio per quanto concerne la distribuzione delle applicazioni. La virtualizzazione automatizza gli accordi sui livelli di servizio (SLA, Service Level Agreement) relativi a disponibilità, sicurezza e scalabilità spostando il paradigma della gestione data center dall’infrastruttura all’erogazione del servizio. I responsabili delle appli- cazioni che hanno l’esigenza di implementare nuovi servizi aziendali sono perciò al riparo dalla complessità di server, storage e infrastruttura di rete e possono concentrarsi sulla rea- lizzazione del valore per l’azienda. Ne consegue un ambiente controllato e automatizzato, resiliente agli errori e in grado di rispondere prontamente a esigenze in rapida evoluzione, senza tuttavia incidere negativamente sulla complessità o i costi generali di esercizio.

Potenziamento dei dipartimenti IT e libertà di scelta: la virtualizzazione crea ambienti IT a prova di futuro e fornisce servizi aziendali on demand, consentendo di scegliere, fra i componenti standard di settore per hardware, architettura applicativa, sistema operativo e infrastruttura interna o esterna, quelli più adatti alle esigenze aziendali attuali e future. Con la virtualizzazione si conservano la flessibilità di scelta e l’indipendenza da hardware, siste- ma operativo, stack applicativo e service provider. In altri termini, si possono supportare le applicazioni esistenti senza alcun timore per le applicazioni future e si possono utilizzare in infrastrutture cloud interne o esterne.

Consolidamento e ottimizzazione costante di server, storage e hardware di rete: la vir- tualizzazione elimina la proliferazione dei server eseguendo le applicazioni all’interno di macchine virtuali installate su un numero inferiore di server e con un utilizzo più efficiente delle risorse di rete e storage. In questo modo si riduce la complessità di gestione dell’hardware mediante la virtualizzazione totale di server, storage e hardware di rete. Le organizzazioni che utilizzano la virtualizzazione in media riescono a ridurre di almeno il 50% le spese di capitale per singola applicazione e ad abbattere di oltre il 60% i costi opera- tivi (manodopera).

Miglioramento della business continuity: la virtualizzazione aiuta a realizzare una solida

(16)

infrastruttura protetta che garantisce la continuità aziendale anche in presenza di guasti hardware o di indisponibilità del data center. Oltre ad eliminare i downtime applicativi imputabili ad attività di manutenzione pianificata di server, storage o rete, la virtualizzazio- ne fornisce funzioni per l’alta disponibilità semplici e convenienti per fronteggiare tempi d’inattività non pianificati, ad esempio per guasti server. Anche il ripristino in caso d’indi- sponibilità dell’intero data center viene semplificato senza che sia necessario disporre di costoso hardware ridondante.

Semplificazione delle operazioni IT: la virtualizzazione semplifica la gestione operativa di ambienti di test, sviluppo e produzione dislocati su più sedi e che eseguono applicazioni o sistemi operativi di qualunque tipo. Utilizzando la virtualizzazione è possibile condivide- re e sostituire facilmente le risorse hardware e semplificare la gestione ricorrendo a policy, procedure operative e di gestione automatizzata comuni a più insiemi di applicazioni e utenti aziendali. La virtualizzazione semplifica il provisioning dei servizi aziendali e garan- tisce livelli di servizio uniformi a prescindere dall’infrastruttura fisica o dalla dislocazione degli stessi. Ciò non solo riduce i costi generali d’esercizio, ma abilita anche la portabilità delle applicazioni tra infrastrutture cloud interne ed esterne senza che i livelli di servizio ne risentano, o che siano richiesti interventi di personalizzazione.

4. AREE DI UTILIZZO DELLA VIRTUALIZZAZIONE

In considerazione dei benefici che le tecnologie di virtualizzazione stanno concretamente mostrando tanto dal lato dei costi, quanto dall’aumentata e migliorata flessibilità e gestibi- lità dei sistemi, nel tempo sono state sviluppate numerose aree di applicazione le più rap- presentative delle quali sono riportate di seguito:

• Server Consolidation - con le tecnologie di virtualizzazione si possono avere più siste- mi server su di un unico hardware fisico migliorando la gestibilità, diminuendo i server e abbassando il TCO;

• Test e Sviluppo - la virtualizzazione offre la possibilità di eseguire tutto il ciclo di svi- luppo e test in ambienti identici a quelli di produzione (in linea di principio è possibile ed ipotizzabile un numero grande a piacere di ambienti di test, uguali e/o diversi e sem- pre isolati tra di loro), consentendo di individuare ed eliminare un numero maggiore di criticità e malfunzionamenti e rendendo le prove ed i test ripetibili a parità di condizioni iniziali;

• Migrazioni di piattaforma Hardware e aggiornamenti - l’astrazione dei sistemi software dalla piattaforma hardware sottostante svincola le scelte tecnologiche dalle eventuali compatibilità e dalle criticità legate ai tempi d’indisponibilità durante l’imple- mentazione dei nuovi sistemi;

• Provisioning - la virtualizzazione fornisce una nuova modalità di gestione dell’infra- struttura IT e consente di aumentare la flessibilità e la rapidità di risposta alle nuove esi- genze e richieste da parte dell’utenza; permette, inoltre, agli amministratori di dedicare meno tempo ad attività ripetitive, quali la configurazione, l’aggiornamento, il monitorag- gio e la manutenzione;

• Business Continuity - le tecnologie di virtualizzazione permettono l’implementazione di migliori e più efficaci strategie di protezione dei dati e alta disponibilità che permetto-

(17)

no di essere pronti in caso di necessità o di “disastro”. Il tutto si traduce in una riduzione generale dei tempi d’inattività, anche pianificata, attraverso un aumento della semplicità e affidabilità delle soluzioni a elevata disponibilità e disaster recovery;

• Capacity Planning e Gestione delle Risorse - la virtualizzazione offre la possibilità di ridisegnare e ridimensionare i sistemi con un basso o nullo tempo d’indisponibilità (downtime). Le tecnologie di accesso dinamico alle risorse permettono di far fronte anche a carichi computazionali e di spazio storage non previsti.

La virtualizzazione è però un processo che coinvolge non solo le infrastrutture centrali, ma progressivamente scende verso il desktop, thin client o dispositivi portatili. In questo ambi- to permette di razionalizzare la gestione delle release, controllare meglio l’utilizzo delle risorse e proteggere più efficacemente i dati aziendali. Si tratta quindi di un processo che coinvolge progressivamente tutti i livelli di un sistema informativo.

La considerazione generale è che con un utilizzo opportuno del mix delle possibilità offerte dalle tecnologie di Virtualizzazione è possibile migliorare il controllo dei sistemi e delle dinamiche dei costi iniziali e operativi.

RIASSUNTO

I sistemi operativi di nuova generazione sfruttano la potenza della virtualizzazione per tra- sformare i data center in infrastrutture semplificate e consentono alle organizzazioni IT di erogare servizi di nuova generazione, affidabili e flessibili, che fanno uso delle risorse inter- ne ed esterne e garantiscono massima sicurezza e rischi contenuti.

Facendo leva sulla potenza delle piattaforme virtualizzate, ormai adottate con successo da migliaia di utenti, si riducono sensibilmente sia i costi operativi sia di capitale, incremen- tando il controllo sui servizi IT garantendo al tempo stesso la libertà di scegliere qualunque tipo di sistema operativo, applicazione e dispositivo hardware.

(18)

SOMMARIO

1. Consolidamento. - 2. Consolidamento di ambienti server. - 3. Ottimizzazione del Data Center.

1. PREMESSA

Un Data Center rappresenta per le Aziende un notevole investimento dovuto all’impiego di centinaia di servers per supportare le applicazioni e i servizi che gli utenti le richiedono. Le Aziende che oggi hanno un così ampio range di tecnologie differenti, hanno ora il problema di ottimizzare le prestazioni attraverso l’impiego di un opportuno mix di piattaforme applicative.

I Data Center stanno vivendo una fase di profonda trasformazione evolutiva. Entrambi i fat- tori tecnologici e di business stanno influenzando questo processo di trasformazione. L’arri- vo e la successiva maturazione della tecnica di virtualizzazione, che provvede a separare le infrastrutture logiche da quelle fisiche, costituisce la pietra miliare di questo processo di tra- sformazione dei Data Center.

Dopo aver retto il primo urto della tecnologia di virtualizzazione, le organizzazioni stanno ora cercando di ottenere altre efficienze dall’impiego delle tecnologie IT. Queste efficienze possono essere ottenute attraverso percorsi come altri processi di virtualizzazione delle risorse, un maggior consolidamento degli attuali servers per finire con l’adozione di cam- biamenti nelle strategie concernenti i miglioramenti infrastrutturali.

Tuttavia, l’adozione di corrette decisioni strategiche che possano comportare poi benefici futuri è difficile se non si hanno adeguate informazioni. Un aiuto in queste situazioni può derivare da un monitoraggio degli utenti e di come loro interagiscono con le applicazioni attraverso l’infrastruttura IT dell’Organizzazione.

La struttura responsabile del processo di ottimizzazione del Data Center, magari con l’impiego di tools appropriati di monitoring, può rendersi facilmente conto di come i servizi stessi vengono utilizzati e di conseguenza come ricavare ulteriori benefici attraverso il cam- biamento della strategia IT.

* Consulenza per l’Innovazione Tecnologica - Direzione Generale INAIL.

(19)

Ad esempio, nel caso di un certo numero di utenti che accede ad un’applicazione basata su alcuni server, mentre un numero decisamente inferiore di utenti accede ad un’applicazione ospitata su differenti servers. A questo punto il responsabile del Data Center potrebbe deci- dere di spostare quest’ultima applicazione su di un ambiente elaborativo basato su servers virtualizzati, oppure lasciarla nella sua attuale sede.

2. CONSOLIDAMENTO DI AMBIENTI SERVER

Questo potrebbe essere il caso in cui è già presente una server farm virtualizzata e il passo successivo è quello di consolidare questo ambiente tenendo conto dell’impatto che si avreb- be sugli utenti e nello stesso tempo analizzare il potenziale risparmio che questa operazione comporterebbe. In questo esempio, le informazioni necessarie per prendere la corretta deci- sione potrebbero essere desunte dall’analisi dei dati di utilizzo delle applicazioni. Se l’uti- lizzo delle applicazioni ospitate su server fisici dovesse risultare basso, allora le applicazio- ni stesse potrebbero essere seriamente candidate ad essere oggetto di virtualizzazione.

Analogamente, un ambiente virtuale con un basso livello di utilizzo, potrebbe avere le sue risorse gradualmente ridotte per consentire un successivo consolidamento. Le informazioni ottenute possono essere utilizzate per un’analisi costi-benefici. Analizzando quanto coste- rebbe rilasciare l’intero servizio su di un’infrastruttura (piattaforme e licenze) con differenti scelte tecnologiche, si potrebbero scoprire ulteriori opportunità di investimenti nell’ottimiz- zazione del Data Center.

Troppo spesso, il Data Center è suddiviso in silos tecnologici, la cui responsabilità è riparti- ta tra i diversi componenti del Team IT dedicato alla gestione del Data Center stesso.

Questo comporta per il Responsabile del Centro maggiori difficoltà nel prendere decisioni finalizzate a ottenere dei risparmi di gestione. Superando queste logiche settarie di gestione e guardando alle applicazioni non più suddivise per aree circoscritte ma disponibili a essere ospitate su piattaforme elaborative virtualizzate e dinamicamente modificabili, è possibile effettuare le scelte giuste e prendere le decisioni corrette per il futuro.

Un’altra situazione che ricorre di sovente è quella derivante dalla presenza di più Data Center ciascuno dotato di autonome e differenti infrastrutture tecnologiche. È questo il caso ad esempio derivante da fusioni e incorporazioni che rendono più difficile il confronto tra le diverse tecnologie, come pure tra i differenti cost models e relative strategie di acquisto in precedenza adottate.

Anche in questo caso la corretta strategia per il futuro deriva dal possedere le giuste infor- mazioni su come gli utenti utilizzano il servizio. Basandosi su queste informazioni, l’IT Manager può agire sull’operatività degli utenti di questi servizi, per determinare se è possi- bile concentrare la tecnologia in un unico Data Center, oppure continuare a tenere distinti i vari siti.

I dati sull’utilizzo delle applicazioni possono infine comportare benefici attraverso la razio- nalizzazione nell’uso delle licenze in possesso dell’Organizzazione eliminando quelle non più utilizzate.

3. OTTIMIZZAZIONE DEL DATA CENTER

L’obiettivo di un Data Center altamente virtualizzato è di passare da una piattaforma vinco-

(20)

lata e sotto-utilizzata ad una più flessibile, dinamica e rispondente alle esigenze di riduzione dei costi. Di conseguenza sarà necessario adottare dei tools in grado di gestire adeguata- mente il mix di ambienti fisici e virtuali che si verranno a creare. Comunque il passaggio a un più alto utilizzo di risorse, a una maggiore densità, associato a minori costi energetici e di requisiti di spazio, dovrebbe aiutare le Organizzazioni a passare da una situazione in cui il 70%-80% del budget IT è dedicato a “tenere le luci accese” a una in cui solo il 50% del budget sia utilizzato per questi scopi.

Risparmiando il 20%-30% del budget IT, la Direzione IT potrà rispondere più efficacemen- te alla richiesta di “fare di più con meno risorse” proveniente dagli utenti, per migliorare le applicazioni che costituiscono il core business dell’Organizzazione.

Una volta raggiunto un adeguato livello di consolidamento, il passo successivo consisterà nell’ottimizzazione della componente energetica ed infrastrutturale del Data Center.

Occorrerà quindi rivedere la gestione dell’alimentazione, le necessità di raffreddamento, la razionalizzazione degli spazi e altri aspetti per essere certi che ciascuno di questi elementi possa ancora soddisfare le esigenze di un ambiente a questo punto più densamente popola- to. Un ridisegno del sistema di raffreddamento più mirato si renderà necessario per ridurre i consumi energetici.

Il processo di virtualizzazione e l’ottimizzazione infrastrutturale garantiscono inoltre all’Organizzazione la possibilità di muoversi verso approcci di razionalizzazione del Data Center più orientati ad aspetti ecologici come ad esempio il raffreddamento ad aria libera o ad acqua, il recupero di energia, il riuso e così via.

La maniera con cui sono stati gestiti i Data Center ha subito continui cambiamenti, man mano che la tecnologia è passata dai mainframe ai mini computer fino ad arrivare ai server cosiddetti rack-mounted per finire con i più recenti server blade.

Il vecchio modo di concepire le necessità applicative (una o al massimo due applicazioni per server) ha comportato dei livelli di stress nella gestione del Data Center, relativamente agli aspetti di alimentazione ed alle necessità di raffreddamento, tutto sommato contenuti, anche se andava aumentando la densità dei dispositivi.

La virtualizzazione ha cambiato questo paradigma. Man mano che sono stati introdotti nuovi progetti di virtualizzazione, come elementi per la razionalizzazione e il consolida- mento del software, come pure dell’hardware, la gran parte delle Organizzazioni è passata da una situazione che prevedeva un’elevata densità dell’hardware ad una in cui si aumenta- va la percentuale di utilizzo del singolo server. Questo alla fine ha comportato elevati livelli di stress riguardo agli aspetti di alimentazione e di raffreddamento, nel caso in cui non si fosse provveduto ad una buona progettazione del Data Center.

Tuttavia nonostante queste preoccupazioni, in numerose e recenti implementazioni della virtualizzazione, l’approccio di collocare dispositivi simili tra loro in aree ben specifiche ha prodotto risultati disastrosi. Ad esempio, l’aver collocato tutti gli alimentatori in una pila, tutte le CPU in un’altra e tutto lo storage in un’altra ancora ha generato seri problemi relati- vamente agli aspetti di fornitura di potenza elettrica. Inoltre lo smaltimento del calore da una sorgente cosi altamente dissipativa ha richiesto sistemi di raffreddamento notevolmente specializzati allo scopo di prevenire casi di surriscaldamento.

La maggior parte degli specialisti di virtualizzazione e implementazione di Data Center, ha enfatizzato la propria capacità di progettazione di piattaforme per ambienti altamente virtua- lizzati. Tuttavia essi non hanno tenuto in conto, oltre le componenti fondamentali, anche degli aspetti relativi alle interconnessioni, al dimensionamento della potenza in ingresso ed alla necessità di una capacità di crescita dinamica e di una contestuale riduzione delle risorse.

(21)

Quindi, per la prima volta si è cominciato a guardare al problema della potenza come ad un elemento che nella progettazione di un Data Center ha una sua valenza paritetica a quella degli altri elementi in esso presenti. Allo scopo di garantire la continuità del servizio si è cominciato a pensare di utilizzare più di un singolo quadro di distribuzione. Diverse sorgen- ti di energia, collocate in punti diversi del Data Center, allo scopo di garantire non solo una maggiore capacità di gestire ogni singolo point of failure, ma di agevolare anche la crescita di un’ulteriore importante area, quella del cablaggio strutturato.

In ambienti ad alta densità, la gestione del cablaggio costituisce un serio problema. In un ambiente virtualizzato è opportuno evitare il cablaggio sotto-pavimento, e andrebbe evitata la vicinanza tra cavi elettrici e cavi dati. In questo modo, la manutenzione del cablaggio sarà notevolmente semplificata e i fenomeni d’interferenza tra i due tipi di cavi sarebbero pressoché nulli.

La progettazione dei rack è un altro aspetto da considerare. Un adeguato mix di CPU, stora- ge, networking e dispositivi di potenza nello stesso rack non costituisce un problema. Esso consente la convivenza tra dispositivi ad alta generazione di calore come gli alimentatori, con altri a bassa emissione di calore come router e switch. Tutto questo consentirà una migliore progettazione dei sistemi di raffreddamento.

In definitiva, la virtualizzazione garantisce un’opportunità di rivedere l’architettura del Data Center allo scopo di assicurare soluzioni altamente efficaci, dinamiche e reattive.

RIASSUNTO

La richiesta di nuovi servizi sta spingendo i Manager IT a trasformare i propri Data Center da semplici centri di costo a generatori di valore aggiunto per i nuovi servizi. I nuovi Data Center possono avere un impatto significativo sulle decisioni strategiche consentendo ai vertici di un Organizzazione di rispondere più velocemente alla richiesta di nuovi servizi.

Quest’articolo dimostra, attraverso una serie di esempi, come sia possibile semplificare la gestione operativa dei processi, tagliare i costi e velocizzare la creazione di nuovi servizi.

(22)

ANTONIO TERRACINA**

SOMMARIO

1. Introduzione. - 2. Metodo. - 3. Modello.

1. INTRODUZIONE

L’azienda può essere vista come un sistema la cui produttività è la sintesi di fattori fisici e biologici legati al lavoratore, dell’utilizzo di macchinari e materiali e dell’organizzazione del lavoro; ogni qualvolta si verifichi un infortunio, questo è la risultante di un malfunzio- namento del sistema che muta tale equilibrio.

Il costo dell’infortunio è proprio il costo atto a ristabilire quell’equilibrio, si tratta infatti di tutta una serie di oneri, in parte a carico dell’azienda, riconducibili ai costi derivanti dalla perdita di produzione nell’attività principale e in attività complementari.

Oltre al premio erogato per la copertura del rischio infortunistico l’azienda si trova a far fronte a tutta una serie di oneri e di spese, in gran parte difficilmente valutabili, che sono legati al verificarsi dell’evento lesivo. Il tempo perduto per i primi soccorsi all’infortunato, la diminuzione di produttività dovuta ai danni alle macchine e all’addestramento del sosti- tuto, la perdita di immagine, i salari comunque versati durante il periodo di inattività, i sala- ri dovuti per lavoro straordinario, le spese per le pratiche amministrative e giuridiche sono soltanto alcune di queste variabili.

Bene si inserisce tra questi costi il discorso sulla prevenzione, tanto da rappresentare per l’azienda non solo un obbligo morale, ma anche una questione di “convenienza economi- ca”. La vantaggiosità dell’investimento prevenzionale si traduce, quindi, da un punto di vista puramente economico, nel problema di trovare la dose ottimale di intervento preven- zionale che minimizzi i costi complessivi .

In tale quadro assumono particolare importanza le spese collegate all’adozione di misure di sicurezza relative sia alla fase di progettazione dell’attività di produzione, identificabili nelle spese per l’allestimento del luogo di lavoro e dei relativi materiali, per l’installazione

* Consulenza Statistico Attuariale - Direzione Generale INAIL.

** CONTARP - Direzione Generale INAIL.

(23)

delle macchine e per l’organizzazione del lavoro, sia collegate alla fase di svolgimento dell’attività dell’impresa, ossia le spese per l’organizzazione della sicurezza e dell’igiene sul lavoro, per il controllo dello stato di salute dei lavoratori e dei dispositivi di protezione, per gli equipaggiamenti di protezione e per la formazione.

Dare all’azienda percezione dell’impatto economico legato alla salute e sicurezza sul lavoro costituisce lo scopo della presente analisi, soprattutto per le micro, piccole e medie imprese che spesso hanno difficoltà a comprendere gli oneri legati al verificarsi di un infortunio o di una malattia professionale per il bassissimo indice di frequenza infortunistica che le caratterizza.

2. METODO

Il costo complessivo degli infortuni e malattie professionali è la risultante di tre algoritmi: il primo, di immediata comprensione anche per il management dell’azienda, riguarda i costi assicurativi ovvero i premi versati dal datore di lavoro per la copertura del rischio infortuni- stico all’INAIL o a strutture private, il secondo e il terzo più difficilmente valutabili, riguar- dano invece i costi dell’investimento in prevenzione e i costi collegati al verificarsi dell’evento lesivo.

Il primo passo per consentire alle aziende di determinare l’impatto sociale ed economico degli infortuni e le malattie professionali è stato dunque quello di individuare e mettere in relazione tra loro i principali parametri che costituiscono gli elementi base dei tre algoritmi.

Successivamente è stato associato alle variabili, laddove necessario, un peso in base a quan- ti infortuni e malattie professionali si sono verificati nell’anno di valutazione nell’azienda che sta utilizzando il modello.

Questa impostazione potrebbe presentare delle criticità nel caso in cui per un lungo periodo nell’azienda non si manifesti alcun fenomeno infortunistico, questo perché l’azienda potrebbe sottostimare o addirittura annullare la percezione del proprio rischio. Per superare tale criticità si è reso allora necessario costruire una serie di tabelle contenenti indici di fre- quenza, di gravità e durate medie di assenza degli infortuni indennizzati, calcolati per tutte le aziende operanti sul territorio italiano. Questi indicatori consentono all’azienda utilizza- trice del modello di calcolo di confrontare il proprio livello di rischio con quello del com- plesso delle aziende italiane omogenee per dimensione aziendale, per gruppo di tariffa INAIL, per regione e per Asl.

L’indice di frequenza è stato costruito come rapporto tra gli eventi lesivi definiti positiva- mente dall’Istituto (sono stati considerati oltre ai casi indennizzati anche quelli riconosciuti positivi ma senza indennizzo perché costituiscono un costo per l’azienda) e il numero degli esposti al rischio di infortunarsi (gli addetti-anno), mentre l’indice di gravità come rapporto tra le conseguenze degli eventi lesivi, espresse in giornate perdute, e il numero di esposti al rischio (addetti-anno).

Oltre agli indicatori di frequenza e di gravità è stata determinata anche la durata media di assenza degli infortuni indennizzati ovvero il numero di giorni mediamente riconosciuti per temporanea, permanente e morte.

Per addetti-anno si intende la stima delle unità di lavoro-anno calcolate rapportando, per ciascuna PAT, l’ammontare complessivo delle retribuzioni corrisposte nell’anno e 300 volte la retribuzione media giornaliera dei casi di infortunio verificatisi nelle aziende che operano in una determinata provincia e appartengono al grande gruppo di tariffa in cui è classificata la PAT.

(24)

Lo studio del fenomeno infortunistico è stato effettuato determinando gli indici di rischio relativi agli infortuni e alle malattie professionali occorsi nel biennio 2006-2007 (a breve l’analisi verrà estesa anche al 2008). I casi considerati per la valutazione sono stati gli even- ti lesivi avvenuti in Italia o all’estero la cui copertura è comunque di competenza dell’INAIL, definiti positivamente dall’Istituto nell’anno di riferimento e relativi ai settori Industria e Servizi dai quali sono stati esclusi gli eventi accaduti a lavoratori apprendisti, lavoratori interinali, lavoratori iscritti alle polizze speciali (es: cooperative di facchinaggio, pescatori, ecc), sportivi professionisti e gli eventi in itinere.

Per neutralizzare gli effetti confondenti della cosiddetta “migrazione degli infortuni”, vale a dire la possibilità che un lavoratore si infortuni in un territorio diverso da quello in cui ha sede l’azienda per la quale lavora, si è ritenuto di riallocare gli eventi lesivi all’interno del territorio nel quale è registrata la sede della ditta. Ciò ha portato alla costruzione di indici, in cui, al denominatore compaiono gli addetti INAIL che agiscono su quel territorio, e, compatibilmen- te con essi, al numeratore vengono considerati gli infortunati dello stesso territorio.

Gli indici di rischio così determinati sono stati utilizzati nel modello per riproporzionare le spese sostenute dalle aziende ed evidenziare solo la parte dei costi effettivamente legata agli infortuni e alle malattie professionali.

Il passo successivo è stato quello di analizzare l’andamento infortunistico delle aziende che dal 2005 investono in prevenzione adottando un sistema di gestione della salute e sicurezza sul lavoro certificato OSHAS 18001 (SGSL) e di confrontarlo, gruppo di tariffa per gruppo di tariffa, con il trend delle aziende italiane.

A tal fine è stato identificato un insieme di imprese omogeneo a quello delle aziende certifi- cate per tipologia di lavorazione INAIL ed è emersa una maggiore propensione ad adottare un sistema di gestione nelle aziende che effettuano, all’interno dei singoli gruppi tariffari, lavorazioni meno rischiose.

Si è di seguito proceduto al raffronto mediante verifica di ipotesi e di significatività sulla differenza fra le frequenze infortunistiche dei due campioni: quello delle aziende certificate e quello delle aziende italiane operanti negli stessi settori.

È stata costruita una variabile standardizzata che è servita a rendere confrontabili i due campioni, annullando gli effetti derivanti dalla diversa numerosità di aziende considerate.

Si è verificato che la differenza dell’indice di frequenza infortunistica delle due popolazioni di aziende è significativa al livello del 10% per tutti i gruppi di lavorazione INAIL tranne che per le “Lavorazioni agricole, allevamenti di animali, pesca e alimenti”, gruppo per il quale si riscontra un’uguaglianza tra l’andamento infortunistico delle aziende italiane e di quelle certificate.

(25)

Tav.1 Confronto tra gli indici di rischio relativi al campione delle aziende certificate SGSL e a quello delle aziende italiane operanti negli stessi gruppi di tariffa calcolati per il biennio 2006-2007

Indice di frequenza per 1000 addetti- Indice di gravità per addetto

In tutti i gruppi per cui la differenza è significativa si rileva una minore propensione ad infortunarsi nelle aziende che investono in prevenzione rispetto al complesso delle aziende italiane operanti negli stessi settori.

Grafico 1 - Distribuzione della variabile standardizzata degli indici di frequenza infortunistica delle aziende cer- tificate per grandi gruppi di tariffa - biennio 2006-2007.

(26)

Grafico 2 - Confronto tra le variazioni percentuali dell’indice di frequenza e dell’indice di gravità del campio- ne delle aziende certificate SGSL e delle aziende italiane operanti negli stessi gruppi di tariffa per il biennio 2006-2007.

Le variazioni percentuali nel grafico sono state evidenziate con differente intensità di colore per sottolineare il grado di significatività del valore rappresentato: il rosso e il blu scuro indicano che la differenza tra gli indici delle aziende certificate e delle aziende italiane è molto alta, in particolare in quei settori gli infortuni e le malattie professionali occorsi a lavoratori di ditte certificate sono molto meno frequenti e molto meno gravi rispetto alle ditte italiane, contrariamente il colore chiaro indica che seppur esiste una differenza tra i due campioni questa non è particolarmente rilevante.

La variazione tra le frequenze dei due campioni è stata utilizzata nel modello per rimodula- re (tranne nel caso in cui vi è uguaglianza) i costi legati agli infortuni e alle malattie profes- sionali fornendo sia una stima della possibile riduzione del fenomeno infortunistico sia un’indicazione del valore economico di cui il management potrebbe disporre per investire in salute e sicurezza e minimizzare così i costi complessivi legati agli eventi lesivi.

2. MODELLO

Il modello di calcolo, di cui abbiamo appena descritto le fasi della realizzazione, ha come primo obiettivo quello di fornire all’azienda una valutazione per l’anno prescelto dei costi dei danni da lavoro distinti tra costi assicurativi, costi prevenzionali e costi degli eventi lesivi.

Il modello è costituito da cinque schermate, le prime quattro dedicate all’inserimento dei dati e l’ultima destinata alla presentazione del costo distinto nelle tre parti e alla presenta-

(27)

zione della stima della riduzione del costo complessivo a cui l’azienda potrebbe accedere aderendo a sistemi di gestione della salute e sicurezza sul lavoro.

Il modello prevede quindi, nella prima schermata, l’inserimento da parte dell’azienda di una serie di dati che la caratterizzano: regione, asl di appartenenza, gruppo di tariffa INAIL, PAT (Posizione Assicurativa Territoriale) e anno di valutazione a cui si riferiscono tutte le informazioni inserite nelle schermate successive.

L’azienda che inizia un’attività è tenuta a presentare all’INAIL la denuncia di esercizio con conseguente apertura di una PAT. L’INAIL, sulla base della tariffa dei premi, classifica la posizione assicurativa con una o più voci di lavorazione. Nel caso di lavorazioni non omo- genee e indipendenti l’INAIL apre tante posizioni assicurative quante sono le lavorazioni.

Nella fase di sviluppo del prototipo si è pensato di inserire la richiesta della PAT nella prima schermata per agevolare quelle aziende che svolgono lavorazioni non omogenee con livelli di rischio molto diversi tra loro. Infatti l’inserimento del codice della PAT permette- rebbe l’acquisizione di molte informazioni direttamente dagli archivi INAIL consentendo la riduzione del numero di dati da inserire nelle varie schermate, operazione particolarmente gravosa per quelle aziende che avendo aperta più di una posizione devono digitare i dati tante volte quante sono le PAT. Si alleggerirebbe così per un verso il lavoro dell’utente uti- lizzatore del modello e si eviterebbero dall’altro errori di interpretazione dei parametri richiesti all’azienda (per esempio gli addetti che sono stimati dall’INAIL differiscono dai lavoratori che hanno prestato servizio nell’azienda nell’anno di valutazione).

(28)

Nell’elaborazione del modello proposto, sono stati individuati una serie di indicatori, di seguito elencati, che oltre ad avere rilevanza in termini di ripercussione economica, rispon- dono alla caratteristica di essere facilmente desumibili a livello aziendale, agevolando la raccolta dei dati e quindi effettuando una stima il più accurata possibile dei costi:

• Assenza per lesioni

• Assenza dal lavoro per malattia

• Costo per la sostituzione di un lavoratore infortunato o malato

• Tempo impiegato dal personale SSL

• Tempo per la pianificazione e la gestione delle operazioni

• Mancata produzione

• Sanzioni e penalità

• Costi legali, indennità per i lavoratori e assistenza

• Costi assicurativi

• Tempo per le indagini

• Assicurazione per i danni alla proprietà

• Fermata degli impianti

• Sostituzione dei materiali

• Addestramento dei nuovi dipendenti

• Perdita della produttività dei dipendenti

• Perdita di immagine aziendale

• Acquisto di nuove apparecchiature e altri investimenti in Sicurezza.

(29)
(30)

Non è risultato sempre semplice desumere il controvalore monetario di tali indicatori. In alcuni casi i parametri richiesti sono facilmente reperibili a livello aziendale, come ad esempio il numero di infortuni e di malattie professionali, le sanzioni economiche e le pena- lità nei ritardi eccetera. Altri indici sono stati calcolati da alcune informazioni facilmente disponibili in azienda, per esempio le ore di addestramento e le parcelle relative ai consu- lenti interni o esterni che effettuano i corsi, le ore di fermata impianti e il valore di un’ora di produzione, etc.. Taluni indicatori, invece, come quelli relativi alla perdita dell’immagine aziendale oppure al calcolo dei tempi di indagine di un infortunio e di una malattia profes- sionale, sono stati stimati attraverso metodi statistici desunti da autorevoli studi bibliografi- ci molti dei quali sono alla base dei calcoli statistici regolarmente effettuati dall’INAIL.

Sono poi stati elaborati degli algoritmi di calcolo che permettono di processare tali indici al fine di ottenere

• il costo di malattie /infortuni,

• il costo delle misure di prevenzione,

• il costo assicurativo,

• ed infine la stima del possibile risparmio che l’azienda può ottenere migliorando i livelli di igiene e sicurezza.

(31)

Questa ultima indicazione economica ambisce a differenziare questo modello di calcolo dai principali esistenti a livello internazionale, i quali, infatti, effettuano una valutazione costi/benefici relativa ad una singola misura di prevenzione che l’azienda intende attuare, piuttosto che fornire all’azienda una indicazione realistica del risparmio economico rag- giungibile investendo in sicurezza. L’analisi costi/benefici di un intervento tecnico richie- de che l’azienda abbia già progettato l’intervento ed effettuato una valutazione economi- ca dello stesso. Il modello elaborato dall’INAIL, invece, procede ad effettuare una stima complessiva dei possibili risparmi di gestione legati al miglioramento delle condizioni di SSL e pertanto dell’ammontare economico a disposizione dell’azienda che potrà essere destinato per interventi specifici di miglioramento, al di là ovviamente dei requisiti cogenti. Gli interventi di miglioramento potranno riguardare sia la formazione e l’adde- stramento, sia modifiche strutturali e/o rinnovamento parco macchine, sia significative modifiche di processo. Le singole azioni potranno eventualmente essere anche oggetto di una analisi costi/benefici qualora l’azienda lo ritenga opportuno o abbia le risorse umane e strumentali per effettuarlo.

Un modello di calcolo così concepito ambisce a rendere l’analisi dei costi aziendali più semplice ed accessibile anche alle piccole medie imprese.

Una maggiore consapevolezza degli alti costi che l’azienda deve sostenere in conseguenza degli eventi infortunistici e tecnopatici, insieme agli obblighi normativi e ai doveri di responsabilità sociale di chi “fa impresa”, è un passo indispensabile e fondamentale per investire efficacemente sulla sicurezza nel lavoro, con un complesso di misure preventive mirate per la diminuzione degli infortuni, delle malattie professionali e alla realizzazione di un ambiente lavorativo più sicuro.

RIASSUNTO

Quanto spende la singola azienda per far fronte ai costi della non sicurezza? E quanto potrebbe ridursi tale costo grazie all’adozione di un sistema di gestione della salute e sicu- rezza sul lavoro?

La CSA e la CONTARP hanno congiuntamente costruito un modello di calcolo che assista il datore di lavoro, soprattutto quello delle piccole e medie imprese, nella determinazione delle spese da lui sostenute per assicurare il rischio di infortunio e di malattia professionale, per prevenire ed eventualmente affrontare il verificarsi dell’evento lesivo nell’anno di rife- rimento.

Una volta determinati gli oltre 40 parametri economici legati all’infortunio e alla malattia professionale, il modello si prefigge lo scopo di fornire, per le imprese di grandi dimensio- ni, indicazioni sui costi effettivamente sostenuti dall’azienda, mentre per le piccole e medie imprese, una stima dei costi basata sugli indici di rischio omogenei per territorio, tipologia di lavorazione, Asl di appartenenza e dimensione aziendale.

Inoltre il modello ha come obiettivo finale quello di fornire una stima della riduzione di tali costi derivante da uno studio sul confronto dell’andamento infortunistico tra le aziende cha hanno adottato un SGSL e un campione delle aziende italiane.

Per il confronto si è costruito un insieme di imprese, omogeneo per tipologia di lavora- zione sul quale sono stati calcolati indici di frequenza e di gravità. Il modello, sviluppa- to su un applicativo prototipale, a parità di tutti i parametri del campione, consente di effettuare una stima della riduzione dei costi, derivante dal paragone degli indici infortu-

(32)

nistici delle imprese che hanno adottato un SGSL con gli stessi valori evinti dai dati delle imprese sottoposte a “test”.

Le risorse così risparmiate possono rappresentare per la singola azienda, che vede diminuire il proprio livello di rischio, l’incentivo ad investire in salute e sicurezza sul lavoro.

BIBLIOGRAFIA

S. AMATUCCI: “Il costo dei danni da lavoro per l’azienda Italia”. Quaderno della Rivista degli Infortuni e delle Malattie Professionali - Atti del Primo Seminario CIT-CSA - INAIL ottobre 2009.

S. AMATUCCI: “Danni da lavoro: una previsione del costo economico e sociale”. DATI INAIL - INAIL aprile 2010.

M.I. BARRA, G. MORINELLI, A. TERRACINA: “Sistemi di gestione contro gli infortuni:

dall’INAIL, i primi dati sull’efficacia”. Ambiente&Sicurezza-Ilsole24ore n. 18/08.

M.I. BARRA, G. MORINELLI, A. TERRACINA: “Sulla “non sicurezza” un modello di calcolo che stima i costi aziendali”. Ambiente&Sicurezza-Ilsole24ore n. 21/09.

M.I. BARRA, P. FIORETTI, G. MORINELLI, A. TERRACINA: “OH&S economic analy- sis: an evaluation tool”. Atti del XVIII Convegno Mondiale sulla salute e sicurezza sul lavoro. SEUL 29-6/2-7/2008.

(33)
(34)

SOMMARIO

1. Premessa. - 2. Il Disegno di legge 998. - 3. Oneri aggiuntivi previsti. - 3.1 Spesa annua prevista secondo la normativa vigente. - 3.2 Articolo 1 A.S.998 - Onere annuo aggiuntivo previsto. - 3.3 Articolo 2 lettera c) A.S.998 - Onere annuo aggiuntivo previsto. - 3.4 Stima onere aggiuntivo complessivo.

1. PREMESSA

L’articolo 74 del Testo Unico (D.P.R. 30 giugno 1965, n. 1124) prevede che “quando sia accertato che dall’infortunio o dalla malattia professionale sia derivata un’inabilità per- manente tale da ridurre l’attitudine al lavoro in misura superiore al dieci per cento (…), è corrisposta, con effetto dal giorno successivo a quello della cessazione dell’inabilità tem- poranea assoluta, una rendita di inabilità rapportata al grado dell’inabilità stessa” sulla base di specifiche aliquote di retribuzione.

Nel medesimo articolo si precisa inoltre che deve ritenersi inabilità permanente, assoluta o parziale, la conseguenza di un infortunio o di una malattia professionale la quale tolga com- pletamente o diminuisca in parte, ma essenzialmente e per tutta la vita, l’attitudine al lavoro.

Il D.Lgs. n. 38 del 23 febbraio 2000 ha introdotto un nuovo sistema di indennizzo del danno permanente, sostituendo la nozione di attitudine al lavoro con la nozione di menoma- zione dell’integrità psicofisica, limitatamente alla liquidazione delle prestazioni, in capitale o in rendita, erogate in luogo della precedente rendita per inabilità permanente.

Tuttavia, la nozione di attitudine al lavoro è rimasta comunque in vigore con riferimento agli altri istituti giuridici (es. assegno di incollocabilità).

La legge finanziaria per il 2007 (Legge 27 dicembre 2007, n. 296) del è intervenuta su tale quadro cercando di compiere un riordino sistematico ed un’armonizzazione della materia.

In particolare, ha sostituito la nozione di attitudine al lavoro con quella di menomazione dell’integrità psicofisica in relazione a tutto il sistema di tutela della invalidità da lavoro (anche ai fini del riconoscimento di provvidenze e prestazioni accessorie).

* Consulenza Statistico Attuariale - Direzione Generale INAIL.

(35)

Di conseguenza, ha rideterminato coerentemente le soglie di invalidità già stabilite dalle norme vigenti per l’accesso alle varie prestazioni sia fondamentali che accessorie, conver- tendo i gradi di riduzione o perdita dell’attitudine al lavoro nei corrispondenti gradi di menomazione della integrità psicofisica (tabella allegata al D.M. 12 luglio 2000, pubblicato su G. U. n. 172 del 25 luglio 2000).

Nessuna modifica è stata, invece, prevista in merito al contenuto delle prestazioni o alla platea dei beneficiari, né tanto meno alle condizioni necessarie per il riconoscimento delle prestazioni stesse.

Il Disegno di Legge 998, Atto del Senato XVI legislatura, iniziativa parlamentare del sena- tore Luigi Lusi, assegnato in sede referente il 16 dicembre 2008 alla 11° Commissione per- manente (A.S.998), scaturisce, quindi, dalla necessità di riconsiderare alcuni aspetti della disciplina lasciati irrisolti dalla finanziaria del 2007.

2. IL DISEGNO DI LEGGE 998

L’A.S.998 contiene una ridefinizione della disciplina di indennizzo del danno biologico che prevede sostanziali modifiche alla normativa vigente.

In primo luogo interviene su quanto stabilito dall’articolo 13 del D.Lgs. 38/2000, ai sensi del quale, in caso di danno biologico, in luogo della prestazione prevista dall’articolo 66 punto 2) del Testo Unico, l’indennizzo delle menomazioni di grado pari o superiore al 6 per cento ed inferiore al 16 per cento è erogato in capitale, dal 16 per cento è erogato in rendita.

Il disegno di legge in esame all’articolo 1 dispone, invece, che godano dell’erogazione delle rendite tutti gli inabili con un grado di menomazione a partire dall’11 per cento.

All’articolo 2 il Governo viene delegato ad adottare uno o più decreti legislativi al fine di ride- finire la disciplina dell’indennizzo del danno biologico, nel rispetto di alcuni principi direttivi:

a) revisione della tabella delle menomazioni (allegata al D.M. 12 luglio 2000);

b) revisione della tabella dei coefficienti (allegata al medesimo decreto), stabilendo il coef- ficiente minimo ad un livello non inferiore allo 0,6 per tutti i gradi di inabilità;

c) previsione di un meccanismo di adeguamento annuale degli importi di cui alla tabella di indennizzo del danno biologico, allegata al citato decreto ministeriale 12 luglio 2000;

d) modifica della base di calcolo delle quote integrative spettanti all’infortunato per il coniuge e i figli a carico;

e) applicazione del criterio della media giornaliera del settore industria per la liquidazione delle rendite spettanti ai prestatori d’opera che non percepiscono retribuzione fissa o accertabile;

f) previsione di una clausola di salvaguardia, che faccia salve eventuali disposizioni previ- genti più favorevoli al lavoratore colpito da infortunio o malattia professionale.

Nel presente articolo è stata elaborata un’ipotesi di variazione normativa, ritenuta valida per consistenza e significatività, conforme alle risultanze della seduta dell’11a Commissione permanente del 16 Marzo 2010.

In tale occasione il senatore relatore Maurizio Castro ha posto l’accento su alcuni punti del disegno di legge, sottolineando l’importanza delle misure migliorative previste dall’articolo 1 e dall’articolo 2 lettera c) che, oltre ad essere quelle di maggior impatto sociale ed econo- mico, rispondono in maniera sostanzialmente esaustiva alle esigenze più volte espresse da Rappresentanti dei lavoratori e degli infortunati.

(36)

L’abbassamento dal 16 per cento all’11 per cento del grado minimo indennizzabile in rendita consentirebbe, in primo luogo, di uniformare i requisiti di accesso alla prestazione vitalizia per eventi afferenti a discipline diverse nonché di attribuire nuovamente agli ina- bili con un grado di menomazione inferiore al 16 per cento tutta una serie di servizi che spettano ai titolari di rendita permanente, tra i quali il ristoro delle conseguenze patrimo- niali del danno, il pagamento di quote integrative per i familiari a carico, l’erogazione dell’assegno per l’Assistenza Personale Continuativa qualora si possiedano i necessari requisiti, la possibilità di successive revisioni della misura della rendita in funzione della diminuzione dell’attitudine al lavoro (nel caso di indennizzo in capitale l’art. 13 comma 4 del D.lgs 38/2000 prevede che la revisione per aggravamento della menomazione possa avvenire una sola volta).

Va sottolineato poi che l’applicazione della nuova normativa non comporterebbe comunque uno svantaggio economico per gli infortunati.

Si esclude, infatti, che l’indennizzo corrisposto per la fascia di grado 11%-15%, che pas- serebbe dall’indennizzo in capitale a quello in rendita, possa essere inferiore a quello della previgente normativa: l’importo della quota di rendita per danno biologico equivale, in valore capitale, all’importo dell’indennizzo in capitale; a questo la nuova normativa aggiunge la quota di rendita per danno patrimoniale prefigurando, pertanto, un saldo sem- pre positivo.

Da queste considerazioni consegue che sia da ritenersi superflua la previsione di una “clau- sola di salvaguardia” (articolo 2 lettera f)).

La necessità di modifica dell’articolo 13 del D.lgs 38/2000 espressa, invece, dall’art. 2 let- tera c) dell’A.S.998, nasce dal fatto che la norma prevede successivi adeguamenti delle Tabelle di indennizzo del danno biologico da approvarsi con decreto del Ministro del lavo- ro e della previdenza sociale su delibera del consiglio di amministrazione dell’INAIL ma non stabilisce né i criteri né le decorrenze di tali adeguamenti ed è perciò rimasta fino ad oggi inattuata.

Ciò ha comportato una “cristallizzazione” degli importi degli indennizzi ai valori del 2000, determinando così una progressiva riduzione del livello di tutela dei lavoratori.

La legge n. 247 del 2007 (articolo 1, commi 23-24) ha permesso di recuperare parzialmente il valore dell’indennità risarcitoria del danno biologico disponendo un aumento in via straordinaria degli indennizzi del danno biologico che tenesse conto della variazione dei prezzi al consumo intervenuta tra il 2000 e il 2007. Tale aumento, fissato nella misura dell’8,68 per cento (D.M. 27 marzo 2009), non ha comportato, però, l’adeguamento delle relative tabelle demandando ad un momento successivo l’introduzione di un meccanismo di rivalutazione automatica.

Poiché l’articolo 11 del D.lgs 38/2000 prevede che la retribuzione di riferimento per la quota parte di rendita patrimoniale venga rivalutata annualmente a decorrere dal 1° luglio di ciascun anno sulla base della variazione effettiva dei prezzi al consumo per le famiglie di operai e impiegati intervenuta rispetto all’anno precedente, si ritiene opportuno, ai fini applicativi, far decorrere dalla stessa data anche la rivalutazione delle Tabelle del Danno Biologico (sia in capitale che in rendita) applicando la variazione dell’indice ISTAT dell’anno precedente a partire dal 1° luglio di ogni anno.

In questo modo l’introduzione della variazione normativa promossa dall’A.S.998 avrebbe un duplice vantaggio: adeguare gli indennizzi ormai “immobilizzati” al valore del 2000 ed allineare le decorrenze di rivalutazione delle prestazioni utilizzando un solo indice di riferimento.

(37)

3. ONERI AGGIUNTIVI PREVISTI

L’ipotesi di variazione normativa che recepisce parzialmente i dettami dell’A.S.998 ipotiz- zando l’abbassamento del grado minimo indennizzabile in rendita dal 16% all’11% (artico- lo 1) e l’adeguamento annuale degli importi degli indennizzi per danno biologico (articolo 2 lettera c)) comporta ovviamente una variazione dell’onere economico annuo a carico dell’Istituto.

In questo elaborato si espone una valutazione di tale onere, in termini di spesa annua, per un periodo di previsione decennale.

Si ipotizza che la data di entrata in vigore della nuova normativa sia il 1° Gennaio 2010 e che siano oggetto di valutazione tutti gli infortuni e le malattie professionali soggette al regime del Danno Biologico, vale a dire tutti gli eventi verificatisi a partire dal 25 luglio 2000.

Ai fini della quantificazione dell’onere per l’Istituto è stata in primo luogo prevista la spesa annua secondo la disciplina vigente.

La suddivisione tra prestazioni in capitale e prestazioni in rendita è finalizzata ad evidenzia- re l’impatto della singola modifica normativa analizzata. Si sottolinea che nelle valutazioni sono inclusi solo gli indennizzi in capitale con data evento a partire dal 1° gennaio 2010 mentre per gli indennizzi in rendita sono considerati tutti i ratei con data maturazione a par- tire dal 1° gennaio 2010.

3.1 Spesa annua prevista secondo la normativa vigente

Numero casi

GRADO

ANNI

2010 2011 2012 2013 2014

6%-15%

Indennizzi in capitale (*) 13.650 33.325 37.650 40.075 40.575

16%-100%

Indennizzi in rendita (**) 78.946 90.176 101.451 112.643 122.986

TOTALE 92.596 123.501 139.101 152.718 163.561

GRADO

ANNI

2015 2016 2017 2018 2019 2020

6%-15%

Indennizzi in capitale (*) 41.075 41.575 42.075 42.575 43.075 43.575

16%-100%

Indennizzi in rendita (**) 132.835 142.191 151.553 160.922 170.297 179.678

TOTALE 173.910 183.766 193.628 203.497 213.372 223.253

(*) Casi indennizzati in capitale nell’anno per eventi verificatisi dal 1/1/2010 (**) Rendite di danno biologico in pagamento nell’anno

(38)

Spesa annua prevista

(importi espressi in migliaia di euro)

GRADO

ANNI

2010 2011 2012 2013 2014

6%-15%

Indennizzi in capitale 81.510 218.860 250.030 268.115 285.700

16%-100%

Indennizzi in rendita 480.868 551.963 644.302 717.381 790.201

Qt danno patrim. 262.073 301.924 353.722 395.277 436.981

Qt danno biologico 218.795 250.039 290.580 322.104 353.220

TOTALE 562.378 770.823 894.332 985.496 1.075.901

GRADO

ANNI

2015 2016 2017 2018 2019 2020

6%-15%

Indennizzi in capitale 288.700 291.450 294.075 296.575 299.075 301.575 16%-100%

Indennizzi in rendita 862.182 962.425 1.034.481 1.106.221 1.177.785 1.246.309

Qt danno patrim. 478.511 536.071 578.275 620.590 663.093 704.165

Qt danno biologico 383.671 426.354 456.206 485.631 514.692 542.144

TOTALE 1.150.882 1.253.875 1.328.556 1.402.796 1.476.860 1.547.884

L’analisi della serie storica del pagato per indennizzi in capitale distribuito per anno di accadimento dell’evento lesivo ed anno di pagamento (tavola “triangolare”) ha consentito di valutare i flussi di cassa di ogni generazione.

In particolare, per il portafoglio INAIL sono necessari cinque anni per esaurire i pagamenti di competenza di una generazione e solo il 30% degli indennizzi viene erogato l’anno stesso di accadimento. Questo spiega il salto di spesa tra il primo ed il secondo anno di valutazione.

La spesa per indennizzi in rendita mostra invece un andamento più regolare, imputabile al numero crescente di rendite in pagamento in ogni anno e alla rivalutazione delle retribuzio- ni di riferimento. Evidentemente la quota di danno patrimoniale cresce in misura maggiore rispetto alla quota di danno biologico in ragione del fatto che, per quest’ultima, l’attuale normativa non prevede alcuna rivalutazione.

Si precisa che gli importi di spesa stimati comprendono l’adeguamento in via straordinaria

Riferimenti

Documenti correlati

  Le istruzioni non privilegiate possono essere eseguite direttamente dall’hardware senza alcun intervento da parte della CPU (esecuzione diretta).. Esempio: tentativo di

All’uopo, sulla imprescindibile premessa per la quale è giocoforza necessario informare sui rischi, la ricerca si propone di chiarire, alla luce delle previsioni del

• Per alcuni e’ il primo sistema operativo in assoluto per sistemi batch. Sviluppato dalla General Motors per l’IBM701, basato su monitor

● una frame table: con un elemento per ciascun frame in memoria fisica, contenente informazioni su: il suo stato (libero o no), il numero di processi che condividono la pagina,

● con buffer multipli i dispositivi operano con maggior efficienza, il dispositivo può trasferire un blocco di dati mentre il processo ne può elaborare un altro in parallelo. ●

• La gestione della coda di processi associata al semaforo può essere affidata alle routine Wait e Signal del kernel:. ● Wait inserisce nella coda del semaforo il processo che

© 2011 maurizio pizzonia – sicurezza dei sistemi informatici e delle reti.. rischi del

La caratteristica principale di que- sto tipo di nuvola è quella di fornire delle inter- facce per la programmazione delle applicazio- ni (API 1 ) specifiche secondo le quali