• Non ci sono risultati.

“Misurate ciò che è misurabile e rendete misurabile ciò che non lo è”.

Galileo Galilei

L’obiettivo è individuare attraverso opportuni indicatori KPI rilevanti e robusti, e comprendere le attuali performance del processo.

Al termine della fase Define abbiamo individuato quali sono le variabili di output del nostro processo che concorrono al giudizio del cliente sul prodotto/servizio fornito. A questo punto occorre definire e confinare il difetto trasformando una lamentela/sensazione del cliente in un preciso fatto oggettivabile e misurabile. Si procederà dunque ad identificare delle misurazioni da effettuare sul processo, alla progettazione del campionamento, alla verifica dell’attendibilità delle misure effettuate ed alla presentazione dei risultati con i quali lavoreremo in maniera analitica nella fase successiva.

48

Figura 19: fasi del processo di Measure CAMPIONAMENTO

Per prima cosa sarà necessario definire una strategia di campionamento che ci permetterà di osservare una copia fedele in scala della popolazione (cioè di tutti gli output ed input che ha il processo) affinché sia possibile definire un campione rappresentativo.

Esistono vari tipi di campionamento come: campionamento Random (dati raccolti senza un criterio di rilevazione), campionamento Sistematico (rilevazione di un dato ogni “N”)o campionamento per sottogruppi (dati rilavati a differenti e definiti intervalli di tempo e con “x” uità prelevate ogni volta).

Il campione raccolto dovrà essere significativo per la comprensione del problema, cioè avere una numerosità di almeno 30 rilevazioni di dati (dicono gli esperti), ma più in generale potremmo affermare che la numerosità del campione dipende dalla stima che si vuole ottenere (media o proporzione), dal livello di confidenza desiderato, dalla precisione richiesta, dalla variabilità del processo analizzato in merito alla caratteristica da stimare.

I dati che vengono raccolti, possono essere di due tipi:

• Discreti: in quanto ottenuti con un sistema di misura che ha un numero finito di output/outcomers

• Continui: in quanto ottenuti con un sistema che ha un numero infinito di output/outcomers.

49

• Rilevanti: utili per comprendere e definire il problema che dovrebbe essere risolto

• Rappresentativi: necessari ad evidenziare l’intera gamma delle condizioni del processo

• Sufficienti: in termini di numerosità tale da essere confidenti che i trend siano una copia fedele della realtà.

RACCOLTA DATI

Nella raccolta dati dobbiamo assicurarci che gli addetti alla rilevazione dei dati, misurino la CTQ allo stesso modo, eliminando l’ambiguità e riducendo la variabilità nelle misurazioni. Infatti quando definiamo la CTQ nella fase Define, includiamo nella definizione operativa il “cosa” e il “come” viene misurato, comprensibile sia al cliente che al personale che lavora al processo in esame. Dopo la raccolta dei dati, può risultare utile o necessario restringere il ring andando ad individuare quelle poche caratteristiche per la problematica studiata. Importanti in questo senso i concetti di:

• stratificazione: suddivisione dei dati in gruppi logici al fine di identificare le sorgenti di variabilità di maggior impatto sulla problematica analizzata • tracciabilità: capacità di poter risalire, attraverso la raccolta dati, alle

possibili sorgenti di variabilità caratterizzanti il dato. VALIDAZIONE DEI SISTEMI DI MISURA

Ma il metodo di misura è adeguato, accurato, standard e stabile nel tempo? La Misura è anch’essa una causa di variabilità del processo, come definito nel precedente capitolo. L’analisi del Sistema di Misura valuta le proprietà dello stesso per assicurare la sua adeguatezza rispetto all’obiettivo. Pertanto la misura sarà validata ed accettabile quando la sua variabilità sarà associata ad una reale variazione tra unità diverse.

Lo strumento di analisi statistica da utilizzare nella validazione del sistema di misura è il Gage R&R, che permette di definire se il sistema di misura è adeguato al fine di raccogliere dati attendibili. Il sistema di misura sarà validato quando sarà:

• accurato, lo scostamento tra la media osservata delle misure e il valore di riferimento è piccolo

50

• ripetibile, una misurazione effettuata dalla stessa persona sulla stessa unità fornisce risultati simili

• riproducibile, le misure effettuate non differiscono con operatori diversi o strumenti diversi

• livello di risoluzione sufficiente affinché la misurazione del prodotto mostri valori distinti.

Nei progetti Lean Six Sigma si sa solitamente un software statistico di supporto, il quale attraverso dei comandi e delle analisi sarà in grado di evidenziare l’adeguatezza del sistema di misura che si sta utilizzando.

ANALISI DELLE TENDENZE

Prima di prendere decisioni che possano avere effetti sul business, sarà necessario assicurarsi di avere le informazioni necessarie e comprendere i dati anche aiutandosi con gli strumenti grafici come ad esempio: istogrammi, dot plot, box plot, diagramma di Pareto, Run Chart.

Istogramma: diagramma a barre utile per sintetizzare un campione di osservazioni e verificare l’andamento dei dati in termini di distribuzione seguita; è utile quando si vuol avere un’idea generale dei dati del processo analizzati in termini di moda, range, deviazione standard, distribuzione teorica di probabilità.

Dot Plot: strumento grafico in cui sono identificati i singoli valori dei dati da simboli semplici; mostra chiaramente la frequenza, la distribuzione d’errore.

Box Plot: strumento utile per studiare le distribuzioni relative ai dati raccolti e ottenere informazioni in merito a dispersione, posizione e simmetria. Permette inoltre di analizzare la presenza di eventuali Outliers (dati

51

inusualmente grandi o piccoli rispetto agli altri, determinati da cause speciali, errori di rilevazione) e di conseguenza indagare sulle cause.

Diagramma di Pareto: diagramma a barre che permette di identificare e valutare quali siano gli elementi rilevanti su cui concentrare l’attenzione. Consente di focalizzarsi e concentrare le risorse sulle aree prioritarie. Pareto affermava che “in molti casi l’80% dei problemi sono causati approssimativamente da 20% dei fattori”.

Run Chart: rappresentazione grafica di dati in ordine cronologico, ci permetterà di identificare la presenza di eventuali cause speciali nella performance del processo esaminato. Sarà possibile, grazie alle specifiche delineate, capire le cause speciali (p-value > 0,05) da quelle comuni ed identificare il loro comportamento (trend, oscillazioni).

I fenomeni che osserviamo tramite la raccolta e l’elaborazione dei dati, dipendono da un numero limitato di parametri controllabili ed un numero più elevato di parametri non controllabili, ognuno dei quali ha una sua influenza sul risultato finale. Queste situazioni possono essere efficacemente rappresentate da una particolare distribuzione simmetrica a forma di campana, conosciuta come Distribuzione Normale. Tale distribuzione ha media uguale a zero e deviazione standard uguale a uno ed è solitamente utilizzata per dati continui. Dato che sarà possibile avere, nella realtà, infinite distribuzioni di dati continui con tali caratteristiche, è stata elaborata la Curva Normale Standardizzata per metterle a confronto in maniera più semplice e intuitiva.

52 Figura 20: Curva Normale Standardizzata

Una Distribuzione Normale può essere trasformata in una Normale Standard per mezzo di tabelle e formule dettagliate e, più precisamente attraverso un test statistico definito “Test di Normalità” (sempre possibile attraverso software di calcolo statistico, utilizzato per praticità in queste tipologie di progetti). È inoltre possibile definire, dopo aver accertato che la distribuzione dei nostri dati può essere approssimata ad una Distribuzione Normale, qual è la probabilità che il processo di riferimento generi dati (CTQ) fuori dalle specifiche definite dalle VOC e qual è, il livello di Process Sigma di riferimento che definisce la percentuale di rendimento del processo. Se i dati non sono Normali, potremmo incorrere in errori di inesattezza negli step successivi e quindi per normalizzarli dovremmo provare ad eliminare gli outlier della distribuzione, creare o eliminare la stratificazione.

CALCOLO DEI RENDIMENTI E DELLE CAPACITA’ DI PROCESSO

Confrontare i processi sarebbe difficile se non attraverso una metrica comune delle performance. È già stata definita la Distribuzione Normale Standard come ipotesi fondamentale per il confronto di più distribuzioni, pertanto sarà interessante esplicitare ora l’importanza della definizione della capacità del processo di rispondere alle specifiche del cliente. Di seguito alcun indicatori di processo:

Process Capability (PC): sintetizza la variabilità del processo rispetto alle specifiche del

53

dell’organizzazione e confrontare processi differenti. Tutti i processi sono affetti da variabilità che agisce sul livello di performance rispetto al valore target a cui attenersi. Tale variabilità è identificata dall’intervallo di tolleranza naturale che convenzionalmente è preso pari a ±3 Sigma. Di riporta la formula di calcolo:

Utilizzano dati rilevati in un periodo di tempo sufficientemente breve senza influenze di fattori esterni quali cambi di temperatura, cambio operatore, materiale. Quando i dati continui sono distribuiti normalmente, calcolare la Process Capability equivale a misurare l’area sotto la Curva Normale che si trova all’esterno dei limiti della specifica, come di seguito illustrato:

Figura 21: Limiti di specifica della VOC

Gli Indici di Capacità si distinguono in:

• Capacità POTENZIALE, che confronta le specifiche del Cliente con la dispersione, o più precisamente il rapporto tra la specifica del prodotto (tolleranza esaminata nel progetto) e la capacità di processo, cioè come il processo può produrre rispetto a quei limiti di specifica.

Man mano che il valore di Cp aumenta, la distribuzione che rappresenta il processo si “stinge” sempre più intorno al valore medio, diminuendo i valori fuori specifica e rispondendo alle esigenze progettuali dell’azienda.

54

• Capacità EFFETTIVA, che confronta la distanza tra il centro del processo e il limite di specifica più vicino con la dispersione o più precisamente è l’indice che quantifica il grado di allineamento tra il valore nominale dell’unità misurata e il valore centrale della distribuzione del processo. Per convenzione, l’intervallo di tolleranza naturale (corrispondente alla variabilità naturale del processo) è stato stabilito uguale a 3σ, come evidenziato dalla formula nell’immagine di sotto. Qualora il processo in esame fosse centrato, allora la capacità potenziale sarà uguale alla capacità effettiva; inoltre il Cpk non può mai essere superiore al Cp.

Esempio: viene riportata un’immagine relativa alla capacità del processo effettiva e potenziale rappresentandola tramite un bersaglio:

Figura 22: Rappresentazione di capacità di processo effettiva e potenziale

Come si nota, il primo esempio fa riferimento ad un processo con capacità ottime, in quanto riesce a produrre output di qualità, infatti il processo si adagia entro i limiti di specifica. Il secondo esempio ci fa notare che la capacità effettiva non è adeguata, in quanto non risponde alle esigenze della VOC, oltrepassando il limite inferiore; a nonostante ciò, il processo possiede una capacità potenziale per soddisfare a pieno la VOC. L’ultimo esempio invece, mostra un processo che non è accurato e nemmeno preciso.

55

L’indicatore per eccellenza della metodologia Six Sigma è chiaramente il Process Sigma, espressione del rendimento del processo che può essere calcolato a partire dalla Curva Normale, ed inteso come l’ampiezza della variabilità del processo. Infatti, l'obiettivo da raggiungere è quello di avere 6 σ, cioè sei volte la deviazione standard nell’area sotto la curva, tra il limite superiore di specifica e il valore medio e, altrettanto tra questo e il limite inferiore.

Il metodo di calcolo è valido per dati continui e l’ipotesi fondamentale da rispettare è la normalità dei dati. Tale metodo infatti è basato sulla teoria della distribuzione normale standardizzata. I passaggi sono:

1. Identificare la media e la deviazione standard dei dati rilevati 2. Identificare le specifiche della VOC: USL e LSL

3. Passare ad una Curva Normale Standard (se possibile. Altrimenti vi sono altri metodi che qui non verranno esposti)

4. Calcolare il valore dell’area compresa tra i due limiti di specifica (Rendimento)

5. Trovare nell’apposita tabella del Process Sigma il valore corrispondente al rendimento calcolato.

Figura 23: Estratto di Tabella Process Sigma

Dunque, al termine di questa fase del DMAIC, è stato determinato il rendimento del processo e, avendo individuato il relativo Process Sigma, si è compreso la corrispondenza in termini di parti difettose per milioni di output definiti (DPMO nella tabella). Da qui adesso è rilevante comprendere più a fondo da dove si originano tali difettosità, quindi il perché il processo non è allineato alla VOC.

56

Documenti correlati