• Non ci sono risultati.

Come accennato in precedenza e come si può anche notare dai risultati, non tutti i profili dell’ARL hanno come il valore 200.

In questo modo la precisione risulta minore e bisogna tener conto quindi della distorsione che ciò può causare.

Dai risultati ottenuti e dall’osservazione dei grafici, possiamo constatare che:

1) l’intera distribuzione delle RL, a parità della grandezza del campione , è più piccola nell’unilaterale rispetto al bilaterale. Infatti sia la media che la mediana ed anche tutte le altre statistiche di posizione sono inferiori nella carta W-REWMA, rispetto a quelle della carta W-EWMA;

2) al diminuire dell’ampiezza del campione di riferimento, sia per che per , aumenta il valore della massima RL. Questo significa che la media delle RL risente di questi valori estremi ed anche che la distribuzione delle RL, al diminuire di ,

ha code più pesanti;

3) per entrambi i valori di , per valori medio grandi del cambiamento standardizzato , non vi sono differenze significative nei rispettivi ARL, al diminuire di ;

4) nelle carte unilaterali W-REWMA, all’aumentare della dimensione del campione di riferimento, non vi è una grande differenza negli ARL, come se la dimensione del campione non fosse informativa;

63

5) al diminuire di , la grandezza delle SD (standard deviation) aumenta. Questo si può spiegare perché anche i massimi, come suddetto, aumentano e, poiché la SD è una misura che risente di valori estremi, all’aumentare dei massimi aumenta anche il suo valore;

6) tra la carta bilaterale W-EWMA e l’unilaterale W-REWMA c’è un comportamento diverso, al diminuire dell’ampiezza del campione di riferimento. Nella prima, la media delle RL aumenta al diminuire di , mentre nella seconda diminuisce, anche se non in maniera così evidente.

Solitamente ci si aspetta che il valore dell’ARL dovrebbe aumentare, al diminuire dell’ampiezza del campione di riferimento poiché, contenendo il campione piccolo un minor numero di informazioni sul processo in controllo, aumenta l’incertezza. Plausibili spiegazioni di tali anomalie sono nel seguito discusse.

7) il comportamento delle due carte, osservando la mediana, è coerente, nel senso che in entrambe la mediana diminuisce al diminuire di ;

8) come ci si poteva aspettare, le carte con hanno una performance migliore per grandi salti della media, rispetto a quelle con e una minore efficacia per salti piccoli;

9) a parità di campione di riferimento, un sottogruppo razionale di piccola ampiezza ( è più performante di un sottogruppo di ampiezza maggiore ( ). Quindi, per una più

64

veloce ed efficace rilevazione di un cambiamento del processo, è meglio usare piccoli campioni;

10) al diminuire di la distribuzione della RL è fortemente asimmetrica a destra, con elevata concentrazione sui valori piccoli delle RL. Infatti tutti e tre i quartili, per piccoli salti della media, diminuiscono al diminuire di ed aumentano i massimi. Le distribuzioni quindi, al diminuire di , sono più schiacciate a sinistra ed hanno code sempre più pesanti a destra;

11) a parità di ed , nelle carte bilaterali W-EWMA, la SD è minore rispetto a quelle unilaterali W-REWMA;

12) in tutti i tipi di disegno di campionamento le carte sono più performanti con la distribuzione e meno con la . Le carte W-EWMA e W-REWMA sono quindi particolarmente utili, quando la distribuzione della caratteristica di qualità che voglio sorvegliare è simmetrica con code pesanti come la .

66

Capitolo 5

5.1 Discussione

Una plausibile spiegazione dell’inatteso comportamento della carta unilaterale W-REWMA, che al diminuire di non peggiora, può essere spiegato dalla statistica di controllo che viene utilizzata.

La statistica W si può definire in maniera del tutto equivalente nel seguente modo: arrivati a definire il campione combinato e ordinato in senso crescente di ( ) elementi, definiamo

se e se .

La statistica di Wilcoxon può allora essere anche scritta come:

che è praticamente la somma dei ranghi del campione nel campione combinato ( ).

Se l’ampiezza del campione è 1, cioè , la statistica di Wilcoxon è proprio il numero della posizione di nel campione ordinato in senso crescente ( ).

67

Le variabili casuali , di cui sono le realizzazioni, sono delle variabili casuali di Bernoulli con parametro . Pertanto ; indica la probabilità che sia in una tale posizione nel campione combinato e ordinato.

Se proviamo a notare, ad esempio, che la probabilità che sia maggiore di tutti gli elementi del campione di riferimento ,

aumenta con il diminuire dell’ampiezza di , possiamo farci un’idea del perché, nel caso unilaterale, la statistica W sia quasi più performante con piccoli rispetto ad maggiori, in termini di ARL.

Infatti, ricordando che il limite di controllo UCL nella carta W- REWMA è dipendente da e che i limiti di controllo sono direttamente proporzionali al disegno di campionamento, se la statistica di controllo W assume il valore massimo ( ) con probabilità maggiore al diminuire di , è più facile che la statistica di controllo W esca prima dal limite di controllo UCL, con il diminuire dell’ampiezza del campione di riferimento, realizzando così una RL più piccola.

Per studiare questa possibile interpretazione, possiamo calcolare la probabilità appunto che, generato un campione di ampiezza da una distribuzione e una singola osservazione (la nostra

) da una , quest’ultima sia maggiore di tutti gli elementi del campione o, in modo analogo, che il rango della singola osservazione in un nuovo campione contenente il

68

campione dalla e la singola osservazione dalla ,

sia .

Se la probabilità calcolata diminuisce all’aumentare di , allora possiamo cercare di capire lo strano comportamento della carta W-REWMA.

Lo studio e quindi i risultati ottenuti, utilizzando come distribuzione in controllo una , possono essere generalizzati anche per le distribuzioni simmetriche, come la

.

Per la distribuzione , è stato eseguito lo stesso procedimento per il calcolo di queste probabilità, utilizzando però, come distribuzione in controllo, una , mentre fuori controllo è stato utilizzato un campione proveniente da una , cioè una distribuzione fuori controllo con un aumento standardizzato della media di 0.25.

Utilizzando il programma R, sono state calcolate queste probabilità per i diversi valori di (100, 50, 30).

I passaggi seguiti per il loro calcolo, nel caso di una distribuzione della , sono i seguenti:

1. generare il campione di osservazioni da una ;

2. generare 1000 osservazioni da una ;

3. contare quante di queste 1000 osservazioni sono maggiori di ogni elemento del campione , chiamiamo

69

4. stimare la probabilità descritta prima, utilizzando la frequenza relativa ;

5. ripetere dal punto 1 10.000 volte per ottenere 10.000 frequenze relative, quindi farne la media e il risultato è la probabilità stimata per un valore di .

I risultati ottenuti sono riportati nella Tabella 14:

Tabella 14: Frequenze relative e standard deviation nel caso IC

Frequenze relative SD

n=100 0.018 0.017

n=50 0.033 0.031

n=30 0.053 0.047

Per il calcolo delle probabilità con distribuzione in controllo , sono stati seguiti i 5 punti descritti prima e i risultati sono riportati in Tabella 15.

Tabella 15: Frequenze relative e standard deviation nel caso IC Gamma(5, 1)

Frequenze relative SD

n=100 0.015 0.014

n=50 0.028 0.027

n=30 0.045 0.043

I codici utilizzati per ambedue le distribuzioni si possono trovare in Appendice.

Osservando i risultati, si può vedere che la frequenza relativa aumenta con il diminuire dell’ampiezza del campione di riferimento e che le standard deviation hanno lo stesso comportamento in ambedue le distribuzioni in controllo.

70

Questo comportamento, quindi, si presenta sia in una distribuzione simmetrica come la Normale, che in una distribuzione asimmetrica come la Gamma.

In generale possiamo dire che un campione di minore ampiezza è meno rappresentativo della distribuzione a cui appartiene e quindi, con maggiore probabilità, in un campione piccolo i valori estremi della distribuzione potrebbero non appartenere al campione.

Quindi, se una singola osservazione è generata da una distribuzione di media maggiore, è più probabile che essa sia maggiore di tutte le unità del campione piccolo, rispetto ad un campione più grande che contiene con maggiore probabilità anche valori estremi.

Per meglio chiarire quanto appena detto, osserviamo nella Figura 7 dove si posizionano 30, 50, 100 osservazioni, generate casualmente da una , nella distribuzione di densità della normale stessa.

71

Figura 7: Rappresentazioni di campioni casuali generati da una N(0, 1)

-4 -2 0 2 4 0 .0 0 .1 0 .2 0 .3 0 .4 Funzione di densità N(0,1) x d e n s it y -4 -2 0 2 4 0 .0 0 .1 0 .2 0 .3 0 .4 -4 -2 0 2 4 0 .0 0 .1 0 .2 0 .3 0 .4 -4 -2 0 2 4 0 .0 0 .1 0 .2 0 .3 0 .4 n = 30 n = 50 n = 100

Possiamo notare che i valori estremi della distribuzione sono realizzati soprattutto dal campione di ampiezza 100, infatti esso è quello più rappresentativo della distribuzione.

Quindi, anche graficamente, si può vedere che, se campioniamo un valore intorno al 2, esso sarà più grande di tutto il campione di ampiezza 30, infatti non c’è nessun cerchietto rosso dopo il 2, mentre non lo sarà per i campioni di ampiezza 50 e 100.

Allora sembrerebbe che, campionando un’osservazione da una normale con media maggiore, è più probabile che essa generi il valore massimo della statistica W ( ), se usiamo un campione di riferimento di ampiezza piccola rispetto ad un campione di ampiezza maggiore.

72

Se questo è più probabile in campioni di ampiezza piccola, allora è anche plausibile che la statistica di controllo W esca prima dal limite di controllo, generando così una minore RL.

Questo comportamento può essere utilizzato anche per tentare di spiegare il fatto di ottenere massimi sempre più grandi, al diminuire di .

Considerando i casi in cui le osservazioni provengono da una e da una , se capita più frequentemente in un campione piccolo di Fase 1 che le osservazioni generate abbiano media maggiore di zero, allora è molto più difficile cogliere aumenti della media nel momento in cui si effettuano i confronti con le osservazioni di Fase 2.

In questo caso ci si aspetta, in media, più tempo perché la statistica di controllo esca dal limite superiore UCL e quindi si ottengono RL elevate.

In sintesi, se la probabilità di ottenere campioni di osservazioni di Fase 1 con media maggiore di zero diminuisce all’aumentare dell’ampiezza campionaria , possiamo immaginare che, in un campione di riferimento piccolo, le Run Length siano più elevate rispetto ad un campione di ampiezza maggiore.

Utilizzando sempre il programma R, ho dunque stimato questa probabilità e studiato l’andamento della stessa, rispetto alla dimensione del campione di Fase 1.

Ho calcolato le frequenze relative del numero di campioni generati

casualmente da una e da una , tutti

maggiori di zero per 3 diverse ampiezze del campione:

73

Sono state calcolate, per ciascun valore di , 10.000 frequenze relative.

Le medie corrispondenti sono riportate nelle Tabelle 16, 17:

Tabella 16: Frequenze relative e standard deviation nel caso N(0,1)

Frequenza relativa SD

n=3 0.125 0.011

n=5 0.031 0.006

n=10 0.001 0.001

Tabella 17: Frequenze relative e standard deviation nel caso Gamma(5,1)

Frequenza relativa SD

n=3 0.086 0.009

n=5 0.017 0.004

n=10 0.0003 0.0005

I risultati empirici sembrano evidenziare che, al diminuire dell’ampiezza del campione di Fase 1, la probabilità di campioni di Fase 1, con osservazioni tutte maggiori di 0, aumenta con il diminuire dell’ampiezza campionaria, sia nel caso di una

distribuzione che in una .

Questo può farci intuire che la probabilità di ottenere campioni in controllo, con media maggiore della media sotto , aumenta con il diminuire dell’ampiezza del campione, sia nel caso in cui il campione di Fase 1 provenga da una distribuzione simmetrica, sia che nel caso in cui provenga da una distribuzione asimmetrica. Come possibile argomento di ricerca da sviluppare, vi è dunque quello legato alla probabilità di ottenere campioni in controllo con

74

media maggiore della media sotto , al variare della dimensione del campione.

Se il campione di riferimento , utilizzato di Fase 1, ha media maggiore di quella in controllo, può succedere, con maggiore frequenza, che sia più difficile in un campione piccolo che l’osservazione di Fase 2 contenuta nel campione , produca una statistica W elevata.

In questo caso la carta basata su W può presentare valori delle Run Length particolarmente elevati.

Infatti questo studio empirico sembra spiegare che, essendo più elevata la probabilità in cui un campione piccolo di Fase 1 abbia media più grande di quella in controllo, allora risulta meno probabile che le osservazioni di Fase 2 risultino “dominanti” su quelle di Fase 1 e quindi che la statistica W sia elevata.

75

Conclusioni finali

In questa tesi si è voluto indagare sul comportamento di due carte di controllo non parametriche, una bilaterale ed una unilaterale, basate sulla stessa statistica di controllo W che, come ricordato, è il test di Wilcoxon della somma dei ranghi.

Dopo una breve presentazione dell’SPC, è stata introdotta la carta di controllo EWMA nel caso parametrico.

76

In seguito è stata presentata la carta di controllo non parametrica W-EWMA (Li et al., 2010), spiegando come poterla implementare, sia nel caso bilaterale che in quello unilaterale.

Sono stati utilizzati due valori del parametro di lisciamento esponenziale e diversi disegni di campionamento. In entrambe le carte si è ipotizzato di essere in Fase 2.

Tre distribuzioni della variabile di interesse sono state utilizzate:

una , una ed una , per capire se il

comportamento delle carte cambiava con la distribuzione.

Per poter confrontare le due carte con i diversi disegni di campionamento e i due valori di , sono stati simulati i profili dell’ARL per ogni situazione.

Per aiutare meglio l’analisi, inoltre, sono stati creati dei grafici in cui è stato rappresentato il profilo dell’ARL e quello delle mediane, per ogni distribuzione e per ogni disegno di campionamento. Dai risultati emersi, tenendo conto della distorsione, abbiamo potuto notare un diverso comportamento negli ARL delle due carte.

Per tutti i disegni di campionamento, abbiamo osservato un comportamento migliore con la distribuzione simmetrica, con code pesanti, . Queste carte non parametriche sono quindi particolarmente efficaci, nel caso in cui la distribuzione della variabile di interesse sotto possiede le caratteristiche suddette. Invece le carte di controllo studiate non sono risultate utili nel caso in cui la distribuzione in controllo sia asimmetrica, come nel

77

Analizzando i profili delle statistiche di posizione, si è potuto notare che in tutti i casi il 1˚ quartile, la mediana e il 3˚ quartile sono inferiori nel caso unilaterale, rispetto al caso bilaterale. La distribuzione delle Run Length ha quindi una coda più pesante a destra nella carta W-REWMA.

Abbiamo potuto osservare che la velocità, con cui si può cogliere un cambiamento nella media del processo, dipende dalla numerosità del campione di Fase 1 e da quella del campione di Fase 2.

Per quanto riguarda l’ampiezza del campione di Fase 2 , si è notato in tutti gli schemi che vi è una miglior performance con

, rispetto ad . Un campione di Fase 2 piccolo è quindi più utile, rispetto ad uno più grande, per cogliere più velocemente possibili cambiamenti della media del processo.

Analizzando i risultati in base all’ampiezza del campione di Fase 1, sono sorti dei comportamenti interessanti.

Nel caso della carta bilaterale W-EWMA, vi è stata una diminuzione dell’ARL, all’aumentare del campione di riferimento, nel caso unilaterale, invece, è stato notato un leggero aumento dell’ARL, all’aumentare dell’ampiezza del campione.

Non ci si aspettava questo comportamento nel caso unilaterale. In seguito a questo evento, si è cercato di capire le possibili cause di tale comportamento, riuscendo a trovarle nelle caratteristiche intrinseche della statistica di controllo W.

Le indagini sono state eseguite sia per una distribuzione simmetrica che per una asimmetrica, per poter vedere se le conclusioni cambiavano a seconda della distribuzione.

78

Grazie alle plausibili spiegazioni fornite per questo comportamento, si è cercato di dare una spiegazione anche al fatto che i massimi aumentano, con il diminuire dell’ampiezza del campione di riferimento, cioè che le code della distribuzione della Run Length sono più pesanti a destra al diminuire di .

Possiamo concludere che, quando non si conosce la distribuzione della caratteristica di qualità in controllo che vogliamo sorvegliare, se si è interessati ad individuare sia aumenti che diminuzioni nella media del processo, conviene utilizzare campioni di riferimento piccoli e sottogruppi razionali unitari, cioè suggerisco per il caso bilaterale.

Mentre, quando si è interessati ad individuare solamente aumenti nella media del processo, è più conveniente utilizzare campioni di riferimento più piccoli e sottogruppi razionali unitari, cioè

.

Bisogna fare attenzione però, nell’ultimo caso, perché campioni di riferimento piccoli potrebbero non rappresentare bene la distribuzione del processo in controllo ed, in alcuni casi, se ad esempio il campione ottenuto sovrastima la media della distribuzione, si potrebbero ottenere Run Length molto elevate, precludendo così la performance della carta.

79

Appendice

80

1. codice utilizzato per determinare i valori di L nel caso della carta W-EWMA bilaterale:

m=5 n=100 ew=m*(m+n+1)/2 vw=(m*n)*(m+n+1)/12 l=0.1 L=2.454 UCL=ew+L*sqrt(vw*(l/(2-l))) LCL=ew-L*sqrt(vw*(l/(2-l))) rl=rep(0,50000) t=rep(ew,2000000) for(f in 1:length(rl)) { x=rnorm(n,0,1) for(i in 1:2000000) { y=rnorm(m,0,1) r=rank(c(x,y)) w=sum(r[(n+1):(m+n)]) if(i==1) t[i]=l*w+(1-l)*ew else t[i]=l*w+(1-l)*t[i-1] if((t[i]> UCL)||(t[i]<LCL)) { rl[f]=i break } } } round(mean(rl),2) round(sd(rl),2)

Per il calcolo degli altri valori di L, per i diversi schemi di campionamento e i diversi valori di , modificare i valori di ed nelle prime due righe del codice e il valore di nella quinta riga.

2. codice utilizzato per determinare i valori di L nel caso della carta W-REWMA unilaterale:

m=5 n=100

ew=m*(m+n+1)/2 vw=(m*n)*(m+n+1)/12 l=0.1

81 L=2.365 UCL=ew+L*sqrt(vw*(l/(2-l))) rl=rep(0,100000) t=rep(ew,2000000) for(f in 1:length(rl)) { x=rnorm(n,0,1) for(i in 1:2000000) { y=rnorm(m,0,1) r=rank(c(x,y)) w=sum(r[(n+1):(m+n)]) if(i==1) { t[i]=l*w+(1-l)*ew if(t[i]<ew) t[i]=ew } else t[i]=max(ew,l*w+(1-l)*t[i-1]) if(t[i]> UCL) { rl[f]=i break } } } round(mean(rl),2) round(sd(rl),2)

Per il calcolo degli altri valori di L, per i diversi schemi di campionamento e i diversi valori di , modificare i valori di ed nelle prime due righe del codice e il valore di nella quinta riga.

3. codice utilizzato per il calcolo dei profili dell’ARL della carta W-EWMA bilaterale (valori in tabella):

m=1 n=100 l=0.3

ew=m*(m+n+1)/2 vw=(m*n)*(m+n+1)/12

82 L=2.462 UCL=ew+L*sqrt(vw*(l/(2-l))) LCL=ew-L*sqrt(vw*(l/(2-l))) rl=rep(0,20000) t=rep(ew,2000000) s=list() delta=c(0,0.25,0.5,1,1.5,2,3) ARL=c(0,0.25,0.5,1,1.5,2,3) SD=c(0,0.25,0.5,1,1.5,2,3) for(k in 1:length(delta)) { for(f in 1:length(rl)) { x=rnorm(n,0,1) for(i in 1:2000000) { y=rnorm(m,0,1)+delta[k]/sqrt(m) r=rank(c(x,y)) w=sum(r[(n+1):(m+n)]) if(i==1) t[i]=l*w+(1-l)*ew else t[i]=l*w+(1-l)*t[i-1] if((t[i]> UCL)||(t[i]<LCL)) { rl[f]=i break } } } ARL[k]=round(mean(rl),2) SD[k]=round(sd(rl),2) s[[k]]=summary(rl) } data.frame(delta,ARL,SD) s

Questo è il codice utilizzato per la distribuzione e per un disegno di campionamento di . Per gli altri disegni di campionamento e un diverso valore di , sostituire nelle prime tre righe i valori desiderati, cambiare il valore di mettendo quello indicato nella tabella di pagina 35 e sostituire nella nona riga del codice il numero delle RL desiderato (20.000, 30.000, 40.000).

Per le altre distribuzioni modificare il codice nelle righe 19 e 22 in questo modo:

83 - y=rnorm(m,0,1)+delta[k]/sqrt(m) con y=rgamma(m,5,1)+delta[k]*sqrt(5)/sqrt(m) per la distribuzione ; - x=rnorm(n,0,1) con x=t(5) - y=rnorm(m,0,1)+delta[k]/sqrt(m) con y=rt(m,5)+delta[k]*sqrt(5/3)/sqrt(m) per la distribuzione .

4. codice utilizzato per il calcolo dei profili dell’ARL della carta W-REWMA unilaterale (valori in tabella):

m=1 n=100 l=0.3 ew=m*(m+n+1)/2 vw=(m*n)*(m+n+1)/12 L=2.462

84 UCL=ew+L*sqrt(vw*(l/(2-l))) LCL=ew-L*sqrt(vw*(l/(2-l))) rl=rep(0,20000) t=rep(ew,2000000) s=list() delta=c(0,0.25,0.5,1,1.5,2,3) ARL=c(0,0.25,0.5,1,1.5,2,3) SD=c(0,0.25,0.5,1,1.5,2,3) for(k in 1:length(delta)) { for(f in 1:length(rl)) { x=rnorm(n,0,1) for(i in 1:2000000) { y=rnorm(m,0,1)+delta[k]/sqrt(m) r=rank(c(x,y)) w=sum(r[(n+1):(m+n)]) if(i==1) t[i]=l*w+(1-l)*ew else t[i]=l*w+(1-l)*t[i-1] if((t[i]> UCL)||(t[i]<LCL)) { rl[f]=i break } } } ARL[k]=round(mean(rl),2) SD[k]=round(sd(rl),2) s[[k]]=summary(rl) } data.frame(delta,ARL,SD) s

Per gli altri disegni di campionamento, l’altro valore del parametro e le altre distribuzioni, modificare le stesse parti del codice spiegate in precedenza.

5. codice utilizzato per il calcolo delle frequenze relative e le standard deviation riportate nella tabella 15

n=100 m=1 p=rep(0,10000) c=rep(0,length(p)) for(j in 1:length(p)) { x=rnorm(n,0,1)

85 y=rnorm(1000,0.25,1) for(i in 1:length(y)) { r=rank(c(x,y[i])) if(r[n+m]==(n+m)) c[j]=c[j]+1 } p[j]=c[j]/1000 } mean(p) sd(p)

Per gli altri valori di basta sostituire nella prima riga del codice il valore desiderato.

6. codice utilizzato per il calcolo delle frequenze relative e le standard deviation riportate nella tabella 15

n=100 m=1 p=rep(0,10000) c=rep(0,length(p)) for(j in 1:length(p)) { x=rgamma(n,5,1) y=rgamma(1000,5,1)+0.25*sqrt(5)/sqrt(m) for(i in 1:length(y)) { r=rank(c(x,y[i])) if(r[n+m]==(n+m)) c[j]=c[j]+1 } p[j]=c[j]/1000 } mean(p) sd(p)

Per gli altri valori di basta sostituire nella prima riga del codice il valore desiderato.

7. codice utilizzato per il calcolo delle frequenze relative e le standard deviation riportate nella tabella 16

n=3 m=1 p=rep(0,10000) c=rep(0,length(p)) for(j in 1:length(p)) {

86 for(i in 1:1000) { x=rnorm(n,0,1) if((x[1]>0)&&(x[2]>0)&&(x[3]>0)) c[j]=c[j]+1 } p[j]=c[j]/1000 } mean(p) sd(p)

Per gli altri valori di , inserire nella prima riga il valore di desiderato, quindi modificare il codice in questo modo:

- if((x[1]>0)&&(x[2]>0)&&(x[3]>0)) con if((x[1]>0)&&(x[2]>0)&&(x[3]>0)&&(x[4]>0)&&(x[5]>0)) per il caso ; - if((x[1]>0)&&(x[2]>0)&&(x[3]>0)) con if((x[1]>0)&&(x[2]>0)&&(x[3]>0)&&(x[4]>0)&&(x[5]>0)&&( x[6]>0)&&(x[7]>0)&&(x[8]>0)&&(x[9]>0)&&(x[10]>0)) per il caso .

8. codice utilizzato per il calcolo delle frequenze relative e le standard deviation riportate nella tabella 17

n=3 m=1 p=rep(0,10000) c=rep(0,length(p)) for(j in 1:length(p)) {

87 for(i in 1:1000) { x=rgamma(n,5,1) if((x[1]>5)&&(x[2]>5)&&(x[3]>5)) c[j]=c[j]+1 } p[j]=c[j]/1000 } mean(p) sd(p)

Per gli altri valori di , inserire nella prima riga il valore di desiderato, quindi modificare il codice in questo modo:

- if((x[1]>5)&&(x[2]>5)&&(x[3]>5)) con if((x[1]>5)&&(x[2]>5)&&(x[3]>5)&&(x[4]>5)&&(x[5]>5)) per il caso ; - if((x[1]>5)&&(x[2]>5)&&(x[3]>5)) con if((x[1]>5)&&(x[2]>5)&&(x[3]>5)&&(x[4]>5)&&(x[5]>5)&&( x[6]>5)&&(x[7]>5)&&(x[8]>5)&&(x[9]>5)&&(x[10]>5)) per il caso .

88

89

• Amin, R.W. e Searcy, A.J. (1991) – “A nonparametric exponentially weighted moving average control scheme”, Communications in Statistics: Simulation and Computation, vol. 20, pp. 1049-1072

• Capizzi, G. e Masarotto, G. (2003) – “An Adaptive Exponentially Weighted Moving Average Control Chart”, Technometrics, vol. 45, pp. 199- 207

• Crowder, S.V. (1987) – “A Simple Method for Studying Run Length Distributions of Exponentially Weighted Moving Average Charts”, Technometrics, vol. 29, pp. 401-407

• Li et al. (2007) – “A One-Sided Ewma Control Chart for Monitoring Process Means”, Communications in Statistics: Simulation and Computation, vol. 36, pp. 901-920

• Lucas, J.M. e Saccucci, M.S. (1990) – “Exponentially Weighted Moving Average Control Schemes: Properties and Enchancements”,

Documenti correlati