consolidated Germany, UK, Baltic,
DIFFICOLTA''(SCALA'1G5)'INCONTRATE'NELL'ACQUISTO'E'CONSUMO'DI'PROSECCO'DOVUTE:
5.5 Analisi delle componenti principali e cluster analysis: cenni teoric
Analisi delle componenti principali
Attraverso l’analisi delle componenti principali (ACP) si vuole ridurre la dimensionalità delle informazioni contenute nella domanda inerente agli elementi considerati dal campione di turisti nell’acquisto di Prosecco. Questa domanda si esplica in x=17 variabili osservate riferite a n=169 unità statistiche27
. Con l’ACP, che costituisce uno step preliminare alla cluster analysis, ci si chiede se le differenze fra i soggetti possono essere equivalentemente descritte da un sottoinsieme y<x di nuove variabili, chiamate componenti principali. Le y variabili sono combinazioni lineari delle variabili di partenza e sono efficaci nello spiegare le differenze, se le x variabili d’origine sono tra loro correlate ovvero se una parte delle informazioni in esse contenute è ridondante. Dato che con l’ACP viene persa una parte dell’informazione, è bene che questa parte sia il più possibile trascurabile. Le nuove variabili, chiamate componenti, sono tra loro incorrelate (il numeratore della correlazione, la covarianza, è uguale a 0) ortogonali,
27 Del campione complessivo di 300 rispondenti, 169 unità statistiche hanno risposto alla domanda in modo
hanno media nulla e sono ordinate in modo tale che la prima componente sintetizzi la quota massima di variabilità.
Le nuove componenti 𝑦!, … , 𝑦! formate per ogni u.s. sono definite dalla relazione
matriciale:
𝑌 = 𝐴𝑥
dove 𝑦 = 𝑦!, … , 𝑦! , 𝑥 = (𝑥!, … , 𝑥!)! e A una matrice con elementi che soddisfino la relazione di somma !!!!𝑎!"! = 1 (ossia |a| = 1).
Gli elementi di A, andranno stimati scegliendo i valori di 𝑎!!, … , 𝑎!! che massimizzano
la varianza di 𝑦!, che è la migliore combinazione lineare possibile delle variabili x
perché esprime la massima differenza fra gli individui. In seguito vengono scelti i valori 𝑎!", …, 𝑎!! in modo tale che 𝑦! sia scorrelata da 𝑦! e abbia la massima varianza possibile. Si ripete il procedimento fino ad arrivare all’ultima variabile 𝑦!.
I valori di A vengono determinati attraverso il calcolo degli autovalori 𝜆! (con i = 1, …,
𝑝) della matrice di correlazione delle variabili x e dei relativi autovettori, che sono le 𝑝 componenti principali cercate. La somma dei p autovalori è uguale alla variabilità totale delle x variabili:
𝑉𝑎𝑟 (𝑥!) = 𝑉𝑎𝑟 (𝑦!) = 𝑉𝑎𝑟 𝜆! = 𝑝
quindi, considerata l’i-esima componente principale, si ha che la proporzione di variabilità totale delle x variabili che essa è in grado di spiegare è:
𝜆! 𝑝
Da x variabili originarie otteniamo x componenti principali. Quindi, la riduzione della dimensionalità avviene nel momento in cui si sceglie un numero di componenti minore ad x. Si sceglieranno le componenti che hanno la varianza più elevata (Dell’Omodarme, 2012).
L’interpretazione delle componenti e dunque l’assegnazione ad esse di un nome, viene fatta valutando gli elementi di ogni autovettore detti loadings. Un alto valore dell’elemento i-esimo di un vettore di loadings indica che la variabile xi è associata alla componente in esame.
Se le prime due componenti risultano sufficienti a spiegare buona parte della variabilità, sarà possibile proiettare i dati sul piano principale, in modo tale da poter studiare graficamente la presenza di eventuali raggruppamenti o strutture nei dati. Dato che non esiste un metodo universale per decidere quante componenti debbano essere incluse, ci si basa solitamente su tre metodi utilizzabili congiuntamente: attraverso lo scree plot si
sceglie un numero di componenti prima delle quali il grafico presenta un brusco cambio di pendenza cioè dove si forma un gomito; scegliendo gli autovalori superiori all’autovalore medio (uguale a 1); scegliendo un numero di componenti che spiega una data quantità di variabilità, ad esempio il 70%.
Cluster analysis
Attraverso l’analisi dei cluster, si vuole identificare e classificare le unità statistiche in base alle loro caratteristiche e dunque secondo alcune variabili osservate. I concetti di clusterizzazione e segmentazione, sono strettamente connessi fra loro. Attraverso la segmentazione, il mercato viene suddiviso in un numero limitato di cluster sufficientemente omogenei al loro interno per motivazioni e comportamenti, e sufficientemente eterogenei fra loro, così da permettere la formulazione di differenti marketing mix (Collesei, 2006). L’azienda può poi focalizzarsi su uno o più target di mercato attraverso una strategia di marketing indifferenziato (unico marketing mix), differenziato (diversi prodotti/marche su più segmenti) oppure concentrato (focalizzazione su un unico segmento). Le tre diverse strategie comportano ovviamente per l’azienda, costi differenti e un diverso grado di rischio.
Il processo di identificazione dei gruppi detti cluster, può avvenire tramite un approccio supervisionato, andando a catalogare le unità statistiche in base a dei criteri prestabiliti, oppure non supervisionato, nel quale la classificazione è esclusivamente esplorativa e si basa sulle caratteristiche di ogni singola unità statistica perciò si scopre quali individui sono tra loro correlati guardando solo le informazioni presenti nel data set. Una tecnica non supervisionata non ha bisogno di conoscenza a priori per essere eseguita: il risultato ottenuto ha bisogno di essere sottoposto ad un processo di validazione. Nel lavoro seguente, sarà utilizzato l’approccio non supervisionato. L’approccio di clustering non supervisionato può generalmente essere di due tipi: partitivo o gerarchico a seconda della tipologia di algoritmo utilizzato per dividere lo spazio. Il clustering gerarchico crea una gerarchia di partizioni caratterizzata da un numero crescente o decrescente di gruppi, visualizzabile mediante un diagramma ad albero chiamato dendrogramma, in cui sono rappresentati i passi di accorpamento/divisione dei gruppi. Invece, il clustering partitivo detto anche non gerarchico o k-clustering, utilizzato in questa ricerca, definisce l’appartenenza di un’unità statistica ad un gruppo di unità correlate, utilizzando la dissimilarità da un punto rappresentativo del cluster chiamato centroide (baricentro o punto medio di ogni cluster) o medoide (oggetto più rappresentativo di ogni cluster)
avendo prefissato il numero di gruppi della partizione risultato. La dissimilarità rappresenta una misura della distanza in uno spazio multidimensionale. Gli algoritmi di clustering raggruppano gli elementi (punti, oggetti, unità statistiche, ecc.) sulla base della loro distanza reciproca, e quindi l'appartenenza o meno ad un insieme dipende da quanto l'elemento preso in esame è distante dall'insieme stesso. Si possono utilizzare e confrontare diversi concetti di distanza (e dunque diversi algoritmi) in base allo scopo del clustering e alla tipologia dei dati d’ingresso. Inoltre, la scelta della metrica (quindi la tipologia di distanza), influenzerà la bontà dei risultati ottenuti. Ogni unità può appartenere ad un solo gruppo. Quando gli elementi non possono essere assegnati a più clusters, si dice che la tecnica di clustering è di tipo esclusivo (hard clustering): ogni elemento può infatti essere assegnato ad uno e un solo gruppo. I clusters risultanti, quindi, non avranno elementi in comune.
La clusterizzazione ottenuta sarà:
- di tipo completo poiché tutti i punti saranno assegnati ad almeno un cluster; - ogni cluster è associato ad un centroide o medoide;
- k indica il numero di gruppi che si vogliono identificare (parametro di input).
Nel clustering partitivo, l’utente specifica il numero k di gruppi che vuole ottenere; l’algoritmo individuerà k individui che siano “rappresentativi” dei vari gruppi e li forma assegnando ogni individuo al gruppo rappresentativo più vicino. L’algoritmo k-means proposto da MacQueen nel 1967, è il più utilizzato nei metodi di clustering basati sul partizionamento. Un altro algoritmo abbastanza conosciuto appartenente a questa classe è il “Partitioning Around Medioid (PAM)” che sarà utilizzato nel presente lavoro. L’algoritmo “PAM” implementato in R, utilizza come oggetti rappresentativi quelli che minimizzano la dissimilarità media dagli altri componenti del gruppo stesso. Tali oggetti sono detti medoidi da cui il nome dell’algoritmo Partitioning Around Medoids. Un medoide può essere definito come un oggetto di un cluster la cui dissimilarità media rispetto a tutti gli oggetti nel cluster è minima, cosicché esso sarà il punto più centrale di un dato data set. (Struyf et al., 1997). I medoidi sono concettualmente simili ai centroidi, ma differiscono da essi perché fanno sempre parte del data set. Si noti che un medoide non è equivalente a una mediana geometrica. Una mediana geometrica è definita in qualsiasi dimensione, ma non è necessariamente un punto all'interno del data set originario. I medoidi sono solitamente utilizzati su dati per i quali la media o il centroide non possono essere definiti (Van Der Lann et al., 2003). Dunque l’algoritmo di clustering k-medoids, è simile al k-means funziona anche quando una media o un
centroide non è definibile. Entrambi gli algoritmi cercano di minimizzare l'errore quadratico medio, cioè la distanza tra punti di un cluster e il punto designato per esserne il centro. In K-means il punto è "artificiale", è cioè la pura media di tutti i punti nel cluster. Nel K-medoids è usata l’unità statistica posta più centralmente, in questo modo il centro rappresenta un individuo reale. K-medoids è più robusto al rumore e agli outlier rispetto al k-means.
Questo algoritmo si esegue nelle seguenti operazioni:
1. Viene scelto arbitrariamente un insieme di k medoidi anche sub-ottimali (che determinerà k cluster) da un insieme di n oggetti (n>k);
2. Vengono calcolate le distanze delle altre u.s. da ogni medoide così da associare ogni u.s. al suo medoide più vicino. Si ricorda, che le distanze possono essere espresse in termini di costi, dunque si vuole minimizzare il costo della distanza.
3. I dati vengono raggruppati con il medoide più simile ed è ora possibile calcolare il costo/distanza totale. Il costo tra 2 punti qualsiasi è trovato usando la formula:
𝐶𝑜𝑠𝑡 𝑥, 𝑐 = |𝑥 − 𝑐|
!
!!!
dove:
- x è un qualunque oggetto e c è il medoide;
- d è la dimensione del punto nello spazio, 2 se è un oggetto bidimensionale, 3 se tridimensionale ecc. Il numero di dimensioni di ogni unità statistica, è determinato dal numero di variabili prese in esame. Il costo totale è la somma dei costi per gli oggetti dal proprio medoide.
Nei passi successivi, la serie di medoidi sarà ottimizzata tramite un processo iterativo; 4. Si seleziona in modo casuale un oggetto non medoide O’;
5. Si calcola il costo totale S (costo attuale – costo precedente) per lo scambio del medoide iniziale nell'oggetto O’. Se S<0, allora si scambia il medoide iniziale con il nuovo e dunque ci sarà un nuovo insieme di medoidi;
6. i passaggi 2-5 si ripetono finché i medoidi non cambiano, cioè si è raggiunta una soluzione stabile.
La complessità dell’algoritmo è O (n*k*i*d), cioè è proporzionale a: - n: numero di oggetti nel data set
- k: numero di cluster che si vogliono ottenere
- d: numero di attributi che si hanno a disposizione (aspetto collegato al calcolo della distanza: se si hanno due attributi la matrice delle distanze viene calcola considerando solo due dimensioni, ma all’aumentare del numero di attributi il calcolo della distanza risulterebbe più complesso).
Ovviamente, tutti i passaggi sopra descritti, vengono effettuati in un’unica soluzione utilizzando il software di calcolo R. L’unica operazione che l’utente deve effettuare manualmente, è quella di stabilire diversi valori k per lanciare l’algoritmo di partizionamento e alla fine sarà scelto il numero di cluster che otterrà la miglior silhouette media.
La costruzione della matrice di dissimilarità in R sarà effettuata utilizzando la funzione della libreria cluster “daisy”, più versatile della funzione “dist”, poiché può trattare anche data set contenenti variabili categoriali; e l’indice di Gower, che misura le distanze anche con variabili di natura mista.
Quando fra i dati compaiono variabili di differenti tipi, la funzione daisy calcola la dissimilarità tra i soggetti i e j secondo la formula seguente:
𝑑 𝑖, 𝑗 = 𝛿!" (!)𝑑 !"(!) ! !!! 𝛿!"(!) ! !!!
dove 𝛿(!) = 0 se 𝑥(!") o 𝑥(!") sono mancanti, 𝛿(!) = 0 se 𝑥(!") = 𝑥(!") e la variabile l è
binaria simmetrica, 𝛿(!) = 1 altrimenti. 𝑑(!) è il contributo della variabile l e dipende dal
suo tipo: nel nostro caso, essendo l binaria o nominale 𝑑(!) = 0 se 𝑥(!") = 𝑥(!") e 𝑑(!) = 1
altrimenti. La funzione daisy è in grado di leggere la tipologia di variabili in un dataset e di utilizzare le corrette definizioni di distanze. L’unica accortezza è quella di specificare quali variabili binarie trattare come asimmetriche (Dell’Omodarme, 2012). Il coefficiente di Gower (1971) offre l’opportunità di trattare dati allo stesso tempo semi- quantitativi e quantitativi. Nel nostro caso, tutte le variabili, comprese quelle qualitative, sono state trasformate in variabili binarie dunque trattabili dalla metrica Gower di R. Tale metrica esprime la similarità fra le unità i e j calcolata con riferimento al k-esimo attributo, e riconosce se le variabili sono confrontabili con riferimento all’attributo k: in caso affermativo assumono valore unitario, altrimenti zero. In altre parole, la metrica valuta l’ammissibilità del confronto e, se ciò è possibile, restituisce il valore di similarità.