• Non ci sono risultati.

Consente di quantificare, mediante un modello lineare, l’intensità del legame esistente tra una variabile dipendente e una o più variabili indipendenti, dette anche esplicative o predittive. Gli utilizzi di tale tecnica nel marketing possono essere: verificare in che misura la variazione delle vendite può essere spiegata dalla variazione nelle spese

pubblicitarie, nei prezzi, nella forza vendita etc.; verificare in che misura la variazione nelle quote di mercato può essere dovuta alla forza vendita, ai concorrenti e alle loro spese pubblicitarie.

3.4 Analisi Fattoriale

Con il termine generale analisi fattoriale (factor analysis o factorial analysis) si denota una classe di tecniche statistiche principalmente usate per ridurre e sintetizzare i dati relativi a più variabili in un insieme più piccolo di fattori, che sono generalmente diversi dalle variabili originali benché indotti da queste. I fattori sono variabili (o costrutti latenti) che non sono direttamente osservabili ma devono essere inferiti dalle variabili-input. Nelle ricerche di marketing, ci potrebbe essere un grande numero di variabili, la maggior parte di queste sono correlate e devono essere ridotte a un livello più malleabile e contenuto. Le relazioni tra un set di molte variabili interrelate sono esaminate e rappresentate in termini di pochi fattori sottostanti.

Nell’analisi della varianza, nella regressione multipla, nell’analisi discriminante, una variabile è considerata dipendente e tutte le altre sono indipendenti o predittori. Nell’analisi fattoriale, invece, non esiste questa distinzione; piuttosto, in quest’ultima è esaminato un intero set di relazioni interdipendenti.

L’analisi fattoriale è usata in queste circostanze:

per spiegare le correlazioni tra le variabili osservate in funzione di un numero ridotto di fattori non osservabili, e per questo detti anche dimensioni (o variabili) latenti

per trasformare l’insieme delle osservazioni in una struttura semplice, ma informativa quasi quanto quella di partenza.

L’analisi fattoriale ha numerose applicazioni nelle ricerche di marketing, per esempio:

può essere usata nella segmentazione del mercato per individuare le variabili sottostanti con cui raggruppare i consumatori. Gli acquirenti delle macchine potrebbero essere distinti in base all’importanza relative che loro attribuiscono alla performance, al comfort, alla convenienza, al lusso, ecc. Questi potrebbero essere rappresentati insegmenti: coloro che ricercano la performance, il comfort,

la convenienza, il lusso, ecc. Nella segmentazione di mercato, quindi, l’analisi fattoriale serve ad identificare le variabili criterio sottostanti i gruppi di consumatori

nelle ricerche sulla definizione del prodotto, l’analisi fattoriale potrebbe essere impiegata per determinare gli attributi della marca che influenzano le scelte dei consumatori. Le marche di dentifricio potrebbero essere valutate in termini di protezione contro le carie, di candore dei denti, di gusto, di freschezza, di prezzo, ecc

negli studi pubblicitari, l’analisi fattoriale potrebbe essere adottata per comprendere le abitudini di fruizione dei diversi media da parte dei consumatori

negli studi sul pricing, può essere implementata per identificare le caratteristiche dei consumatori sensibili al prezzo.

Dal punto di vista matematico, il modello di analisi fattoriale si fonda su queste ipotesi: sia X = {xhj} (h=1,….,n; j=1,….,p) la matrice dei dati ordinati e standardizzati relativa a n unità statistiche presso ognuna delle quali sono state osservate p variabili quantitative o dicotomiche; n deve essere abbastanza grande in rapporto a p e xhj, elemento generico di X, denota il valore della variabile xj osservata presso l’unità h. Ognuna di queste variabili può essere espressa come una combinazione lineare di un più piccolo set di fattori sottostanti:

xj = aj1f1 + aj2f2 +……+ ajqfq + ujcj

Dove, xj rappresenta la j-esima variabile standardizzata, fi (i=1,….,q), il fattore comune i-esimo, aji, i coefficienti fattoriali (factor loadings) della variabile j sul fattore comune i, che esprimono la correlazione tra la variabile j-esima e il fattore i-esimo, cj, il fattore specifico (o unico) di xj, e uj, il coefficiente di regressione standardizzato della variabile j sul singolo fattore j.

Il fattore fi si dice “comune” perché è presente in tutte le p possibili equazioni; se ha coefficienti non nulli con tutte le variabili, si dice “generale”; cj si dice “specifico” perché appartiene solo alla variabile xj. Ogni fattore comune è una combinazione lineare di tutte le variabili osservate:

fi = Σj wjixj (j = 1,…..,p; i = 1,…..,q)

dove wji è il peso (o coefficiente fattoriale, detto factor score coefficient) della variabile xj nella combinazione fi. adottando il modello di analisi fattoriale si

assumono dunque relazioni lineari ed additive tra le variabili osservate e inoltre si suppone correlazione nulla tra i fattori comuni, tra fattori comuni e quelli unici e tra ogni fattore unico e gli altri. In simboli:

Corr(fw , ft) = 0

Corr(uw , ut) = 0

Corr(uw , ft) = 0

3

.4.1 Comunanza e unicità dei fattori

Riprendendo l’equazione di prima, xj = aj1f1 + aj2f2 +……+ajqfq + ujcj, si nota che questa assume la forma di un’equazione di regressione dove xj è la variabile dipendente, i fattori fi sono le variabili predittive e cj è un termine residuale. Per l’analogia con l’analisi di regressione , se una variabile è esprimibile in funzione di fattori comuni e di un fattore specifico, anche la sua varianza è scomponibile in due parti: la varianza comune, o comunanza, e la varianza unica, o unicità.

Se i fattori sono ortogonali, ossia incorrelati, tra loro e con quello specifico, per ogni xj, vale l’identità:

σ2

j = 1 = Var[Σi aji fi + ujcj] = Σi (aji)2λi + u2jVar(cj)

(j = 1,…..,p; i = 1,…..,q)

con h

2j = Σi (aji)2

(j = 1,…..,p; i = 1,…..,q) h2j è la comunanza, ovvero la somma della parte di varianza di xj spiegata dai fattori comuni.

Sempre se i fattori sono tra loro incorrelati, vale l’identità rji = aji, dove rji è il coefficiente di correlazione tra xj e fi.

La comunanza è allora data dalla somma del quadrato dei pesi fattoriali: h2j = Σi (aji)2 = Σi (rji)2 (j = 1,…..,p; i = 1,…..,q)

proprio per essere fattori comuni a tutte le variabili, si può dire che la comunanza di una variabile è la parte di varianza che questa condivide con le altre variabili fattorizzate. La varianza unica della xj è la parte complementare e questa, in genere, si esplica in tre componenti:

una d’errore casuale, detta varianza di campionamento, in quanto attribuibile alla rilevazione per campione

una d’errore di rilevazione, detta varianza di rilevazione, dovuta all’inaccuratezza della rilevazione

una residuale, detta varianza specifica, che deriva dal fattore specifico cj

Tra le comunanze delle variabili e gli autovalori, Ωi (i =1,….,q), di fattori ortogonali vale la relazione:

Σi Ωi = Σj h2j = ΣjΣi (aji)2 (j = 1,…..,p; i = 1,…..,q)

Questi ragionamenti sulla comunanza valgono nel caso di fattori ortogonali, ossia incorrelati; le cose invece si complicano quando si ha a che fare con fattori obliqui, ovvero correlati: i pesi fattoriali aji non sono più coefficienti di correlazione semplice, bensì parziale. In questo caso, un’opportunità per il calcolo della comunanza è dato dalla conoscenza del peso fattoriale del fattore specifico, in quanto (per σ2

j = 1) vale l’eguaglianza:

h2j = 1- u2j

grazie alla dipendenza tra fattori comuni e specifici.