• Non ci sono risultati.

Metodi non parametrici per l'aggregazione dei giudizi di preferenza nella conjoint analysis con applicazioni al servizio di internet banking

N/A
N/A
Protected

Academic year: 2021

Condividi "Metodi non parametrici per l'aggregazione dei giudizi di preferenza nella conjoint analysis con applicazioni al servizio di internet banking"

Copied!
181
0
0

Testo completo

(1)UNIVERSITA’ DEGLI STUDI DI PADOVA FACOLTA’ DI SCIENZE STATISTICHE. CORSO IN SCIENZE STATISTICHE ED ECONOMICHE. TESI DI LAUREA. METODI NON PARAMETRICI PER L’AGGREGAZIONE DEI GIUDIZI DI PREFERENZA NELLA CONJOINT ANALYSIS CON APPLICAZIONI AL SERVIZIO DI INTERNET BANKING. Relatore: Ch.mo Prof. Fortunato Pesarin Correlatore: Ch.mo Prof. Luigi Salmaso. Laureando: Enrico Bettella. ANNO ACCADEMICO 2002-2003. 1.

(2) 2.

(3) Ai miei genitori. 3.

(4) 4.

(5) PREFAZIONE In numerose situazioni reali, si ha la necessità di ordinare tra loro soggetti considerati secondo molteplici caratteristiche. Ad esempio in economia pubblica è crescente l’esigenza di comparare tra loro operatori nell’ambito della sanità, dell’istruzione e di altri tipi di servizi; un’azienda può essere interessata ad ordinare la produzione in base a determinate caratteristiche, in modo da poter attribuire il prodotto giusto al target di cliente, ecc.. Dopo una lunga ricerca bibliografica, confortata dal parere di diversi studiosi della materia come: prof. Luigi Burigana (docente di Psicometria Corso Avanzato all’università di Padova), prof. Amedeo De Luca (docente all’università Cattolica del S.Cuore di Milano), prof. Carlo Natale Lauro (docente di Statistica all’università di Napoli), prof. Giulio Vidotto (docente di Psicometria all’università di Padova) si è giunti alla conclusione che l’unica soluzione attualmente usata in letteratura, per questo tipo di problema, è costituita dalla funzione di aggregazione basata sulla media semplice o ponderata. L’obiettivo principale di questa tesi è presentare, nell’ambito della Conjoint Analysis, un metodo statistico non parametrico di aggregazione (NPC ranking) atto alla soluzione di problemi di classificazione di variabili, in base a giudizi raccolti tramite interviste su di un campione di persone, come alternativa alla media aritmetica. I primi due capitoli sono dedicati alla presentazione della Conjoint Analysis, uno dei metodi di ricerca di mercato più utilizzati per analizzare i compromessi che il consumatore deve sostenere ogni giorno nelle sue scelte. Come tecnica per la raccolta dei dati si è esaminata quasi esclusivamente la Full Profile evidenziandone sia i pregi che i difetti. Uno dei vantaggi è la possibilità di somministrare agli intervistati tutti i possibili profili di prodotto e di conseguenza non tralasciare nessuna informazione. Ma allo stesso tempo questo può essere uno svantaggio per l’eventuale mole di domande sottoposte ai rispondenti. Nel terzo capitolo è contenuta un’analisi di alcune applicazioni di Conjoint Analysis nel settore bancario e più precisamente indagini inerenti le carte di credito e conti correnti. Di ogni applicazione si presenta una prima parte introduttiva, un cenno sulla. 5.

(6) metodologia ed al campione dell’indagine, sono riportate le tabelle più significative ed alla fine è presente una sintesi delle conclusioni tratte dagli autori. Il quarto capitolo è composto principalmente da due parti: una teorica ed una di implementazione in SAS macro language. In particolare la prima è dedicata alla presentazione:. 1. del metodo di combinazione non parametrica NPC ranking come alternativa alla media aritmetica nel conseguimento di una graduatoria finale combinata. 2. di due indici di confronto: a) l’indice di Spearman IS e b) l’indicatore di permutazione delle graduatorie IPG, per capire se e in che contesto comparativo l’NPC ranking funzioni meglio della media. 3. di due test TS (test di Spearman) e TPG (test di permutazione sulle graduatorie).. La seconda parte consiste nell’implementazione in SAS macro language sia della metodologia proposta sia degli indici di confronto. Nel quinto capitolo si confrontano l’NPC ranking e la media aritmetica attraverso simulazioni in cui gli ipotetici giudizi degli intervistati sono ottenuti grazie ad una generazione casuale di dati, sommando o sottraendo alla graduatoria di riferimento degli errori casuali calcolati da distribuzioni discrete e continue come: la Poisson, la Normale, la Cauchy e la Uniforme. Ad ogni distribuzione si è applicato mille volte l’NPC ranking e mille volte la media aritmetica ottenendo così delle graduatorie finali che si sono analizzate con gli indici presentati nel quarto capitolo. Inoltre in questa parte si sono calcolate tutte le possibili permutazioni della graduatoria di riferimento per studiare quanto il test di permutazione TPG e il test di Spearman TS (presentati nel quarto capitolo) siano potenti nell’individuare dei cambiamenti nelle classifiche finali osservate rispetto a quella di riferimento. Infine nel sesto capitolo si presenta uno studio pilota effettuato su alcune banche riguardante il servizio di Internet Banking, che negli ultimi anni ha portato parecchi vantaggi ai consumatori come ad esempio la possibilità di non recarsi fisicamente in banca, con conseguente riduzione di costi e di tempo. Lo scopo di questa indagine è stabilire quali siano le caratteristiche più importanti del servizio internet banking utilizzato dalla clientela privata. Le risposte degli intervistati sono state aggregate. 6.

(7) attraverso l’NPC ranking e dall’analisi effettuata, è emerso come la gente dia più importanza al costo del servizio.. In questa tesi si sono ottenuti alcuni risultati originali: la metodologia NPC ranking può essere ritenuta una valida alternativa alla media aritmetica, la quale, in letteratura, è considerata l’unica soluzione per aggregare i giudizi di preferenza nella Conjoint Analysis. Questa conclusione, sintesi di una lunga ricerca bibliografica, è confortata anche dal parere di diversi studiosi della materia. Si è presentata una nuova strategia per il confronto di graduatorie (IPG) la quale utilizza una procedura di verifica di ipotesi che misura la coerenza tra classifiche. Si è appurato, attraverso studi di simulazione, che i due test TS e TPG manifestano una soddisfacente capacità discriminante (potenza) nell’individuare allontanamenti, anche piccoli, da H0. Infine si è implementato in SAS macro language la metodologia proposta.. 7.

(8) 8.

(9) INDICE. CAPITOLO 1. INTRODUZIONE ED ANALISI BIBLIOGRAFICA SULLA CONJOINT ANALYSIS. 13. 1.1. Riflessioni e Prospettive. 13. 1.2. I Modelli della Conjoint Analysis. 18. 1.3. Presentazione degli stimoli. 21. 1.4. I precursori della Conjoint Analysis. 21. 1.5. Sviluppo della Conjoint Analysis negli Anni ‘80. 24. 1.6. Sviluppo della Conjoint Analysis negli Anni ‘90. 28. 1.7. Applicazioni. 28. 1.8. Prospettive future. 32. CONJOINT ANALYSIS: FULL PROFILE. 35. 2.1. Introduzione. 35. 2.2. I concetti fondamentali e le fasi di un esperimento. Capitolo 2. di Conjoint Analysis 2.3. 37. Specificazione e stima del modello di utilità individuale. 2.4. 41. Analisi grafica dell’influenza degli effetti dei fattori sulla preferenza dei rispondenti. 2.5. 45. Verifica di ipotesi sugli effetti degli attributi mediante Anova. 47. 2.6. L’uso di piani fattoriali nella Conjoint Analysis. 50. 2.7. Analisi Bibliografica. 53. 2.8. Alcuni problemi sull’aggegrazione dei rispondenti nella Conjoint Analysis. 9. 56.

(10) Capitolo 3. APPLICAZIONI DELLA CONJOINT ANALYSIS NEL SETTORE BANCARIO. 59. 3.1. Introduzione. 59. 3.2. Le carte di credito. 60. 3.3. Le banche. 68. CAPITOLO 4. METODI DI AGGREGAZIONE DEI RISPONDENTI E PROCEDURE NON PARAMETRICHE PER LA VERIFICA D’IPOTESI DI “COERENZA”. 75. 4.1. Introduzione. 75. 4.2. Presentazione del problema. 75. 4.3. Condizioni di applicabilità del metodo. 76. 4.4. Metodologia della procedura. 77. 4.4.1 Costruzione delle classifiche parziali. 78. 4.4.2 Costruzione della classifica finale. 78. Confronto tra graduatorie. 79. 4.5.1 L’indice di Spearman IS ed il test TS. 80. 4.5. 4.5.2. L’indicatore di permutazione sulle graduatorie IPG ed il test TPG. 81. 4.6. I passi dell’algoritmo. 85. 4.7. Implementazione in Sas. 88. 4.7.1 Introduzione. 88. 4.7.2. 90. Graduatoria ottenuta con l’NPC ranking. 4.7.3 Graduatoria ottenuta con la Media. 93. 4.7.4 Indice IS per l’NPC ranking. 94. 4.7.5 Indice IS per la media. 96. 4.7.6 Indicatore IPG per l’NPC ranking. 98. 4.7.7 Indicatore IPG per la media. 103. 4.7.8 Confronto dei risultati. 108. 10.

(11) 4.8. Capitolo 5. Clusters Analysis: Implementazione dell’algoritmo di Zani per le classificazioni “sfocate”. 110. 4.8.1 Implementazione in Sas. 112. STUDIO COMPARATIVO DI SIMULAZIONE: NPC RANKING VS MEDIA. 119. 5.1. Introduzione. 119. 5.2. Cardinalità dello spazio delle permutazioni. 120. 5.3. Descrizione dello studio di simulazione. 122. 5.4. Studio di simulazione. 126. 5.4.1 Comportamento con errori di tipo Normale. 127. 5.4.2 Comportamento con errori di tipo Cauchy. 130. 5.4.3 Comportamento con errori di tipo Uniforme. 133. 5.4.4 Comportamento con errori di tipo Poisson. 136. 5.5. Studio di simulazione per i test TS e TPG. 139. 5.6. Potenza dei test sotto H1. 141. APPLICAZIONI ALLO STUDIO PILOTA DI CONJOINT ANALYSIS SUL PRODOTTO BANCARIO: INTERNET-BANKING. 145. 6.1. Introduzione. 145. 6.2. Studio pilota. 146. 6.2.1 Scelta delle caratteristiche. 146. 6.2.2. Modalità d’intervista. 149. 6.2.3. Analisi finale. 151. Capitolo 6. Appendice. SAS MACRO LANGUAGE. 155 177. Bibliografia. 11.

(12) 12.

(13) Capitolo 1. INTRODUZIONE ED ANALISI BIBLIOGRAFICA SULLA CONJOINT ANALYSIS. 1.1 Riflessioni e prospettive Thomas Saaty [1980] aveva introdotto un approccio per la misura dell’utilità in presenza di attributi multipli, chiamato Analytic Hierarchy Process [AHP]. Questo insieme ad altri metodi furono applicati da “operations researchers” e “managements scientists” (OR/MS) per risolvere importanti problemi di management e come soluzione a decisioni di mercato. OR/MS avevano meno familiarità rispetto ad un altro metodo, la Conjoint Analysis, che ormai viene applicato da più di trent’anni, principalmente da marketing and business researchers. La Conjoint Analysis (C.A.) fa parte della famiglia dei “Modelli di preferenza Multiattributivi” che consentono di esprimere le preferenze di singoli consumatori per un determinato tipo di prodotto attraverso la specificazione di alternative multiattributive dello stesso, nel senso che ogni preferenza può essere intesa come funzione della posizione di un particolare stimolo su di un numero di scale relative agli attributi usati. Tutto ciò può essere sintetizzato, per un generico individuo d-esimo, dal seguente modello:. yj(d)=Fj(d)(fj1(d),fj2(d),…,fjk(d)). 13.

(14) con: yj(d): misura delle preferenze che lo stimolo j (j={1,2,…,n}) assume per l’individuo d (d={1,2,…,p}); F(d): funzione di preferenza dell’individuo d; fji(d): modalità dell’attributo i (i={1,2,…,k}) percepita dall’individuo d; La Conjoint Analysis si è sviluppata dalla “seminal research” di Luce e Tukey [1964], e questo primo contributo teorico fu utilizzato da molti “psychometricians”, tra cui Carroll [1969], Kruskal [1965] e Young [1969]. Queste ricerche svilupparono un tipo di modello non metrico per misurare le utilità parziali, “part-worths”, delle preferenze dei rispondenti (valori dei livelli degli attributi), ordinate attraverso stimoli multiattributo come descrizione di prodotti o servizi. La C.A. è, di gran lunga, il metodo più usato di ricerca di mercato per analizzare i “consumer trade offs”, cioè i compromessi che il consumatore deve sostenere ogni giorno nelle sue scelte. Le indagini condotte da Wittink e Cattin [1989] e da Wittink, Vriens e Burhenne [1994] ne provano la sua diffusione a livello mondiale. Non è difficile comprendere perchè le ricerche e le applicazioni di questo metodo si siano sviluppate così rapidamente: la C.A. parte da una domanda centrale del management, perché il consumatore sceglie di acquistare una certa marca di prodotto e non un’altra? La C.A. cerca di risolvere situazioni di mercato in cui il consumatore, nelle sue scelte, deve considerare la variazione simultanea di due o più attributi del prodotto o del servizio. Il problema delle decisioni di mercato è un compromesso sulla possibilità che: l’opzione X sia migliore di Y su un attributo A mentre Y sia migliore di X sull’attributo B ed altre varie estensioni di questi conflitti. La C.A. rappresenta le decisioni quotidiane del consumatore: che marca di tostapane, di automobile o di macchina fotocopiatrice comprare o affittare? La metodologia, attraverso una ricerca di mercato, è in grado di raccogliere informazioni sui trade-offs di centinaia e migliaia di rispondenti, misurarli, analizzare le preferenze dei rispondenti e le intenzioni d’acquisto: serve per simulare come i. 14.

(15) consumatori reagiscano ai cambiamenti nei prodotti o all’introduzione di nuovi servizi all’interno di un segmento competitivo esistente. I ricercatori usano la C.A. per prodotti industriali, di consumo, servizi ed offerte noprofit. Per capire i concetti base della C.A., si assume che un venditore di carte di credito voglia esaminare la possibilità di modificare la linea attuale dei servizi offerti. Uno dei primi step nel progetto di un “conjoint study” è lo sviluppo di un set di attributi, e dei corrispondenti livelli che caratterizzano la sfera competitiva. Focus groups, interviste approfondite ai consumatori e gruppi interni di esperti, sono alcune fonti usate dai ricercatori per creare il set di attributi e livelli che devono guidare il resto dell’analisi. In uno studio recente di fornitori di carte di credito, i ricercatori hanno usato 12 attributi con un minimo di 2 ad un massimo di 6 livelli ognuno, per un totale di 35 livelli (tabella 1); in ogni caso il totale delle possibili combinazioni o profili è 186,624. Gli esperti di C.A. fanno vasto uso di vettori ortogonali [Addelman, 1962] e di altri tipi di piani fattoriali frazionati che permettono di ridurre il numero delle combinazioni descritte, per cui il rispondente vede solo una frazione del numero totale dei profili. In questo problema, un vettore di 64 profili (meno dello 0.04% del totale) è sufficiente per stimare tutti gli effetti principali dei livelli degli attributi su base non correlata. Nel progetto di studio si è utilizzato un tipo di C.A. chiamato Hybrid Conjoint Design [Green and Krieger, 1996] ed ogni rispondente ha risposto considerando solo otto profili tra i sessantaquattro iniziali.. 15.

(16) Tabella 1: questi attributi (e livelli di attributi) descrivono il set di servizi potenziali che si vorrebbero offrire a chi sottoscrive una carta di credito.. Per ogni studio, i ricercatori preparano delle “prop cards” o cartellini (Figura1); i rispondenti segnano la carta in termini di preferenza e successivamente ogni carta è ordinata su una scala da zero a cento di probabilità di acquisto.. 16.

(17) Nel caso in cui l’applicazione di C.A. riguardi pochi attributi, per esempio sei/sette con ognuno due/tre livelli, i rispondenti ricevono tutti i profili: questa metodologia prende il nome di Full Profile, e i cartellini somministrati variano da 16 a 32 considerando l’esempio. In questo caso i rispondenti separano le “prop cards” in quattro/otto categorie prima di ordinarle per probabilità di acquisizione riguardante ogni profilo all’interno di ogni categoria. I quattro tipi più importanti di procedure per la raccolta di dati, usati quotidianamente per la Conjoint Analysis sono:. 1. FULL PROFILE TECHNIQUES: ogni rispondente riceve un set completo di profili “prop cards”. Dopo aver suddiviso le cards in categorie ordinate, il rispondente stima ogni carta su una scala di probabilità d’acquisto da 0 a 100.. 2. IN COMPOSITIONAL TECHNIQUES: come il “Casemap procedure” [Srinivasan, 1988], dove ogni rispondente stima la desiderabilità di ogni set di livelli di attributi su una scala da 0 a 100 ed ordina gli attributi su una scala di importanza. Questo approccio è tipicamente chiamato SELF-EXPLICATED PREFERENCE DATA COLLECTION.. 3. HYBRID TECHNIQUES: ogni rispondente compie un SELF-EXPLICATED EVALUATION TASK e valuta un subset di cards della full profile [Green, Goldberg, and Montemayar]. La risultante funzione di utilità è una composizione di dati ottenuta da entrambi i compiti.. 4. ADAPTIVE CONJOINT ANALYSIS: è un HIBRID TECHNIQUE sviluppata dalla Sawtooth Software [Johnson, 1987], dove ogni rispondente prima svolge una “SELF EXPLICATED TASK” e poi valuta un set parziale di profili proposti due alla volta. I profili parziali consistono usualmente in due/tre attributi per stimolo (cards). I ricercatori variano i profili parziali, in quanto dipendono dalle risposte precedenti e dal confronto precedente (PAIRED COMPARISONS). Il rispondente valuta i profili parziali prendendoli due alla volta su una graduatoria o scala di confronto. Sia il SELF EXPLICATED. 17.

(18) TASK, che il PAIRED COMPARISONS sono amministrati dal computer [Johnson, 1987].. Figura 1: Queste prop cards illustrano tutti i possibili servizi specifici che una carta di credito può offrire. Per ogni card il rispondente indica con quale preferenza sottoscriverebbe la carta di credito su una scala da 0 a 100.. 1.2 I modelli della Conjoint Analysis Gli analisti stabilirono che quello che era conosciuto come “part worth model” rappresentava il giudizio valutativo dei rispondenti, e si poteva ottenere usando i full profile, il self-explicated or hybrid approches. I modelli principali suggeriti da Green e Srinivasan sono: a) modello vettore, lineare; b) modello punto-ideale, lineare-quadratico; c) modello parth worth,discontinuo.. 18.

(19) Il modello vettore esprime la preferenza yj (utilità globale) per il prodotto j nel seguente modo:. yj=. i=1,…,k. wi fij. dove wi rappresenta il peso dei k attributi e fij il livello dell’i-esimo attributo relativo al j-esimo stimolo. La relazione che lega variabile dipendente ed indipendenti è di tipo lineare: la preferenza complessiva di ciascun profilo è legata linearmente ai valori degli attributi per meno dei coefficienti di ponderazione wi. Data la sua forma funzionale, il modello vettoriale risulta adeguato per una conjoint analysis in cui il livello di gradimento di un bene o servizio cresce al crescere dell’attributo (wi > 0) o diminuisce al diminuire dello stesso (w i< 0): in presenza, quindi, di preferenza monotona e lineare. Il numero di parametri da stimare è il minore tra i tre modelli qui sopra riportati: corrisponde alla numerosità n degli attributi considerati nell’analisi. Il ridotto numero di coefficienti può accrescere il potere predittivo della C.A... Figura 2: questi diagrammi illustrano il significato di preferenze lineari, preferenze riferite al punto ideale, e discrete (part-worth) preferences. Il terzo grafico mostra tre part-worths. Fonte: Green e Srinivasan [1978].. Il modello punto-ideale prevede che l’utilità complessiva di ciascun profilo sia correlata negativamente con la seguente misura (distanza del profilo j-esimo): d j2 =. i=1,…,k. wi (fij – oi)2. Per ogni attributo i esiste un livello ideale che rappresenta la scelta ottimale per l’individuo: supponendo che tutti i livelli selezionati per l’analisi siano egualmente. 19.

(20) possibili, il modello punto ideale afferma che, con certezza, l’individuo sceglie sempre ed unicamente il livello “ideale”. Il modello ipotizza che non esistano differenze legate alla direzione di spostamento dal punto ideale dato che viene considerato il valore al quadrato della distanza: in presenza di un attributo con tre livelli, graficamente, la relazione appare come un semicerchio il cui punto più alto rappresenta il valore ideale. Questo tipo di modello trova largo uso con attributi qualitativi associati a fattori sensoriali quali il gusto o l’odore: un sapore troppo dolce o troppo amaro viene scartato, mentre sarà preferito un giusto livello di dolcezza (livello ideale). Infine il modello part-worth ammette la forma funzionale più generale, la dipendenza tra la variabile dipendente e le indipendenti non ha limitazioni:. yj =. i=1,…,k fi (xij). dove fi è la funzione rappresentante l’utilità del livello assunta dall’i-esimo attributo. Il modello richiede che i livelli di ciascun attributo siano definiti design matrix da una distinta colonna di variabili dummy: data la presenza dell’intercetta, per stimare r (numero di livelli per ciascun attributo), si richiede l’uso di (r-1) dummies. Complessivamente i parametri da stimare saranno quindi n*(r-1). Questo modello è più flessibile e di carattere più generale degli altri due. In figura 3, mostriamo le “parth worth” per i livelli degli attributi descritti in tabella 1.. Figura 3: questo grafico illustra i valori delle part-worth valutati su scala dei singoli attributi: prezzo, messaggi forwarding,…..servizio di emergenza per la macchina. Per esempio, il prezzo preferito è $ 0 e il prezzo meno preferito è $ 100.. Le “parth worths” sono spesso rappresentate in scala così che il livello più basso, senza ogni attributo, è zero.. 20.

(21) Parlando in modo rigoroso, gli analisti valutano le “parth worth functions” i livelli discreti per ogni attributo; in ogni modo in molte applicazioni, gli analisti vanno ad interpolare tra i livelli di attributi continui, come il prezzo, quando si è all’interno delle “parth worth” nelle simulazioni di scelta del consumatore. La rappresentazione in scala (assi verticali) è comune a tutti gli attributi, questo permette all’analista di sommare le “parth worth” di ogni livello dell’attributo per ottenere l’utilità totale del prodotto o servizio, cioè l’utilità di ogni profilo ottenibile dalla combinazione di livelli degli attributi.. 1.3 Presentazione degli stimoli Nella raccolta dei dati, gli analisti enfatizzano spesso la FULL PROFILE e le PROCEDURE IBRIDE, incluso il Sawtooth’s Adaptive Conjoint Analysis. Oltre all’impiego di paragrafi descrittivi di livelli di attributi, in alcuni studi industriali, spesso vengono usate “profile cards” con una descrizione molto concisa dei livelli degli attributi (figura 1). Gli analisti aumentano l’uso di materiale figurativo, e grazie a questo supporto, il compito del rispondente diventa più interessante e permette il trasferimento di informazioni con bassa ambiguità. Ultimamente i metodi “Conjoint” hanno avuto un incremento nelle applicazioni per la progettazione di prodotti fisici (ad esempio cibi, bevande, fragranze e prodotti per la pulizia personale), dove i ricercatori usano prototipi sperimentali virtuali.. 1.4 I precursori della Conjoint Analysis Come si è sviluppata la C.A.? Grazie ai numerosi lavori inerenti alla raccolta di dati ed al “modelling” svolti da “marketing researchers”, il 1970 ha portato una ricca collezione di strumenti e tecniche. La fine degli anni ’60 e l’inizio degli anni ’70 sono caratterizzati da un forte sviluppo dei metodi di ricerca di mercato da parte delle scienze comportamentali, prima di tutto psychometrics e poi mathematical psychology. Prendono piede in questo periodo tre particolari tecniche di ricerca di mercato:. 21.

(22) •. CLUSTER ANALYSIS. •. MULTIMENSIONAL SCALING [MDS], spesso chiamata PERCEPTUAL AND PREFERENCE MAPPING. •. CONJOINT ANALYSIS. Il CLUSTER ANALITIC METHODS, ha trovato applicazione, quasi immediatamente, nel “MARKET SEGMENTATION” [Green, Frank, and Robinson, 1967]. I ricercatori assumono di conoscere le caratteristiche dei segmenti identificati a priori nello studio, e grazie alla CLUSTER ANALYSIS sono in grado di valutare l’esattezza degli assunti iniziali. Potevano, sulla base della CLUSTER BASED SEGMENTATION, cercare i bisogni e i benefici, identificare le preferenze di marchio ed analizzare alternative di soluzione ai problemi. L’idea della segmentazione si identificava nell’isolamento di gruppi di consumatori con uguali bisogni, attitudini, trade-offs e benefici.. MDS, MULTIMENSIONAL SCALING, ha ricevuto considerevole attenzione nel 1970 da parte dei ricercatori di marketing, che sostenevano l’importanza della costruzione di un progetto per rappresentare in due o più modi, profili figurativi o tavole numeriche come punto o punti-vettori geometrici in due dimensioni. Era nata anche la possibilità di trarre vantaggio dalla combinazione delle MDS con l’HIERARCHICAL CLUSTERING METHODS per aumentare le configurazioni bidimensionali con il CLUSTER BASED RAPRESENTATIONS, basato su soluzioni in alta dimensionalità [Carroll and Green, 1997]. I ricercatori che volevano usare l’MDS per sviluppare nuovi prodotti o risollevare prodotti stagnanti, si trovarono davanti a due grossi problemi:. 1. tradurre il punteggio del brand su dimensioni che potevano essere manipolate 2. avere livelli e attributi manipolabili in percentuale o preferenza. Queste difficoltà illustrarono il problema generale del Reverse Enginering, cioè la traduzione inversa da percezioni di attributi a caratteristiche fisiche e chimiche del prodotto, che non sono tipicamente uno a uno [Kaul and Rao, 1994].. 22.

(23) I primordiali precursori che scrissero documenti inerti alla C.A. furono Luce e Tukey, ed il primo articolo intitolato “Conjoint Measurement” venne pubblicato nel 1964 sul “Journal of Mathematical Psychology”. Gli autori si focalizzarono su approcci assiomatici per misure fondamentali: l’idea era di ottenere dati su una scala metrica ordinata attraverso un “rank-order response date” ed un profilo fattoriale. Non sorprende, che il primo algoritmo di C.A., chiamato MONANOVA, disegnato da Kruskal [1965] e programmato da Kruskal e Carmone, usava dati ottenuti da RANKED RESPONSE. Alla fine degli anni ’60, Green e i suoi colleghi Vithala Rao, Frank Carmone ed Arun Jain iniziarono numerosi esperimenti con il programma MONANOVA: un documento di lavoro di Green e Rao apparso nel 1969 diventò il primo articolo di C.A.. A seguito di questo, Johnson [1974] e Westwood, Lunn e Beazley [1974] pubblicarono articoli circa “Johnson’s two attributes at a time trade off model”. L’uso del modello “MONANOVA” di Kruskal e del “LINMAP PROGRAMS” (nato come modello non metrico) di Shocker and Srinivasan [1977] portò ben presto alla consapevolezza che le variabili dipendenti del ratings based, analizzate con dummyvariable regression techniques, portavano ad una robusta alternativa alla “ordinally based data procedures” [Carmone, Green and Join, 1978; Cattin and Wittink, 1976]. Orthogonal main-effects plans si basa sull’Addelman’s fractional factorial designs [1962] che riduce in modo significativo l’onere conoscitivo dell’intervistato per rispondere alle domande sulle descrizioni dei prodotti nell’ambito della full profile. Hence, nella metà degli anni ’70, capì che le condizioni erano mature per una veloce diffusione dei METODI METRICI DI C.A., con l’uso della “dummy variable regression”. Nella metà degli anni ’80, Johnson [1987] introdusse il suo “adaptive C.A. program” che usava il “Graded paired comparisons” quale set di input per il modello. Circa negli stessi anni, Herman [1988] rispose con la presentazione di “PC BASED PACKAGES” che usavano gli stimoli della full profile basati su disegni ortogonali. Entrambi i pacchetti contenevano simulatori congiunti, erano facili nell’utilizzo e moderatamente costosi.. 23.

(24) Inizialmente vennero impiegati prettamente nelle aziende di ricerca commerciale, ma successivamente aprirono un largo e desideroso mercato di applicazioni nei campi più diversi. Dalla fine degli anni ’70, la C.A., è diventata veramente all’avanguardia. Wittink e i suoi coautori Wittink e Cattin 1989; Wittink, Vriens e Burhenne 1994, svilupparono costose indagini che comprovavano la rapidità con cui questa tecnica era stata usata dai ricercatori e i suoi sviluppi teorici ed applicativi. L’impulso che sta dietro alla diffusione della C.A. riflette: l’influenza e il contributo esercitati da studiosi e praticanti della metodologia, la disponibilità di software facili da usare e la credibilità evidenziata dalle applicazioni di business. La C.A. in modo diverso dall’MDS e dal CLUSTERING, elargisce con i problemi centrali, misurando “buyer trade offs”, al fine di sviluppare nuovi prodotti, riformulare prodotti vecchi e stagnanti e stimare le funzioni di prezzo-domanda. MDS e CLUSTERING ANALYSIS sono spesso usate come tecniche ausiliarie per l’analisi dei dati in presentazione, in ogni caso, hanno avuto un remunerativo impiego negli studi di C.A. che coinvolgevano la “Buyer segmentation” [Green and Krieger, 1991] e la rappresentazione percentuale in maps dei risultati di C.A.. 1.5 Sviluppo della Conjoint Analysis negli Anni ‘80 Dopo la seconda decade, gli sviluppi tecnologici della C.A. si sono rapidamente susseguiti, accompagnati ed alimentati da migliaia di applicazioni (tabella 2). Durante gli anni ’80, due sviluppi risultarono particolarmente interessanti, e riguardavano esplicitamente il modello di sviluppo e di applicazione: •. CHOICE BASED CONJOINT MODELS. •. HYBRID CONJOINT MODELS, che includeva il Johnson’s adaptive conjoint analysis model. In TRADITIONAL C.A., i rispondenti tipicamente valutano vari prodotti o profili di offerta, presentati uno alla volta, su una scala di probabilità d’acquisto.. 24.

(25) In CHOICE BASED C.A., i rispondenti confrontano i profili di due o più espliciti competitori, che variano su uno o più livelli di attributi. In questo caso, lo scopo è: scegliere il profilo preferito dal set di profili o in alternativa dare 100 punti tra tutti i profili del set, costruendo un’effettiva scala di preferenze relative. Nella CHOICE BASED C.A., gli analisti impiegano usualmente un modello logico multinominale: “multinominal logit models, (MNL)” oppure occasionalmente il “probitbased models”. La TRADITIONAL C.A. è spesso utilizzata quando un prodotto originale entra in un nuovo e stabile mercato, in cui i competitori sono inesistenti o passivi in termini di risposta competitiva alle “new entry”. Nella CHOICE BASED C.A., invece, gli analisti assumono i competitori attivi, cioè che possono modificare gli attributi dei loro prodotti, tra cui si possono avere modifiche di prezzo. I precursori della CHOICE BASED C.A. (che usavano l’MNL) erano studiosi di “econometrician”, e tra questi ricordiamo Mc Fadden [1974]. Il lavoro di quest’ultimo fu presto riconosciuto e usato da numerosi ricercatori di marketing inclusi Punj e Staelin [1978]. Gensch e Recker [1979] usarono questo modello per sviluppare un’alternativa alla regressione per analizzare il “CROSS SECTIONAL CHOICE DATA”. Batsell e Lodish [1981] illustrarono il MULTINOMIAL LOGIT’S USE nel modellamento della scelta individuale sulla replicazione dei choice sets. Il loro modello rese una quota di scelta prevedibile per le alternative in competizione nel “choice sets”. Con l’aumento delle applicazioni della C.A. si sviluppò il desiderio di espandere il numero di attributi e di livelli che potevano essere composti. I modelli “HYBRID” impiegarono il “SELF EXPLICATED DATA COLLECTED” sia sulla desiderabilità che sull’importanza di attributi e livelli. I rispondenti, quindi, considerano un set più piccolo di profili da valutare, rispetto alla Full Profile. I primi modelli “HYBRID” usavano la “stagewise regression” per adattare e semplificare i modelli per l’applicazione del “SELF-EXPLICATED DATA”. Il valore di questi modelli ingannava nella grande accuratezza che raggiungeva, se confrontato con i “NON HYBRID MODELS”, per quanto riguardava la valutazione degli attributi.. 25.

(26) Le risposte nella Full Profile essenzialmente servivano per affinare l’importanza degli attributi nel “SELF EXPLICATED”. Più recentemente, Green e Krieger [1986] estesero i modelli “HYBRID” per permettere la stima dei parametri e dei livelli individuali. Ne risultarono quattro separati modelli di elevata generalità. Successivamente, l’obiettivo diventa quello di usare il “SELFEXPLICATED DATA” in origine per stimare le “parth worth” riguardanti i vari attributi, mentre l’uso della Full Profile Analysis serviva per produrre stime migliori di importanza dei vari attributi. L’uso commerciale più importante dei “conjoint models” viene presentato dall’ “Adaptive Conjoint Analysis Program (ACA)” di Johnson. ACA è un modello “HYBRID” che contiene:. 1. “SELF- EXPLICATED DATA” riguardante la DESIDERABILITA’ E L’IMPORTANZA di attributi e livelli. 2. “PAIRED COMPARISON”, cioè la presentazione di coppie di profili parziali (tipicamente consistono di attributi su 2 o forse 3 livelli), presi dal Full Set di attributi. Al rispondente viene chiesto di scegliere tra gli elementi di ogni coppia e definire la percentuale di preferenza.. Gli sviluppi di ACA [SAWTOOTH SOFTWARE 1999] hanno continuato ad introdurre utili raffinamenti alla versione originale.. 26.

(27) Tabella 2: questa è una lista parziale di contributi alla conjoint analysis nel periodo 1974-2000.. 27.

(28) 1.6 Sviluppo della Conjoint Analysis negli Anni ‘90 Gli sviluppi di larga scala, nel ’90, si basarono sui “HIERARCHICAL BAYESIAN MODELING” per la stima delle differenze individuali rilevate dall’implementazione dei “CHOICE BASED MODELS”. Prima, le preferenze nei “CHOICE BASED MODELS” erano stimati dall’unione dei dati attraverso tutti gli individui o attraverso i “latent class methods”, cioè una disgregazione parziale, applicata da De Sarbo e altri [1992] e Ramaswamy e Cohen [2000]. Il lavoro di Allenby, Arora e Ginger [1995], Allenby e Ginger [1995] e Lenk, Desarbo, Green e Young [1996], ha reso capaci gli utilizzatori della “CHOICE BASED C.A.”, di ottenere i livelli individuali di stima delle “Parth Worth” basata su “HIERARCHICAL BAYESIAN METHODS”. Sawtooth software ha recentemente aggiunto questo tipo di modulo al suo “CHOICE BASED CONJOINT SOFTWARE”. I parametri individuali sono sia “SELF-CONSISTENT”, che “COERENTI ”, ma diversi dall’”AGGREGATED DATA”, in questo modo i dati individuali riceveranno più peso nella stima delle “parth worths”. Recentemente, Vavra, Green e Krieger [1999] hanno proposto un altro approccio per la “CHOICE BASED C.A.”. Hanno sviluppato un “HYBRID CHOICE BASED MODEL” che combina “SELF-EXPLICATED DATA” con le risposte nella FULL PROFILE. Questo modello non richiede una media pesata dei dati dell’individuo riferita all’intero gruppo.. 1.7 Applicazioni Dall’estesa lista (tavola 3) di applicazioni di C.A., due sono particolarmente interessanti: il cliente guida il progetto degli HOTELS DI MARRIOTT’S COURTYARD [Wind 1989], e il progetto e valutazione del New Jersey e New York EZ-PASS ELETTRONIC TOLL COLLECTION SYSTEM [Vavra, Green and Krieger 1999].. 28.

(29) 1. HOTELS DI MARRIOTT’S COURTYARD: Agli inizi degli anni ‘80, MARRIOTT MANAGEMENT voleva progettare un’ottima catena di hotel di prima categoria per “BUSINESS TRAVELERS” i quali non avevano bisogno di molti servizi speciali, come scale mobili e marriott ehyatt, che furono omessi dallo studio, che invece contemplava il prezzo ed altre sette sfaccettature dell’Hotel: •. DECORI ESTERNI. •. DECORI NELLE CAMERE. •. SERVIZI RISTORANTE. •. RIPOSO FACILITATO. •. SERVIZI GENERALI. •. ATTIVITA DI TEMPO LIBERO (fitness club). •. SERVIZI SPECIALI DI SICUREZZA. Gli analisti hanno sviluppato circa 50 attributi con un totale di 160 livelli. I modelli includevano “HYBRID CONJOINT C.A.” ed un primitivo tipo di “CHOICE BASED C.A.”. Gli analisti usarono “computers simulations” per far vivere il servizio al cliente. Lo studio fa esteso uso di “VISUAL PROPS”, cioè materiale visivo (figure e modelli tridimensionali), come stanze sperimentali in cui l’arredo e i decori erano sistematicamente variati secondo il progetto sperimentale. Da tutti i conteggi svolti, il “COURTYARD STUDY” era un successo. Marriott implementò pressoché tutte le proposte del progetto e dopo estese l’approccio ad altri nuovi prodotti (per esempio Marriott Suites). I risultati furono inoltre usati nei progetti pubblicitari e di opuscoli del COURTYARD dal 1990. Nel 1990, Marriott aveva più di 300 Courtyards con impiegati più di 15000 persone, oggi, ci sono più di 450 Courtyards nel mondo intero con fatturati annui di miliardi di dollari. Da allora Marriott ha applicato la C.A. in ogni progetto sperimentale “TIME SHARE” inerente alla partizione del tempo vacanziero, delle stanze e dei prezzi attrattivi.. 29.

(30) 2. Nell’“EZ-PASS TOOL COLLECTION PROJECT”, nel New Jersey e New York venne realmente sviluppato un nuovo prodotto con lo scopo di rendere più rapido e semplice il passaggio dei veicoli sui ponti, nei tunnel e sulle strade pubbliche. I pendolari usavano un cartellino elettronico (transponder) incollato all’interno del vetro del veicolo e quando si avvicinavano alla corsia di pedaggio, un’antenna leggeva i dati del veicolo e del cliente e memorizzava tutte le informazioni che poi venivano registrate nel cartellino. L’informazione era elettronicamente spedita on-line ad un computer, che valutando le informazioni deduceva il pedaggio da addebitare al cliente. Il progetto iniziò nel 1992, con due principali domande: •. COME SAREBBE STATO CONFIGURATO EZZ-PASS?. •. CHE LIVELLO DI RISORSE SAREBBE STATO INVESTITO PER LA SUA IMPLEMENTAZIONE?. I due Stati condussero un grande studio di C.A., (con più di 3000 rispondenti) attraverso una procedura chiamata TELEPHONE-MAIL-TELEPHONE, nella quale i rispondenti qualificati ricevevano un pacchetto di materiale per rispondere e completare il questionario e un video dimostrativo. Quest’ultimo conteneva un filmato di 11 minuti di informazioni che descrivevano il problema associato al sistema del pedaggio stradale e i benefici che l’EZZ PASS avrebbe introdotto. Gli analisti usarono 7 attributi congiunti in relazione con tale problema: •. NUMERO DI CORSIE DISPONIBILI. •. ITER BUROCRATICO PER L’ACQUISIZIONE DEL CARTELLINO. •. COSTI PER L’ACQUISIZIONE. •. PREZZO DI PEDAGGIO. •. FATTURAZIONE. •. METODOLOGIA DI PEDAGGIO. •. ALTRI USI DEL CARTELLINO. 30.

(31) Il progetto di studio analizzava i dati individuali dei rispondenti e di tutto il campione, inerente all’età del guidatore, al livello del campione analizzato, alla zona ed ai mezzi. Complessivamente (all’equilibrio) le previsioni fatte nel 1992 dalla raccolta dei dati era un utilizzo pari al consueto 49%. Dopo sette anni la percentuale si era ridotta al 44%; nel futuro l’uso era previsto circa del 49%.. Entrambi i progetti “COURTYARD BY MARRIOTT” e “EZ-PASS” mostrano l’abilità della C.A. a guidare e perseguire scoperte che portano a ridisegnare le caratteristiche del CUSTOMER-DRIVEN, gli USI DEI CONSUMATORI e le PREVISIONI DI VENDITA.. 31.

(32) Tabella 3: questa tabella illustra le applicazioni di conjoint analysis che sono state condotte dagli autori e dai loro collaboratori e colleghi.. 1.8 Prospettive future Dopo 30 anni di sviluppi e applicazioni, la C.A. sembra aver superato il test del tempo. Mentre nuovi passi avanti possono essere meno frequenti, il metodo è in continua crescita nella profondità e larghezza di utilizzo.. 32.

(33) Si apettano di vedere successivi e ulteriori sviluppi, magari inerenti a:. 1. Nuovi “Simulator-ortimizers” che possono massimizzare ritorni finanziari o quota di mercato [Vavra, Green and Krieger, 1999]. 2. Nuove classi di problemi, che includono selezioni da liste specifiche e collegamenti tra modelli inerenti alle telecomunicazioni e ai servizi bancari [Ben-Akiva and Gershenfeld, 1998]. 3. Immagini più realistiche per descrivere livelli degli attributi, per esempio, usando “Virtual Reality Dispays”. 4. Espansione continua di applicazioni di C.A. in ogni campo come: turistico, spettacolo/intrattenimento, mantenimento della salute, gioco d’azzardo e dispute legali. 5. Nuove applicazioni, come la recente implementazione su internet, che include activebuyersguide.com, personalogie.com e conjointonline.com, siti che tipicamente usano modelli ibridi di C.A. per ricavare le preferenze del compratore per la merce acquistabile via web [Ansari, Essegaier and Kohl, 2000]. 6. Studi aggiunti di conjoint di affidabilità e validità [Haaijer, Kamakura and Wedel 2000, Vriens, Wedel and Wilms, 1996]. 7. Nuovi dinamici “CONJOINT SIMULATORS” che considerano sequenze competitive di AZIONE/REAZIONE [Choi, Desarbo and Harker, 1990, Green and Krieger, 1997]. 8. Prototipe Simulators (per esempio, test cards) che permettono agli analisti di misurare le preferenze dei rispondenti in un ambiente realistico.. In breve, malgrado la sua maturità, la C.A. è ancora distante dall’inattività, perché i metodi trattano di dilaganti problemi inerenti le preferenze e le scelte del compratore, una questione sempre attuale, quindi il futuro promette uno sviluppo ed applicazione continua. In tutto e per tutto la C.A. e le tecniche precedenti di CLUSTER ANALYSIS E MDS devono il loro successo e la loro grande diffusione alla disponibilità di software poco costosi e facili all’uso.. 33.

(34) All’inizio, BELL LABORATORIES e ISTITUTI DI MARKETING SCIENCE, giocano un ruolo importante nel mercato “MAINFRAME SOFTWARE” disponibile in diverse versioni sia per usi industriali che accademici. Con la crescita dei personal computer, il “SAWTOOTH SOFTWARE” di Johnson’s e i “BRETTON- CLARK COMPANIES” di Herman, crearono pc software per usi di business e versioni accademiche affinché attraverso la continua applicazione e ricerca si riuscisse ad acquisire maggior risolutezza e precisione. SAWTOOTH SOFTWARE ha mantenuto i contatti con business ed accademia attraverso nuove lettere, incontri annuali e continui sviluppi di software [SAWTOOTH SOFTWARE, 1999], per implementare nuove metodologie di ricerca, come il CHOICE BASED MODELS. Il forum annuale ADVANCED RESEARCH TECHNIQUES dell’AMERICAN MARKETING ASSOCIATION prevedeva ogni anno un incontro per un fruttuoso scambio di idee tra accademici e praticanti. Dal suo inizio, la C.A. ha sviluppato metodologie sulla base di idee nate da matematici, psicologi, psicometrici, statistici, economi e ricercatori. Queste idee riguardavano la progettazione sperimentale, la stima parametrica, la descrizione dei modelli già costruiti, le normative degli stessi e la valutazione comparata dei validi modelli disponibili. Le conseguenze delle applicazioni pratiche attestarono il valore e la stabilità della C.A. nel tempo. Tutto questo è dovuto all’azione reciproca dei teorici e dei praticanti che collaborarono insieme per migliorare questa importante e preziosa tecnica statistica [Gustaffsson, Hermann and Huber, 2000]. La CONJOINT METHODOLOCY continua a crescere, così come accademici e praticanti imparano utili cose gli uni dagli altri in uno scambio reciproco di dati e valutazioni utili.. 34.

(35) Capitolo 2. CONJOINT ANALYSIS: FULL PROFILE. 2.1 Introduzione L’impiego di metodi statistici per la valutazione e il miglioramento della qualità dei sistemi di produzione di beni e servizi ha visto negli ultimi anni un consolidamento crescente come parte integrante dei sistemi di gestione aziendali. In un mercato sempre più complesso caratterizzato da elevata competitività, alto sviluppo tecnologico, volumi di produzione più elevati, maggiori e più differenziate esigenze individuali dei consumatori, l’orientamento aziendale alla qualità, diventa sempre più una strategia importante per aumentare la produttività e la penetrazione nel mercato, per raggiungere un forte vantaggio competitivo. In tale contesto, il concetto di qualità, da un significato iniziale di conformità del prodotto a specifiche prettamente di tipo tecnico imposte internamente dall’azienda, ha gradatamente assunto un significato più ampio investendo tutti gli aspetti dell’attività aziendale (formazione del personale, progettazione, scelte economiche), fino a coinvolgere aspetti esterni all’azienda quali le esigenze e i bisogni dei clienti, assumendo quindi anche un significato di capacità di soddisfare le aspettative dei consumatori. L’evoluzione del concetto di qualità di un bene o servizio ha posto quindi l’esigenza di affiancare ai metodi tradizionali del controllo statistico della qualità, altre metodologie statistiche tra cui i metodi per la valutazione e l’interpretazione di come i consumatori percepiscano e valutino la qualità di prodotti o servizi indicata con il termine di “customer satisfaction”. Tra i contributi metodologici più innovativi in questo ambito, si situa la Conjoint Analysis (C.A.) finalizzata allo studio dei modelli di scelta dei. 35.

(36) consumatori a partire dai giudizi di preferenza espressi da questi ultimi relativamente a diverse possibili configurazioni dei prodotti o servizi. Le tradizionali procedure di analisi della “customer satisfaction, generalmente, prevedono un’indagine campionaria basata su un questionario in cui ciascuna domanda mira a valutare la soddisfazione del consumatore rispetto ad una specifica caratteristica del prodotto/servizio. A partire da queste valutazioni parziali si procede successivamente in fase di analisi dei dati raccolti alla. stima. della. valutazione. globale. sull’insieme. delle. caratteristiche. del. prodotto/servizio. Al contrario la Conjoint Analysis prevede un’indagine campionaria in cui si sottopongono agli intervistati diversi profili del prodotto/servizio, ovvero diverse versioni di alternative di prodotto, definite in base a diverse combinazioni delle modalità di una serie di caratteristiche rilevanti del prodotto. Compito dei rispondenti è quello di assegnare a ciascun profilo il punteggio “globale” di gradimento o di redigere una graduatoria di preferenza degli stessi. Sulla base del punteggio globale assegnato da ciascun intervistato ai vari profili di prodotto, in fase di analisi dei dati, sono stimate le preferenze “parziali” associate a ciascuna modalità di ogni caratteristica. La C.A. consente, quindi, di affrontare lo studio della soddisfazione e del comportamento di scelta del consumatore con un’ottica in cui si ritiene che il processo di formazione individuale delle preferenze sia di tipo “multiattributo”, ossia il consumatore crea, e quindi esprime, una preferenza sul prodotto considerandolo nella sua interezza cioè dal punto di vista di tutte le sue caratteristiche (attributi) “congiuntamente” considerati. I risultati di un’analisi di C.A. possono essere utilizzati come supporto per lo sviluppo di nuovi prodotti/servizi, o per simulare gli effetti sulle preferenze dei consumatori di cambiamenti di alcune caratteristiche di prodotti già esistenti. L’applicazione della C.A. può inoltre costituire un’integrazione alle tecniche di segmentazione del mercato, consentendo di individuare ad esempio profili dei consumatori che risultano maggiormente sensibili a particolari tipi di offerte di prodotto. In particolare in questo capitolo la procedura che verrà trattata per la raccolta di dati sarà la FULL PROFILE.. 36.

(37) 2.2 I concetti fondamentali e le fasi di un esperimento di Conjoint Analysis Il disegno e l’esecuzione di un esperimento di C.A. si articolano secondo una serie di fasi che partendo dal problema di ricerca possono essere sinteticamente schematizzate nel modo seguente: 1. Definizione dei fattori sperimentali e dei livelli: in questa fase vengono individuate le caratteristiche del prodotto/servizio dette “attributi” o “fattori sperimentali” e per ciascun fattore vengono specificate le modalità o “livelli” di interesse. Le possibili combinazioni di livelli dei fattori definiscono i “profili” del prodotto/servizio che saranno sottoposti agli intervistati. 2. Definizione del piano fattoriale e dei profili di prodotto: sulla base dei fattori e dei livelli individuati al punto precedente viene definito il piano fattoriale che potrà includere solo gli effetti principali dei fattori selezionati (modello additivo) o anche le interazione tra i fattori (modello con interazione). La procedura di C.A. prevede usualmente la realizzazione di uno studio pilota con tutti i fattori su due livelli considerando un piano fattoriale completo che include le interazioni di ogni ordine. Successivamente l’analisi può essere ulteriormente riproposta considerando gli effetti principali veramente influenti sulla risposta sperimentale e le eventuali interazioni significative. Si consideri l’esempio di un’azienda interessata ad effettuare un esperimento di C.A. su un personal computer portatile. Vengono individuati tre attributi o fattori, ciascuno su due livelli.. FATTORE A. FATTORE B. FATTORE C. LIVELLO 1: 1,5 Kg LIVELLO 2: 2 Kg LIVELLO 1: 2 ore LIVELLO 2: 4 ore LIVELLO 1: 1000 EURO LIVELLO 2: 2000 EURO. 37.

(38) Indicando i livelli bassi e i livelli alti dei tre fattori rispettivamente con “-“ e “+”, si può illustrare graficamente il piano fattoriale che è del tipo 23 ipotizzando di essere interessati ai soli effetti principali dei tre fattori:. FATTORI PROFILI. A. B. C. 1) a b c. +. +. +. 2) a b. +. +. -. 3) a c. +. -. +. 4) a. +. -. -. 5) b c. -. +. +. 6) b. -. +. -. 7) c. -. -. +. 8) (1). -. -. -. Ogni riga della matrice del piano definisce un “profilo”, ossia una combinazione dei livelli dei fattori selezionati (chiamato anche cartellino). In corrispondenza del piano 23, risultano definiti otto profili, dove ciascun profilo è stato indicato nella figura con lettere minuscole in modo tale che se una lettera compare, allora il corrispondente valore è presente in quel profilo al valore alto, se è assente il fattore è presente al livello basso. Il profilo in cui tutti i fattori sono presenti al livello basso è indicato con (1). Ciascun profilo corrisponde ad una diversa configurazione del prodotto. Ad esempio il profilo “3) a c” corrisponde ad un personal computer portatile con peso pari a 2 Kg, con durata di batteria pari a 2 ore e di costo pari a 2000 EURO. In generale dati k fattori, ciascuno caratterizzato da p1, p2,……pk livelli, il numero totale di profili del prodotto sarà pari a M =. pk.. 3. Definizione della modalità di presentazione dei profili agli intervistati: i profili, definiti al punto 2), sono sottoposti al giudizio di un campione di rispondenti detti anche “valutatori”. La somministrazione dei profili ai rispondenti può essere effettuata in diverso modo. In particolare si parla di TRADITIONAL CONJOINT ANALYSIS o FULL PROFILE CONJOINT. 38.

(39) ANALYSIS quando ai valutatori sono sottoposti tutti i profili completi delle varie configurazioni del prodotto sotto forma generalmente di cartellini. Riprendendo l’esempio precedente, i cartellini possono essere rappresentati così:. CARTELLINO 1 PESO: 2 Kg DURATA: 4 ore PREZZO: 2000 EURO. CARTELLINO 8 PESO: 1 Kg DURATA: 2 ore PREZZO: 1000 EURO. I rispondenti daranno un giudizio in forma di punteggio o graduatoria relativamente all’insieme completo dei profili. Si parla invece di ADAPTIVE CONJOINT ANALYSIS quando, a differenza dell’approccio tradizionale, nella presentazione a coppie di profili successivi ai rispondenti, si tiene conto delle preferenze precedentemente ottenute, “adattando” di conseguenza i confronti successivi. Nel seguito della trattazione si farà riferimento alla tipologia FULL PROFILE della CONJOINT ANALYSIS. 4. Definizione della risposta sperimentale: la preferenza dei rispondenti sui vari profili può essere espressa mediante punteggio (rating) su una scala metrica, ad esempio da 1 a 10, oppure mediante graduatoria di preferenza dei profili (ranking). Nel primo caso la variabile risposta è considerata continua in quanto rappresenta il punteggio espresso su scala metrica e si parla quindi di Conjoint Analysis ”Metrica”; nel secondo caso la variabile risposta è di tipo ordinale in. 39.

(40) quanto rappresenta la posizione di graduatoria e si parla di Conjoint Analysis “Non Metrica”. Nel seguito si farà riferimento alla C.A. Metrica. 5. Stima delle preferenze parziali dei livelli dei fattori e dell’importanza relativa di ciascun fattore: dopo aver somministrato i profili di prodotto alle unità sperimentali (soggetti rispondenti), vengono stimate le preferenze parziali di ciascun livello dei fattori del prodotto ed una misura dell’importanza di ciascun fattore per ogni rispondente. Nella C.A. Metrica la stima può avvenire ipotizzando per la variabile risposta un modello di regressione lineare multipla, e stimando i parametri di tale modello con il metodo dei minimi quadrati. 6. Verifica di ipotesi sugli effetti dei fattori del prodotto/servizio: l’ultima fase della C.A. è relativa ai metodi di determinazione degli effetti maggiormente influenti sulla risposta sperimentale. Le procedure utilizzate in questa fase possono essere classificate principalmente secondo due diverse tipologie: •. Nel caso in cui il piano sperimentale che ha prodotto l’indagine di C.A. sia di tipo non replicato (ovvero nel caso di un singolo rispondente o nel caso di aggregazione di giudizi di preferenza tramite la preferenza media) non essendovi gradi di libertà nella stima della varianza dell’errore sperimentale non è possibile condurre test di tipo parametrico. Quindi un metodo proposto in letteratura è quello introdotto da Daniel nel 1959 denominato NORMAL PROBABILITY PLOT che è un metodo grafico per la determinazione degli effetti che si discostano in modo sufficientemente “evidente” dal grafico di una distribuzione normale di media nulla. Tale approccio verrà delineato successivamente.. •. Nel caso in cui il piano sperimentale sia di tipo replicato, ovvero i rispondenti. possono. essere. ragionevolmente. identificati. come. appartenenti ad un gruppo omogeneo dal punto di vista delle variabili confondenti che potrebbero influire sul giudizio di preferenza, si può adattare la usuale procedura di ANALISI DELLA VARIANZA per piani di tipo multifattoriale.. 40.

(41) 2.3 Specificazione e stima del modello di utilità individuale La C.A. pone in corrispondenza biunivoca il concetto di “preferenza” con quello di “utilità”, nel senso che il profilo di prodotto preferito è anche quello dal quale il rispondente ricava maggiore utilità. La “preferenza utilità” di un acquirente è considerata funzione delle modalità (livelli) degli attributi (fattori) rilevanti del prodotto/servizio in studio. Tale funzione viene detta “funzione di utilità individuale”. Tra i vari modelli di utilità individuale proposti in letteratura vi è il modello “additivo a coefficienti separati” secondo il quale l’utilità “globale” di un generico profilo di prodotto è data dalla somma delle utilità “parziali” di ogni livello dei diversi attributi che definiscono il prodotto. Dati k fattori, ciascuno caratterizzato da p1, p2, ……., pk livelli, sia M =. K=1…k. pk il. numero dei profili del prodotto. Per ciascun profilo costruiamo una variabile binaria come segue:. 1 se il profilo m presenta l’attributo k con livello p dmkp 0 altrimenti. dove m indica il generico profilo, con m = 1,…….,M; k indica il generico fattore, con k = 1,…….,K; p indica il generico livello del fattore k, con p = 1,…….,Pk. La funzione di utilità globale per il profilo m, con riferimento ad un generico rispondente, si può esprimere secondo il seguente modello:. (1). Ym =. k=1. p=1 w kp dmkp. + e m m = 1,……., M. dove wkp è un coefficiente che esprime l’importanza attribuita da un generico individuo al fattore k considerato al livello p. Tale coefficiente viene detto “utilità parziale” o “part worth”. L’ insieme dei coefficienti wkp, con p = 1,……,Pk, k = 1,……., K,. 41.

(42) rappresenta quindi il sistema individuale di preferenze per il profilo m. Le componenti casuali em, m = 1,….,M, rappresentano le componenti di errore del modello, dovute all’eventuale influenza di fattori noti o non noti non controllati in sede di esperimento, che possono influire sulla preferenza Ym espressa dal generico rispondente sul profilo m. Le componenti casuali em sono poste indipendenti ed identicamente distribuite con 2. media nulla e varianza costante. . Il modello di utilità individuale si configura quindi. come un modello di regressione lineare multipla con covariate dmkp binarie. Si asserisce che nel modello (1) non siano presenti termini di interazione corrispondenti a combinazioni di livelli; è possibile comunque prevedere modelli che comprendono anche le interazioni. Si può esprimere il modello (1) in forma matriciale nel modo seguente: E(e) = 0 Y = ZW + e. (2) Var/ cov (e) =. 2. Im. con Im: matrice indentità. Dove Y è il vettore colonna m x 1 dei punteggi di valutazione osservati per un dato rispondente; Z è la matrice m x P, dove P =. k=1. Pk è il numero totale dei livelli dei. fattori, la matrice 2 è la matrice delle variabili binarie dmkp; W è il vettore colonna Px1 dei coefficienti incogniti che rappresentano le utilità parziali ed e è il vettore colonna mx1 degli errori em. Tornando all’esempio introdotto precedentemente e considerando i punteggi di preferenza espressi da un dato rispondente il modello (2) sarà del tipo:. y1 = 5,2. 10. 10. 10. y2 = 7,3. 10. 10. 01. y3. 10. 01. 10. 10. 01. 01. 01. 10. 10. y6. 01. 10. 01. y7. 01. 01. 10. y8 = 5,7. 01. 01. 01. y4 y5. =. 42. e1. w11. e2. w12. e3. w21 x w22 w31 w32. +. e4 e5 e6 e7 e8.

(43) La stima dei coefficienti incogniti W può essere ottenuta applicando il metodo dei minimi quadrati ordinari. Risultando però Z una matrice singolare, per poter ottenere le soluzioni ai minimi quadrati si deve porre una condizione complementare che può consistere ad esempio nel sopprimere, con scelta arbitraria, una colonna in ciascun blocco di variabili binarie della matrice Z, ponendo di conseguenza pari a 0 il coefficiente corrispondente. Nella matrice Z viene quindi soppresso un numero di colonne pari al numero di fattori. Tornando all’esempio precedente i modello diventa:. y1= 5,2. 1 1 1. e1. y2 = 7,3. 1 1 0. e2. y3. 1 0 1. y4 y5. =. 1 0 0 0 1 1. w11 x w21 + w31. e3 e4 e5. y6. 0 1 0. e6. y7. 0 0 1. e7. y8 = 5,7. 0 0 0. e8. Verranno quindi stimati i coefficienti w11, w21, w31, mentre sono pari a zero i coefficienti w12, w22, w32. In generale quindi con tale operazione il modello di regressione diventa: Y = Z0 W0 + e dove Y è il vettore colonna mx1; Z0 è la nuova matrice non singolare m x (P-K); W0 è il vettore colonna dei coefficienti (P – K) x 1 ed e è il vettore colonna degli errori mx1. Il vettore delle stime dei coefficienti incogniti secondo il metodo dei minimi quadrati sarà:. W0 = ( Z0’ Z0) -1 Z 0’ Y. 43.

(44) Si osservi che il modello (2) di utilità individuale è stimato per ciascun rispondente. Gli elementi della matrice Z0 sono fissi per ciascun rispondente mentre varierà il vettore Y dei punteggi di valutazione. Per ciascun rispondente verrà quindi stimato il vettore W0 delle utilità parziali di ciascun livello dei diversi fattori. Tornando all’esempio precedente si suppone che per un dato rispondente siano state stimate le seguenti utilità parziali per il fattore peso:. FATTORE LIVELLI COEFFICIENTE DI UTILITA’ PARZIALE PESO. 1 Kg. 2,37. 2 Kg. 0,00. Si osservi che avendo soppresso nella matrice Z l’ultimo livello dei vari fattori, questo rappresenta il livello di riferimento rispetto al quale sono misurati gli effetti dei restanti livelli. Si possono rappresentare graficamente i coefficienti di utilità parziale stimati per un rispondente nel modo seguente:. 2,5 2 1,5 coeff. Utilità parziale 1 0,5 0 I liv. Peso. II liv. Peso. Nelle applicazioni di C.A. è inoltre consuetudine valutare l’importanza relativa dei fattori (allo scopo di rendere comparabili le utilità parziali e di pervenire a valori di importanza dei fattori compresi tra 0 e 1) mediante il seguente indice:. Irk =. k/ k=1. k. k = 1,……..,K. 44.

(45) dove. k. è la differenza (campo di variazione) tra l’utilità. del fattore k. L’indice Irk è tale che 0<=Irk<=1. L’importanza di un fattore è indicata quindi dalla capacità del fattore di determinare il maggior effetto differenziale nelle utilità parziali.. 2.4 Analisi grafica dell’influenza degli effetti dei fattori sulla preferenza dei rispondenti Si è visto precedentemente che il modello di utilità individuale è stimato per ciascun rispondente dando quindi luogo ai vettori W0 delle utilità parziali dei livelli dei vari fattori inclusi nell’esperimento quanti sono i rispondenti. Si suppone che sia d’interesse, in particolare, una valutazione degli effetti dei vari fattori sui giudizi medi espressi dai rispondenti. Si riprende l’esempio introdotto precedentemente e si considera oltre agli effetti principali dei tre fattori A, B, C anche le interazioni fino all’ordine massimo, per cui la matrice del piano fattoriale completo 23 è del tipo:. FATTORI PROFILI A B C AB AC BC ABC 1) a b c. +. +. +. +. +. +. +. 2) a b. +. +. -. +. -. -. -. 3) a c. +. -. +. -. +. -. -. 4) a. +. -. -. -. -. +. +. 5) b c. -. +. +. -. -. +. -. 6) b. -. +. -. -. +. -. +. 7) c. -. -. +. +. -. -. +. 8) (1). -. -. -. +. +. +. -. 45.

(46) Si suppone di aver aggregato i rispondenti secondo la media dei punteggi di preferenza rispetto a ciascun profilo di risposta per cui il vettore Y ora contiene le medie di tali punteggi. y1 y2 y3 y4. Y y5 y6 y7 y8. Si ipotizza ora di aver stimato le utilità parziali di ciascun livello di ciascun fattore considerando come risposta i punteggi medi dei rispondenti, seguendo la procedura descritta precedentemente. L’interesse a questo punto è di valutare l’influenza dei fattori A, B e C e delle interazioni di tali fattori sui giudizi medi dei profili di prodotto espressi da tutti i rispondenti. Non essendovi gradi di libertà per la stima della varianza dell’errore e dato che la matrice dei profili è non replicata, è possibile evidenziare in modo grafico se un effetto influenzerà o meno la risposta sulla base della sua distanza dalla linea retta ideale tracciata sul NORMAL PROBABILITY PLOT. Dopo aver quindi stimato gli effetti dei fattori e delle interazioni si procede con la costruzione di un grafico probabilistico delle stime degli effetti. Se nessuno influenza la risposta, le stime si comportano come componenti casuali estratte da una distribuzione normale con media nulla, e gli effetti riportati nel grafico giaceranno approssimativamente su di una linea retta. Per disegnare il Normal Probability Plot si ordinano in senso crescente i 7 effetti dei fattori e delle interazioni che rappresentano le ascisse del grafico e si calcolano in corrispondenza i valori delle ordinate dati da:. Pi = 100 (i-1/2)/7 per i= 1,…..,7. 46.

(47) Pi B. 10 0. AB. 90 80. C. AC 70 60. BC B. EFFETTI. Dall’ipotetico grafico sopra riportato si può evincere che A è l’unico fattore che sembra influenzare la variabile risposta.. 2.5 Verifica di ipotesi sugli effetti degli attributi mediante Anova Si suppone ora che i rispondenti siano stati preventivamente raggruppati in modo da costituire dei gruppi omogenei mediante ad esempio tecniche di CLUSTER ANALYSIS. In tale situazione è possibile considerare i singoli rispondenti di ogni gruppo omogeneo come replicazioni. Quindi ad ogni singolo profilo di risposta è possibile attribuire una numerosità nm di unità sperimentali (soggetti rispondenti) con m = 1,…..,M, possibilmente bilanciata, ovvero nm = n per ogni profilo. Per esemplificare si considera il caso di un esperimento 22 replicato 2 volte (due rispondenti). La matrice dei profili e il vettore delle risposte sono i seguenti:. 47.

(48) FATTORI. RISPOSTA. A B AB. YMJ. +. +. +. y11. +. +. +. y12. +. -. -. y21. +. -. -. y22. -. +. -. y31. -. +. -. y32. -. -. +. y41. -. -. +. y42. dove m indicizza il numero dei profili m = 1,…..,4 e j indicizza le repliche, j = 1, ….., nm e nel caso specifico j = 1,2. La corrispondente matrice 2 di variabili binarie per la stima delle utilità parziali dei singoli livelli dei fattori e delle combinazioni di livelli sarà quindi:. Z. 1 0. 1 0. 1 0. 1 0. 1 0. 1 0. 1 0. 0 1. 0 1. 1 0. 0 1. 0 1. = 0 1. 1 0. 0 1. 0 1. 1 0. 0 1. 0 1. 0 1. 1 0. 0 1. 0 1. 1 0. A. B. AB. Da qui si può procedere secondo la procedura descritta precedentemente per stimare le utilità parziali dei singoli livelli e delle interazioni e per calcolare l’indice Irk di importanza relativa dei vari fattori.. 48.

(49) Nel caso in cui si facciano delle replicazioni dei profili di prodotto, si può inoltre interpretare le ymj secondo un modello di ANOVA multifattoriale. Nel caso specifico dell’esempio le ymj possono essere espresse secondo un modello ANOVA a due vie: Yilj = µ +. i. i = 1,….., a;. + j+ (. )ij + Eilj. l = 1,2,…..,b;. j = 1,2,…..,n. dove i indicizza i numero di livelli del fattore A, l indicizza il numero di livelli del fattore B e j il numero di replicazioni. Mediante l’applicazione dell’analisi della varianza sul modello ANOVA a due vie si può verificare tramite i test F parametrici se gli effetti dei fattori A e B e dalla loro intererazione influenzino in modo significativo le risposte sperimentali. L’analisi della varianza per la verifica d’ipotesi sugli effetti dei fattori e dell’interazione è schematizzata nella tabella seguente:. SOMMA. FONTE DI VARIABILITA A. DEI QUADRATI SSA. B. SSB. AB. SSAB. ERRORE. SSE. TOTALE. SST. G.d.l.. MEDIE DEI. a-1. QUADRATI. TEST F. b-1. MSA= SSA/(a-1). FOA= MSA/MSE. (a-1) (b- MSB= SSB/(b-1). FOB= MSB/MSE. 1). MSAB=SSAB(a-1)(b-. FOAB=. ab(n-1). 1). MSAB/MSE. abn-1. MSE =SSE/ab(n-1). Dove SSA è la devianza del fattore A e SSE è la devianza dell’errore. Ad esempio per verificare il seguente sistema di ipotesi: Mo =. 1=. M1 =. i. 2. =………=. o=. 0. 0 per almeno un i. il rapporto FOA = MSA/MSE si distribuisce sotto l’ipotesi nulla come una Fa-1; centrale.. 49. ab(n-1).

(50) Se il valore asservato di FOA calcolato per la componente osservata Foss è tale che Foss > Fa-1,(ab(n-1); 1si rifiuterà M0 al livello di significatività . Il grafico seguente mostra l’individuazione della regione critica del test.. Regione del test. 1-. Fa-1, ab(n-1); 1-. Similmente si deriva una verifica d’ipotesi per FOB e FOAB.. 2.6 L’Uso di piani fattoriali nella Conjoint Analysis Quando il numero dei fattori o il numero dei livelli aumenta, aumenta anche il numero dei profili da sottoporre ai rispondenti. Se ad esempio si hanno cinque fattori su due livelli oppure tre fattori con rispettivamente 2, 3 e 4 livelli, nel primo caso si avrà un numero di profili pari a 32, nel secondo caso 24, rendendo difficoltosa la somministrazione di tutti i profili. Per ovviare a tale inconveniente occorre fare riferimento alle tecniche di riduzione del piano sperimentale, sviluppate nell’ambito della pianificazione degli esperimenti. In particolare, nel seguito, si considera il caso in cui si voglia condurre uno studio pilota con fattori su due livelli dove il numero dei fattori è pari a 3 o a 4.. 50.

(51) Se ad esempio il numero dei fattori è pari a 4, per realizzare un piano fattoriale completo che consenta la stima anche di tutte le interazioni fino a quelle di ordine massimo, bisogna disporre di un numero di profili pari a 16. Un così alto numero di profili può rendere difficile la realizzazione pratica dell’esperimento di C.A., in quanto il rispondente potrebbe fornire giudizi di preferenza per lui significative in tanti profili ed inoltre l’indagine potrebbe essere troppo lunga e stancante per il rispondente. Si consideri il seguente piano fattoriale 23:. PROFILI. EFFETTI FATTORIALI A B C AB AC BC ABC. abc. +. +. +. +. +. +. +. ab. +. +. -. +. -. -. -. ac. +. -. +. -. +. -. -. a. +. -. -. -. +. +. +. bc. -. +. +. -. -. +. -. b. -. +. -. -. +. -. +. c. -. -. +. +. +. -. +. (1). -. -. -. +. +. +. -. dove ciascuna prova è indicata con lettera minuscola: se una lettera è presente, allora il corrispondente fattore è fissato al valore più alto se è assente, il fattore è presente al livello basso. La prova con tutti i fattori a livello basso è indicata con (1). In generale una frazione, ½ di un piano 2k contiene 2k-1prove e viene chiamato piano fattoriale frazionario 2k-1. Ad esempio si considera il piano 23-1, cioè la frazione ½ del piano 23. Si suppone di scegliere le quattro prove a, b, c, abc come frazione ½ del piano 23. Si selezionano le prove che forniscono un segno positivo per l’effetto ABC. Dunque ABC è detto generatore di questa particolare frazione. Considerando I = ABC relazione di definizione del piano ed indicando in generale con lA la stima dell’effetto del fattore A, si può dimostrare che lA= lBC , lB = lAC , lC = lAB. Conseguentemente non si può differenziare tra A e BC, B e AC e C e AB. Due o più effetti che hanno questa proprietà si dicono “alias”. Nel piano considerato 23-1, A e BC, B e AC, C e AB sono alias.. 51.

(52) In molte situazioni pratiche, sarà possibile scegliere la frazione in modo tale che gli effetti principali e le interazioni di basso ordine siano alias d’interazioni di ordine alto (che saranno presumibilmente trascurabili). La struttura degli alias di questo piano, si determina a partire dalla relazione di definizione I = ABC. Moltiplicando ogni effetto per la relazione di definizione, si determinano gli alias di quell’effetto. Ad esempio l’alias di A è: A = A x ABC = A2BC = BC Si noti che A2= I e quindi A2BC restituisce la colonna BC. Si consideri ora una frazione ½ del piano 24 e si supponga di utilizzare il piano 2 4-1 con I = ABCD per analizzare i 4 fattori A, B, C, D. In questo piano gli effetti principali sono alias di interazioni fra i tre fattori: A x I = A x ABCD A = A2BCD A = BCD Analogamente: B = ACD C = ABD D = ABD. Le interazioni fra due fattori sono alias fra di loro: AB = CD AC = BD AD = BC. Quindi in questo piano i fattori principali sono stimabili in modo non distorto se si assume che l’effetto delle interazioni di ordine tre è trascurabile, mentre gli effetti delle interazioni di ordine due non saranno stimabili in modo non distorto poichè le interazioni sono confuse a coppie. Supponendo quindi di dover condurre un esperimento di C.A. con quattro fattori principali su due livelli, se è possibile ipotizzare che l’effetto delle interazioni di ordine superiore o uguale al terzo sia trascurabile, si possono ottenere le stime delle utilità parziali dei livelli dei fattori, applicando un piano frazionato 24-1 con relazione definente. 52.

Riferimenti

Documenti correlati

perpendicolari fra loro ma obliqui, quindi non sono più indipendenti ma correlati e la somma totale delle varianze non corrisponderà più al numero totale delle variabili di

SELEZIONE PER ESAMI PER LA FORMAZIONE DI UNA GRADUATORIA FINALIZZATA ALL'ASSUNZIONE A TEMPO DETERMINATO DI AGENTI DI POLIZIA LOCALE CAT. C A CARATTERE STAGIONALE-. RISERVA EL 20%

Model results indicate that the pre-rift rheological layering of the continental lithosphere (in particular, the thickness of brittle and ductile layers) and the amount of

Relationships between Oxidative Stress, Inflammation, Neurodegeneration, and Vascular Damage As discussed above, nutraceuticals display neuroprotective effects due to their

In questo caso sarà necessario specificare un protocollo con il quale il server Web possa attivare il processo richiesto, possa passare eventuali parametri necessari a quel processo

Charge exchange processes produce exosphere losses, since thermal gas is ionized while ions at higher energy with respect to neutral gas are neutralized and mostly lost

Moreover, we find that the O2 exosphere comprises two different regions: the first one is an homogeneous, relatively dense, thermal-O2 region extending to some 100s of km above

del problema di progettare un meccanismo di aggregazione delle preferenze, al variare del numero delle variabili del sistema vincolato per le istanze con 2 agenti.. 76 5.12 Il