• Non ci sono risultati.

L'impatto di nuove tecnologie nella realizzazione di indagini sul campo: l'uso del palmare in una rilevazione a Terricciola

N/A
N/A
Protected

Academic year: 2021

Condividi "L'impatto di nuove tecnologie nella realizzazione di indagini sul campo: l'uso del palmare in una rilevazione a Terricciola"

Copied!
169
0
0

Testo completo

(1)

L’impatto di nuove tecnologie nelle

L’impatto di nuove tecnologie nelle

L’impatto di nuove tecnologie nelle

L’impatto di nuove tecnologie nelle

indagini sul campo: l’uso del palmare in

indagini sul campo: l’uso del palmare in

indagini sul campo: l’uso del palmare in

indagini sul campo: l’uso del palmare in

una rilevazione a Terricciola

una rilevazione a Terricciola

una rilevazione a Terricciola

una rilevazione a Terricciola

(2)

Indice

Indice

Indice

Indice

INTRODUZIONE ...4

1.1.INDAGINI DIRETTE FACE-TO-FACE: STORIA E SVILUPPI. ...7

1.1.1 La storia delle social survey ... 7

1.1.2 Gli strumenti di rilevazione: il questionario... 10

1.1.3 Tecniche dell’intervista ... 14

1.2LE INDAGINI IN SITUAZIONI “ESTREME”...18

1.3.DALLA METODOLOGIA ALL’INDAGINE CONCRETA...19

1.4CAMPIONAMENTO: POPOLAZIONE FINITA ELENCABILE E POPOLAZIONE FINITA NON ELENCABILE...26

1.5IL QUESTIONARIO...29

1.6GESTIONE DEI DATI...34

CAPITOLO II: ...38

2.1L’IMPATTO DELLE NUOVE TECNOLOGIE NELLE SOCIAL SURVEY...38

2.1.1 Gli strumenti ... 38

2.1.2 Codifica e preparazione dei dati ... 40

2.1.3 Gli effetti dei metodi CASIC sulle performance delle survey... 41

2.1.4 Il data editing... 43

2.2IL PALMARE: DESCRIZIONE DELLO STRUMENTO...43

2.3UTILIZZO DEL PALMARE COME AUSILIO ALL’INTERVISTA FACE- TO-FACE...46

CAPITOLO III: L’INDAGINE A TERRICCIOLA...49

3.1FINALITÀ SPECIFICHE: INDAGINI DIRETTE SUL TURISMO ENOGASTRONOMICO E CULTURALE. 49 3.2LA PROGETTAZIONE DELL’INDAGINE A TERRICCIOLA. ...51

3.2.2 Il questionario utilizzato a Terricciola ... 56

3.3SCELTA DEL SOFTWARE...60

3.3.1 Software Q&A e trasferimento dei dati ... 62

3.4ADDESTRAMENTO DEGLI INTERVISTATORI...66

3.5LO SVOLGIMENTO DELLA RILEVAZIONE. ...70

3.5.1 Lo svolgimento dell’indagine... 74

3.5.2 Criticità... 74

3.5.3 Differenze col piano delle interviste. ... 75

CAPITOLO IV: RISULTATI DELL’INDAGINE ...81

4.1 GESTIONE E CODIFICA DEI DATI RACCOLTI...81

4.2INTRODUZIONE AI RISULTATI DELL’INDAGINE...85

4.3RISULTATI PRINCIPALI...85

4.3.1 Persone intervistate e persone raggiunte. ... 86

4.3.2 Modalità di conoscenza dell’evento... 87

4.3.3 Forme di intrattenimento. ... 89

4.3.4 Propensione all’acquisto. ... 90

4.3.5 Caratteristiche della Festa ... 94

CAPITOLO V: RISULTATI SPECIFICI SULL’USO DEGLI STRUMENTI INFORMATICI96 5.1DIFFUSIONE DEGLI STRUMENTI INFORMATICI. ...96

5.1.1 Uso del Computer ... 97

5.1.2 Uso del palmare... 101

(3)

6.1DIFFERENZA DEI RISULTATI OTTENUTI COL LAPTOP E COL PALMARE...105

6.2DIFFERENZE TRA INTERVISTATORI. ...113

6.2.1 Interazione tra intervistatore e strumento ... 119

CAPITOLO VII: ANALISI DELL’APPLICABILITÀ DEL PALMARE NELLE INTERVISTE FACE-TO-FACE ...123

CAPITOLO VIII: CONCLUSIONI...126

APPENDICE APPENDICE APPENDICE APPENDICE... 129

1.QUESTIONARI...130

2.CONFRONTO DELLE TRE VERSIONI DEL QUESTIONARIO...138

3.DOMANDE DI USCITA DEL QUESTIONARIO...140

4.ATTRIBUZIONE DI ETICHETTE NUMERICHE IN SAS ...141

5.TABELLA PER “FORME DI INTRATTENIMENTO PREFERITE” CON VOCI AGGREGATE...143

6.TABELLE PER “CARATTERISTICHE DELLA FESTA” CON VOCI AGGREGATE...144

7.TEST T PER DIFFERENZE DI TEMPO DIFFERENZIATE PER ETÀ E RESIDENZA...147

8.TABELLA DECILI...155

9.PROGRAMMA SAS PER RISULTATI PRINCIPALI...156

10PROGRAMMA SAS PER DIFFUSIONE STRUMENTI INFORMATICI...159

11.PROGRAMMA SAS PER IL CONFRONTO TRA I DUE METODI...161

12.VOLANTINI...163

BIBLIOGRAFIA BIBLIOGRAFIA BIBLIOGRAFIA BIBLIOGRAFIA ... 167

(4)

Introduzione

Il presente lavoro tratta di alcuni aspetti di una indagine sul campo svolta nel Comune di Terricciola (provincia di Pisa) in occasione della quarantatreesima edizione della Festa dell’Uva e del Vino.

L’indagine è stata commissionata dal Comune stesso ad un gruppo di ricerca facente capo alla prof. Maria Francesca Romano con la finalità di reperire informazioni che dessero indicazioni utili all’ottimizzazione della pianificazione e dell’organizzazione della Festa e alla promozione del territorio in generale.

La scrivente ha fatto parte del gruppo di ricerca col ruolo di intervistatore, e l’interesse suscitato dalla metodologia proposta e dalla nuova immissione dei dati delle interviste tramite computer palmare, oltre che con laptop, ha condotto alla decisione di fare dell’indagine l’oggetto di discussione della tesi di laurea specialistica.

Lo studio del territorio e della sua promozione culturale e turistica sono già di per sé delle relative novità, delle metodologie strutturate in tempi recenti. Nel presente caso inoltre la scelta del palmare come strumento di raccolta dei dati arricchisce in modo assolutamente innovativo la metodologia di rilevazione e di indagine.

Il gruppo di ricerca, dato il carattere sperimentale dell’uso dello strumento, ha inserito nel questionario alcune domande che prescindono dalla Festa vera e propria; si è voluto infatti sondare anche la diffusione degli strumenti informatici presso la popolazione indagata.

L’elaborato qui presentato si propone quindi un duplice obiettivo: in primo luogo analizzare i principali dati raccolti inerenti alla Festa al fine di inquadrare il profilo del turista enogastronomico che frequenta o può potenzialmente

(5)

frequentare la manifestazione di Terricciola – non tralasciando d’altronde l’analisi dei dati relativi alla diffusione della tecnologia; in secondo luogo, da un punto di vista più specificamente metodologico, si è voluto verificare l’impatto del nuovo strumento nella fase si rilevazione (sia ad un livello di impressione sugli intervistati, sia rapportando i dati ottenuti tramite palmare con quelli ottenuti tramite laptop).

La trattazione dell’argomento si snoda principalmente nei seguenti otto capitoli.

Nel capitolo I, di natura introduttiva, è presa in esame la letteratura e la storia inerente alle indagini dirette face-to-face: la nascita, gli sviluppi, i punti di forza e debolezza, lo stato dell’arte. Sono poi illustrate le fasi di implementazione dell’indagine e le possibili scelte relative al campionamento, la costruzione del questionari, la codifica e la gestione dei dati.

Si procede nel capito II con la descrizione delle nuove tecnologie nelle indagini, in particolare per quanto riguarda l’utilizzo del palmare.

Nel capitolo III è illustrata l’indagine svolta, in tutte le sue fasi: l’addestramento (cui la stessa scrivente ha partecipato), la scelta del software con cui si è lavorato per la raccolta dei dati, la discussione sul questionario utilizzato, la descrizione dell’ambiente dell’intervista e il momento della rilevazione .

Alcune tabelle che illustrano i principali risultati ottenuti sono riportate nel capitolo IV; le elaborazioni statistiche sono state effettuate tramite il pacchetto SAS. Tra i esposti ci sono quelli che riguardano in specifico l’oggetto della ricerca: quante persone sono state intervistate, come hanno saputo della Festa, quali forme di intrattenimento preferiscono, l’orientamento rispetto all’acquisto dei prodotti proposti, e quali sono le caratteristiche che riconoscono alla Festa.

Il capitolo V tratta della diffusione degli strumenti informatici nella popolazione intervistata, mentre nel capitolo VI si analizzano i dati ottenuti con i

(6)

due strumenti per fare un confronto – con annessa analisi di eventuali differenze di performance tra gli intervistatori al fine di calcolare il tempo medio dell’intervista.

Nel capitolo VII si osserva con l’ausilio di alcuni dati l’applicabilità del palmare nell’indagine svolta-

Col capitolo VIII si giunge infine alle conclusioni, dove si illustrano i principali vantaggi che derivano dall’uso del palmare nelle indagini con interviste face-to-face.

L’indagine svolta a Terricciola offre un contributo significativo tanto per gli spunti metodologici quanto per i risultati ottenuti dalla rilevazione effettuata.

(7)

Capitolo I: Le indagini in campo sociale

.

1.1. Indagini dirette face-to-face: storia e sviluppi.

1.1.1 La storia delle social survey

La necessità di indagare i fenomeni sociali emerge in contemporanea con la presa di coscienza circa i problemi che si andarono a creare all’indomani della Rivoluzione Industriale (che, lo ricordiamo, parte dalla seconda metà del XVIII secolo).

E’ quindi l’Inghilterra che per prima si trova a dover fronteggiare una serie di questioni riguardanti le problematiche della popolazione, tali per cui non era possibile prescindere da una conoscenza più diretta della stessa; è qui che si assiste dunque, nel XIX secolo, alla nascita della social survey1, che nel suo significato originario2 è appunto un’indagine a sfondo sociale interessata in generale alle condizioni di vita e alle aspettative della popolazione.

Lo sviluppo della social survey è lento, e solo per tentativi, proposte, intuizioni, interrelazioni tra studiosi, si riescono ad affinare sempre più metodologie di ricerca, tecniche, strumenti. Per quanto riguarda l’osservazione e gli strumenti in particolare, si passa molto gradualmente da contatti informali con singoli individui e famiglie e gruppi, a strumenti sempre più ragionati e specifici che garantiscono una maggiore affidabilità. Inoltre i primi tentativi di indagine sociale erano più che altro basati sull’analisi di dati secondari già esistenti provenienti da censimenti svolti da diversi enti (enti amministrativi, parrocchie,

1 In realtà la social survey è un filone di ricerche più rigoroso nato in seno alla social investigation, una serie di iniziative di ricerca sviluppatesi intorno al 1700.

2 “Recentemente social survey si riferisce in termini più circoscritti ad indagini su comportamenti attesi e problemi della popolazione, a livello nazionale o di specifiche aree, specie in riferimento ai valori, agli stili di vita, alle aspettative e soprattutto in materia di consumi culturali e uso del tempo libero.” Guala, Metodi della ricerca sociale, Carrocci editore 2000.

(8)

liste della leva militare per citarne solo alcuni). Solo in un secondo tempo prende piede l’osservazione diretta dei fenomeni e la raccolta dei dati tramite intervista, realizzando così un vero e proprio contatto diretto che permette finalmente di disporre di dati di prima mano.

Secondo uno dei testi più eminenti di storia della metodologia delle scienze sociali, The Social Survey in Historical Perspective 1880-1940,3 il celeberrimo lavoro di Bulmer e dei suoi collaboratori, la social survey può essere divisa in quattro fondamentali periodi (a partire dal XVII secolo): political arithmetic, statistical movement, meliorism and social reform, empirical research.

La political arithmetic, definizione coniata da William Petty4, ha corso intorno alla metà del 1600, ed è appunto in questa fase che hanno luogo i primissimi tentativi di censimento e di analisi dei dati demografici. È questa una fase caratterizzata da molte e diverse difficoltà poiché si è in piena sperimentazione di quella che sarà una nuova scienza; per il momento però i dati a disposizione sono sempre aggregati, praticamente mai congruenti e raffrontabili, e quindi pongono molte difficoltà per l’elaborazione. Tuttavia il carattere pionieristico non impedisce importanti passi in avanti e la formulazione di interessanti modi di procedere, come ad esempio quello della creazione di mappe sociali, dove i risultati delle ricerche, i dati raccolti, vengono rappresentati graficamente secondo un principio geografico (modalità tra l’altro che verrà sviluppata con successo dalla Scuola di Chigago). Questo primo periodo culmina con la pubblicazione nel 1798 dell’opera di Malthus Essay on Population5.

3 M. Bulmer, K. Bales, K.Kish Sklar, The Social Survey in Historical Perspective 1880-1940, Cambrige University Press 1991

4 Coautore insieme a John Graunt di Natural and Political Observation on the Bills of Mortality, 1662 –il primo studio sulle tabelle della mortalità . Graunt in particolare enunciò la teoria dell'uniformità e prevedibilità dei fenomeni biologici (regolarità numerica dei decessi e delle nascite, del rapporto fra maschi e femmine, ecc.). Con l’'opera Natural and political observations made upon the bills of mortality, che è la prima analisi statistica dei dati sociali e medici, si può dire che sia stata creata la scienza demografica. Graunt. nel determinare la popolazione di Dublino, di Londra e di Parigi, traccia una prima tavola di mortalità.

5

E’ appunto con quest’opera che Thomas Malthus ottiene la celebrità, nella quale sviluppò l’idea secondo cui la popolazione mondiale cresce più velocemente della produzione dei mezzi di sussistenza.

(9)

Segue la fase denominata statistical movement, caratterizzata da un cambiamento dell’ottica e dei fini della ricerca sociale dovuto alle mutate condizioni della società. L’ormai drammatica situazione della popolazione (siamo nel pieno della Rivoluzione Industriale, con tutti i noti problemi di povertà, salute, igiene e generale malessere che ne conseguono) e quel clima culturale che si pone problematicamente di fronte a delle emergenze così stringenti, spingono ad un uso maggiore dell’indagine sociale, anche se ancora il lavoro si svolge essenzialmente su dati di seconda mano -è in questa contesto che nascono le prime Statistical Society6. Si sviluppa altresì in un nutrito gruppo di intellettuali un interesse per le classi operaie, che si pone come obiettivo il miglioramento delle condizioni di vita di queste ultime.

Questa diffusa preoccupazione e un senso sempre maggiore del sociale crea una cultura politica e morale che costituisce il sostrato della terza fase, denominata ameliorism and social reform. E’ a questo punto che possiamo parlare più propriamente di social survey: emerge un progetto sociale che non si limita all’analisi statistica sia per la portata morale sia per l’inclusione di un nuovo importante strumento, l’intervista. Si sperimentano le prime osservazioni dirette, con descrizioni di abitazioni e luoghi di lavoro, si utilizzano schede per raccoglierli, si entra in contatto diretto con i soggetti cui si rivolge l’attenzione della ricerca (gruppi e/o famiglie), si implementano i primi prontuari per ordinare la raccolta dei dati. Finalmente i dati raccolti delle fonti tradizionali potranno essere arricchiti con quelli provenienti dalle osservazioni dirette, al fine di affinare l’analisi e anche controllare l’affidabilità del materiale già a disposizione.

Ormai l’interesse per le indagini sociali ha ampiamente varcato i confini dell’Inghilterra. In Francia Le Play per la stesura della sua più conosciuta opera, Les ouvriers européens (Parigi, 1855), si serve di quello che chiama il “metodo monografico”, che consiste nell’osservazione diretta dell’oggetto di studio; i ricercatori si recavano nei luoghi di lavoro e nelle abitazioni degli operai, si

6 La prima fu fondata nel 1833 a Manchester, e nel 1834 seguì la fondazione della London Statistical Society per volontà di Malthus, Jones, Babbage, Sedwick e Quetelet.

(10)

documentavano sul livello di vita, sul bilancio familiare, raccogliendo materiale che Le Play usò in modo da incrociare dati qualitativi e dati quantitativi.

Anche la Germania è sensibile a questa novità e accoglie con particolare recettività il lavoro di Quetelet7, ma anche quello di le Play, tanto che Engel, che tra il 1860 e il 1870 è investito dell’incarico di responsabile dell’ufficio statistico di Prussia ed in seguito di Germania, usa gli impianti teorici dei due studiosi per studiare i bilanci familiari.

1.1.2 Gli strumenti di rilevazione: il questionario

L’osservazione diretta e l’intervista a metà dell’ottocento sono quasi completamente legittimante come strumenti integrativi delle statistiche già esistenti, e proseguono il lento processo per l’acquisizione di un ruolo sempre più importante tramite l’affinamento degli strumenti che le riguardano da vicino, come i prontuari per registrare, codificare ed ordinare le risposte.

Il lavoro che per primo assume l’intervista come un vero e proprio strumento per la raccolta dei dati, come una fonte di informazione per la ricerca scientifica, è l’opera in diciassette volumi (pubblicati tra il 1889 e il 1903) sulla povertà londinese di Charles Booth. Booth, nonostante la ricchezza delle informazioni in proposito offerte dal censimento inglese tenutosi nel 1881, decide comunque di procedere con delle interviste di modo da disporre di informazioni di prima mano; per la sua indagine elabora un metodo di intervista con il quale approcciarsi alle famiglie battezzato wholesale interview, intervista estesa. Booth si occupa con molta solerzia della messa a punto di questo strumento ancora così poco affidabile, e predispone un test pilota per migliorare la prima versione dell’intervista. Booth è anche un pioniere della presentazione dei risultati delle

7 Matematico ed astronomo fu precursore dello studio demografico; acquistò fama applicando la teoria delle probabilità alle scienze sociali e politiche: si propose, utilizzando la statistica, di studiare l'uomo in quanto unità di un gruppo sociale e di cogliere le leggi quantitative della natalità, della mortalità e della crescita.

(11)

ricerche: è lui che idea la colore-codificazione funzionale alla presentazione dei dati su mappe; ed è quindi da lui che traggono ispirazione gli studiosi della Scuola di Chigago, non solo per le modalità di rappresentazione ma anche e soprattutto per la necessità di mettere in contatto diretto il ricercatore con la realtà che si propone di indagare.

La fortuna della social survey sembra ad un certo punto interrompersi: la fiducia nell’indagine finalizzata all’intervento sociale conosce negli anni ’30 un periodo di declino, dovuto per lo più all’appiattimento della pratica sociologia verso l’empiria e il descrittivismo. Tuttavia l’indebolimento delle istanze riformatrici non tange i nuovi strumenti: intervista e questionario procedono nella loro affermazione come validi strumenti di raccolta delle informazioni, e si fanno sempre più precisi e affidabili.

In particolare nel primo dopoguerra l’intervista, nella sua versione di colloquio aperto e informale, conosce una nuova diffusione diventando uno strumento interdisciplinare, utile anche nelle ricerche antropologiche ed etnografiche, le prime interessate al un risvolto diagnostico, le seconde caratterizzate dall’osservazione partecipante. In un contesto più propriamente sociologico le interviste si rivelano particolarmente preziose per indagare una società attraversata da veloci mutamenti e da importanti trasformazioni; si pensi a tale proposito al classico degli anni ‘30 I disoccupati di Marienthal di Lazarsfeld, Jahoda e Zeisel8. Questa famosa indagine, ai suoi tempi fortemente innovativa, combina elementi qualitativi con elementi quantitativi per indagare sulle condizioni di vita a Marienthal (una cittadina austriaca a pochi chilometri a sud di Vienna), gravemente colpita dal fenomeno della disoccupazione all’indomani della recessione del 1929. Uno dei temi più sviluppati in questa ricerca riguarda gli effetti di apatia che si producono da uno stato prolungato della condizione di

8Lazarsfeld F., Jahoda M., Zeisel H., Marienthal. The Sociografy of an Unemployed Community, Transaction Publishers, Chicago 2002

(12)

disoccupazione; questo aspetto ha reso lo studio sempre attuale nel corso del tempo, tanto da determinarne la ripubblicazione a quarant’anni distanza.

L’intervista, per quanto abbia acquistato una notevole centralità, rimane coadiuvata da altre fonti e tecniche, magari di taglio maggiormente quantitativo, come avviene ad esempio per il celeberrimo studio di Thomas e Znaniecki Il contadino polacco in Europa e in America (1918-20), per il quale gli autori utilizzano una quantità di informazioni provenienti da lettere, materiali autobiografici, informazioni pubblicitarie, documenti sull’associazionismo, raccolta di biografie e storie di vita. Uguale varietà di fonti presentano le ricerche dei coniugi Lynd su Middletown (la prima edita nel 1929, la seconda nel 1937), che però privilegiano in modo particolare l’intervista classificata in tre tipologie principali: conversazione casuale, intervista con persone qualificate (schema strutturato e di lunga durata), intervista con le mogli dei lavoratori.

L’intervista è quindi ormai completamente accetta e legittimata come valido ed indispensabile strumento per la raccolta di informazioni. Negli anni Quaranta vengono poi apportate migliorie tecniche e accorgimenti di tipo metodologico al fine di rendere l’intervista funzionale ad un numero sempre maggiore di argomenti, anche quelli considerati particolarmente delicati (reddito, religione, opinioni politiche, sesso) nei confronti dei quali però vigeva una decisa autocensura da parte degli istituti di ricerca. Tuttavia, essendo ormai l’intervista uno strumento molto diffuso, accettato e conosciuto dalla popolazione (soprattutto negli Stati Uniti) si veniva facilitando l’assenso da parte degli intervistati di domande anche abbastanza intrusive e poco rispettose della privacy.

Kinsey per primo coglie il mutamento e svolge una ricerca sul comportamento sessuale dell’uomo e della donna americani (due volumi pubblicati rispettivamente nel 1948 e nel 1953) in cui registra un ottimo risultato in termini di rispondenti. Il successo va in buona parte imputato all’attenzione che il ricercatore dedica all’implementazione e alla somministrazione delle interviste non trascurando dettagli quali l’addestramento dei ricercatori, la sequenza degli items, la gestione del rapporto durante l’intervista, la possibilità di usare tipologie

(13)

di interviste direttive e non. In particolare Kinsey puntualizza quale deve essere il comportamento dell’intervistatore, dedica una grande attenzione alla fase di registrazione dell’informazione, al linguaggio (che deve essere scarno e realistico ed evitare eufemismi). Anche se Kinsey ovviamente affianca all’intervista altre tecniche (storie di vita, fotografie, storie di reati a sfondo sessuale ecc.) è quest’ultima che si impone come strumento cardine della sua ricerca.

Gli anni della seconda guerra mondiale sono quelli che vedono l’affermazione completa dell’intervista e la sua diffusione. La sancita validità dello strumento spinge a perfezionarlo il più possibile procedendo con studi che perseguono una più precisa differenziazione delle modalità di risposta e di misurazione di comportamenti, valori, atteggiamenti, preferenze; si sviluppano così le tecniche di scaling9 e quelle relative alla scala Likert10.

L’intervista è interessata da un successo indiscusso per tutti gli anni dalla seconda guerra mondiale in poi, ed ancora soprattutto nel corso degli anni Sessanta e Settanta. In particolare a partire dagli anni Settanta la diffusione dell’apparecchio telefonico diffonderà l’intervista telefonica. In effetti l’eccessivo utilizzo di questo tipo di modalità di indagine, l’uso improprio che se ne è fatto anche a scopo commerciale, nonché l’ormai diffusione capillare del telefono cellulare, ed infine alcuni intrinseci limiti dell’intervista telefonica stessa, hanno fatto sì che negli ultimi anni si riducesse l’entusiasmo verso questo tipo di intervista. Del resto anche l’iniziale diffusione si doveva più a ragioni economiche e di budget che alla convinzione a proposito di un effettivo vantaggio metodologico.

Da pochissimi anni abbiamo poi assistito alla diffusione del questionario on-line, uno strumento che offre alcuni vantaggi sul piano economico, ma anche in questo caso per i limiti intriseci di ricerche condotte con tale metodo l’intervista

9

Lo scaling è una tecnica di analisi multivariata che consiste nell’assegnazione di punteggi quantitativi attraverso trasformazioni “ottimali” delle variabili categoriali.

(14)

face-to-face rimane lo strumento migliore per la raccolta delle informazioni. Infatti l’intervista telematica da un punto di vista metodologico ha sicuramente a suo favore il fatto che le risposte vengono immediatamente registrate, ed è un software a gestire l’intervista e quindi a scandire i tempi nella somministrazione del questionario. Tuttavia il banale fatto che non tutta la popolazione è in possesso di un personal computer, ma anzi solo una fascia non omogenea, viene a comprometter seriamente la rappresentatività dei dati – l’auto-selezione del campione dei rispondenti appare evidente11.

La soluzione sarebbe costruire un campione rappresentativo e dotare di un computer chi ne è sprovvisto, ma ovviamente l’operazione avrebbe costi molto elevati.

1.1.3 Tecniche dell’intervista

Il successo dell’intervista e il suo sempre maggiore utilizzo è dovuto in larga parte, oltre che alla potenza propria dello strumento, ai miglioramenti apportati alle categorie di risposta, alla struttura stessa del questionario e agli accorgimenti che devono avere gli intervistatori.

Attualmente il maggiore dei problemi da risolvere a proposito dell’intervista riguarda l’efficacia; questo problema si snoda lungo due linee direttrici:

• l’attendibilità delle risposte;

• il controllo di eventuali errori dell’intervistatore.

Ciascuna delle questioni ricopre una maggiore rilevanza a seconda del modello di intervista che si sceglie di adottare. Infatti lo sviluppo dello strumento dell’intervista ha portato ad una sorta di biforcazione, cosicché oggi è possibile scegliere in via generale tra due modelli: uno più qualitativo ed uno più strutturato.

(15)

Il primo tipo12, che si sostanzia in interviste aperte spesso di carattere esplorativo, è quello più tradizionale, operativo già dai primi del Novecento; questa impostazione pone diverse difficoltà sul piano del trattamento del materiale che si è raccolto.

Il secondo tipo, ovvero interviste con una struttura più standardizzata, si è principalmente sviluppato per cercare di superare i limiti che poneva l’intervista aperta. Anche in questo caso però non si è esenti da difficoltà: infatti se da un lato è vero che si vanno a ridurre i margini di autonomia dell’intervistatore, dall’altro non si risolvono le problematiche legate alla codifica del materiale raccolto.

Ad ogni modo, ambedue le prospettive nel corso degli anni sono state interessate da migliorie che hanno fatto del problema del trattamento del materiale una questione di soluzione più agevole (affinamento delle tecniche di analisi del contenuto e delle tecniche di codifica).

Andando più nello specifico è possibile distinguere diversi tipi di interviste. Il Guala13 distingue in particolare:

 Intervista libera o guidata: l’intervista libera non ha una scaletta rigida di domande da seguire ed ha soprattutto scopo esplorativo – difatti si utilizza quando l’oggetto della ricerca è delicato o non focalizzato precisamente. L’intervista guidata ha caratteristiche opposte.

 Intervista aperta o chiusa: a seconda del tipo di domande, aperto o chiuso.

 Intervista strutturata, semistrutturata, non strutturata: si fa riferimento alla traccia dell’intervista: nel caso della strutturata si ha a disposizione una scaletta di temi da affrontare, e spesso anche la sequenza delle domande; nella non strutturata avviene il contrario. La semistruturata prevede una sequenza fissa di items che possono

12 Tipologia di intervista usata in larga parte nel settore delle indagine antropologiche. 13 Guala op.cit., pp. 250-256

(16)

essere affrontati sia con domande a risposta aperta che con domande a risposta chiusa.

 Intervista standardizzata, semistandardizzata, non standardizzata: classificazione che si sovrappone alla precedente. In questo caso però il riferimento alla standardizzazione sottolinea l’opportunità che gli stimoli siano gestiti nel medesimo modo per tutti i soggetti coinvolti nell’indagine; si cerca di minimizzare gli effetti distorcenti.  Intervista direttiva e non direttiva: qui l’accento è posto

sull’intervistatore e sulla gestione più o meno rigida del colloquio. È più opportuno propendere per interviste non direttive nel caso di colloqui informali e interviste in profondità.

Ovviamente nelle interviste face-to-face il ruolo dell’intervistatore è particolarmente importante. Cruciale è che il primo contatto avvenga in modo da mettere a proprio agio l’intervistato, tramite una presentazione chiara e cordiale14. Per quanto riguarda in linea generale il ruolo dell’intervistatore15 è buona norma che questi:

• impari il proprio ruolo studiando le domande che dovrà porre, • si vesta in modo adeguato,

• sia capace di prescindere dai propri personali giudizi di valore su persone, situazioni e risposte,

• stia sempre attento e ascolti con attenzione, • assicuri che il colloquio porterà via poco tempo, • si aspetti l’imprevisto,

• garantisca l’anonimato,

• mostri il tesserino di riconoscimento,

14 In caso di interviste in casa o sul lavoro, o anche di interviste telefoniche la letteratura raccomanda di avvisare le persone selezionate tramite una lettera o una email. Nel nostro caso specifico la funzione di “preavviso” è stata adempita dal volantino di presentazione del comune, visionabile nel paragrafo 3.2.2 p.16

(17)

• sia consapevole che il fine ultimo del colloquio è l’ottenimento delle informazioni richieste,

• sia pronto a rispondere ad ogni eventuale chiarimento dell’intervistato (ad esempio circa il committente, il trattamento dei dati, ecc.)

• ponga le domande esattamente nella forma e nell’ordine previsti.

È inoltre utile ricordare la tecnica del probing, ovvero quegli accorgimenti che l’intervistatore può adottare al fine di chiarire o incrementare le informazioni che sta raccogliendo, ed utili a migliorare la qualità del colloquio. Il probing si rivela una strategia decisiva in quelle situazioni nelle quali l’intervistato non riesce ad esprimersi in modo preciso e l’intervistatore si trova in difficoltà per la codifica della risposta.

In via pratica le tecniche del probing consistono, ad esempio, in cenni neutri di interesse (capisco, vedo, certo, ecc.) che fanno capire all’intervistato che la risposta è stata compresa e che magari ci si aspetta di più; una breve pausa di attesa lascia intendere che ci si aspetta che la risposta venga ampliata; la ripetizione della domanda è un modo cordiale per comunicare che la risposta è troppo breve o deve essere più precisa; una domanda neutrale (può essere più preciso?) aiuta ad approfondire l’item.

L’intervista è quindi una interazione di tipo complesso in cui entrano in gioco molte variabili. L’obiettivo ultimo consiste appunto nel cercare di reperire le informazioni ricercate facendo in modo che tutte le suddette variabili distorcano il meno possibile l’informazione finale – in questo modo la successiva fase del trattamento dati (anch’essa per altro fonte di possibili distorsioni e comunque decisiva per la lettura finale del risultato che si otterrà) potrà avvantaggiarsi con dati precisi e non falsati su cui lavorare e compiere elaborazioni.

(18)

1.2 Le indagini in situazioni “estreme”.

Si è visto quali sono storia, sviluppi e stato dell’arte delle interviste face-to-face; si sono anche brevemente scorse le varie tipologie di intervista e si è cercato di dare un’idea di come dovrebbe svolgersi un’intervista. Sarebbe tuttavia un errore pensare al processo dell’intervista come qualcosa di necessariamente lineare, con uno svolgimento sempre uguale a sé stesso. Anzi, è piuttosto comune che anche l’intervista meglio congegnata ponga ad un determinato punto un qualche problema che sta spesso all’intervistatore cercare di risolvere. L’immagine di un intervistatore seduto a tavolino che sottopone un questionario in una situazione tranquilla ed agevole per entrambi gli attori è ciò che si potrebbe definire un’immagine retorica: è cosa piuttosto rara che l’intervista si svolga in queste condizioni. Per lo più le interviste face-to-face vengono effettuate in contesti confusionari (quando non caotici): si pensi alle interviste svolte al di fuori dei supermercati, o alle sempre più frequenti rilevazioni sulla qualità del servizio offerto proposte nelle stazioni ferroviarie e in aeroporto. Il rumore, la fretta, la difficoltà a reperire persone disposte a sottoporsi al questionario fa di questo tipo di indagini vere e proprie indagini “estreme”.

Spesso si tenta di ovviare ad una parte dei problemi delle interviste face-to-face proponendo un questionario auto-somministrato; non è però questa una soluzione ottimale per i problemi propri dello strumento di rilevazione che la letteratura bene illustra: l’auto-somministrazione produce questionari meno accurati, con più errori di compilazione e, soprattutto, non controllati da un intervistatore che supervisioni. Si consideri poi che le fasce più anziane della popolazione (in aumento) sarebbero in difficoltà ad auto-compilare i questionari. La soluzione migliore è quindi l’intervista face-to-face, ed è necessario capire qual è il modo più efficiente di somministrarla.

(19)

La rilevazione a Terricciola è stata sicuramente condotta in una situazione “estrema” per diversi motivi: prima di tutto per le ragione intrinseche che rendono difficoltoso somministrare interviste nel corso di una manifestazione relativamente caotica (la folla, soprattutto nella giornata di domenica pomeriggio, la musica e in generale il rumore provocato dagli spettacoli), ed in seconda battuta a causa della situazione metereologica (veri e propri temporali in particolare nella giornata di sabato) che hanno provocato diversi problemi per una parte della strumentazione tecnologica – i laptop rischiavano di danneggiarsi seriamente.

Per ovviare a questo tipo di problemi è sorta l’esigenza di individuare altri mezzi per raccogliere i dati e le informazioni, e la scelta è ricaduta sul palmare.

In questo caso specifico i palmari hanno permesso di condurre interviste muovendosi di stand in stand, ed in questo modo si è riusciti a non perdere ore preziose in cui somministrare le interviste (cosa che il cartaceo non avrebbe permesso per la sua scarsa maneggevolezza e per un maggiore rischio di bagnarsi date le dimensioni)

Infatti è proprio nelle indagini estreme che il palmare mostra al meglio le sue potenzialità ed i sui vantaggi: si pensi alle situazioni estreme che abbiamo citato (supermercato, stazioni e aeroporti) e a quanto la rilevazione sarebbe resa più agevole se in luogo dei questionari cartacei si procedesse alla raccolta delle informazioni con invece un palmare.

1.3. Dalla metodologia all’indagine concreta.

Affrontare un serio lavoro di ricerca nel campo sociale implica una accurata conoscenza delle teorie e dello stato dell’arte circa l’argomento che si intende affrontare, e un’idea precisa della procedura di ricerca cui ci si deve attenere.

(20)

Una ricerca sociale che voglia vantare attendibilità e completezza deve quindi poggiare con sicurezza e su una solida teoria e su di una procedura empirica valida. In tal senso la metodologia funge in qualche modo da mediatrice tra le due componenti, e le tocca il delicato e centrale compito di evitare i rischi complementari che dalle due parti le si propongono: una concettualizzazione astratta che non trovi validazione nella ricerca empirica da un lato, e la tendenza ad una quantomania che sottovaluti la teoria dall’altro.

Al fine di evitare i suddetti rischi la letteratura propone di seguire un itinerario di ricerca che colleghi circolarmente la teoria e la pratica. Il Corbetta16 in particolare propone uno schema articolato in cinque fasi:

FIGURA 1:

Lo schema si articola in cinque fasi. La prima fase è ovviamente quella teorica; l’autore definisce la teoria: “un insieme di proposizioni organicamente

16 Corbetta, La ricerca sociale: metodologia e tecniche. Vol II: Le tecniche quantitative, Il Mulino, Bologna 2003.

Fasi

Teoria

Ipotesi

Rilevazione dei dati

Analisi dei dati

Risultati

Processi

Deduzione Operativizzazione (disegno della ricerca) Organizzazione dei dati (matrice-dati)

Interpretazione

(21)

connesse, che si propongono ad un elevato livello di astrazione e generalizzazione rispetto alla realtà empirica, le quali sono derivate da regolarità empiriche e dalle quali possono essere derivate delle previsioni empiriche”17.

Alla seconda fase, quella delle ipotesi, si perviene attraverso un processo deduttivo; l’ipotesi infatti, essendo specifica, si pone ad un livello inferiore della teoria in termini di generalità, e viene appunto dedotta dalla teoria stessa.

La terza fase consiste nella rilevazione empirica, la raccolta dei dati, e si attua tramite il processo di operativizzazione, cioè a dire nella trasformazione delle ipotesi in proposizioni osservabili da un punto di vista empirico. Il suddetto passaggio va distinto a sua volta in due momenti: la trasformazione dei concetti in variabili (operativizzazione dei concetti) – affinché si possa procedere con la rilevazione, e la scelta dello strumento che dovrà essere adottato per la rilevazione. È attraverso questi ultimi due passaggi in particolare che viene a prendere forma il disegno della ricerca (cioè l’organizzazione vera e propria dell’indagine).

La quarta fase prende avvio una volta che si è terminata la rilevazione e si sostanzia appunto nell’analisi delle informazioni raccolte, informazioni che diverranno propriamente dati solo nel momento cui saranno sistematizzate e codificate come precedentemente stabilito. Nello specifico della ricerca di tipo quantitativo questo passaggio consiste nel trasporre le informazioni in una matrice di dati casi per variabili, base per qualsiasi elaborazione successiva.

La quinta ed ultima fase è quella della presentazione dei risultati. Le analisi statistiche condotte vengono interpretate – il tipo di processo è induttivo poiché il punto di partenza sono i risultati empirici, risultati che vanno confrontati con le specifiche ipotesi teoriche fatte a monte, ed anche con la teoria in generale.

Corbetta specifica che il procedimento in cinque fasi che illustra è ideale e non vincolante ai fini della buona riuscita di una ricerca – a seconda delle

17 Corbetta op. cit. p. 18

(22)

esigenze alcune fasi possono essere saltate o ne può essere non rispettato rigorosamente l’ordine.

Su quest’ultimo punto insiste particolarmente il Guala, il quale illustra il procedimento ideale per la conduzione di una ricerca tramite un flussuogramma molto più dettagliato e specifico. Si rimanda alla figura nella pagina successiva.

Guala pone l’accento sulla dinamicità del modello proposto e del procedimento di ricerca in generale; questo perché le fasi del processo non sono collegate tra loro in modo meccanico dato che i singoli passaggi non sono né automatici né vincolanti. L’autore avverte inoltre di possibili effetti di retroazione, che consentirebbero aggiustamenti vari (figura 2).

Addentrandoci in aspetti più pratici, vediamo che una volta definiti gli elementi che riguardano i fatti da osservare, la teoria cui fare riferimento e individuati i concetti sulla base dei quali si stabiliranno gli strumenti da utilizzare, si passa alla formulazione delle ipotesi di lavoro. In linea di massima la fonte delle ipotesi di lavoro, che consistono in domande volte alla definizione di problemi sui quali la ricerca dovrà fornire indicazioni e delucidazioni, è una teoria solida e con un corpus definito; è peraltro possibile che la fonte sia rintracciabile dalle ricerche già svolte in proposito di un determinato argomento. In quest’ultimo caso oltre ai dati primari che verranno raccolti con la ricerca e che saranno il risultato della rilevazione vera e propria, si potrà disporre anche di dati secondari, ovvero di dati che potrebbero rivelarsi molto utili ai fini della ricerca in corso.

FIGURA 218

:

18 Guala op. cit. p. 113

(23)

Problemi preliminari:

Rapporto di committenza; Processi di auto-committenza; Formazione e preparazione del gruppo di ricerca; ipotesi di tempi/costi e di gestione dei risultati

Definizione del problema

Valutazione e selezione dei dati e delle informazioni disponibili; Verifica della compatibilità; Documentazione preliminare

Identificazione delle variabili e delle unità di analisi

Ricerca campione e studio pilota

Prima e provvisoria formulazione delle strategie di analisi

Definizione dei risultati previsti

Definizione degli strumenti per la raccolta dei dati e delle informazioni

Ipotesi di lavoro

Strategie di campionamento (campione probabilistico, non probabilistico, casuale, stratificato, multistadi, di esperti, a catena, per quota…)

Discesa sul campo e preparazione dei dati

Raccolta dei dati

Definizione dei formati e delle convenzioni di codifica

Costruzione del libro codice

Editing e codifica

Trasformazione dei dati in Machine Readable Form

Verifica di compatibilità dei dati e individuazione degli errori

Revisione del libro codice Correzione degli errori

Calcolo delle variabili derivate

Aggiunta e integrazione dei dati con altri dati e variabili elaborazione Prima dei dati

(24)

Ovviamente le ipotesi di lavoro vanno verificate: i dati e le informazioni raccolti dovranno avere consistenza tale da confermare o sconfessare le ipotesi formulate19.

I problemi possono però cominciare a monte del processo; è infatti possibile che la formulazione delle suddette ipotesi sia ostacolata da vari elementi. In primo luogo si riscontreranno enormi difficoltà se non si ha a disposizione una teoria solida ed attendibile da cui trarre ipotesi da sottoporre a verifica.

Un secondo ostacolo può risiedere nella scarsa abilità nell’uso di una schema tecnico valido, cioè in una teoria che non definisce ipotesi coerenti; il problema del rapporto tra ipotesi e teoria non può d’altronde essere sempre del tutto chiaro, nello specifico in quei casi in cui le ipotesi assumono carattere generico ed esplorativo. In quest’ultimo caso è consigliabile, ove ce ne fosse l’opportunità, studiare approfonditamente la tematica generale dell’oggetto di ricerca individuato piuttosto che accontentarsi di ipotesi troppo generiche. Tuttavia è altresì importante che le ipotesi non siano eccessivamente rigide e che conservino margini di flessibilità per adattarsi a contesti di ricerca e risultati imprevisti.

La funzionalità delle ipotesi viene poi chiaramente ulteriormente ridotta in caso di scarsa conoscenza delle tecniche di ricerca (per esempio scelta e/o costruzione di strumenti errati o banali di reperimento dei dati).

19 In particolare si rinvia al pensiero di K.R. Popper, e all’opera Logica della scoperta scientifica (1934), in cui delineò una teoria del metodo scientifico fortemente critica nei confronti di qualunque concezione induttiva della scienza. Le teorie scientifiche, per Popper, sono ipotesi che non possono mai essere "verificate" dall'esperienza, poiché ogni teoria, essendo una proposizione universale del tipo "tutti i corvi sono neri", richiederebbe un numero infinito di osservazioni. Tuttavia le teorie scientifiche, dalle quali possono essere dedotte asserzioni controllabili dall'osservazione sperimentale, possono essere "falsificate": se osservazioni appropriate, ad esempio l'osservazione di un corvo bianco, confutano queste asserzioni, l'ipotesi è respinta. Se un'ipotesi resiste ai controlli, essa è allora provvisoriamente accettata, ma ciò non esclude che in futuro possa essere falsificata. Nessuna teoria scientifica, pertanto, è definitivamente valida. Per la trattazione più specificatamente metodologica il riferimento è G. Statera, Metodologia e tecniche della ricerca sociale (1990)

(25)

Da ultimo si ricorda l’eventualità di non disporre materialmente di teorie cui fare riferimento. In questo caso l’unica strada consiste nel procedere con un’indagine di carattere esplorativo (è il caso dei problemi emergenti e di fenomeni che per la prima volta si pongono all’attenzione degli osservatori). In questi casi gran parte della letteratura consiglia di utilizzare, per lo mano in fase preliminare, tecniche di tipo qualitativo che meglio rispondono ad esigenze di conoscenza di questo tipo.

Per la rilevazione vera e propria è possibile, ed in alcuni casi altamente consigliabile, procedere con uno studio pilota o una ricerca campione: lo studio pilota prevede un impegno minore rispetto alla ricerca campione, generalmente di dimensioni decisamente più consistenti. Questi strumenti si rivelano particolarmente utili in quei casi in cui l’oggetto di ricerca non è chiaro e quindi non si riescono ad individuare quali strumenti di rilevazione e quali strategie di analisi sia più opportuno applicare.

Riguardo alla fase della rilevazione, la letteruatura avverte poi che il perturbamento principale e la fonte di distorsione maggiore di cui tenere conto nelle ricerche empiriche è “l’effetto ricercatore”, ovvero l’alterazione che il ricercatore apporta per il solo fatto di esserci- questo vale in tutte le fasi e le tipologie e di una ricerca - la raccolta dei dati, la misurazione, il controllo di un esperimento.

Collegato all’effetto ricercatore troviamo il concetto di feedback (o retroazione), cioè l’effetto di ritorno, carico di “nuova informazione” che risale la fonte dello stimolo (in genere il ricercatore). “La caratteristica di questo processo è una condizione di interazione tra soggetto ricercatore e soggetto indagato; [...] il risultato trascende la semplice cumulazione additiva per definire un esito, qualitativamente nuovo, di combinazione di effetti tra loro interrelati”20.

20Guala op cit p.89

(26)

1.4 Campionamento: popolazione finita elencabile e popolazione

finita non elencabile

La ricerca svolta a Terricciola, come si vedrà ha carattere esplorativo, e ha come scopo principale la conoscenza di quante e quali persone frequentano la Festa e una prima definizione dei loro atteggiamenti e delle loro aspettative21,.

I problemi sorgono quindi a proposito del campionamento. Infatti non essendo nota la popolazione oggetto di studio ci si è orientati verso un campione non probabilistico.

In un campione probabilistico ogni unità dell’universo di riferimento (che costituisce l’oggetto di studio) ha la stessa probabilità di essere estratto, e questa probabilità è nota. E’ questo un tipo di campionamento che offre diversi importanti vantaggi, il maggiore dei quali è quello di poter applicare in modo corretto procedure statistiche che permettono di estendere i risultati all’universo e di poterne calcolare il margine di incertezza. Per poter selezionare un campione probabilistico è necessario disporre di un elenco completo (o quanto più completo) delle unità.

Non è sempre possibile l’estrazione di un campione probabilistico quando la popolazione non è nota (o anche perché si sa che durante la rilevazione non sarà possibile seguire criteri adeguati, o ancora perché la ricerca ha carattere euristico-esplorativo) quindi bisogna ricorrere a campioni non probabilistici, che possono essere campioni a scelta ragionata, composti da casi che hanno caratteristiche positive per la ricerca (è il caso dei campioni funzionali, a valanga, accidentali, a saturazione, bilanciati), o di convenienza, cioè in possesso di una qualche rappresentatività dovuta al possesso di poche caratteristiche (intuitivo, per quote e per dimensioni)22. I risultati ottenuti dall’analisi dei dati così raccolti sono estendibili unicamente al campione.

21

Si veda il paragrafo 3.2.1

22 Per la divisione concettuale dei campioni si veda Bruschi op cit., pp 166-174, Corbetta 2003 pp 33-36

(27)

In linea di massima i criteri per selezionare gli intervistati sono in funzione del campionamento. Il campionamento funzionale prevede che i casi vengano selezionati in base al possesso di alcune proprietà (è il caso dei campioni di controllo). In un campione accidentale l’unico criterio è la disponibilità dell’intervistato: in questo caso non si deve fare altro che intervistare chiunque acconsenta; ovvio che in questo caso il bias di selezione è massimo e che quindi l’autoselezione del campione non è considerata un problema. Si può poi usare un sistema a valanga: si contatta un ridotto gruppo di persone (anche una sola) che a sua volta contatta altre persone ancora e così via –in pratica il campione si riproduce su sé stesso, e la distorsione è prodotta proprio da questo: è probabile che persone che si conoscono sia simili per uno o più aspetti. Un ulteriore modo può essere quello dei campioni a saturazione: i casi vengono selezionati al fine di ottenere le variabili considerate rilevanti – la selezione si ferma solo nel momento in cui si decide che tutte le variabili sono state raccolte e l’andare avanti porterebbe solo a una ripetizione.

Infine è possibile utilizzare un campione bilanciato selezionando le unità da intervistare in modo che la media del campione, per le variabili prese in considerazione, sia prossima alla media della popolazione.

Per selezionare un campione di convenienza si può procedere distinguendo intuitivamente alcune proprietà dell’universo. Per razionalizzare quest’ultima modalità si può altresì procedere andando a costruire un campione per quote: si divide l’universo in strati in base alle variabili di interesse per la ricerca e il campione si costruisce riproducendo gli strati considerati nell’universo. Infine si può procedere con un campione per dimensioni: si divide il campione in quote e all’interno di ciascuna quota si ripartiscono proporzionalmente gli strati dell’universo in modo da evitare sovra/sotto-dimensionamenti.

I problemi legati all’analisi di dati raccolti da popolazioni non elencabili sono molteplici; per esempio si sa in partenza che non si potranno estendere i dati all’universo e che l’indagine produrrà informazioni di una qualche rilevanza in

(28)

funzione dell’accuratezza del disegno di ricerca ma anche e soprattutto dall’intuito di chi l’ha progettato

C’è poi il problema dell’individuazione e della reperibilità dei soggetti da intervistare, che nel caso di una ricerca a carattere esplorativo si moltiplicano; non avendo infatti a disposizione liste della popolazione da intervistare ed essendo in realtà l’unico criterio di selezione quello della disponibilità delle persone, il rischio di un bias di selezione è altissimo. Qui è cruciale la bravura e l’esperienza dell’intervistatore: è necessario fare in modo che un ventaglio quanto più ampio di tipologie di persone venga intervistato di modo da non introdurre eccessivi problemi di autoselezione della popolazione intervistata. Il problema della distorsione introdotta dal rifiuto a rispondere certamente permane, ma come è noto è questo un problema che caratterizza qualsiasi tipo di indagine.

Il procedimento campionario è caratterizzato dal fatto che porta con sé un potenziale di errore che potrebbe distorcere, anche in maniera significativi, i risultati cui si perviene tramite l’indagine. Sono due i tipi di distorsione che determinano l’errore nella sua interezza (errore globale): l’errore di rilevazione e l’errore di campionamento.

L’errore di rilevazione, che è potenzialmente eliminabile, è a sua volta scomponibile nell’errore di copertura (indotto dal ricercatore stesso qualora non sia disponibile un elenco completo della popolazione da intervistare) e in quello di mancata risposta (causato dai rifiuti a rispondere o dall’irreperibilità degli intervistati); anche se effettivamente questo tipo di errore non si può eliminare del tutto è possibile ed auspicabile tenerlo sotto controllo mediante alcuni accorgimenti (procurarsi le caratteristiche della popolazione indagata, cercare di minimizzare i rifiuti a rispondere, evitare errori sistematici), anche perché in ragione della sua non quantificabilità se sottovalutato può causare grandi problemi.

(29)

L’errore di campionamento23, non eliminabile, è legato all’applicazione della teoria dei campioni. Secondo questa teoria rilevando un determinato parametro (o variabile) della popolazione su una parte di essa (il campione appunto) è possibile stimare24 il parametro nell’intera popolazione; nessun campione può con certezza dire quale sia il parametro vero della popolazione, ma con l’ausilio di campioni probabilistici si possono calcolare l’errore campionario e l’intervallo di confidenza25 che permettono di valutare la qualità della stima. Chiaramente il ricercatore cerca di ridurre al minimo l’errore campionario poiché più questo è grande minore sarà l’affidabilità delle stime (e quindi maggiore la grandezza dell’intervallo di confidenza).

1.5 Il questionario

Per la sua natura dialogica il questionario si presta ad essere inteso alla stregua di una conversazione26. Tuttavia si tratta evidentemente di un fraintendimento poiché è evidente che il questionario si compone di una sua natura particolare: si tratta infatti di una interazione disciplinata da regole ben diverse rispetto ad una normale conversazione. Questo aspetto di ambiguità costituisce al medesimo tempo il punto di forza e il maggior pericolo del questionario. È un punto di forza perché sfruttando una consuetudine umana (la conversazione) il questionario risulta essere estremamente familiare all’intervistato per lo meno come prassi. Il pericolo sta invece nella eventuale non consapevolezza della diversità tra conversazione e intervista da parte del ricercatore; è fondamentale tener conto della natura propria dello strumento che si

23 L’errore di campionamento è calcolabile solo per i campioni causali. 24

La stima è il valore assunto da uno stimatore in corrispondenza di un particolare campione. 25 L’intervallo di confidenza è un intervallo di valori plausibili di un determinato parametro. 26 Si sta qui ovviamente facendo riferimento al questionario somministrato da un intervistatore.

(30)

è deciso di utilizzare per poterlo costruire opportunamente, e di poter codificare quanto più precisamente possibile le informazioni raccolte in fase di codifica.

È opportuno prima di tutto ricordare che la domanda ha come scopo la verifica dello stato di un caso su una data proprietà, al fine di una sua registrazione; dove per caso si intende il singolo oggetto della ricerca (cioè l’unità su cui si sta svolgendo la rilevazione: l’individuo, la famiglia, la classe, ecc.), le proprietà27 sono i concetti riferibili ai casi, ed ogni singola proprietà si definisce stato (ad esempio la proprietà sesso si declina negli stati maschio e femmina).

Se la proprietà da accertare è discreta28 o se non si tratta di registrare stati di una proprietà bensì di enumerare oggetti od eventi la composizione delle risposte può prendere tre strade:

• se tutti gli stati sono noti si riportano interamente

• si riportano gli stati più usuali (e si aggiunge la categoria altro); • si aggregano alcuni stati tra loro perché considerati simili.

La questione diviene più spinosa nel caso di proprietà continue: in questo caso le possibili soluzioni sono molte poiché sono molti gli stati possibili.

Un rilevante problema che si pone nell’elaborazione delle categorie di risposta è quello della classificazione. I requisiti di una buona classificazione sono:

a) Esaustività: l’elenco delle risposte deve contemplare tutte le situazioni ascrivibili a qualunque caso; in altre parole nessun intervistato deve trovarsi nell’impossibilità di esprime la risposta che desidera;

b) Mutua esclusività: le singole opzioni proposte devono escludersi tra loro; l’intervistato deve essere messo nella condizione di potersi collocare nettamente;

27 Ogni proprietà deve avere almeno due stati, altrimenti la sua registrazione non è rilevante e non si inserisce nel questionario.

28 Una proprietà si dice discreta quando ha un numero di stati diversi, irriducibili e in numero finito.

(31)

c) Unicità del fondamentum divisionis: la singola classificazione non deve comprendere stati relativi ad un’altra proprietà.

I problemi di classificazione riguardano sia domande chiuse che aperte, ed anche le scale. Per orientarsi tra le tre tipologie di domanda si riportano i suggerimenti di Kahn e Cannel29 (i quali a loro volta hanno preso ispirazione da Lazarsfeld), i quali consigliano ai fine della decisione tra le varie opzioni di avere chiari:

• gli obiettivi dell’intervista;

• il grado di conoscenza dell’intervistato sull’argomento;

• la misura con cui l’argomento è stato meditato dall’intervistato; • la facilità con cui il materiale può essere comunicato

all’intervistato;

• la misura in cui l’intervistatore, prima di cominciare l’intervista, conosce la posizione dell’intervistato riguardo i punti precedenti (escluso il primo).

Si è quindi introdotto l’oggetto della scala. In questa sede ci si limiterà a dire che la scala è l’oggetto più frequente, subito dopo le domande, in un questionario, e per la trattazione delle tecniche di costruzione delle scale si rimanda a testi specifici30. In generale si può affermare che le scale sono un modo di trattare in maniera quantitativo un oggetto qualitativo, al fine di misurarlo. La più diffusa tra le scale è sicuramente la Likert, che fa parte della famiglia delle scale ordinali31; le posizioni contemplate sono generalmente dispari (cinque o sette) ed esprimono il grado di accordo ad una determinata osservazione (molto contrario, abbastanza contrario, in parte contrario e in parte d’accordo, abbastanza d’accordo, molto

29 Robert Khan e Charles Cannel, La dinamica dell’intervista, Marsilio, Padova 1968

30 Si vedano Guala op. cit., Arcuri, Manuale di Psicologia Sociale, il Mulino, Bologna 1995, e Corbetta P., Metodologia e tecniche della ricerca sociale, Il Mulino, Bologna 1999.

31

Una scala ordinale consente di ordinare gerarchicamente degli oggetti; le opzioni lungo la scala hanno solo un valore ordinale e mai cardinale, cioè è rispettata la gerarchia delle posizione ma non è detto che tra le diverse posizioni ci sia la medesima distanza.

(32)

d’accordo), ma alcuni autori hanno recentemente proposto di adottare un numero pari di modo da poter codificare un discrimine tra due opposte propensioni32.

I tre fondamentali criteri da seguire per decidere in proposito dell’inserimento di determinati item in un questionario sono:

a) la rilevanza: occorre che la domanda suoni rilevante e saliente a tutti gli intervistati, per quanto siano un gruppo eterogeneo al loro interno (provvidenziale qui è lo studio pilota, che permette una verifica sul campo);

b) la previsione dell’elaborazione: è un criterio esclusivamente tecnico ma fondamentale: è inutile inserire item che, per quanto interessanti, non potranno essere codificati correttamente –si rischia peraltro di falsare i risultati;

c) la concettualizzazione a priori: bisogna osservare strettamente le logiche della ricerca e redigere le domande in funzione del concetto che si intende misurare.

Un buon questionario richiede poi un editing ben fatto: deve essere graficamente chiaro ed ordinato, soprattutto se autoamministrato. In questo caso è tra l’altro importante che le istruzioni per l’intervistato siano chiare, semplici e coincise. Se il questionario è somministrato da un intervistatore è buona norma che, a prescindere dall’addestramento seguito dall’intervistatore, il questionario riporti le principali istruzioni che quest’ultimo deve seguire.

Per quanto riguarda la costruzione e l’uso delle domande, distinguiamo in primo luogo le domande a risposta chiusa (o multipla) e quelle a risposta aperta33. Le prime prevedono che l’intervistato scelga una risposta tra una serie di opzioni proposte; il problema qui si pone ad un livello operativizzazione dei concetti e successivamente per la praticità del questionario perché da un lato è importante

32 Guala ed Arcuri, op. cit.

(33)

che la classificazione operata per scegliere le categorie di risposta sia particolarmente accurata ma d’altronde non deve essere troppo prolissa.

La seconda modalità lascia invece libero l’intervistato di rispondere come crede, la riposta è cioè aperta; in questo caso le difficoltà sono soprattutto a livello di codifica della risposta.

Ogni questionario si compone ovviamente di diverse domande, le quali possono essere analiticamente suddivise in una tipologia. Si riporta qui in forma sintetica la classificazione proposta da Bezzi e Palumbo34:

 domande introduttive: spesso sono di tipo anagrafico (se non sono poste in coda), altrimenti sono domande generali sul tema principale dell’intervista;

 domande filtro: servono a filtrare gli intervistati a seconda di determinate proprietà per poi somministrargli domande differenziate;

 domande sonda: hanno la finalità di stimolare l’intervistato a chiarire il proprio pensiero o a sviluppare un argomento (sono tecniche di probing)35;

 domande ad imbuto: sono domande concatenate in sequenza logica che trattano lo stesso argomento, messe in ordine di specificità (dalle più generali alle più specifiche);

 domande di controllo: servono a verificare le riposte ad altre domande;

 domande di verifica: reperiscono una informazione precisa sul comportamento dell’intervistato e non solo un’opinione (per esempio sono usate nella erica dei comportamenti di consumo, domando di visionare un determinato prodotto a casa dell’intervistato);

34 Bezzi e Palumbo, Questionario e dintorni, Linee di ricerca sociale, Firenze 1995 35 Per la trattazione sul probing si il paragrafo 1.1 p. 17

(34)

 le domande rivolte agli intervistatori: in genere sono collocate in fondo al questionario e vengono compilate alla fine dell’intervista.

Non esiste un ordine prestabilito in cui disporre le domande ma alcuni accorgimenti sono necessari. È consigliabile ad esempio raggruppare le domande che trattano il medesimo argomento (cercando però di evitare il causarsi di distorsioni come il response set36 e l’effetto proxy37), iniziare con domande semplici che mettano a proprio agio l’intervistato, cercare di inserire domande di controllo e ad imbuto per verificare la coerenza delle risposte.

È importante che le domande risultino chiare, e che abbiano quindi un linguaggio ed una struttura semplici e comprensibili; sono quindi bandite domande eccessivamente lunghe, costruite con parole o concetti troppo complicati (in relazione alla popolazione di riferimento) e con una struttura eccessivamente elaborata (sono ad esempio assolutamente sconsigliate le doppie negazioni).

Infine il questionario non deve essere eccessivamente lungo; oltre un certo punto infatti l’attenzione cala e le risposte potrebbero non essere più attendibili, senza considerare un maggiore possibilità di abbandono ad intervista iniziata.

1.6 Gestione dei dati

Il primo passo da compiere nel lungo processo della gestione dei dati è la loro codifica, ovvero la trasformazione delle informazioni in simboli numerici agevolmente trattabili e elaborabili. Insomma il fine della codifica è la costruzione

36 Distorsione tipica delle scale, si vedano Guala op. cit. ed Arcuri op. cit.

37 “L’effetto di una domanda caricata emotivamente si estende su successive domande diverse provocando quindi distorsioni. Può avvenire, p. es., che l’intervistato senta un dovere di ‘coerenza’ interna fra le cose che dice e che uniformi il suo pensiero indipendentemente dal reale pensiero che può avere su ogni circostanza”. Bezzi e Palumbo, op. cit.

(35)

di file di dati che possano essere letti e gestititi dal computer, e sui quali sia possibile compiere operazioni statistiche.

La codifica può essere fatta a priori o a posteriori; quest’ultimo è però più specificamente il caso di questionari con domande aperte. Invece per questionari con domande chiuse la pre-codifica è un’operazione fondamentale perché permette di evitare di porre domande che potrebbero creare problemi in sede di codifica dei dati e snellisce notevolmente il lavoro legato appunto alla codifica (i questionari possono essere direttamente passati agli addetti all’inserimento dati oppure, come nell’indagine che stiamo descrivendo, sono pronti per l’elaborazione ).

Sostanzialmente l’operazione di codifica consiste nell’assegnare un’etichetta numerica alle risposte di ciascuna domanda (ad esempio Maschio=1, Femmina=2). Ma non solo: per costruire una matrice dei dati chiara ed efficace è opportuno che l’assegnazione di etichette numeriche venga fatta ad ogni livello del questionario:

 Per ogni questionario assegnazione di un numero da 1 ad n (dove n è l’ultimo questionario compilato):

 Per ogni domanda del questionario assegnazione di un numero da 1 ad m:

 Per ogni possibile risposta alla singola domanda assegnazione di un numero da 1 ad i.

A questo punto nella matrice dei dati il numero di record e campo identifica la cella corrispondente a quella variabile (sesso, età, reddito, opinione) per quel caso (il questionario 1, 2…n), e l’etichetta nella cella indicala risposta data.

L’operazione non è però semplice come potrebbe sembrare; molto spesso nei questionari è riscontrabile una certa quantità di errori (dovuti per lo più ad errori di registrazione delle risposte da parte degli intervistatori). Gi errori più comuni riguardano:

a) Le mancate risposte: è un errore molto comune e non correggibile; in fase di codifica si deve prevedere un campo per le

Figura

Tabella del piano di campionamento
Tabella delle interviste effettuate:
Tabella 3:  Età  30 anni o  meno  31-45 anni  46-60 anni  più di 60 anni  Totale Come ha saputo della festa?
Tabella 4:  Età  30 anni  o meno  31-45 anni  46-60 anni  più di  60 anni  Totale Vorrebbe più spettacoli  dal vivo?  N  N  N  N  N  No  23  54  30  19  126  musica  26  27  18  12  83  teatro  3  17  18  6  44  cabaret  19  22  12  7  60
+7

Riferimenti

Documenti correlati

È un software anche il Sistema Operativo, il sistema base, senza il quale tutti gli altri programmi non potrebbero essere utilizzati dal computer.. Esempi di sistemi

– Chi è formato all’uso delle tecnologie, e le pratica da tempo, tende ad avere una migliore prestazione nelle prove cognitive, ed ha una maggiore tendenza al gioco e alle

Webinar - Nuovo giornalismo pubblico e uso dei social media nella Pubblica Amministrazione... L’uso di

Con le Linee Guida per il Paesaggio (art. 13/2008) ci si è avvalsi dell’opportunità di agganciare la costruzione della RER con la contingente necessità di det- tare indirizzi

Preventiva e di Comunità, di Patologia Speciale Odontostomatologica, di Patologia Orale e di Malattie Odontostomatologiche – Corso di Laurea in Odontoiatria e Protesi Dentaria

Devono essere riportate: la profondità (in m) della falda e della fondazione rispetto al piano di campagna (nel caso di fondazioni a quote diverse fornire quella

Il prezzo da pagare è, però, alto e si quantifica in esperienza e capacità tecniche richieste per adottarlo sia in fase di pianificazione a tavolino del

 È protetta dal diritto d’autore ogni creazione intellettuale che abbia un pur minimo gradiente