• Non ci sono risultati.

4.5. Strumenti e tecniche di analisi

4.5.3. Strumenti e tecniche di Content Analysis

La Content Analysis, come molti altri campi d’indagine in campo sociale, è stata oggetto di contaminazioni e sforzi di perfezionamento grazie ai diversi processi informatici.

Si è partiti, difatti, dall’elaborazione computerizzata di singoli schemi di frequenza, alla più articolata e moderna automazione delle attività di manipolazione, elaborazione e codifica dei dati.

conseguenza, la mancata valutazione dell’affidabilità dei risultati rende l’analisi del contenuto priva di senso” (Neuendorf, 2002, p. 141).

C’è da dire che l’intercorder reliability si basa su indici di correlazione che evidenziano il grado in cui “i valori attribuiti a valutazioni diverse non cambiano se espressi come deviazione dai loro significati” (Tinsley and Weiss, 2000, p. 98).

Tale misurazione è vitale ai fini dell’analisi del contenuto siccome permette di conseguire dei valori attendibili “solo nel caso in cui valutazioni diverse assegnino lo stesso valore a ciascuno degli oggetti analizzati” (Tinsley and Weiss, 2000, p. 98). Per tale motivo, l’intercoder reliability è una valutazione particolarmente apprezzabile per gli studiosi del marketing, poiché “un elevato livello di affidabilità evita che dai dati raccolti e analizzati scaturiscano cattive decisioni manageriali” (Rust and Cooil, 1994, p.11).

154 I software per l’automazione di questi compiti riproducono, in realtà, un’ efficace e opportuno sostegno per gli studiosi, cui è richiesta accuratezza nell’attuazione delle esplorazioni, al fine di assicurare quell’affidabilità, efficacia, capacità di fare inferenze e divulgare che assicura scientificità all’analisi del contenuto (Krippendorff, 1980; Kassarjian, 1977).

In tal senso, la Content analysis si è mostrata incline ad accettare i processi di analisi testuale computerizzata (Rositi, 1989; Amaturo, 1993; Losito, 1993; 1996; Bolasco, 1980; 1994; 1999; Sofia, 2005), specialmente quando ha come fine ultimo lo sviluppo di studi quantitativi e assume le qualità specifiche della cosiddetta semantica quantitativa (Losito, 1993; 2002; Lebart et al., 1998), in cui “le unità di classificazione coincidono con gli elementi significanti o con gli elementi della struttura linguistica” (Rositi, 1989, p. 71).

I primi esperimenti di automazione dell’analisi del contesto iniziano negli anni ‘50, quando molteplici ricercatori hanno cominciato a testare sistemi automatizzati per l’analisi della sintassi, la traduzione dinamica, il salvataggio, il recupero e l’indicizzazione di ingenti quantità d’informazioni letterali (Stone et al., 1966; Strati, 1997).

L’utilizzo di norme computerizzate complesse nell’analisi dei contenuti ha origine con la nascita dell’apparato del General Inquirer, che, congiuntamente alla sperimentazione - fatta dal MIT di Boston - d’innovativi sistemi informatizzati per l’elaborazione del linguaggio ordinario, hanno consentito “d’individuare, contare e catalogare gli elementi caratteristici di un testo” (Kassarjian, 1977, p. 15).

Il nocciolo indispensabile del sistema General Inquirer utilizzato nell’analisi del contenuto è un dizionario, in cui ogni vocabolo è composto da uno o più tag, ovvero fondamenti che riproducono e rimpiazzano le categorie consuete.

I primi programmi dotati di dizionari automatici o gestibili esplicitamente dagli utenti sono: il General Inquirer, maturato a Harvard negli anni ‘60, e lo Stanford Political Dictionary, fondato sul differenziale semantico.

Negli ultimi anni, si è assistito a un uso costante di procedure meccanizzate e software destinati all’analisi di unità limitate, ma molto diffuse come ad esempio la parola e “al conteggio del numero di occorrenze delle unità di analisi” (Kassarjian, 1977, p. 15).

155 Alcuni software, quali la versione riveduta del General Inquirer, integrano sistemi complessi d’intelligenza artificiale, con cui è possibile indicare e esaminare utilizzi differenti di una stessa parola attribuibili, primariamente, al contesto e/o al significato (Rosenberg et al., 1990; Silverman, 2000).

Particolarmente rilevanti ai fini dell’implementazione del modello operativo descritto nel capitolo 5 sono gli studi relativi al Lessico Grammatica (LG) che hanno lo scopo di descrivere dettagliatamente tutti i meccanismi combinatori (morfosintattici, distribuzionali e trasformazionali) che sono indissolubilmente legati alle entrate lessicali).

Proprio sui principi del Lessico Grammatica sono stati sviluppati dei software per l’analisi testuale automatica, tra cui NooJ.

Sebbene i software destinati alla Content Analysis siano sempre più consistenti ed eterogenei, è bene menzionare che tali programmi pur proponendo parecchi punti di forza, non sono esenti da complicazioni. Questi strumenti, invero, mostrano limiti connessi al fatto che i dati ottenuti devono essere inevitabilmente introdotti in un solo file comprendente l’intero campione252.

In generale, molti programmi per la Content Analysis permettono non solo l’automazione delle attività di codifica, ma anche il calcolo dell’affidabilità e del tasso d’accordo, che possono essere quantificate adoperando la nota funzione di SPSS o un’analoga funzione interna al programma253.

252 Questa peculiarità determina non pochi ostacoli, poiché molti software non supportano

l’esportazione diretta totale o parziale del fattore comunicativo oggetto di analisi, obbligando, così, gli studiosi a compiere frequentemente la monotona attività di copiare e incollare le risorse esaminate nella maschera di lavorazione del software (Rourke et al., 2001).

253 I software più usati per l’analisi del contenuto sono suddivisi in (Lowe, 2002):

- Programmi dictionary-based, destinati alla costruzione automatizzata di dizionari, grammatiche e altri dispositivi di analisi del testo;

- Programmi di annotation aid, rivolti all’esecuzione automatizzata di diverse forme di analisi del contenuto.

I programmi dictionary-based sono contraddistinti dalle funzioni base indispensabili per lo svolgimento dell’analisi testuale, tra cui: il conteggio e la classificazione delle occorrenze, nonché lo svolgimento di singole analisi statistiche.

Il secondo gruppo di applicativi, all'opposto, è composto da veri e propri ambienti di sviluppo più somiglianti ai linguaggi di programmazione specifici, che ai pacchetti software per l’analisi del contenuto (Lowe, 2002). I programmi di annotation aid consentono, ulteriormente, di trattare l’analisi dei contenuti in modo automatico, assicurando anche la trascrizione elettronica delle note, dei riferimenti e degli appunti che, abitualmente, uno studioso genera nel corso dell’analisi (Popping, 1997). La scelta del software da adoperare è intrinsecamente legata al tipo di analisi da trattare - quantitativa e/o qualitativa - e degli obiettivi della ricerca stessa (Morse, 1991; Morse and Field, 1995).

156