• Non ci sono risultati.

3. LA COMUNICAZIONE DI ELON MUSK

3.1 L’analisi del contenuto

In prima battuta riteniamo utile definire che cosa intendiamo con il concetto di analisi del contenuto ed esplicitare altri concetti, i quali ci torneranno utili nelle pagine seguenti nel momento in cui

andremo a esporre quanto emerso dalla nostra ricerca. Per quanto riguarda l’analisi del contenuto, stiamo parlando di uno strumento di ricerca per indagare sui testi, scritti o parlati che siano, riguardo a questioni di natura letteraria (Cortelazzo, 2013). Perciò, ora ci poniamo da una prospettiva linguistica e in parte anche statistica. Per la nostra ricerca sulle presentazioni di Elon Musk abbiamo fatto affidamento sulla teoria dell’analisi del contenuto studiata da alcuni docenti del corso di laurea magistrale in Strategie di comunicazione dell’Università degli Studi di Padova. In particolare, ci riferiamo alle opere del professor Michele A. Cortelazzo per quanto riguarda le considerazioni linguistiche, mentre abbiamo fatto riferimento alla teoria formalizzata dalla professoressa Arjuna Tuzzi e dai suoi collaboratori per le questioni metodologiche e statistiche. Inoltre, per le definizioni dei concetti che andremo a illustrare nelle prossime pagine e per le interpretazioni dei dati emersi dalla nostra ricerca, ci siamo basati sul modus operandi e sulla teoria elaborata dal Giat. Si tratta del Gruppo Interdisciplinare di Analisi Testuale dell’università di Padova, il quale riunisce diversi docenti e ricercatori di varie discipline e ambiti accademici nello studio dell’analisi testuale.

Sui testi è possibile effettuare delle misure e produrre dei dati, i quali vengono trattati ed elaborati statisticamente, al fine di ottenere informazioni e una conoscenza più approfondita del testo, la quale non emerge naturalmente da esso attraverso una semplice lettura. Questa conoscenza sarà, dunque, frutto d’interpretazione secondo la commistione di una prospettiva linguistica, statistica e, nel nostro caso specifico, anche di marketing e comunicazione.

Iniziamo dando alcune definizioni utili per inquadrare i concetti che useremo e che saranno esposti a breve. Abbiamo parlato di testo e con ciò intendiamo un insieme di parole, cioè stringhe di caratteri

comprese tra due spazi bianchi (Tuzzi, 2003). Quest’accezione è diversa da quella semiotica, la quale definisce come testo una qualsiasi porzione di mondo soggetta a interpretazione. In questo senso, anche un’immagine o una sinfonia possono essere considerate un testo. Per la nostra analisi, invece, è sufficiente parlare di testo in senso più stretto. Dunque, i testi utilizzati per l’analisi del contenuto sono rappresentati dai file contenenti le trascrizioni delle parole di Elon Musk.

L’analisi del contenuto, come prassi sempre più comune, si affida anche a strumenti automatici, i quali possono indirizzare efficacemente la ricerca senza sforzi eccessivi da parte dei ricercatori. Questo accade perché spesso i corpora sui quali si deve operare sono di dimensioni significative, per cui diventa arduo per la semplice mente umana riuscire a dominare una mole davvero consistente di dati e informazioni. Esistono, infatti, software specifici, i quali trattano i testi dal punto di vista statistico o matematico, per esempio. In ogni caso, è importante tenere ben presente che non esiste il sistema migliore in assoluto, ma si hanno a disposizione diversi software da impiegare e diverse operazioni che si possono effettuare sui testi. I risultati perciò possono variare, anche di molto, e tutto dipende da cosa si va a indagare e dal metodo adottato per procedere, il quale viene scelto di volta in volta, in base agli obiettivi di ricerca. Dunque, è bene porsi in maniera critica: usiamo i software perché rappresentano un valido aiuto, ma dobbiamo capirne il funzionamento per un uso consapevole. In questo modo evitiamo di giungere a conclusioni distorte o banalizzazioni e possiamo pensare di aver maturato una riflessione dalle basi più solide (Cortelazzo, 2013). Altre considerazioni preliminari necessarie a mettere in guardia dai facili entusiasmi riguardano i limiti di questi software. Prima di iniziare a

lavorare sui testi bisogna fare alcune operazioni di pulizia, in modo da preparare il corpus e avere in seguito restituiti dati più raffinati. Per esempio, le parole che compaiono con frequenze alte oppure basse possono venire escluse dall’elaborazione, perché ci dicono ben poco. Esistono anche certi indici, i quali ci danno un’idea circa la qualità del corpus costruito e servono a indicarci una misura di quanto può convenire fare affidamento sui risultati ottenuti. In seguito andremo a vedere in maggior dettaglio gli indici usati per il nostro corpus di testi di Elon Musk. Altre operazioni preliminari all’elaborazione riguardano anche quelle parole che compaiono solamente una volta. Esse vengono eliminate, perché il loro manifestarsi è più probabile nei testi più corti, quindi non è possibile capire i tratti più interessanti dello stile dell’autore, come le sue significatività ed esclusività. Invece, è molto più interessante concentrarsi sulle parole che appartengono alla fascia delle frequenze medie, ma questo comunque comporta una perdita d’informazione, per quanto piccola essa possa essere. Vedremo nel paragrafo successivo dedicato alla trattazione del corpus come si definiscono queste fasce di frequenza. In altri casi, invece, dipende dal funzionamento del software. Alcuni di essi lavorano su base lessicale e questo significa che a perdersi è tutta quella parte d’informazione concernente la semantica (Tuzzi, 2003). Facciamo un esempio per chiarire: durante l’elaborazione, il testo viene trasformato in una lista di parole e di ciascuna vengono contate le occorrenze, cioè il numero di volte che ogni parola appare nei testi, ma solamente in base alla propria morfologia. Significa che la parola “faccia” viene considerata la stessa, sia che si tratti del sostantivo che indica il volto, sia che si tratti di una delle voci del verbo “fare”. Notiamo come l’informazione sul significato venga appiattita e si perda questa differenza, poiché si considera unicamente l’aspetto della

singola sequenza di caratteri. Nonostante ciò, la medesima approssimazione, intrinseca al funzionamento del software utilizzato, viene impiegata nell’elaborazione di tutti i testi presi in esame, quindi l’errore che si commette viene distribuito. Se c’interessasse l’informazione semantica, cioè quella sul significato delle parole, allora useremmo un programma diverso. In ogni caso, ciò ci fa comprendere l’importanza di conoscere gli strumenti che utilizziamo e d’impiegarli in modo consapevole e coerente rispetto ai nostri obiettivi di ricerca.