• Non ci sono risultati.

Le fonti della storia come dati

A partire dagli anni Sessanta e con maggiore forza negli anni Settanta, l’uso del computer nell’ambito degli studi storici iniziò a consolidarsi poiché facilitava l’analisi dei dati per il metodo storico quantitativo. L’ambito era quello della storia sociale che si occupa di indagare attraverso dati statistici i processi di urbanizzazione, migratori, mobilità sociale, della schiavitù con naturali contaminazioni di ambiti economici, geografici, etnoantropologici e politici. La tradizione della storia sociale può senza dubbio dirsi legata alla scuola francese degli Annales, ispirata dalla visione della storia come longue durée e dei cicli congiunturali (Vitali, 2004) ancor prima di una vera e propria contaminazione con gli strumenti informatici, ma senza dubbio già legata a modelli matematici che permettevano non solo di tentare opportune analisi sul passato, ma anche di indicare possibili previsioni sul futuro . 148

Manifesto di questo approccio può essere considerato il saggio pubblicato nel 1974 di Emmanuel Le Roy Ladurie History That Stands Still, che riassume bene gli obiettivi e le ambizioni della scuola degli Annales (Edelstein, Findlen, Ceserani, et al 2017).

L’unione tra il metodo statistico-quantitativo, quindi basato sui numeri, e l’interpretazione dell’evento storico viene definito Cliometria o new economy history, è ritenuto certamente interessante nell’ambito del concetto allargato delle Digital Humanities per via delle metodologie usate sia dal punto di vista informatico che per le considerazioni sul riuso dei dati condivisi, tema centrale dell’open knowledge e dei Linked open data.

Lo studio della storia, come si sa, trae il suo fondamento attraverso la ricerca archivistica e bibliografica: il documento testuale è la materia prima attraverso il quale lo studioso cerca di ricostruire una vicenda ed il laboratorio dello storico è composto prevalentemente da archivi e biblioteche. La storiografia tradizionale affida all’oggettività del documento la narrazione della conoscenza storica stessa, ma l’affermarsi della storia seriale deve all’informatica la genesi di teorie e modelli epistemologi precisi (Vitali, 2004). Infatti se la storia sociale vuole usare il metodo quantitativo deve, per metodologia di ricerca, necessariamente basarsi sulla creazione di database quantitativi, attraverso database management system, e modelli statistici. Questo significa che dai documenti testuali è necessario estrapolare le informazioni e ridurle in “tabelle” poter procedere ad un’analisi quantitativa di una porzione di universo. La

Secondo Turchin questo genere di approccio, che estende le potenzialità della cliometria alla computazione 148

per la produttività ispirandosi a metodologie di eredità delle scienze biologiche sono da definirsi con il neologismo Cliodinamica. Secondo Turchin, infatti, la cliodinamica basandosi sui lunghi cicli della storia vuole porre in enfasi il dato predittivo basandosi sulla regolarità di alcuni fenomeni quali ad esempio la crisi sociale data dalla crescita costante della popolazione che provoca l’aumento dei prezzi, la riduzione dei salari e povertà rurale e migrazione urbana. (cfr Bennato, 2015)

questione centrale è nel modello di rappresentazione della realtà e quindi dell’astrazione concettuale della parte di universo che si intende analizzare, un’ontologia insomma. La portata epistemologica sta proprio nella relazione che lo storico instaura tra le fonti in suo possesso e le modalità con cui decide di rappresentarle, poiché è lì che compie la scelta di costruzione del proprio studio (Furet, 1974). 

Negli ultimi quindici anni con l’uso dei sistemi Internet di comunicazione, la condivisione dei database e dei dati bibliografici e archivistici si inaugurata un’era nuova dei dati, quella dei “Big Data”, che non sono solo grandi e abbondanti ma come abbiamo visto interconnessi. Come lo storico sociale si muove in questa nuova dimensione nello studio computazionale della sua disciplina? Se da una parte, infatti, si beneficia di una tanta grande quantità di informazioni subito a disposizione, dall’altra parte pare, invece, che lo studioso possa perdersi nel mare magnum dei dati senza trovare più il contatto con la sua materia prima, i documenti, e la ricerca bibliografica indispensabile per l’interpretazione dei dati stessi.

L’opportunità fornita dalla disponibilità così elevata di dati unitamente al grado di tecnologia in cui gli studiosi sono quotidianamente immersi può naturalmente ispirare nuove domande, nuovi segni interpretativi sulle fonti in loro possesso, perché fornisce punti di vista inediti attraverso cui guardare le informazioni fino a qual momento possedute, consolidando ipotesi o ponendo nuovi interrogativi su questioni che si ritenevano “scontate” (Edelstein, Findlen, Ceserani, et al 2017) . Lo studioso di storia sociale può porsi poi nuovi obiettivi su come manipolare, custodire e visualizzare i dati raccolti e aggregati per cercare modelli interpretativi possibili sfruttando soprattutto le opportunità fornite dalla data visualization. L’uso di grafici, che sono paragrafi sui dati e presentazioni delle informazioni (Tufte, 1983) consentono da una parte la narrazione a terzi dell’evento storico, ma anche allo storico di osservare in modo trasparente le informazioni soggiacenti (Bolter, 2001). Non si tratta dunque di convertire la storia tradizionale tout-court in cliometria o di imporre il modello computazionale come unico possibile, ma essere coscienti che esistono strumenti a supporto di discipline più tradizionali.

Certo è che i limiti della metodologia sono ancora persistenti e risalgono alla sua fondazione. Innanzi tutto i costi relativi al rapporto tra le tecnologie necessarie a sviluppare progetti che abbiano poi effettivamente un valore per la comunità scientifica, e non, da più punti di vista149.

Come si è ben compreso alla base della metodologia ci sono di dati che devono essere raccolti ed ordinati in appositi database, prevedendo la costruzione del modello concettuale basato su entità, attributi e relazioni significative. Il modello concettuale è dunque cruciale nella definizione del database e dell’intera strutturazione della ricerca perché in esso andranno a collocarsi le informazioni tratte dai testi, ed è cioè che secondo Vitali attribuisce all’intera operazione valore epistemologico. Trarre le informazioni dai testi significa confrontarsi con

L’utilizzo ad esempio dei software specifici per la conservazione dei dati “storici” era assolutamente 149

proibitivo. Ad esempio nel 1987 venne rilasciato “Clio” da una software house che naturalmente aveva costi di gestione e di implementazione elevatissimi. Con la diffusione dei sistemi web si sono resi disponibili sistemi con costi senza dubbio più contenuti, soprattutto a seguito dalla direzione univoca seguita dai “produttori di dati” con i linguaggi di marcatura prima in SGML e poi in XML. Il problema però del rapporto costi/benefici in ambito tecnologico non è superato.

qualità di dati spesso eterogenei in cui ed anche quando si tratta di inserimento di dati che possono apparire di natura oggettiva, quali ad esempio quelli geografici o i nomi e i cognomi. Ciò nonostante si può incorrere in varianti ortografiche, in casi di sinonimia, polisemia. Per l’umanista la perdita di talune informazioni di contesto, come quelle appena esposte, può divenire problematica, d’altro canto il sacrificio di alcuni valori è insito nella riduzione dell’universo in uno schema ridotto di informazioni. Questo processo di mediazione tra la conservazione e la rinuncia rende opaco il dato stesso. Le fonti storiche, umanistiche in genere, vengono definite fuzzy (nebuloso, sfocato)150 e di conseguenza la logica che sottende alla funzioni del metodo storico quantistico è spesso considerata fuzzy.

É però che le possibilità ancora inespresse consentite dall’uso delle tecnologie informatiche e amplificate da quelle semantiche e dei linked open data permettono allo storico di studiare una quantità di dati che fino a poco tempo fa era solamente inimmaginabile e in tempi tutto sommato limitati fornendo una solida base di stato degli studi per coloro che vorranno riusare il lavoro svolto anche con metodologie più tradizionali.

Un progetto interessante di storia sociale attraverso la manipolazione e mappatura dei dati è quello californiano condotto in seno alla Stanford University che esprime alcune problematiche tipiche di progetti di Digital Humanities come quelli fino adesso elencati ma anche le caratteristiche più esaltanti come il lavoro in team di differenti aree. Mapping the Republic of Letters ha puntato alla riscoperta del network sociale tra XVIII e XIX secolo basandosi prevalentemente sulla mappatura dello scambio epistolare appunto tra uomini e donne provenienti dall’Europa e Nord America, tentando di porsi alcuni interrogativi sulla natura del cosmopolitismo e come nel corso del tempo anche le modalità di comunicazione tra gli uomini siano cambiate.

2. Il Caso Studio: Mapping the Republic of Letters