• Non ci sono risultati.

1. Fra molte altre cose, la rapida ascesa delle digital humanities nel corso degli ultimi due decenni ha comportato una forte spinta a sperimentare l’uso, anche nell’ambito della critica letteraria, di un ricco e vario set di strumenti di visualizzazione. Benché l’impiego nel discorso critico di grafici diagrammi mappe non costituisca, in sé, una novità assoluta (chi non ha in mente, per fare un solo esempio memorabile, lo schema del sistema dei personaggi dei Promessi sposi elaborato da Franco Fido in un celebre saggio del 1974?)(1), è del tutto evidente che le recenti evoluzioni dall’informatica applicata agli studi letterari abbiano prodotto, nell’uso di questo genere di risorse, uno scarto quantitativo e qualitativo che pone su un piano del tutto nuovo il problema del loro impatto sulle prassi di lavoro del critico.

Naturalmente la definizione puntuale (e la puntuale rivendicazione) di questo specifico potenziale rimodulante è uno dei temi favoriti di quel sottogenere critico ormai consolidato che sono diventati – come qualcuno li ha chiamati – i «“What is digital humanities?” essays»(2). Schematizzando un po’, si può dire comunque che sono essenzialmente due i suoi fronti di manifestazione. Da un lato il ricorso alla visualizzazione può e tende ad avere effetti sulla fase di analisi e modellizzazione descrittiva dell’oggetto di studio (sia esso un testo o un insieme di testi o un fenomeno socio-relazionale), nella misura in cui richiede la disponibilità – ed esplica la propria funzione euristica nel consentire il trattamento – di insiemi più o meno ricchi e complessi di dati. Dall’altro lato sono invece i paradigmi rappresentativi e retorici deputati a mediare la fase di sintesi – cioè appunto di formalizzazione, espressione, socializzazione di un certo repertorio di “contenuti di conoscenza” – a risultarne movimentati dalla disponibilità di un ricchissimo spettro di nuovi strumenti e opzioni “espositive”, che problematizzano la tradizionale centralità del saggio argomentativo in prosa (specialmente l’ambiente interattivo e plurimediale della Rete intensifica in massimo grado la libertà nell’ideazione di ambienti e/o formati ibridi).

Le due questioni sono in realtà, è ovvio, strettamente intrecciate, e concorrono a illuminare quanto seria e cruciale sia la sfida di fronte alle quale oggi sono posti non solo (non più) i tanti o pochi cultori di una prospettiva di metodo fra altre, ma di fatto l’intero campo della ricerca umanistica del ventunesimo secolo. Senza l’ambizione di affrontare in modo organico le complesse questioni metodologiche sollevate da questa prospettiva di integrazione dialettica fra scienze informatiche e studi letterari, nelle prossime pagine mi limiterò ad illustrare l’esempio di un possibile modo di confrontarsi con quelle questioni, attraverso le riflessioni di metodo e strategie progettuali in base a cui, nel corso di un progetto di ricerca su Mario Soldati sviluppato insieme a Bruno Falcetto(3), abbiamo provato a immaginare la fisionomia di un prodotto critico di natura plurimediale e interattiva (secondo il formato che gli autori di Umanistica_Digitale definiscono documentario di database)(4).

Per chiarire la prospettiva in cui il progetto è nato, è importate considerare una caratteristica polarità che sembra caratterizzare i modi di percepire e concepire il ruolo degli strumenti di visualizzazione negli studi letterari (e anche più in generale, per questa via, il rapporto fra “vecchia” critica analogica e “nuova” critica digitale). Essa ha la sua spia più evidente nella differente enfasi posta, a seconda dei casi e delle prospettive, sulla valenza propriamente euristica ovvero sulla natura essenzialmente retorica di quegli strumenti (ovvero appunto sull’uno o sull’altro dei principali livelli o momenti del lavoro critico che, come ho anticipato all’inizio, il loro impiego sembra sollecitare ed esporre ad una possibile rimodulazione).

Nel primo caso l’accento batte anzitutto sull’idea che l’applicazione agli studi letterari di metodiche di ispirazione statistico/quantitativa, tipiche di un approccio computazionale di norma piuttosto estraneo alle procedure della ricerca umanistica, consentirebbe di accedere ad un insieme di conoscenze (e ad una tipologia di conoscenza) normalmente preclusi alla tradizionale critica “analogica”. Dispositivi indispensabili per, e intrinsecamente votati a, esplorare manipolare interpretare una serie di dati (tipicamente, grandi volumi di dati), essi sarebbero il veicolo elettivo

per un salutare riavvicinamento dei metodi della critica letteraria (con la loro caratteristica dipendenza da procedure interpretative soggettive, spesso fondate su presupposti impliciti) ai più razionali, espliciti e controllabili protocolli delle scienze dure o, se non altro, delle scienze sociali. È una posizione ben rappresentata, notoriamente, dall’approccio che Franco Moretti ha chiamato «distant reading», con il suo appello suggestivo e un po’ provocatorio (opportunamente provocatorio, anche) ad uno spostamento di sguardo che, ai fumosi funambolismi della «Theory» post-strutturalista, sostituisca appunto il più «razionale» modello delle «scienze naturali e sociali» (opponendo nel contempo all’ossessione per la singolarità eccezionale, l’unicità irripetibile, l’interesse per la «gran massa dei fatti»)(5). Ma non meno paradigmatico, da questo punto di vista, è l’approccio di tante ricerche orientate all’impiego critico-interpretativo di tecniche di analisi automatica dei testi. Ad esempio in uno dei capisaldi della cosiddetta stylometry (o stilistica computazionale) Wayne McKenna, John Burrows e Alexis Antonia sottoponevano la trilogia romanzesca di Samuel Beckett (Malloy, Malone muore e L’innominabile) ad una classica procedura di analisi statistica multivariata, interpretandone i risultati attraverso una serie di grafici a dispersione che traducevano in rapporti spaziali le somiglianze stilometriche “misurate” dall’algoritmo fra diversi segmenti testuali del corpus.(6) Il fatto rilevante è che la procedura d’analisi ha qui una natura rigorosamente esplorativa/induttiva: a guidarla non sono cioè le percezioni/intuizioni soggettive del critico in ordine ai tratti distintivi dello stile di Beckett, ma una serie di dati e rapporti infratestuali “trovati” in modo autonomo da un algoritmo statistico. Certo gli autori del saggio hanno idee abbastanza precise (maturate attraverso tradizionalissime procedure di close reading) rispetto alla fisionomia stilistica e strutturale dei romanzi di Beckett: ed è a quelle che ricorrono per interpretare, dotandoli di significato, i rapporti di prossimità/distanza che il grafico a dispersione “mostra”. Ad attivarsene è una dialettica di confronto fra ciò che “vede” l’algoritmo e ciò che “vede” lo studioso che, alla lunga, è funzionale alla scoperta/identificazione di una serie di modelli predittivi indiziari benché essenzialmente obliqui, formalizzati in schematici ma rigorosi ed espliciti termini statistici, in grado di approssimare al meglio le più complesse ma largamente implicite procedure interpretative dell’osservatore.

È precisamente questo d’altronde il meccanismo di funzionamento che, come ha più volte puntualizzato Willard McCarty, contraddistingue lo «stile di ragionamento scientifico» della modellizzazione, di cui l’avvento della computazione informatica costituisce un potente facilitatore e amplificatore: se la natura discontinua delle rappresentazioni digitali, vincolate alla logica binaria dell’ «1» o «0», enfatizza la costitutiva trascendenza dell’artefatto culturale rispetto a qualunque sua rappresentazione (più di quanto non accada con le modellizzazioni analogiche, con la loro tensione a riprodurne le caratteristiche attraverso un mimetismo “continuo”), per altro verso consente una decisiva accelerazione del ciclo di reiterata prototipazione-verifica-raffinamento del modello in vista di una progressiva riduzione del suo grado di approssimazione, che di fatto determina uno slittamento del baricentro d’attenzione e interesse dal modello in sé all’attività del modellare:

Reasoning by constructing representations, then seeing how well they do in comparison to their originals, is intrinsic to how we think, I suspect. Traditional scholarship typically approaches the transcendence of artifacts by classification and categorization, then by studying how the individual work infects or even violates the categories to which it has been assigned. The deliberate implementation of this style of reasoning began in the sciences centuries ago, where such representations are called models. Computing has made a radical difference to model-building in the sciences by reducing the time required to construct and reconstruct them, typically by an order of magnitude or more. (…) But the difference is not just a matter of efficiency. Since we are creatures in time, and time-scale shapes how we conceptualize and act in the world, this radical speeding up means a shift in thinking, from a focus on and investment in the thing to a focus on and commitment to the activity of changing it – from, that is, models to modeling. (7)

Da questo punto di vista, la vera “missione” delle digital humanities – o insomma il loro più prezioso ruolo e contributo funzionale come meta-disciplina – consisterebbe appunto nel mediare l’installazione di questo paradigma metodologico all’interno delle discipline umanistiche: piuttosto che «un nuovo stile di ragionamento scientifico», l’informatica si configura insomma come una cornice o schema «all’interno del quale precedenti (e forse nuovi) stili di ragionamento possono

essere rappresentati e applicati» (p. 15). Ciò di fatto determina le condizioni – secondo McCarty – per una epocale riconfigurazione della tradizionale opposizione polare fra Le due culture (per riprendere il titolo del celeberrimo saggio di Charles Percy Snow), così come è stata percepita e descritta da una lunga tradizione di pensatori: in definitiva, il confronto con l’informatica è per gli umanisti una straordinaria opportunità per provare ad esplicitare i presupposti largamente impliciti del loro sapere, formalizzando e dunque rendendo controllabili, verificabili, le procedure in base a cui operano:

The gift of computing to the humanities is as much or more creative as it is instrumental. By inducing us to model our heretofore largely tacit methods, it invites us to look backwards to what we have done and forwards to what we can imagine with it. It simultaneously raises the question of how we know what we know and gives us the external means of probing for an answer (or, rather, a better question) by means of a digital approximation. (8)

Detto altrimenti, il fondamentale imperativo cui la prospettiva metodologica delle digital humanities espone anche critica letteraria consiste – per riprendere questa volta una indicazione di Franco Moretti – nella adozione di quello che P.W. Bridgman, in avvio del suo Logic of modern physics (1927), chiamava «the operational point of view». «Operazionalizzare»: cioè disporsi a ritenere che un concetto sia definito quando sono definite le operazioni necessarie a misurarlo. In quest’ottica «operazionalizing means building a bridge from concepts to measurement, and then to the world. In our case: from the concepts of literary theory, through some form of quantification, to literary texts»(9).

Che il confronto con questa prospettiva sia davvero una sfida da non rifiutare, credo sia difficile non riconoscerlo. Rispetto ad altre proposte di “scientizzare” lo studio dei testi e dei sistemi letterari – che nel passato più e meno recente non sono certo mancate – ciò che distingue questi nuovi approcci è proprio l’enfasi posta, da un lato, sulle indubbie potenzialità di un repertorio di strumenti (che per funzionare impongono al ricercatore certi vincoli procedurali, ma non presuppongono in sé un metodo); e, dall’altro, su nozioni essenzialmente anti-sostanzialiste e costruttiviste come quelle di rappresentazione, modellizzazione, approssimazione. Certo che poi, è fin troppo ovvio osservarlo, ci sono compiti e aspetti del lavoro critico (e più in generale, del nostro rapporto con i testi letterari) rispetto ai quali l’aspirazione a operazionalizzare può rivelarsi non solo di difficile e, talora, molto onerosa applicabilità (in qualche caso troppo, in rapporto ai vantaggi che se ne otterrebbero) sul piano tecnico, ma senz’altro discutibile e inappropriata su quello teorico. Da questo punto di vista resta prezioso l’invito di Jerome McGann a pensare al computer non tanto «as a kind of brain», ma piuttosto «as a kind of book» («a machine for processing a variety of simbolic forms organized in looping autopoietic structures»)(10). Detto altrimenti, e più in generale: perché la sintesi disciplinare cui la nozione di umanistica digitale allude sia davvero produttiva, è bene che accanto alle tante domande intorno a cosa possono fare le tecnologie informatiche per noi umanisti (o per noi critici letterari), non manchino mai le domande intorno a cosa può fare una prospettiva umanistica con e rispetto a quelle tecnologie e procedure.

Uno dei possibili equivoci che questa sfida comporta, ad esempio, lo si può illustrare (in modo un po’ obliquo e malizioso, lo ammetto, ma utile adesso per capirci) proseguendo nella lettura dell’articolo di Moretti, che si propone di offrire un esempio concreto di applicazione del «punto di vista operazionale» alla teoria letteraria lavorando sul concetto di “spazio-personaggio” proposto da Alex Woloch. Senonché, constatata la difficoltà di distinguere in modo netto, in un passo del primo capitolo di Orgoglio e pregiudizio, fra i confini dello spazio-personaggio del signore e della signora Bennet, l’autore osserva: «Plays are easier in this respect: as there are no ambiguities in how words are distributed among the various speakers, character-space turns smoothly in “word-space”». E infatti l’intero saggio consiste, da lì in poi, in una ricca, sofisticata, indubbiamente interessante analisi a base computazionale (mediata da efficacissimi grafici e visualizzazioni) del sistema degli spazi-personaggi nei drammi di Shakespeare. Alla fine del saggio, però, la domanda è inevitabile: ma a orientare la nostra ricerca devono essere certi interessi intorno ad aspetti del nostro oggetto di studio (ad esempio: la nozione di spazio-personaggio nel romanzo), oppure le possibilità di più

agevole ed efficace applicazione di un repertorio di strumenti e metodiche analitiche? Va’ dove ti porta la computabilità – non è una prospettiva troppo allettante.

Per converso, una delle vie maestre per chiarire che nel sintagma digital humanities il polo humanities non si limita a offrire un campo d’esercizio per una metodologia digital importata da altrove, consiste appunto nella piena valorizzazione della dimensione retorica che inerisce anche a quel tipo di strumenti e metodiche statistico/computazionali. Qui il sofisticato patrimonio di sensibilità e competenze maturato nell’analisi e interpretazione dei testi letterari può rivelarsi una risorsa preziosa, da rivendicare e mettere a frutto con il massimo profitto. Nessuno meglio di un critico letterario, insomma, dovrebbe aver chiaro che una nozione come quella di «“raw data”» è in sé «a bit misleading»(11): se i dati non sono mai, in sé e per sé, delle «informazioni» né tanto meno delle «prove», ma piuttosto oggetti sfaccettati («multifaced objects») che possono essere mobilitati come prove in supporto di un argomento, un umanista può e dovrebbe sempre insistere sulla necessità di guardarli e interpretarli, a loro volta, come degli artefatti («always, at least indirectly, created by people»), anzi come «authored work (…) created for an audience»: molto simili per questo rispetto a dei veri e propri testi, che sarebbe massimamente vantaggioso considerare «employing a reader-response theory approach»(12). In termini più strutturati (e nel contempo anche più radicali), considerazioni analoghe hanno un ruolo centrale nella riflessione teorica di Johanna Drucker, che a più riprese ha osservato come i procedimenti di visualizzazione che vanno diffondendosi nell’ambito delle digital humanities siano o possano rivelarsi «a kind of intellectual Trojan horse, a vehicle through which assumptions about what constitutes information swarm with potent force»:

To overturn the assumptions that structure conventions acquired from other domains requires that we re-examine the intellectual foundations of digital humanities, putting techniques of graphical display on a foundation that is humanistic at its base. This requires first and foremost that we reconceive all data as capta. Differences in the etymological roots of the terms data and capta make the distinction between constructivist and realist approaches clear. Capta is "taken" actively while data is assumed to be a "given" able to be recorded and observed. From this distinction, a world of differences arises. Humanistic inquiry acknowledges the situated, partial, and constitutive character of knowledge production, the recognition that knowledge is constructed, taken, not simply given as a natural representation of pre-existing fact. (13)

In effetti la formula «data as capta» riassume bene il ruolo di reagente attivo che la sensibilità teorico/metodologica dell’umanista, mentre viene provocata dall’incontro con i metodi della computazione statistica, può a sua volta esprimere nei loro confronti. Il versante più incisivo del discorso di Drucker consiste d’altronde nel prospettare non solo un atteggiamento di “lettura”, ma uno stile intellettuale e operativo per affrontare un ripensamento creativo degli strumenti digitali per la visualizzazione «on basic principles of the humanities»:

I take these principles to be, first, that the humanities are committed to the concept of knowledge as interpretation, and, second, that the apprehension of the phenomena of the physical, social, cultural world is through constructed and constitutive acts, not mechanistic or naturalistic representations of pre-existing or self-evident information. (…) The rhetorical force of graphical display is too important a field for its design to be adopted without critical scrutiny and the full force of theoretical insight. (14)

In particolare, Drucker delinea due possibili direttrici attraverso cui declinare questo impegno: la prima è quella di immaginare e sviluppare metodi di visualizzazione funzionali ad assolvere «the task of representing ambiguity and uncertainty»; la seconda è quella di usare «interpretations that arise in observer-codependence, characterized by ambiguity and uncertainty, as the basis on which a representation is constructed»(15). In definitiva, l’invito è alla messa a punto, e nello stesso tempo alla messa in scena, di una serie di nuove retoriche del mostrare (Drucker parla di «expressive metrics and graphics»(16)) che esibiscano in modo forte, anche ruvido, la propria presenza, richiamando l’attenzione del fruitore sulla pervasività (e sulla ineliminabilità, in definitiva) degli effetti di filtro: “disautomatizzando” insomma l’insidiosa apparenza di neutralità e trasparenza che costituisce l’alone percettivo inerziale di questi strumenti. (17)

2. È soprattutto l’interesse per questo tipo di prospettiva ad averci persuasi a misurarci con la progettazione di un «documentario di database» su Mario Soldati. In via preliminare, ecco come gli autori di Umanistica_Digitale descrivono i tratti strutturali essenziali di questo proteiforme formato o genere:

I documentari di database sono caratterizzati da una natura modulare e combinatoria, ramificata e ipertestuale, e sono spesso strutturati più come un pezzo in prosa multimediale che come un film tradizionale. Composto da una serie di tracce che si sviluppano attraverso un database reale o virtuale, il documentario può essere costruito a partire da una vasta gamma di supporti: oltre a film e video, anche audio, immagini statiche, testo, animazioni, documenti reali o il loro equivalente digitale, ma anche feed dinamici del World Wild Web. I documentari di database sono multilineari. Come tali, non sono guardati, ma fruiti, attivati ed eseguiti da un lettore-spettatore al quale viene offerta una serie di percorsi guidati. (…) In tal senso, i documentari di database ricordano i percorsi di visita delle mostre fisiche, che sono relativamente più aperti e meno lineari di quelli dei testi sequenziali. (…) Detto ciò, la possibilità di interpolare differenti insiemi di dati per raccontare storie interconnesse offre nuove e potenti modalità di argomentazione scientifica nonché di espressione immaginativa. (18)

L’opzione metodologica generale cui ci siamo attenuti, nel declinare concretamente questo ricchissimo assortimento di opzioni architettoniche e costruttive, è stata quella di enfatizzare funzionalmente, ma anche di esibire e rendere percepibile, il rapporto stretto fra l’adozione di certe strutture e retoriche espositive e le operazioni critico/interpretative ad esse associate (o da esse veicolate), con i loro effetti di significato. Usare insomma le risorse tecniche del documentario di database (o web-doc, come spesso viene anche chiamato) come dispositivi di messa in evidenza di una pluralità di modi dello sguardo critico: con il doppio obiettivo, per un verso, di sollecitare il fruitore a sperimentare e riconoscere – proprio attraverso i modi dell’esperienza di fruizione in cui è coinvolto – la specifica forza euristica di ciascuna; e provvedendo però, nel contempo, ad attivare meccanismi di alternanza o interferenza tesi ad esporle ad un effetto di reciproca problematizzazione e relativizzazione disautomatizzante.

Concretamente, a modellare la progettazione dell’impianto del documentario è stato anzitutto lo specifico baricentro d’interesse critico che animava il nostro progetto di ricerca, dedicato a Mario Soldati e gli italiani che cambiano (1957-1979). L’idea era insomma quella di stringere l’attenzione sul Soldati osservatore e narratore dell’Italia in cammino rapido verso la società dei consumi e del benessere, mettendo l’accento su una parte importante ma ancora relativamente poco indagata della sua opera, contraddistinta dalla propensione all’esplorazione inventiva di una forte varietà di forme testuali e linguaggi mediali (anche in funzione di un dialogo intenso con un orizzonte di pubblico