• Non ci sono risultati.

Testi e computazioni: fondamenti conoscitivi delle edizioni digital

Federico Meschini, Università degli Studi della Tuscia, fmeschini@unitus.it

Le edizioni elettroniche sono la trasposizione mediale di contenuti e strutture testuali che per cinquecento anni sono stati indissolubilmente legati al libro stampato. Date le caratteristiche dei calcolatori elettronici, e in particolare l'aspetto computazionale (Ausiello et al. 2003), questo nuovo ambiente per la rappresentazione testuale è un qualcosa di totalmente differente e unico rispetto al precedente paradigma, le cui funzionalità sono ancora da esplorare e comprendere appieno (Robinson 2013). Utilizzando un approccio interdisciplinare, che attinge a diversi settori, dalla critica testuale all'informatica teorica, passando per la biblioteconomia, questa relazione vuole concentrarsi sulla natura precipua delle edizioni elettroniche, analizzando da un diverso punto di vista aspetti fino ad ora considerati non rilevanti e accessori.

62

A un primo sguardo una difficoltà non da poco è relativa al posizionamento cognitivo delle edizioni digitali, in una zona trasversale alla tradizionale separazione tra discipline nomotetiche da un lato e idiografiche dall’altro (Renzi, Andreose 2009). La critica testuale tende molto verso quest’ultimo aspetto, e altrimenti non potrebbe essere, a causa della forte idiosincrasia che caratterizza ogni opera letteraria, sia dal punto di vista del contenuto, sia per ciò che riguarda le modalità di creazione e disseminazione. Il modello cognitivo sottostante nella ricostruzione filologica sembra essere l’abduzione, una forma logica introdotta da C.S. Peirce: partendo dalle conclusioni è possibile supporre, ma non essere certi delle premesse (Peirce 1909). Ciò nonostante, un assoluto relativismo, nelle pratiche editoria, legato solo al giudizio soggettivo del curatore, è stato da tempo superato, così da avere dei criteri e dei procedimenti scientifici in grado di essere riutilizzati in contesti simili (Stussi 2006). Come conseguenza i modelli sviluppati fino ad ora, come ad esempio il metodo Lachmann (Timpanaro 1963), o la teoria del copy-text di Bowers-Greg (Greg 1950), hanno la loro natura fondativa basata su criteri formali e nomotetici, basti pensare alla legge di maggioranza o alle differenze strutturali tra accidentals e substantials. C’è quindi una tensione interna alla critica testuale: da un lato una tendenza verso l’idiografia e dall’altro la necessità di una componente nomotetica. Basti pensare alla relazione tra la filologia romanza e la linguistica e il loro ruolo di mutuale definizione, ben rappresentato dalle “Mani che disegnano” di Escher (Hofstadter 1979). La relazione tra informatica e critica testuale può essere quindi considerata come l’evoluzione di questa dinamicità intrinseca.

Passando a un livello pragmatico, in un saggio di bibliografia testuale, Neil Harris cita una definizione di W. W. Greg, secondo la quale "un libro creato in tipografia è un oggetto fisico, e quindi il primo compito della critica testuale è quello di scoprire i suoi segreti come prodotto" (Harris 2006). Una conseguenza logica è che, quindi, al cambiamento del medium sottostante, questa stessa attenzione verso aspetti "materiali" debba essere mantenuta, e non solo per una curiosità intellettuale, ma come un requisito fondamentale, dato che sono strettamente legati agli aspetti funzionali. Se questi ultimi nel codex sono rimasti pressoché invariati, nel supporto elettronico sono in continua evoluzione, in quanto si basano su principi logico-matematici che permettono di modellare infiniti mondi possibili (Torvalds 2001). Il volersi concentrare su un approccio pragmatico potrebbe sembrare apparentemente in contrasto con il livello teorico descritto in precedenza; ne è però in primo luogo la sua incarnazione concreta, e costituisce quelli che sono i codici tecnologici di un'edizione: documenti XML, fogli di stile, framework di pubblicazione, basi di dati, template grafici, programmi lato client e lato server, motori di ricerca e indici, ontologie e tutto ciò che va a comporre la complessa architettura di quello peculiare sistema informatico che è un'edizione. E, di conseguenza la loro importanza può essere paragonata ai codici bibliografici, la specifica fisicità dei documenti (McGann, 1983), essendo fondamentali per aspetti come l'interoperabilità e la conservazione.

Di conseguenza se si accetta la teoria di McGann, secondo la quale il libro è una macchina di conoscenza (McGann 2001), possiamo considerare allora l'edizione come un sistema di conoscenza, basata su delle specifiche macchine, e relativi meccanismi, sottostanti, ognuna di esse dotata di caratteristiche particolari, a seconda della tecnologia utilizzata. Fino a ora però la maggior parte delle riflessioni critiche si sono concentrare, per ragioni pragmatiche, sugli aspetti relativi alla trascrizione, che in un'ottica computazionale diventa una codifica testuale basata sui linguaggi di marcatura, come lo standard de facto promosso dalla Text Encoding Initiative (TEI Consortium 2014). Molto più scarso, ma non del tutto assente (Meschini 2008; Pierazzo 2011), è lo studio dell'altra estremità del processo editoriale: il meccanismo di pubblicazione, e di conseguenza, la forma dell'edizione stessa. Queste due estremità, codifica da un lato e pubblicazione dall'altro, essendo i passaggi più meccanici, sono quelli più vulnerabili ed esposti ai cambiamenti tecnologici, che ne modificano la natura sia epistemologica sia ontologica. (Mordenti 2001). Scopo di questa relazione è quindi quello di spostare il focus dei numerosi e precedenti tentativi di analisi

in relazione sia alla recente diffusione del Computational thinking (Wing 2006), e alle radici culturali

dell’informatica, un approccio che inizia ad essere preso in considerazione anche nel settore delle Digital Humanities (Berry 2011), e, più in generale, nell’ottica del superamento della divisione tra le due culture (Burnard 2000) o, andando a ritroso, della separazione gutenberghiana dei saperi tra scienze umane e scienze esatte (Chandra 2014). Le edizioni digitali sono da sempre uno degli aspetti più rilevanti dell’informatica umanistica, per la loro storia, diffusione, e combinazione di riflessioni teoriche e

63

applicazioni pratiche; data la loro importanza strategica, sia nel mondo accademico e culturale sia in quello editoriale, una migliore comprensione e divulgazione dei loro aspetti computazionali potrebbe aiutare a ridurre lo spessore del muro che attualmente divide le discipline umanistiche da quelle esatte, aiutandole così a uscire dalla nicchia sempre più stretta in cui vengono al momento collocate, e recuperando quindi il ruolo di primo piano cui hanno diritto. A un livello più generale questo avvicinamento disciplinare sottolineerebbe come sempre di più nel XXI secolo le due abilità fondamentali saranno narrazione da un lato e computazione dall’altro, insieme a tutte le loro possibili interrelazioni (Thaller 2014; Coleman 2015).

Riferimenti Bibliografici

Ausiello, G. D'Amore F. Gambosi G. 2003. Linguaggi, modelli, complessità, Scienze e tecnologie informatiche. Milano: Franco Angeli.

Berry, D. M. 2011. "The computational turn: Thinking about the digital humanities." Culture Machine 12.0:2.

Burnard, L. 2000. "From two cultures to digital culture: the rise of the digital demotic". <http://users.ox.ac.uk/~lou/wip/twocults.html>.

Chandra, V. 2014. Geek Sublime: The Beauty of Code, the Code of Beauty. Graywolf Press, Minneapolis, USA.

Coleman, D. 2015. "Count or Die: Why the Humanities Need Numbers to Survive". Aspen Ideas

Festival 2015. <http://www.aspenideas.org/session/count-or-die-why-humanities-need-numbers-

survive>.

Harris N. 2006. “Filologia dei testi a stampa”. In Stussi A. (ed.). Fondamenti di critica testuale. 2nd ed. Bologna: Il Mulino.

Hofstadter, D. R. 1979. Gödel, Escher, Bach: An Eternal Golden Braid, New York: Basic Books. Greg, W. W. 1950. The Rationale of Copy-Text. Studies in Bibliography 3 (1):19.

Greetham, D. C. 1994. Textual Scholarship: An Introduction. New York: Garland Publishing, Inc. McGann J. 1983. A Critique of Modern Textual Criticism. University of Virginia Press.

McGann J. 2001. Radiant Textuality: Literature after the World Wide Web. New York: Palgrave Macmillan.

Meschini, F. 2008. “Mercury ain’t what he used to be, but was he ever? Or do electronic scholarly editions have a mercurial attitude?”. International seminar of Digital Philology, Edinburgh, 2008. Mordenti R. 2001. Informatica e critica dei testi. Roma: Bulzoni.

Peirce, C. S. 1909. Existential Grapsh. Cambridge, MA: Houghton Library.

Pierazzo, E. 2011. "The Role of Technology in Scholarly Editing". TEI Members Meeting 2011,

Würzburg, http://epierazzo.blogspot.it/2011/10/role-of-technology-in-scholarly-editing.html.

Renzi, L., Andreose, A. 2009. Manuale di linguistica e filologia romanza, Manuali. Bologna: Il Mulino.

Robinson, P. 2013. “Towards a Theory of Digital Editions.” Variants 10.

Stussi, Alfredo, ed. 2006. Fondamenti di critica testuale. 2 ed. Bologna: Il Mulino.

TEI Consortium (a cura di). 2014. TEI P5: Guidelines for Electronic Text Encoding and Interchange. 2.6.0. Thaller, M. 2014. "Are the Humanities an endangered or a dominant species in the digital ecosystem?" AIUCD 2014, Bologna, Italy.

Torvalds L. 2001. Just For Fun. New York: Harper Business.

Timpanaro S. 1963. La genesi del metodo del Lachmann, Firenze: Le Monnier.

64