Copia digitale ed archiviazione di documenti
Giovanni E. Gigante
Corso di studi in Tecnologie per la Conservazione ed il Restauro dei Beni Culturali, Facoltà di Scienze MFN,
Università degli Studi di Roma “La Sapienza”
1. I NTRODUZIONE
Chi ha a cuore la tutela dei documenti e delle opere d’interesse storico-artistico o chi vuole, con diverse finalità, farli circolare e conoscere meglio è impegnato nella produzione di copie di documenti e libri. In questa pratica sono state impiegate tutte le tecnologie disponibili nelle diverse epoche; ad esempio nell’alto medioevo schiere di monaci usavano produrre copie a mano, successivamente risultate preziose, di testi antichi. Nell’era del digitale (com’è spesso chiamata l’attuale periodo storico) si deve affrontare il problema di come le affascinanti tecnologie messe a nostra disposizione dallo sviluppo della tecnologia informatica possano essere utilmente e correttamente impiegate nel produrre copie.
Questo periodo di tempo ha origine nei primi anni sessanta con lo sviluppo di tecniche che consentono di inviare copie digitali di segnali e, in seguito, d’immagini al calcolatore. Nasce così un vasto settore di ricerca e di sviluppo di sistemi che rapidamente sostituiscono i precedenti, divenuti obsoleti, in quanto le prestazioni dei sistemi d’elaborazione digitale dell’informazione offrono potenzialità tali da averli resi quasi ridicoli. Una prima osservazione che può essere fatta è che il passaggio al digitale nei vari settori avviene spesso in maniera troppo frettolosa e disordinata con una rapida eliminazione dei sistemi analogici. Ciò deve fare pensare sulle conseguenze che questo processo potrebbe avere in settori la cui dinamica è lenta com’è appunto quello degli archivi e delle biblioteche.
Una copia digitale di un documento è nei fatti un insieme di numeri organizzati in liste (successioni, vettori) o tabelle (matrici, array) che rappresenta l’oggetto copiato. Ovviamente la lettura di tali numeri avviene utilizzando programmi d’elaborazione dell’informazione senza i quali essi non hanno alcun senso; questo è un primo problema che va affrontato. La conservazione delle copie implica che siano contemporaneamente disponibili: a) i “file” che contengono i numeri, b) le informazioni relative al formato dei dati (inserite nel “file” stesso), c) i programmi con cui leggerli.
Conoscere l’organizzazione dei dati all’interno dei “file” è indispensabile, pena la perdita dell’informazione; sfortunatamente non è sempre possibile organizzare un “file” in maniera semplice e leggibile in quanto occorre soddisfare anche altre esigenze come quella di non far crescere eccessivamente le sue dimensioni.
Cerchiamo di capire il significato della digitalizzazione partendo da un esempio concreto come la produzione di una copia di un breve brano musicale. Un suono nella sua forma più pura è costituito da un segnale, come quello visibile in figura 1. Quando un pianista preme il tasto del "do" un martelletto batte con forza una corda che vibra spostando l'aria circostante con fluttuazioni periodiche che si propagano fino a raggiungere le nostre orecchie. Per poter riprodurre un brano di musica fin dal medioevo (ed in maniera più sistematica dal cinquecento) sono state sviluppate tecniche di scrittura della musica fondate sull’uso del pentagramma, delle scale diatoniche e di altre notazioni che permettono ad un buon musicista di riprodurre un brano musicale (figura 2). Queste tecniche sono divenute particolarmente raffinate con il tempo, grazie anche allo sviluppo della musica polifonica e del progressivo adattare la musica ai diversi strumenti e da ultimo all’orchestra.
La notazione musicale lascia sempre un qualcosa all’interpretazione del musicista per cui non si
potrà mai affermare che un brano eseguito da un musicista sia del tutto identico a quello eseguito da
altri interpreti in precedenza.
Ampiezza del se gnal e
Segnale sonoro
Tempo Passo di
campionamento
Figura 1 – Esempio di segnale sonoro da cui viene estratto un campione per la digitalizzazione.
Per risolvere questo problema, per documentare quindi esecuzioni di interpreti famosi, a partire dalla fine dell’ottocento sono stati sviluppati sistemi che permettono la registrazione di brani di musica su diversi supporti, dopo aver acquisito un segnale con un microfono. In questa maniera il suono è registrato nella sua interezza, cioè non scritto utilizzando un’opportuna notazione. Da questa considerazione nasce l’ipotesi che un suono registrato può essere una copia più o meno fedele dell’originale per cui si sono sviluppati metodi per rendere la registrazione del suono in tutto fedele (alta fedeltà). In questa corsa verso la produzione di una copia esatta ci sono diversi ostacoli il principale è che all’atto dell’acquisizione il segnale non può corrispondere del tutto all’originale per diversi problemi sia interni al sistema di acquisizione del suono che ambientali (si pensi al fatto che le registrazioni musicali debbono avvenire in particolari ambienti detti di registrazione). Sono nate anche altre problematiche interessanti derivanti dal fatto che la copia (non del tutto fedele all’originale) poteva divenire a sua volta un originale la cui autenticità doveva essere verificata (un autentico vinile del primo disco dei Beatles ha un valore commerciale notevole). Esse avevano fondamento nel fatto che produrre una copia fedele della copia non era impresa più semplice di quella affrontata per produrre la prima registrazione dall’originale. Con i sistemi di registrazione della musica sviluppati tra la fine dell’ottocento ed i primi anni sessanta era in ogni caso possibile produrre numerose copie (quasi identiche) del segnale registrato durante l’esecuzione del brano musicale originale; la fase della riproduzione di massa della musica era già in atto (allo scopo di approfondire le problematiche relative all’arte ed alla sua riproduzione meccanica ci si può riferire a classico lavoro di Walter Benjamin “The Work of Art in the Age of Mechanical Reproduction”, 1936).
Figura 2 - Estratto di parte per pianoforte del Notturno op. 27 n. 2 in Reb
maggiore di Frédeéric Chopin
Veniamo alla produzione di una copia digitale facendo sempre riferimento alla figura 1. Il processo di digitalizzazione si basa sull’acquisizione dell’ampiezza del segnale a istanti separati e sulla sua approssimazione numerica. Ciò che è registrato è così una successione di numeri interi; la riproduzione di un brano registrato in formato digitale consiste quindi nel riconvertire tali numeri in intensità d’onda sonora, mentre la copia consisterà nella replica di tale successione. Vi è però una peculiarità del processo di registrazione mediante numeri: la trasformazione numerica è una codifica del segnale sonoro, che infatti può essere scritto utilizzando tale codice. Vi sono infatti diversi esempi di musica scritta direttamente in formato numerico utilizzando diversi trucchi. Il fatto che la registrazione in formato digitale implica una codifica apre moltissime problematiche sia positive che negative. Quelle positive possono essere analizzate studiando i vantaggi che si sono ottenuti con la notazione musicale e gli altri metodi per la scrittura musicale. Il principale è sicuramente quello di facilitare la diffusione (la comunicazione e la trasmissione) e di semplificare la trascrizione e la produzione di copie. Anche la possibilità di analizzare e modificare più semplicemente i dati che rappresentano il testo musicale è un grande vantaggio, non solo perché è possibile fare operazioni matematiche ma anche perché su dati codificati è possibile effettuare analisi ed operazioni logiche. Gli svantaggi sono in qualche misura insiti nei vantaggi. Il testo prodotto con la codifica digitale è si cristallizzato (e quindi non rischia di deteriorarsi con il tempo, cosa che è propria di una registrazione in analogico), ma è facilmente accessibile e quindi modificabile. Perciò, come sfortunatamente è già accaduto con la lingua, è l’uso stesso che la modifica soprattutto grazie all’intervento dell’uomo che effettua operazioni migliorative che sono attribuite al testo originale. Questo è un rischio molto forte anche perché nell’immagazzinamento dei dati viene in genere fatta un’operazione di questo tipo - la compressione - che si rende necessaria per facilitare una migliore memorizzazione e trasmissione dei dati. Altro rischio è quello di compiere operazioni di restauro sui dati (anche seguendo procedimenti corretti) pensando che sia giustificabile la sostituzione dell’originale con la copia. In altre parole anche l’eccessiva fiducia nella fedeltà della copia digitale può costituire un pericolo in quanto in momenti di confusione uno può considerarla migliore, essendo però solo un’interpretazione dell’originale.
E’ utile considerare anche la diversa natura della copia digitale, che consiste in un “file”. Nel caso di una riproduzione analogica, come abbiamo già accennato, essa può nel tempo acquistare valore in quanto ha una sua unicità ed autenticità. Ciò è in qualche misura vero anche per quella digitale, pure se l’estrema semplicità di riscriverla e trasferirla farà sì che il suo valore dovrebbe crescere meno.
Anche la semplicità con cui è possibile effettuare trascrizioni può rappresentare un pericolo.
Occorre infatti notare che rispetto ai più evoluti linguaggi utilizzati per scrivere musica la codifica digitale è molto primitiva per cui nel tempo sembrerà molto utile trascrivere i “file” in modo da renderli utilizzabili in maniera ottimale in diversi contesti, con il rischio di modificare l’informazione in loro contenuta. In questo senso far diventare la codifica digitale attuale un linguaggio più evoluto, che quindi subirà minori modificazioni nel tempo, sembra un rimedio utile ad evitare trascrizioni arbitrarie.
E’ necessario però contraddire quelle affermazioni che dicono che la registrazione digitale sia priva di rumore, ciò non è vero: il rumore presente al momento della registrazione del segnale originale è inglobato nel formato numerico. A queste imprecisioni si aggiungono quelle generate nel processo stesso di conversione. Questo ci permette di fare un ultima considerazione sulla codifica digitale:
quando si usa una notazione musicale e si scrive (o trascrive) uno spartito si fa riferimento a simboli che permettono al musicista di produrre un determinato suono utilizzando un particolare strumento.
Nella partitura non sarà presente del rumore non voluto in quanto l’operazione effettuata con la
scrittura ne’ prescinderà. Digitalizzando invece un segnale musicale saranno trasferiti nei dati
registrati sia le note che il rumore: questo fa una bella differenza, soprattutto se si progetta di far
evolvere la codifica digitale in una vera e propria notazione. La presenza del rumore nella copia
digitale ha anche dei risvolti molto significativi riguardo all’autenticità ed alla identificabilità. La
presenza del rumore è infatti il migliore ausilio che abbiamo per risalire all’autenticità del
documento di cui abbiamo fatto la copia o per identificarlo e per poter verificare che la copia fatta è autentica. Ovviamente, come già detto, non tutto il rumore proviene dall’originale e questo è sicuramente un problema.
Quanto detto sembrerebbe qualcosa che ha poco a che fare con il tema che ci siamo proposti se non fosse che le tecniche di produzione di documenti digitali da documenti reali è sempre la stessa che parte da un’approssimazione con funzioni sinusoidali (trasformata di Fourier) vedi figura 3, che nel caso del suono ha un suo più evidente significato. E’ infatti ben noto come l’analisi armonica sia nata alla fine del settecento per risolvere problemi attinenti all’analisi del suono, per poi espandersi in tutti i settori scientifici e delle tecnologie.
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Tempo
Ampiezza
periodo
-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Tempo
Ampiezza
Figura 3 – In altro esempio di funzione armonica, in basso esempio di una funzione (tratto spesso) ottenuta sovrapponendo la funzione con tre sue armoniche.
Il passaggio al digitale del materiale d’archivio e delle biblioteche, compreso quindi quello
fotografico, cinematografico e le registrazioni audio-video, sta divenendo un’esigenza non più
differibile che, per essere attuata, richiede che siano individuate ed adottate opportune strategie. Nel
caso di libri e documenti si è adottata la tecnica della fotoriproduzione, che però sta
necessariamente anch’essa evolvendo verso il digitale in quanto l’impiego di pellicole fotografiche
sembra non avere più futuro. Per gli altri materiali sono già in atto campagne di trascrizione in un
formato digitale condotte sovente senza precise idee sulle implicazioni che vi potrebbero essere per
il futuro del documento. Le tecnologie ed i modelli teorici che consentono di fare tali operazioni
sono ben consolidati, anche se non sono sempre utilizzati correttamente; una loro analisi permette
quindi di studiare quali siano i principali rischi che si corrono e quali precauzioni debbano essere adottate.
Un aspetto suggestivo di ciò che sta avvenendo è nel fatto che le moderne tecnologie hanno di fatto sconvolto l’organizzazione di archivi e biblioteche con la produzione di documenti su diversi supporti (cartaceo, magnetico, materiale sensibile, ecc.) che è spesso difficile integrare tra loro, l’era del digitale fa intravedere una riorganizzazione di tutto il materiale in un formato che fortemente facilità la sua integrazione in un unico documento. Ovviamente questo non deve essere visto come soluzione a tutti i problemi di tutela, anzi deve essere semmai percepito solo come uno strumento per la fruizione ed in qualche misura la valorizzazione del materiale.
2. I MMAGINI ANALOGICHE E DIGITALI
Un’immagine è un oggetto prodotto con una tecnica, ad esempio fotografica, compiendo opportune scelte giudicate utili a produrre un buon risultato; ad esempio la fotografia è di buona qualità se l’illuminazione della scena e la messa a punto della macchina fotografica sono corretti. L’oggetto immagine ha una sua consistenza materiale e delle caratteristiche fisiche che lo rendono in genere utilizzabile in un certo contesto.
Un’immagine digitale è anch’essa un oggetto, però costituito da numeri che sono organizzati in un
“file”, che è memorizzato su un supporto (disco rigido, CD, DVD, ecc.); essa può essere visualizzata utilizzando un apposito sistema (ad esempio un video) o anche stampata.
Vi sono attualmente numerose immagini che nascono digitali, per le quali non ha senso di parlare di digitalizzazione, anche se le loro caratteristiche sono legate al modo come il sistema di acquisizione ha effettuato il campionato spaziale. Tra queste sono le immagini di un documento prodotte con un processo di digitalizzazione.
Un’immagine digitale è quindi costituita da un insieme di numeri che rappresentano ciascuno un elemento dell’immagine (picture element: pixel) che corrisponde ad un punto (o meglio una piccola area) dell’oggetto rappresentato. La differenza con un’immagine in formato tradizionale sta tutta nel fatto che essa è composta di un numero finito di elementi, mentre un pagina di un documento o una fotografia sono, almeno ipoteticamente, composti da un numero infinito di punti. Posta in questa maniera la completa trasposizione di un’immagine in un formato digitale sembrerebbe un’operazione che comporta delle perdite d’informazione. Questo è sicuramente vero, pure se è possibile dimostrare che compiendo l’operazione di digitalizzazione in maniera corretta tale limitazione è quasi del tutto superabile.
La differente costituzione materiale di un’immagine tradizionale e di una digitale ha sicuramente effetti considerevoli sulla sua conservazione. I rischi infatti di vedere deteriorare un’immagine digitale sono molto minori in quanto legati solamente alla possibilità che il supporto di memorizzazione non funzioni correttamente o che non si riesca più a leggerlo correttamente
1. Occorre inoltre considerare che una copia assolutamente fedele di un’immagine digitale può essere ottenuta facilmente, cosa che non è così facile per le immagini tradizionali, questo fatto riduce sicuramente i rischi di perdere l’immagine.
A prescindere dalla natura del supporto utilizzato un’immagine è caratterizzata da alcune proprietà fisiche che la rendono leggibile: contrasto, risoluzione e rumore (vedi figura 4).
Tali caratteristiche fisiche sono solo in parte determinate dalla qualità del sensore e dal sistema ottico impiegati, esse sono infatti dovute anche alle condizioni in cui l’immagine è stata prodotta.
Ad esempio un’ottima pellicola ed una buona macchina fotografica non producono sempre immagini fotografiche con elevati contrasto e risoluzione. Questo complica notevolmente la programmazione del processo di digitalizzazione che dovrebbe essere legato alla reale qualità del documento o dell’immagine e non a quelle ipotetiche. Possiamo comunque assumere che le condizioni di ripresa sono ottimali e programmare la scansione dell’immagine tenendo conto di tali
1
E’ sfortunatamente molto concreta la possibilità che, con l’evoluzione delle tecnologie, i supporti non siano più
leggibili sia per la mancanza di dispositivi di lettura che del software necessario a comandarli.
limiti teorici in termini di massima risoluzione e contrasto raggiungibili. Così facendo sarebbero definite le dimensioni del “file” contenente l’immagine digitale per programmare meglio la sua archiviazione, rappresentazione ed elaborazione.
Nei paragrafi successivi si passerà brevemente il rassegna le tecniche di passaggio al digitale e saranno discusse alcune loro implicazioni.
Contrasto Rumore
Risoluzione
Immagine
Contrasto Rumore
Risoluzione
Immagine
Figura 4 – Principali caratteristiche fisiche di un’immagine.
3. L A FORMAZIONE DELL ’ IMMAGINE 3.1 Il processo di formazione
Quando si parla di copia di un documento si intende copia visibile di esso che sia per quanto possibile fedele a quello che si può osserva oggettivamente. In altri termini una copia di un documento su carta dovrebbe essere leggibile da un attento osservatore notando tutti i particolari che gli sarebbe stato possibile osservare nell’originale. Ad esempio una fotografia fedele di un documento è in genere considerata una copia valida a garantire che tutta l’informazione presente in esso possa essere letta senza dover accedere al documento stesso (fotoriproduzione).
L’immagine visibile è prodotta da un processo casuale di cattura di quanti di luce (fotoni) che arrivano sulla pellicola fotosensibile provenendo dalla scena che si desidera registrare. Tale processo fisico può essere visto come la riflessione da parte degli oggetti presenti nella scena della luce che la illumina vedi figura 5.
Immagine
sorgente
rivelatore oggetto
Macc fotogr
hina afica Luce
Soggetto
Figura 5 – Schema del processo di formazione di un’immagine fotografica
Per poter registrare l’immagine occorre utilizzare uno strumento ottico che in qualche modo metta
le briglie a questo imprevedibile processo fisico con cui i fotoni sono riflessi. In estrema sintesi tale
strumento può essere visto come una camera oscura (pin-hole in inglese), l’idea che è alla base è
quella di dare una direzionalità alla luce proveniente da un punto della scena (dell’oggetto)
costringendo a passare attraverso un sottilissimo foro tutti i fotoni che incidono sul film sensibile
(vedi figura 6). Controllando opportunamente il tempo d’esposizione è possibile ottenere un’immagine che metta in evidenza il diverso numero di fotoni provenienti dai diversi punti della scena ed anche i cambiamenti del loro spettro (che produce la sensazione del colore).
Questa breve premessa sulla natura del processo di cattura della fotografia ha l’unico scopo di sottolineare due cose molto importanti: a) nell’immagine sono ben evidenti le tracce delle modalità con cui è stata registrata, b) l’immagine fotografica è unica ed irriproducibile in quanto prodotta da un processo casuale.
Piano oggetto Piano rivelatore
x ζ
ξ y
y’
x’
Pin-hole
(x-x’,y-y’)
f(x,y) gx’,y’)
x
1, y
1x
2, y
2x’
2, y’
2x’
1, y’
1Figura 6 – Schema di funzionamento di un pin-hole.
Non vorrei qui dare la sensazione che siamo in presenza di un qualcosa che non siamo in grado di controllare assolutamente, in effetti, mantenendo gli oggetti nella scena ben fissi e l’illuminazione costante ed utilizzando le medesime condizioni di ripresa, è possibile ottenere foto del tutto simili.
Quello che le differenzierà sarà il fatto che il segnale registrato punto per punto sulla pellicola non sarà eguale, vi saranno delle variazioni che potrebbero essere anche molto grandi ( e quindi visibili) se l’immagine (o il particolare di essa) sono caratterizzate da un basso rapporto segnale/rumore. In qualche misuro si sta sottolineando l’impossibilità di ottenere una copia assolutamente fedele di un documento in cui non vi siano tracce del processo fisico di cattura dell’immagine impiegato.
3.2 Supporti dei documenti
I documenti da digitalizzare sono su supporti molto differenti tra loro come ad esempio la carta, la carta per fotografie, le pellicole fotografiche. Per poter effettuare una digitalizzazione occorre fare più o meno volontariamente alcune assunzioni: a) il documento è piano, b) è considerata la sola superficie attraverso le sue caratteristiche di luminosità e di colore. La presenza di eventuali rugosità o pieghe non deve compromettere il processo digitalizzazione che presuppone che l’oggetto campionato sia piano. L’eventuale presenza di esse sarà rilevata dal processo di digitalizzazione ma in maniera non del tutto fedele. Questo fatto comporta che il processo di digitalizzazione sia tanto migliore quanto più il documento non presenta imperfezioni.
I documenti sono di due tipi: quelli che sono letti per riflessione della luce sulla superficie e quelli letti per trasparenza. I primi sono di gran lunga i più numerosi, ai secondi appartengono il materiale fotografico su pellicola.
Una superficie piana di un documento può essere caratterizzata dalle sue proprietà di riflettere la luce in maniera selettiva. In particolare essa presenta proprietà di luminanza e di colore che però dipendono dalla sorgente luminosa presente nell’ambiente. Per effettuare la digitalizzazione occorre eliminare, per quanto possibile tali ambiguità e far riferimento alle proprietà ottiche della superficie da scansionare in presenza di un’illuminazione standard.
Per far comprendere meglio come si caratterizza una superficie in termini di contrasto è più
semplice far riferimento ad una fotografia in bianco e nero. La pellicola sviluppata presenta delle
zone con tonalità che vanno dal nero al bianco formando una scala di grigi che può essere misurata
in termini di densità ottica (OD)
I I
0Log
10OD (1)
utilizzando uno strumento, il densitometro, che misura la luce trasmessa (rapporto tra quella incidente I
0e quella che passa) attraverso la pellicola.
In figura 7 è mostrata una scala di grigi su una pellicola fotografica opportunamente esposta ed in figura 8 un microdensitometro con il relativo schema di funzionamento.
Figura 7 – Esempio di scala di grigi.
Figura 8 – Microdensitometro e suo schema di funzionamento (a destra).
La possibilità di produrre tonalità nere molto scure e bianche molto chiare è una particolarità importante della pellicola detto intervallo dinamico, o più semplicemente dinamica. I valori di OD osservabili ricadono nell’intervallo 0 ÷ 4 che è molto ampio se si considera che in una zona molto scura del film passano solo un fotone ogni 10.000 fotoni incidenti. In una zona perfettamente trasparente (OD=0) passano invece tutti i fotoni, cosa che è a sua volta inimmaginabile. A questa dinamica è legata la capacità del film di registrare variazioni nel flusso di luce incidente in un determinato intervallo di valori (detta anche la latitudine del film fotografico).
La curva che mostra l’andamento della densità ottica del film in funzione dell’esposizione (flusso
luminoso incidente) è detta curva sensitometrica (fig. 9). La principale caratteristica di tale curva è
quella di non essere lineare, questo comporta una serie di difficoltà pratiche che si riflettono anche
sulla qualità dell’immagine prodotta e sulla sua digitalizzazione. In pratica una variazione di
esposizione fuori dalla zona centrale in cui la curva è lineare produce una corrispondente minore
variazione del tono di grigio con perdite di contrasto nell’immagine. Una caratteristica che in
qualche misura può essere dedotta dalla curva sensitometrica è la sensibilità del film fotografico che
si misura in ASA, in pratica in un film molto sensibile tale curva è spostata verso sinistra. La
sensibilità è molto importante nella cattura dell’immagine un poco meno nella digitalizzazione in
quanto un eventuale perdita di contrasto dovuta a sovra- o sottoesposizione potrà essere rimediata dopo l’operazione elaborando l’immagine ottenuta.
In linea di principio un buono scanner ha una dinamica di risposta sufficiente per la fedele riproduzione di una normale fotografia, qualche problema vi è semmai con materiale fotografico trasparente come negativi e diapositive che presentano intervalli dinamici più ampi.
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5
0 0.5 1 1.5 2 2.5 3
Logaritmo dell'esposizione
Densità Ottica
Dinamica
3.5 Latitudine
Figura 9 – Esempio di curva sensitometrica.
Quanto detto per una pellicola fotografica può essere esteso anche ad una superficie piana riflettente la cui OD può essere misurata punto per punto. Anche in questo caso vi saranno delle limitazioni nella dinamica che un documento può presentare; è ad esempio ben noto che le immagini stampate su carta non presentano la stessa dinamica di quelle stampate su materiale fotografico. Anche la tecnica di scrittura e di stampa possono fortemente limitare la dinamica del documento, un testo scritto non avrà mai un’ampia dinamica per cui sarà più facilmente digitalizzabile di una fotografia.
Il colore è una proprietà fisica molto importante per caratterizzare un documento, sfortunatamente non è sempre semplice misurarlo accuratamente in un processo di digitalizzazione. Il colore di una superficie piana può essere prodotto utilizzando una logica sottrattiva o additiva vedi figura 10.
Figura 10 – Schema della formazione dei colori mediante sintesi additiva e sottrattivi partendo rispettivamente dai tre colori fondamentale e dai loro complementari.
Nella stampa si usa in genere il metodo sottrattivo, per cui si preferisce impiegare il sistema di
coordinate cromatiche (CMYZ) che fa riferimento ai cosiddetti colori complementari di quelli
fondamentali: rosso, verde e blu che danno luogo al sistema di coordinate cromatiche RGB che è il più comunemente impiegato. Anche nel caso del colore si può parlare di un intervallo di colori che può essere tipico di un documento. In particolare per produrre un’immagine a colori si utilizzano pigmenti il cui numero va da un minimo di tre (sempre che si voglia cercare di riprodurre tutte le gamme cromatiche) in su. Ovviamente tanto più numerosi sono i pigmenti usati tanto più estesa è la gamma dei colori che è possibile ottenere. Anche in questo caso facciamo l’esempio concreto di una pellicola fotografica a colori con cui è possibile registrare un immagine a colori utilizzando tre strati di colore come mostrato in figura 11.
Figura 11 – Struttura di una pellicola fotografica a colori.
I colori contenuti in un’immagine fotografica sono in massima parte determinati dai tre pigmenti contenuti nei rispettivi strati, essi sono quelli compresi in una zona (gamut) del diagramma dei colore (vedi figura 12), che ha come vertici le posizioni di tali pigmenti. La fedeltà del colore è quindi fortemente dipendente da essi e dal loro stato di conservazione, in ogni caso il colore può essere misurato utilizzando uno strumento detto colorimetro (vedi figura 13).
Figura 12 – Esempio di colori presenti nel gamut di un’immagine ottenuta per sintesi sottrattivi.
Figura 13 – Esempio di colorimetro che funziona con una sua sorgente
luminosa interna appoggiando lo strumento in corrispondenza
dell’area di colore che si intende misurare
4. D IGITALIZZAZIONE .
Il processo di digitalizzazione è una trasformazione di un’immagine continua (analogica) in una matrice di numeri interi. Tale processo si effettua in due successive fasi il campionamento e la quantizzazione.
Al termine del processo si ottiene una matrice di numeri interi che rappresenta l’immagine originale. Tale matrice sarà composta di n x m numeri interi in un intervallo di valori che sarà la profondità o dinamica dell’immagine
Per campionamento spaziale si intende l’operazione con cui un’immagine continua è trasformata in un insieme discreto di valori assunti dalla funzione in un reticolato di passo
) , ( x y f
x , y infinitamente esteso
La seconda operazione consiste nel rappresentare i livelli di intensità del segnale in forma digitale con numeri interi in un intervallo definito dal numero di bit assegnato al registro. Il numero dei livelli di quantizzazione (N), il loro valore e il valore del livello di ricostruzione, al fine di minimizzare l’errore che si introduce ( nel senso dei minimi quadrati), è assegnato preliminarmente.
Il valore di N va valutato sulla base del contrasto nell’immagine, ovvero del rapporto segnale- rumore (SNR).
4.1 Campionamento spaziale.
Nell’immaginario matematico l’operazione di campionamento può essere descritta dal prodotto di una funzione fatta di tante delta con la funzione che rappresenta l’immagine da campionare.
Se definiamo con
j k
y) k x,y δ(x j
COMB(x,y)
(2)
la funzione di campionamento (fig. 14), allora l’immagine campionata può essere rappresentata da
) y , x ( COMB y) f(x, y) (x,
fc
. (3)
La funzione f
cconsiste in una serie di numeri costituita dai valori assunti dalla funzione f(x,y) in corrispondenza alle punte delle frecce della funzione COMB (fig. 15).
Figura 14 - Funzione impiegata nel campionamento spaziale di un immagine.
Il campionamento sarà riuscito se dai numeri della funzione f
csarà possibile ricavare (ad esempio interpolando) tutti gli infiniti valori della funzione f(x,y). In prima istanza verrebbe voglia di rispondere negativamente, ma svolgendo alcune considerazione nello spazio delle frequenze
f(x,y) campionamento quantizzazione f i,j
spaziali è possibile arrivare alla conclusione opposta. Facciamo quindi la trasformata di Fourier delle due funzioni introdotte in precedenza:
) , ( COMB )
, ( F ) , (
Fc x y x y x y
(4)
dove
xe
ysono le pulsazioni spaziali.E’ utile tener conto che la trasformata di Fourier della COMB è ancora una funzione COMB costituita da delta spaziate a frequenze spaziali date dall’inverso del passo di campionamento (
x
x
1 e
y
y
1 ) sviluppando la (4) si ottiene
l m
y y
x x
y x
c
F l m
y
F 1 x 1 ( , )
) ,
( (5)
f(x,y)
Figura 15 - Esemplificazione dell’operazione di campionamento spaziale di un’immagine.
Lo spettro di Fourier della funzione campionata consiste allora in una ripetizione periodica dello spettro dell’immagine originale (fig. 16) nel piano delle frequenze spaziali, ad intervalli dati da
x,
yvedi figura 17. Se lo spettro dell’immagine ha una larghezza di banda finita, caratterizzata dalle frequenze di taglio
xce
yc, si può allora moltiplicare la (5) per una funzione di ricostruzione che filtri le frequenze di ordine superiore lasciando solo quello di ordine zero: antitrasformando il risultato si riottiene l’immagine originale inalterata. Definendo con r x y ( , ) la funzione di ricostruzione e con R (
x,
y) la sua trasformata di Fourier, l’operazione di filtraggio in frequenza nel piano di Fourier
) , ( ) , ( ) ,
(
x y c x y x yR
F R
F (6)
Figura 16 - Spettro in frequenze spaziali dell'immagine originale nello spazio delle coordinate corrisponde alla convoluzione
x x
Campioni dell’immagine
f
R( , ) x y f
S( , ) x y r x y ( , ) (7)
Figura 17 – Spettro della funzione campionata in assenza di aliasing.
Fisicamente questo corrisponde ad assegnare alle zone dell’immagine comprese tra i punti campionati un valore di segnale ottenuto interpolando con la r(x,y) i valori nei punti campionati stessi.
Affinché tale operazione di filtraggio abbia successo, occorre che gli spettri di ordine superiore non si sovrappongano a quello di ordine zero che interessa estrarre, cioè accade quando
x
x
xc
1
2
,
y
y
yc
1
2
(8)
che in corrispondenza del segno di eguale prende il nome di frequenza di Nyquist.
In teoria campionando con un passo più piccolo, non si ottengono ulteriori informazioni (sovracampionamento) mentre con un passo più grande gli spettri si sovrappongono (sottocampionamento ) e lo spettro ottenuto attraverso la (6) o la (7) risulta distorto alle alte frequenze. Il tipo di deformazione dell’immagine che si determina in questo caso si definisce aliasing.
Per comprendere il significato dell’aliasing si pensi ad un dipinto murale finemente frammentato a causa di un crollo, ciò che è possibile recuperare sono le parti composte dai frammenti più grandi che possono essere messe insieme anche utilizzando una precedente foto del dipinto. Alla fine dell’operazione avanzeranno dei minuti frammenti la cui posizione non può essere ricostruita né in base al colore né da una corrispondenza con qualche frammento più grande, se si decide comunque di inserire tali frammenti si creerà una certa sensazione di disordine detta aliasing.
Sfortunatamente ciò che abbiamo descritto sopra è un’operazione astratta che corrisponde solo in parte a ciò che è fatto in un campionamento mediante uno scanner digitale. Inoltre la rappresentazione dell’immagine con una funzione continua è a sua volta un’astrazione perché non permette di tener conto in maniera adeguata del rumore che produce effetti non sempre controllabili anche nel processo di campionamento spaziale. In conclusione si può dire che il processo astratto di campionamento spaziale di un’immagine è concettualmente un ottimo punto di partenza, anche se occorre conoscerne i limiti.
4.2 Quantizzazione
A seguito del campionamento l’immagine risulta composta da numeri, f(n,m), reali positivi per essere memorizzata in un dispositivo digitale deve essere quantizzata.
Se gli f(n,m) hanno valori compresi tra f
mine f
maxin tale intervallo potranno essere individuati un numero finito di valori con cui rappresentare la funzione f(n,m). L’incertezza con cui è misurato il valore della funzione f(x,y) durante l’acquisizione dell’immagine dovuta alla presenza di rumore, in giustificano il fatto che non siano assegnanti infiniti valori possibili alla funzione campionata ma solo un numero discreto.
Per la quantizzazione del segnale occorre definire i livelli di decisione d , opportunamente spaziati
d
i+1-d
i, e quelli di ricostruzione , tali che se
i i1 ii
d , d
r
f(n, m) d
i, d
i1 allora f
i( n , m ) r
i.
I livelli di ricostruzione sono, in genere, scelti in corrispondenza dei valore aspettati in modo da minimizzare l’errore commesso, facendo così è possibile dimostrare che nel caso di distribuzione uniforme dei valori l’errore di quantizzazione è di
2= . In pratica il numero di livelli di decisione dovrebbe almeno eguagliare il numero di livelli di segnale distinguibili in base al contrasto della immagine da quantizzare. Tale operazione può essere realizzato con un convertitore analogico digitale (ADC ) a n bit capace di discriminare 2
nlivelli di segnale.
di
di+1
ri
f r
Figura 18 – Definizione dei livelli di decisione e di ricostruzione nella quantizzazione.
5. D ISPOSITIVI PER LA DIGITALIZZAZIONE DI DOCUMENTI
Si può procedere al campionamento di un documento punto per punto, linea per linea o campionando l’intera area (vedi figura 19). Procedendo dalla prima alla terza modalità la qualità del risultato peggiora ma l’operazione diviene più rapida.
Scansione di punto Scansione di linea Rivelazione di area Modalità di digitalizzazione di un documento
Lenta ma con buon contrasto
Situazione intermadia
Rapida ma con basso contrasto