• Non ci sono risultati.

Copia digitale ed archiviazione di documenti

N/A
N/A
Protected

Academic year: 2021

Condividi "Copia digitale ed archiviazione di documenti"

Copied!
21
0
0

Testo completo

(1)

Copia digitale ed archiviazione di documenti

Giovanni E. Gigante

Corso di studi in Tecnologie per la Conservazione ed il Restauro dei Beni Culturali, Facoltà di Scienze MFN,

Università degli Studi di Roma “La Sapienza”

1. I NTRODUZIONE

Chi ha a cuore la tutela dei documenti e delle opere d’interesse storico-artistico o chi vuole, con diverse finalità, farli circolare e conoscere meglio è impegnato nella produzione di copie di documenti e libri. In questa pratica sono state impiegate tutte le tecnologie disponibili nelle diverse epoche; ad esempio nell’alto medioevo schiere di monaci usavano produrre copie a mano, successivamente risultate preziose, di testi antichi. Nell’era del digitale (com’è spesso chiamata l’attuale periodo storico) si deve affrontare il problema di come le affascinanti tecnologie messe a nostra disposizione dallo sviluppo della tecnologia informatica possano essere utilmente e correttamente impiegate nel produrre copie.

Questo periodo di tempo ha origine nei primi anni sessanta con lo sviluppo di tecniche che consentono di inviare copie digitali di segnali e, in seguito, d’immagini al calcolatore. Nasce così un vasto settore di ricerca e di sviluppo di sistemi che rapidamente sostituiscono i precedenti, divenuti obsoleti, in quanto le prestazioni dei sistemi d’elaborazione digitale dell’informazione offrono potenzialità tali da averli resi quasi ridicoli. Una prima osservazione che può essere fatta è che il passaggio al digitale nei vari settori avviene spesso in maniera troppo frettolosa e disordinata con una rapida eliminazione dei sistemi analogici. Ciò deve fare pensare sulle conseguenze che questo processo potrebbe avere in settori la cui dinamica è lenta com’è appunto quello degli archivi e delle biblioteche.

Una copia digitale di un documento è nei fatti un insieme di numeri organizzati in liste (successioni, vettori) o tabelle (matrici, array) che rappresenta l’oggetto copiato. Ovviamente la lettura di tali numeri avviene utilizzando programmi d’elaborazione dell’informazione senza i quali essi non hanno alcun senso; questo è un primo problema che va affrontato. La conservazione delle copie implica che siano contemporaneamente disponibili: a) i “file” che contengono i numeri, b) le informazioni relative al formato dei dati (inserite nel “file” stesso), c) i programmi con cui leggerli.

Conoscere l’organizzazione dei dati all’interno dei “file” è indispensabile, pena la perdita dell’informazione; sfortunatamente non è sempre possibile organizzare un “file” in maniera semplice e leggibile in quanto occorre soddisfare anche altre esigenze come quella di non far crescere eccessivamente le sue dimensioni.

Cerchiamo di capire il significato della digitalizzazione partendo da un esempio concreto come la produzione di una copia di un breve brano musicale. Un suono nella sua forma più pura è costituito da un segnale, come quello visibile in figura 1. Quando un pianista preme il tasto del "do" un martelletto batte con forza una corda che vibra spostando l'aria circostante con fluttuazioni periodiche che si propagano fino a raggiungere le nostre orecchie. Per poter riprodurre un brano di musica fin dal medioevo (ed in maniera più sistematica dal cinquecento) sono state sviluppate tecniche di scrittura della musica fondate sull’uso del pentagramma, delle scale diatoniche e di altre notazioni che permettono ad un buon musicista di riprodurre un brano musicale (figura 2). Queste tecniche sono divenute particolarmente raffinate con il tempo, grazie anche allo sviluppo della musica polifonica e del progressivo adattare la musica ai diversi strumenti e da ultimo all’orchestra.

La notazione musicale lascia sempre un qualcosa all’interpretazione del musicista per cui non si

potrà mai affermare che un brano eseguito da un musicista sia del tutto identico a quello eseguito da

altri interpreti in precedenza.

(2)

Ampiezza del se gnal e

Segnale sonoro

Tempo Passo di

campionamento

Figura 1 – Esempio di segnale sonoro da cui viene estratto un campione per la digitalizzazione.

Per risolvere questo problema, per documentare quindi esecuzioni di interpreti famosi, a partire dalla fine dell’ottocento sono stati sviluppati sistemi che permettono la registrazione di brani di musica su diversi supporti, dopo aver acquisito un segnale con un microfono. In questa maniera il suono è registrato nella sua interezza, cioè non scritto utilizzando un’opportuna notazione. Da questa considerazione nasce l’ipotesi che un suono registrato può essere una copia più o meno fedele dell’originale per cui si sono sviluppati metodi per rendere la registrazione del suono in tutto fedele (alta fedeltà). In questa corsa verso la produzione di una copia esatta ci sono diversi ostacoli il principale è che all’atto dell’acquisizione il segnale non può corrispondere del tutto all’originale per diversi problemi sia interni al sistema di acquisizione del suono che ambientali (si pensi al fatto che le registrazioni musicali debbono avvenire in particolari ambienti detti di registrazione). Sono nate anche altre problematiche interessanti derivanti dal fatto che la copia (non del tutto fedele all’originale) poteva divenire a sua volta un originale la cui autenticità doveva essere verificata (un autentico vinile del primo disco dei Beatles ha un valore commerciale notevole). Esse avevano fondamento nel fatto che produrre una copia fedele della copia non era impresa più semplice di quella affrontata per produrre la prima registrazione dall’originale. Con i sistemi di registrazione della musica sviluppati tra la fine dell’ottocento ed i primi anni sessanta era in ogni caso possibile produrre numerose copie (quasi identiche) del segnale registrato durante l’esecuzione del brano musicale originale; la fase della riproduzione di massa della musica era già in atto (allo scopo di approfondire le problematiche relative all’arte ed alla sua riproduzione meccanica ci si può riferire a classico lavoro di Walter Benjamin “The Work of Art in the Age of Mechanical Reproduction”, 1936).

Figura 2 - Estratto di parte per pianoforte del Notturno op. 27 n. 2 in Reb

maggiore di Frédeéric Chopin

(3)

Veniamo alla produzione di una copia digitale facendo sempre riferimento alla figura 1. Il processo di digitalizzazione si basa sull’acquisizione dell’ampiezza del segnale a istanti separati e sulla sua approssimazione numerica. Ciò che è registrato è così una successione di numeri interi; la riproduzione di un brano registrato in formato digitale consiste quindi nel riconvertire tali numeri in intensità d’onda sonora, mentre la copia consisterà nella replica di tale successione. Vi è però una peculiarità del processo di registrazione mediante numeri: la trasformazione numerica è una codifica del segnale sonoro, che infatti può essere scritto utilizzando tale codice. Vi sono infatti diversi esempi di musica scritta direttamente in formato numerico utilizzando diversi trucchi. Il fatto che la registrazione in formato digitale implica una codifica apre moltissime problematiche sia positive che negative. Quelle positive possono essere analizzate studiando i vantaggi che si sono ottenuti con la notazione musicale e gli altri metodi per la scrittura musicale. Il principale è sicuramente quello di facilitare la diffusione (la comunicazione e la trasmissione) e di semplificare la trascrizione e la produzione di copie. Anche la possibilità di analizzare e modificare più semplicemente i dati che rappresentano il testo musicale è un grande vantaggio, non solo perché è possibile fare operazioni matematiche ma anche perché su dati codificati è possibile effettuare analisi ed operazioni logiche. Gli svantaggi sono in qualche misura insiti nei vantaggi. Il testo prodotto con la codifica digitale è si cristallizzato (e quindi non rischia di deteriorarsi con il tempo, cosa che è propria di una registrazione in analogico), ma è facilmente accessibile e quindi modificabile. Perciò, come sfortunatamente è già accaduto con la lingua, è l’uso stesso che la modifica soprattutto grazie all’intervento dell’uomo che effettua operazioni migliorative che sono attribuite al testo originale. Questo è un rischio molto forte anche perché nell’immagazzinamento dei dati viene in genere fatta un’operazione di questo tipo - la compressione - che si rende necessaria per facilitare una migliore memorizzazione e trasmissione dei dati. Altro rischio è quello di compiere operazioni di restauro sui dati (anche seguendo procedimenti corretti) pensando che sia giustificabile la sostituzione dell’originale con la copia. In altre parole anche l’eccessiva fiducia nella fedeltà della copia digitale può costituire un pericolo in quanto in momenti di confusione uno può considerarla migliore, essendo però solo un’interpretazione dell’originale.

E’ utile considerare anche la diversa natura della copia digitale, che consiste in un “file”. Nel caso di una riproduzione analogica, come abbiamo già accennato, essa può nel tempo acquistare valore in quanto ha una sua unicità ed autenticità. Ciò è in qualche misura vero anche per quella digitale, pure se l’estrema semplicità di riscriverla e trasferirla farà sì che il suo valore dovrebbe crescere meno.

Anche la semplicità con cui è possibile effettuare trascrizioni può rappresentare un pericolo.

Occorre infatti notare che rispetto ai più evoluti linguaggi utilizzati per scrivere musica la codifica digitale è molto primitiva per cui nel tempo sembrerà molto utile trascrivere i “file” in modo da renderli utilizzabili in maniera ottimale in diversi contesti, con il rischio di modificare l’informazione in loro contenuta. In questo senso far diventare la codifica digitale attuale un linguaggio più evoluto, che quindi subirà minori modificazioni nel tempo, sembra un rimedio utile ad evitare trascrizioni arbitrarie.

E’ necessario però contraddire quelle affermazioni che dicono che la registrazione digitale sia priva di rumore, ciò non è vero: il rumore presente al momento della registrazione del segnale originale è inglobato nel formato numerico. A queste imprecisioni si aggiungono quelle generate nel processo stesso di conversione. Questo ci permette di fare un ultima considerazione sulla codifica digitale:

quando si usa una notazione musicale e si scrive (o trascrive) uno spartito si fa riferimento a simboli che permettono al musicista di produrre un determinato suono utilizzando un particolare strumento.

Nella partitura non sarà presente del rumore non voluto in quanto l’operazione effettuata con la

scrittura ne’ prescinderà. Digitalizzando invece un segnale musicale saranno trasferiti nei dati

registrati sia le note che il rumore: questo fa una bella differenza, soprattutto se si progetta di far

evolvere la codifica digitale in una vera e propria notazione. La presenza del rumore nella copia

digitale ha anche dei risvolti molto significativi riguardo all’autenticità ed alla identificabilità. La

presenza del rumore è infatti il migliore ausilio che abbiamo per risalire all’autenticità del

(4)

documento di cui abbiamo fatto la copia o per identificarlo e per poter verificare che la copia fatta è autentica. Ovviamente, come già detto, non tutto il rumore proviene dall’originale e questo è sicuramente un problema.

Quanto detto sembrerebbe qualcosa che ha poco a che fare con il tema che ci siamo proposti se non fosse che le tecniche di produzione di documenti digitali da documenti reali è sempre la stessa che parte da un’approssimazione con funzioni sinusoidali (trasformata di Fourier) vedi figura 3, che nel caso del suono ha un suo più evidente significato. E’ infatti ben noto come l’analisi armonica sia nata alla fine del settecento per risolvere problemi attinenti all’analisi del suono, per poi espandersi in tutti i settori scientifici e delle tecnologie.

-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Tempo

Ampiezza

periodo

-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Tempo

Ampiezza

Figura 3 – In altro esempio di funzione armonica, in basso esempio di una funzione (tratto spesso) ottenuta sovrapponendo la funzione con tre sue armoniche.

Il passaggio al digitale del materiale d’archivio e delle biblioteche, compreso quindi quello

fotografico, cinematografico e le registrazioni audio-video, sta divenendo un’esigenza non più

differibile che, per essere attuata, richiede che siano individuate ed adottate opportune strategie. Nel

caso di libri e documenti si è adottata la tecnica della fotoriproduzione, che però sta

necessariamente anch’essa evolvendo verso il digitale in quanto l’impiego di pellicole fotografiche

sembra non avere più futuro. Per gli altri materiali sono già in atto campagne di trascrizione in un

formato digitale condotte sovente senza precise idee sulle implicazioni che vi potrebbero essere per

il futuro del documento. Le tecnologie ed i modelli teorici che consentono di fare tali operazioni

sono ben consolidati, anche se non sono sempre utilizzati correttamente; una loro analisi permette

(5)

quindi di studiare quali siano i principali rischi che si corrono e quali precauzioni debbano essere adottate.

Un aspetto suggestivo di ciò che sta avvenendo è nel fatto che le moderne tecnologie hanno di fatto sconvolto l’organizzazione di archivi e biblioteche con la produzione di documenti su diversi supporti (cartaceo, magnetico, materiale sensibile, ecc.) che è spesso difficile integrare tra loro, l’era del digitale fa intravedere una riorganizzazione di tutto il materiale in un formato che fortemente facilità la sua integrazione in un unico documento. Ovviamente questo non deve essere visto come soluzione a tutti i problemi di tutela, anzi deve essere semmai percepito solo come uno strumento per la fruizione ed in qualche misura la valorizzazione del materiale.

2. I MMAGINI ANALOGICHE E DIGITALI

Un’immagine è un oggetto prodotto con una tecnica, ad esempio fotografica, compiendo opportune scelte giudicate utili a produrre un buon risultato; ad esempio la fotografia è di buona qualità se l’illuminazione della scena e la messa a punto della macchina fotografica sono corretti. L’oggetto immagine ha una sua consistenza materiale e delle caratteristiche fisiche che lo rendono in genere utilizzabile in un certo contesto.

Un’immagine digitale è anch’essa un oggetto, però costituito da numeri che sono organizzati in un

“file”, che è memorizzato su un supporto (disco rigido, CD, DVD, ecc.); essa può essere visualizzata utilizzando un apposito sistema (ad esempio un video) o anche stampata.

Vi sono attualmente numerose immagini che nascono digitali, per le quali non ha senso di parlare di digitalizzazione, anche se le loro caratteristiche sono legate al modo come il sistema di acquisizione ha effettuato il campionato spaziale. Tra queste sono le immagini di un documento prodotte con un processo di digitalizzazione.

Un’immagine digitale è quindi costituita da un insieme di numeri che rappresentano ciascuno un elemento dell’immagine (picture element: pixel) che corrisponde ad un punto (o meglio una piccola area) dell’oggetto rappresentato. La differenza con un’immagine in formato tradizionale sta tutta nel fatto che essa è composta di un numero finito di elementi, mentre un pagina di un documento o una fotografia sono, almeno ipoteticamente, composti da un numero infinito di punti. Posta in questa maniera la completa trasposizione di un’immagine in un formato digitale sembrerebbe un’operazione che comporta delle perdite d’informazione. Questo è sicuramente vero, pure se è possibile dimostrare che compiendo l’operazione di digitalizzazione in maniera corretta tale limitazione è quasi del tutto superabile.

La differente costituzione materiale di un’immagine tradizionale e di una digitale ha sicuramente effetti considerevoli sulla sua conservazione. I rischi infatti di vedere deteriorare un’immagine digitale sono molto minori in quanto legati solamente alla possibilità che il supporto di memorizzazione non funzioni correttamente o che non si riesca più a leggerlo correttamente

1

. Occorre inoltre considerare che una copia assolutamente fedele di un’immagine digitale può essere ottenuta facilmente, cosa che non è così facile per le immagini tradizionali, questo fatto riduce sicuramente i rischi di perdere l’immagine.

A prescindere dalla natura del supporto utilizzato un’immagine è caratterizzata da alcune proprietà fisiche che la rendono leggibile: contrasto, risoluzione e rumore (vedi figura 4).

Tali caratteristiche fisiche sono solo in parte determinate dalla qualità del sensore e dal sistema ottico impiegati, esse sono infatti dovute anche alle condizioni in cui l’immagine è stata prodotta.

Ad esempio un’ottima pellicola ed una buona macchina fotografica non producono sempre immagini fotografiche con elevati contrasto e risoluzione. Questo complica notevolmente la programmazione del processo di digitalizzazione che dovrebbe essere legato alla reale qualità del documento o dell’immagine e non a quelle ipotetiche. Possiamo comunque assumere che le condizioni di ripresa sono ottimali e programmare la scansione dell’immagine tenendo conto di tali

1

E’ sfortunatamente molto concreta la possibilità che, con l’evoluzione delle tecnologie, i supporti non siano più

leggibili sia per la mancanza di dispositivi di lettura che del software necessario a comandarli.

(6)

limiti teorici in termini di massima risoluzione e contrasto raggiungibili. Così facendo sarebbero definite le dimensioni del “file” contenente l’immagine digitale per programmare meglio la sua archiviazione, rappresentazione ed elaborazione.

Nei paragrafi successivi si passerà brevemente il rassegna le tecniche di passaggio al digitale e saranno discusse alcune loro implicazioni.

Contrasto Rumore

Risoluzione

Immagine

Contrasto Rumore

Risoluzione

Immagine

Figura 4 – Principali caratteristiche fisiche di un’immagine.

3. L A FORMAZIONE DELL IMMAGINE 3.1 Il processo di formazione

Quando si parla di copia di un documento si intende copia visibile di esso che sia per quanto possibile fedele a quello che si può osserva oggettivamente. In altri termini una copia di un documento su carta dovrebbe essere leggibile da un attento osservatore notando tutti i particolari che gli sarebbe stato possibile osservare nell’originale. Ad esempio una fotografia fedele di un documento è in genere considerata una copia valida a garantire che tutta l’informazione presente in esso possa essere letta senza dover accedere al documento stesso (fotoriproduzione).

L’immagine visibile è prodotta da un processo casuale di cattura di quanti di luce (fotoni) che arrivano sulla pellicola fotosensibile provenendo dalla scena che si desidera registrare. Tale processo fisico può essere visto come la riflessione da parte degli oggetti presenti nella scena della luce che la illumina vedi figura 5.

Immagine

sorgente

rivelatore oggetto

Macc fotogr

hina afica Luce

Soggetto

Figura 5 – Schema del processo di formazione di un’immagine fotografica

Per poter registrare l’immagine occorre utilizzare uno strumento ottico che in qualche modo metta

le briglie a questo imprevedibile processo fisico con cui i fotoni sono riflessi. In estrema sintesi tale

strumento può essere visto come una camera oscura (pin-hole in inglese), l’idea che è alla base è

quella di dare una direzionalità alla luce proveniente da un punto della scena (dell’oggetto)

costringendo a passare attraverso un sottilissimo foro tutti i fotoni che incidono sul film sensibile

(7)

(vedi figura 6). Controllando opportunamente il tempo d’esposizione è possibile ottenere un’immagine che metta in evidenza il diverso numero di fotoni provenienti dai diversi punti della scena ed anche i cambiamenti del loro spettro (che produce la sensazione del colore).

Questa breve premessa sulla natura del processo di cattura della fotografia ha l’unico scopo di sottolineare due cose molto importanti: a) nell’immagine sono ben evidenti le tracce delle modalità con cui è stata registrata, b) l’immagine fotografica è unica ed irriproducibile in quanto prodotta da un processo casuale.

Piano oggetto Piano rivelatore

x ζ

ξ y

y’

x’

Pin-hole

(x-x’,y-y’)

f(x,y) gx’,y’)

x

1

, y

1

x

2

, y

2

x’

2

, y’

2

x’

1

, y’

1

Figura 6 – Schema di funzionamento di un pin-hole.

Non vorrei qui dare la sensazione che siamo in presenza di un qualcosa che non siamo in grado di controllare assolutamente, in effetti, mantenendo gli oggetti nella scena ben fissi e l’illuminazione costante ed utilizzando le medesime condizioni di ripresa, è possibile ottenere foto del tutto simili.

Quello che le differenzierà sarà il fatto che il segnale registrato punto per punto sulla pellicola non sarà eguale, vi saranno delle variazioni che potrebbero essere anche molto grandi ( e quindi visibili) se l’immagine (o il particolare di essa) sono caratterizzate da un basso rapporto segnale/rumore. In qualche misuro si sta sottolineando l’impossibilità di ottenere una copia assolutamente fedele di un documento in cui non vi siano tracce del processo fisico di cattura dell’immagine impiegato.

3.2 Supporti dei documenti

I documenti da digitalizzare sono su supporti molto differenti tra loro come ad esempio la carta, la carta per fotografie, le pellicole fotografiche. Per poter effettuare una digitalizzazione occorre fare più o meno volontariamente alcune assunzioni: a) il documento è piano, b) è considerata la sola superficie attraverso le sue caratteristiche di luminosità e di colore. La presenza di eventuali rugosità o pieghe non deve compromettere il processo digitalizzazione che presuppone che l’oggetto campionato sia piano. L’eventuale presenza di esse sarà rilevata dal processo di digitalizzazione ma in maniera non del tutto fedele. Questo fatto comporta che il processo di digitalizzazione sia tanto migliore quanto più il documento non presenta imperfezioni.

I documenti sono di due tipi: quelli che sono letti per riflessione della luce sulla superficie e quelli letti per trasparenza. I primi sono di gran lunga i più numerosi, ai secondi appartengono il materiale fotografico su pellicola.

Una superficie piana di un documento può essere caratterizzata dalle sue proprietà di riflettere la luce in maniera selettiva. In particolare essa presenta proprietà di luminanza e di colore che però dipendono dalla sorgente luminosa presente nell’ambiente. Per effettuare la digitalizzazione occorre eliminare, per quanto possibile tali ambiguità e far riferimento alle proprietà ottiche della superficie da scansionare in presenza di un’illuminazione standard.

Per far comprendere meglio come si caratterizza una superficie in termini di contrasto è più

semplice far riferimento ad una fotografia in bianco e nero. La pellicola sviluppata presenta delle

zone con tonalità che vanno dal nero al bianco formando una scala di grigi che può essere misurata

in termini di densità ottica (OD)

(8)

 

 

 

I I

0

Log

10

OD (1)

utilizzando uno strumento, il densitometro, che misura la luce trasmessa (rapporto tra quella incidente I

0

e quella che passa) attraverso la pellicola.

In figura 7 è mostrata una scala di grigi su una pellicola fotografica opportunamente esposta ed in figura 8 un microdensitometro con il relativo schema di funzionamento.

Figura 7 – Esempio di scala di grigi.

Figura 8 – Microdensitometro e suo schema di funzionamento (a destra).

La possibilità di produrre tonalità nere molto scure e bianche molto chiare è una particolarità importante della pellicola detto intervallo dinamico, o più semplicemente dinamica. I valori di OD osservabili ricadono nell’intervallo 0 ÷ 4 che è molto ampio se si considera che in una zona molto scura del film passano solo un fotone ogni 10.000 fotoni incidenti. In una zona perfettamente trasparente (OD=0) passano invece tutti i fotoni, cosa che è a sua volta inimmaginabile. A questa dinamica è legata la capacità del film di registrare variazioni nel flusso di luce incidente in un determinato intervallo di valori (detta anche la latitudine del film fotografico).

La curva che mostra l’andamento della densità ottica del film in funzione dell’esposizione (flusso

luminoso incidente) è detta curva sensitometrica (fig. 9). La principale caratteristica di tale curva è

quella di non essere lineare, questo comporta una serie di difficoltà pratiche che si riflettono anche

sulla qualità dell’immagine prodotta e sulla sua digitalizzazione. In pratica una variazione di

esposizione fuori dalla zona centrale in cui la curva è lineare produce una corrispondente minore

variazione del tono di grigio con perdite di contrasto nell’immagine. Una caratteristica che in

qualche misura può essere dedotta dalla curva sensitometrica è la sensibilità del film fotografico che

si misura in ASA, in pratica in un film molto sensibile tale curva è spostata verso sinistra. La

sensibilità è molto importante nella cattura dell’immagine un poco meno nella digitalizzazione in

(9)

quanto un eventuale perdita di contrasto dovuta a sovra- o sottoesposizione potrà essere rimediata dopo l’operazione elaborando l’immagine ottenuta.

In linea di principio un buono scanner ha una dinamica di risposta sufficiente per la fedele riproduzione di una normale fotografia, qualche problema vi è semmai con materiale fotografico trasparente come negativi e diapositive che presentano intervalli dinamici più ampi.

0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5

0 0.5 1 1.5 2 2.5 3

Logaritmo dell'esposizione

Densità Ottica

Dinamica

3.5 Latitudine

Figura 9 – Esempio di curva sensitometrica.

Quanto detto per una pellicola fotografica può essere esteso anche ad una superficie piana riflettente la cui OD può essere misurata punto per punto. Anche in questo caso vi saranno delle limitazioni nella dinamica che un documento può presentare; è ad esempio ben noto che le immagini stampate su carta non presentano la stessa dinamica di quelle stampate su materiale fotografico. Anche la tecnica di scrittura e di stampa possono fortemente limitare la dinamica del documento, un testo scritto non avrà mai un’ampia dinamica per cui sarà più facilmente digitalizzabile di una fotografia.

Il colore è una proprietà fisica molto importante per caratterizzare un documento, sfortunatamente non è sempre semplice misurarlo accuratamente in un processo di digitalizzazione. Il colore di una superficie piana può essere prodotto utilizzando una logica sottrattiva o additiva vedi figura 10.

Figura 10 – Schema della formazione dei colori mediante sintesi additiva e sottrattivi partendo rispettivamente dai tre colori fondamentale e dai loro complementari.

Nella stampa si usa in genere il metodo sottrattivo, per cui si preferisce impiegare il sistema di

coordinate cromatiche (CMYZ) che fa riferimento ai cosiddetti colori complementari di quelli

(10)

fondamentali: rosso, verde e blu che danno luogo al sistema di coordinate cromatiche RGB che è il più comunemente impiegato. Anche nel caso del colore si può parlare di un intervallo di colori che può essere tipico di un documento. In particolare per produrre un’immagine a colori si utilizzano pigmenti il cui numero va da un minimo di tre (sempre che si voglia cercare di riprodurre tutte le gamme cromatiche) in su. Ovviamente tanto più numerosi sono i pigmenti usati tanto più estesa è la gamma dei colori che è possibile ottenere. Anche in questo caso facciamo l’esempio concreto di una pellicola fotografica a colori con cui è possibile registrare un immagine a colori utilizzando tre strati di colore come mostrato in figura 11.

Figura 11 – Struttura di una pellicola fotografica a colori.

I colori contenuti in un’immagine fotografica sono in massima parte determinati dai tre pigmenti contenuti nei rispettivi strati, essi sono quelli compresi in una zona (gamut) del diagramma dei colore (vedi figura 12), che ha come vertici le posizioni di tali pigmenti. La fedeltà del colore è quindi fortemente dipendente da essi e dal loro stato di conservazione, in ogni caso il colore può essere misurato utilizzando uno strumento detto colorimetro (vedi figura 13).

Figura 12 – Esempio di colori presenti nel gamut di un’immagine ottenuta per sintesi sottrattivi.

Figura 13 – Esempio di colorimetro che funziona con una sua sorgente

luminosa interna appoggiando lo strumento in corrispondenza

dell’area di colore che si intende misurare

(11)

4. D IGITALIZZAZIONE .

Il processo di digitalizzazione è una trasformazione di un’immagine continua (analogica) in una matrice di numeri interi. Tale processo si effettua in due successive fasi il campionamento e la quantizzazione.

Al termine del processo si ottiene una matrice di numeri interi che rappresenta l’immagine originale. Tale matrice sarà composta di n x m numeri interi in un intervallo di valori che sarà la profondità o dinamica dell’immagine

Per campionamento spaziale si intende l’operazione con cui un’immagine continua è trasformata in un insieme discreto di valori assunti dalla funzione in un reticolato di passo

) , ( x y f

  x , y infinitamente esteso

La seconda operazione consiste nel rappresentare i livelli di intensità del segnale in forma digitale con numeri interi in un intervallo definito dal numero di bit assegnato al registro. Il numero dei livelli di quantizzazione (N), il loro valore e il valore del livello di ricostruzione, al fine di minimizzare l’errore che si introduce ( nel senso dei minimi quadrati), è assegnato preliminarmente.

Il valore di N va valutato sulla base del contrasto nell’immagine, ovvero del rapporto segnale- rumore (SNR).

4.1 Campionamento spaziale.

Nell’immaginario matematico l’operazione di campionamento può essere descritta dal prodotto di una funzione fatta di tante delta con la funzione che rappresenta l’immagine da campionare.

Se definiamo con

 









j k

y) k x,y δ(x j

COMB(x,y)

(2)

la funzione di campionamento (fig. 14), allora l’immagine campionata può essere rappresentata da

) y , x ( COMB y) f(x, y) (x,

fc

. (3)

La funzione f

c

consiste in una serie di numeri costituita dai valori assunti dalla funzione f(x,y) in corrispondenza alle punte delle frecce della funzione COMB (fig. 15).

Figura 14 - Funzione impiegata nel campionamento spaziale di un immagine.

Il campionamento sarà riuscito se dai numeri della funzione f

c

sarà possibile ricavare (ad esempio interpolando) tutti gli infiniti valori della funzione f(x,y). In prima istanza verrebbe voglia di rispondere negativamente, ma svolgendo alcune considerazione nello spazio delle frequenze

f(x,y) campionamento quantizzazione f i,j

(12)

spaziali è possibile arrivare alla conclusione opposta. Facciamo quindi la trasformata di Fourier delle due funzioni introdotte in precedenza:

) , ( COMB )

, ( F ) , (

Fcxy  xy  xy

(4)

dove 

x

e 

y

sono le pulsazioni spaziali.E’ utile tener conto che la trasformata di Fourier della COMB è ancora una funzione COMB costituita da delta spaziate a frequenze spaziali date dall’inverso del passo di campionamento (

x

x

 

  1 e

y

y

 

  1 ) sviluppando la (4) si ottiene

 









 

 

l m

y y

x x

y x

c

F l m

y

F 1 x 1 ( , )

) ,

(       (5)

f(x,y)

Figura 15 - Esemplificazione dell’operazione di campionamento spaziale di un’immagine.

Lo spettro di Fourier della funzione campionata consiste allora in una ripetizione periodica dello spettro dell’immagine originale (fig. 16) nel piano delle frequenze spaziali, ad intervalli dati da 

x

,



y

vedi figura 17. Se lo spettro dell’immagine ha una larghezza di banda finita, caratterizzata dalle frequenze di taglio 

xc

e

yc

, si può allora moltiplicare la (5) per una funzione di ricostruzione che filtri le frequenze di ordine superiore lasciando solo quello di ordine zero: antitrasformando il risultato si riottiene l’immagine originale inalterata. Definendo con r x y ( , ) la funzione di ricostruzione e con R (  

x

,

y

) la sua trasformata di Fourier, l’operazione di filtraggio in frequenza nel piano di Fourier

) , ( ) , ( ) ,

(

x y c x y x y

R

F R

F        (6)

Figura 16 - Spettro in frequenze spaziali dell'immagine originale nello spazio delle coordinate corrisponde alla convoluzione

x x

Campioni dell’immagine

(13)

f

R

( , ) x yf

S

( , ) x yr x y ( , ) (7)

Figura 17 – Spettro della funzione campionata in assenza di aliasing.

Fisicamente questo corrisponde ad assegnare alle zone dell’immagine comprese tra i punti campionati un valore di segnale ottenuto interpolando con la r(x,y) i valori nei punti campionati stessi.

Affinché tale operazione di filtraggio abbia successo, occorre che gli spettri di ordine superiore non si sovrappongano a quello di ordine zero che interessa estrarre, cioè accade quando

x

x

xc

  

 1

2

  ,

y

y

yc

  

 1

2

  (8)

che in corrispondenza del segno di eguale prende il nome di frequenza di Nyquist.

In teoria campionando con un passo più piccolo, non si ottengono ulteriori informazioni (sovracampionamento) mentre con un passo più grande gli spettri si sovrappongono (sottocampionamento ) e lo spettro ottenuto attraverso la (6) o la (7) risulta distorto alle alte frequenze. Il tipo di deformazione dell’immagine che si determina in questo caso si definisce aliasing.

Per comprendere il significato dell’aliasing si pensi ad un dipinto murale finemente frammentato a causa di un crollo, ciò che è possibile recuperare sono le parti composte dai frammenti più grandi che possono essere messe insieme anche utilizzando una precedente foto del dipinto. Alla fine dell’operazione avanzeranno dei minuti frammenti la cui posizione non può essere ricostruita né in base al colore né da una corrispondenza con qualche frammento più grande, se si decide comunque di inserire tali frammenti si creerà una certa sensazione di disordine detta aliasing.

Sfortunatamente ciò che abbiamo descritto sopra è un’operazione astratta che corrisponde solo in parte a ciò che è fatto in un campionamento mediante uno scanner digitale. Inoltre la rappresentazione dell’immagine con una funzione continua è a sua volta un’astrazione perché non permette di tener conto in maniera adeguata del rumore che produce effetti non sempre controllabili anche nel processo di campionamento spaziale. In conclusione si può dire che il processo astratto di campionamento spaziale di un’immagine è concettualmente un ottimo punto di partenza, anche se occorre conoscerne i limiti.

4.2 Quantizzazione

A seguito del campionamento l’immagine risulta composta da numeri, f(n,m), reali positivi per essere memorizzata in un dispositivo digitale deve essere quantizzata.

Se gli f(n,m) hanno valori compresi tra f

min

e f

max

in tale intervallo potranno essere individuati un numero finito di valori con cui rappresentare la funzione f(n,m). L’incertezza con cui è misurato il valore della funzione f(x,y) durante l’acquisizione dell’immagine dovuta alla presenza di rumore, in giustificano il fatto che non siano assegnanti infiniti valori possibili alla funzione campionata ma solo un numero discreto.

Per la quantizzazione del segnale occorre definire i livelli di decisione d , opportunamente spaziati

d

i+1

-d

i

, e quelli di ricostruzione , tali che se

i i1 i

i

d , d

r 

 f(n, m)   d

i

, d

i1

 allora f

i

( n , m )  r

i

.

(14)

I livelli di ricostruzione sono, in genere, scelti in corrispondenza dei valore aspettati in modo da minimizzare l’errore commesso, facendo così è possibile dimostrare che nel caso di distribuzione uniforme dei valori l’errore di quantizzazione è di 

2

= . In pratica il numero di livelli di decisione dovrebbe almeno eguagliare il numero di livelli di segnale distinguibili in base al contrasto della immagine da quantizzare. Tale operazione può essere realizzato con un convertitore analogico digitale (ADC ) a n bit capace di discriminare 2

n

livelli di segnale.

di

di+1

ri

f r

Figura 18 – Definizione dei livelli di decisione e di ricostruzione nella quantizzazione.

5. D ISPOSITIVI PER LA DIGITALIZZAZIONE DI DOCUMENTI

Si può procedere al campionamento di un documento punto per punto, linea per linea o campionando l’intera area (vedi figura 19). Procedendo dalla prima alla terza modalità la qualità del risultato peggiora ma l’operazione diviene più rapida.

Scansione di punto Scansione di linea Rivelazione di area Modalità di digitalizzazione di un documento

Lenta ma con buon contrasto

Situazione intermadia

Rapida ma con basso contrasto

Figura 19 – Modalità di scansione di un documento piano

La soluzione che è un compromesso valido è l’impiego di una digitalizzazione linea per linea: ossia

l’impiego di uno scanner. I vantaggi di questa soluzione sono numerosi: a) migliore qualità della

scansione in confronto a scansioni di area (soprattutto per quanto riguarda la risoluzione e la

dinamica), b) maggiore flessibilità nella scelta dell’area da digitalizzare, c) costi minori

dell’apparecchiatura. Esistono

(15)

- scanner a tamburo (drum scanner);

- scanner a letto piano (flatbed scanner).

Entrambi i tipi di scanner leggono, in genere, la luce riflessa da un originale riflettente e la luce trasmessa da un originale trasmittente. La sorgente luminosa proietta un sottile fascio luminoso (negli scanner a tamburo) o una lampada fluorescente (negli scanner a letto piano) che "scansiona"

l'originale.

La luce è letta dal sistema ottico dello scanner, dove sono rivelate le componenti rossa, verde e blu per determinare il colore, e trasformata in segnali elettrici che sono amplificati, convertiti in digitale e trasmessi al computer.

5.1 Scanner a tamburo

Gli scanner a tamburo leggono l'immagine utilizzando come sensori i fotomoltiplicatori (PMT, photomultiplier tube). Si tratta di una tecnologia molto costosa, che tuttavia permette di ottenere risultati superiori nella lettura dei dettagli e sono quindi i più comunemente impiegati nelle applicazioni in cui è richiesta un’elevata qualità. Tali scanner hanno in genere un elevato ingombro anche se esistono scanner a tamburo in miniatura, da mettere sulla scrivania (baby drum).

Gli scanner a tamburo sono consigliati solo per esigenze di grande precisione e di alta risoluzione, essi infatti richiedono personale ben qualificato e tempi più lunghi per la digitalizzazione.

5.2 Scanner desktop

Gli scanner desktop (fig. 20), detti anche "a letto piano" utilizzano come lettori ottici i CCD (charge-coupled device, dispositivi ad accoppiamento di carica). Si tratta di una tecnologia più economica rispetto ai PMT, ma inferiore nei risultati. Va tuttavia considerato che i PMT sono giunti al termine della loro evoluzione, mentre le prestazioni dei CCD continuano a migliorare.

Figura 20 – Schema di funzionamento di uno scanner a letto piatto

Gli originali che è possibile leggere con gli scanner desktop possono essere riflettenti, cioè fotografie o disegni su carta opaca; trasmittenti, cioè pellicole trasparenti, positive o negative.

Normalmente gli scanner desktop sono ottimizzati per originali riflettenti ma quasi tutti offrono un supporto (a forma di coperchio) che consente la scansione di pellicole trasparenti (negative o positive) anche se i risultati non sono sempre eccellenti. Per avere buoni risultati sui trasparenti (almeno 4 x 5 pollici) ad alta risoluzione, necessaria per la scansione di originali piccoli da ingrandire, e con un ampio intervallo dinamico che si avvicini il più possibile a quello delle diapositive (circa 3.6).

Esistono anche scanner unicamente per trasparenti, positivi o negativi. I più economici sono

dedicati ai 35 millimetri, i più cari possono fare la scansione di pellicole di 4 x 5 pollici. Questi

scanner possono dare risultati simili agli scanner a tamburo.

(16)

6. C ARATTERISTICHE DEI DISPOSITIVI DI DIGITALIZZAZIONE

Sono in commercio diversi tipi di dispositivi che consentono di effettuare quasi automaticamente sia il campionamento spaziale di un documento che la rivelazione della luminosità e del colore (quantizzazione). I più comuni dispositivi sono gli scanner che presentano diversi vantaggi rispetto alle possibili alternative, soprattutto essi sono divenuti la scelta più economica e di migliore rapporto qualità prezzo. Tutti gli scanner hanno le seguenti componenti: un sistema ottico, un sensore di luce ed una interfaccia per il trasferimento dei dati al computer. Oltre naturalmente un ad un software per gestire tutte le operazioni di archiviazione ed elaborazione digitale dell’immagine.

Quello che differenzia gli scanner tra loro è il tipo di componente usata ed il modo in cui sono impiegati. La qualità della digitalizzazione è principalmente legata alla qualità delle componenti ottiche, la efficienza e produttività del sistema è invece in gran parte dovuto all’intercaccia software.

6.1 Risoluzione

Con il termine di risoluzione si intende comunemente il numero di campioni per unità di lunghezza (spi sample per inch) con cui è digitalizzato il documento. L’unità di misura impiegata (dpi, dot per inch) è la stessa per il campionamento, per la risoluzione dell’immagine (pixel per inch, ppi) e per quella di stampa (dpi), ciò può creare confusioni, anche nel prosieguo di questo capitolo, in quanto si tratta di cose sostanzialmente differenti. Speriamo che il lettore possa capire la differenza senza ricorrere a precisazioni che renderebbero più involuto il testo. E’ comunque opportuno precisare che una risoluzione più elevata è quasi sempre necessaria sia nel campionamento che per la stampa e invece inutile, se non dannosa, per le immagini da video in cui si possono ottenere buoni risultati con risoluzioni decisamente più piccole. Infatti nel presentare sul video una immagine ottenuta digitalizzando un documento è necessario frequentemente ricorrere alla riduzione della risoluzione (resampling) in modo da non avere immagini che occupano tutto lo schermo.

Nelle specifiche tecniche degli scanner sono spesso dichiarate tre risoluzioni massime: ottica, meccanica e interpolata, La risoluzione ottica è legata al numero di sensori per unita di lunghezza allineati sul lato più corto del piano di scansione (ad esempio 1200 dpi). Quella meccanica (in genere più elevata) è il numero di passi che può effettuare il sistema ottico azionato dal motore (ad esempio 2400 dpi). Ad esempio leggendo che la risoluzione di uno scanner è 1200x 2400 dpi si deve intendere che primo numero è la risoluzione ottica il secondo quella meccanica. Quando si parla di caratteristiche di uno scanner è più conveniente riferirsi alla risoluzione reale, cioè quella ottica. Anche le dimensioni fisiche del pixel hanno una importanza nella digitalizzazione, questo dato è in genere più difficilmente analizzabile; quello che accade è che nel caso delle CCD se si riesce a realizzare un pixel più piccolo si aumenta anche in numero di sensori per unità di lunghezza. La risoluzione interpolata fa riferimento alla possibilità del programma di elaborazione dell’immagine raster di aggiungere punti virtuali effettuando appunto un’interpolazione. Quando si effettua una digitalizzazione è opportuno verificare che non si stia impiegando un’opzione per cui è interpolata l’immagine, questa operazione, ove necessaria, potrà sempre essere effettuata successivamente.

La risoluzione può essere prescelta in base alle caratteristiche del documento da digitalizzare: testo,

testo scritto, documento, disegno, mappa, foto, negativo, diapositiva. In genere il materiale

fotografico, soprattutto quello trasparente (cioè negativi e diapositive) richiede l’impiego di elevate

risoluzioni. I testi dattiloscritti o a stampa possono essere digitalizzati con risoluzioni molto basse

(200-300 dpi) con buoni risultati. Una considerazione importate è che impiegando risoluzioni

troppo elevate sono generati file di dimensione eccessive (ad esempio un foglio A4 digitalizzato a

200 dpi produce un’immagine di 1653 x 2339 punti, se la risoluzione sale a 1200 dpi i punti

nell’immagine sono 9921 x 2863). Le risoluzioni più elevate vanno quindi impiegate solo per

documenti di dimensione piccola (ad esempio materiale fotografico, miniature o disegni) pena un

inutile notevole incremento del tempo per effettuare la digitalizzazione, archiviazione ed impiego

del file prodotto.

(17)

La risoluzione ottica di uno scanner a tamburo arriva fino a 9600 ppi, quella di uno scanner a letto piano può arrivare a 3800 ppi. Nei progetti di digitalizzazione più importati si impiegano scanner a tamburo in modo da produrre file master (primari) di elevata qualità.

6.2 Colore

La gestione del colore negli scanner si fa utilizzando i sistemi di coordinate cromatiche in uso. In genere si preferisce l’RGB, anche se nel settore della stampa il sistema preferito è il CMYK, ovviamente è possibile passare dall’uno all’altro con facilità. Il numero di colori che è possibile rivelare con uno scanner è molto maggiore di quelli che è conveniente registrare sull’immagine in quanto distinguibili. Questi ultimi sono in numero molto limitato (nel grande atlante di colori di Munsell sono meno di 1500). Gli attuali scanner spesso acquisiscono il colore con una dinamica di 36-42 bit (cioè 12 -14 bit per canale che corrispondono ad un numero impressionante di colori) questo è utile ai fini di un migliore rivelazione di colore e luminosità in tutte le condizioni di lavoro dello scanner. Nell’immagine finale non si usano in genere più di 24 bit (16 milioni di colori), vi sono però produttori di dispositivi che propongono di registrare l’immagine con l’intero intervallo di colore; in tal caso sono richiesti dei programmi di gestione del colore che permettano di usare 16 bit per canale invece degli normali 8 bit.

I diversi formati di registrazione delle immagini usano gestioni del colore molto diverse, anche per ottimizzare la compressione in modo da contenere le dimensioni del file. Alcuni di tali formati ad esempio il GIF riducono il numero dei colori a 256 in modo da poter produrre immagini facilmente inseribili in testi e presentazioni multimediali e trasferibili in rete. Le immagini ottenute con la digitalizzazione non devono utilizzare tali formati di immagine, essi possono nel caso essere impiegati per le immagini derivate da esse.

6.3 Intervallo dinamico

L’intervallo dinamico del dispositivo di digitalizzazione è un fattore di notevole importanza per valutarne la qualità, quasi quanto la risoluzione di cui abbiamo parlato in precedenza. Tale intervallo corrisponde ai valori di densità ottica (OD) tra zero a quattro. Osservare in condizioni normali di illuminazione di un documento OD, che corrispondono ai valori estremi di tale intervallo è molto difficile. Anche i dispositivi di registrazione o di visualizzazione di un immagine non permettono solitamente di utilizzare l’intero intervallo di valori, anche se è facile assegnare tre zeri alle coordinate cromatiche RGB e supporre che si sia in presenza di un bianco assoluto.

Un dispositivo di digitalizzazione ha ovviamente dei limiti, minimo e massimo, di OD che è in grado di rilevare, la differenza tra i due fornisce quello che è chiamato intervallo dinamico del dispositivo. Gli scanner hanno intervalli dinamici che vanno dai 2.5-3.0 degli scanner più semplici fino ai 3.6-3.8 dei “Drum Scanner” di più elevata qualità (vedi Tabella I).

Tabella I - Intervalli dinamici tipici delle diverse classi di scanner

Scanner Tipico intervallo dinamico

Scanner manuali < 2.3

Scanner da tavolo per ufficio < 2.5

Scanner piani (flatbed) a 24 bit (vecchi modelli e livello basso di qualità)

2.2-2.6 Scanner piani a 30 bit (livello intermedio) 2.8-3.2 Scanner piani a 34-36 bit (livello alto) 3.3-3.6

Scanner a tamburo (drum) 3.3-3.7

Scanner a tamburo ad elevate prestazioni 3.4-3.8

L’intervallo dinamico è in massima parte determinato dalla qualità del sensore impiegato soprattutto

per quello che riguarda il rapporto segnale rumore (S/N) ai diversi livelli di illuminamento. Tra i

dati tecnici di uno scanner sono riportati talvolta il numero di bit del convertitore A/D, tale

indicazione può essere messa in relazione all’intervallo dinamico in quanto vi dovrebbe essere una

corrispondenza tra dinamica dell’A/D ed ampiezza dell’intervallo dinamico del sensore. Gli scanner

(18)

di più elevate prestazioni spesso utilizzano convertitori con 32-34 bit necessari per i più estesi intervalli dinamici. Occorre però accertarsi che l’A/D non sia sovradimensionato in quanto il rapporto S/N del sensore è tale da non permettere di utilizzare i livelli disponibili.

Ciò che è registrato con l’immagine è un numero intero che corrisponde ad una scala interna del convertitore, ad esempio un convertitore a 12 bit utilizza 4096 livelli per coprire l’intera dinamica.

Non vi è una corrispondenza di questo numero ad un valore di OD, se non si effettua una calibrazione. In pratica lo scanner applica una procedura di autocalibrazione che gli consente di utilizzare al meglio le caratteristiche del sensore ottico, in questo procedimento sono individuate le aree dell’immagine con densità ottica massima e minima, e si procede ad un aggiustamento del sistema di illuminazione in modo da ottenere il massimo contrasto nell’immagine digitale. Questo procedimento in qualche modo scombina le calibrazioni rendendo impossibile assegnare una precisa corrispondenza tra valore registrato e proprietà di luminosità e colore dell’elemento di area campionato (pixel). In pratica il valore zero non corrisponde ad una OD nulla ma più semplicemente al valore minimo osservabile dal dispositivo di digitalizzazione, per esempio 0,2.

Cosi il valore massimo (ad esempio 4096 per un convertitore a 12 bit) non corrisponda ad una OD di 4,0 ma al tono più scuro di grigio rivelato dallo scanner nell’immagine.

Nella scelta dello scanner è opportuno anche tenere presente che le immagini prodotte con diverse tecniche di stampa su supporti opportuni hanno delle dinamiche spesso molto diverse. In tabella II sono riportati gli intervalli dinamici tipici per alcune immagini.

Tabella II – Intervalli dinamici tipici dei diversi supporti di immagine Immagine da digitalizzare Intervallo dinamico

Immagine in un giornale 0.9

Immagini su carta patinata 1.5 – 1.9

Fotografie normali (C-type) 1.6 – 2.0

Fotografie ad alto contrasto (R-type, cibachrome) 2.0 – 2.3

Negativi 2.4 – 2.8

Trasparenze a colori e diapositive 2.8 – 3.2 Trasparenze e diapositive d’alta qualità 3.4 – 3.8 6.4 Velocità dello scanner

La velocità è un fattore non marginale nella scelta e nell’impiego di uno scanner, ora vi sono dispositivi che permettono digitalizzazioni di buona qualità, ma richiedono tempi lunghi sia per l’effettuazione del campionamento che per la calibrazione. Questi non possono essere impiegati quando occorre fare un gran numero d’operazioni, pena una perdita di tempo eccessiva per l’operatore che può commettere errori dovuti all’affaticamento. In pratica, come già accade per esempio nel caso delle fotocopiatrici, è necessario avere macchine che permettono volumi di lavoro elevati (che quindi siano più veloci e più costose) nel caso che si debba procedere a numerose digitalizzazioni. Occorre quindi tenere ben presente anche questo parametro nella progettazione di un lavoro di digitalizzazione.

6.5 Superfici di scansione

Vi sono ora scanner che sono dedicati alla digitalizzazione di materiale fotografico trasparente che

presentano superfici ridotte ed elevate risoluzioni che sono necessari per fare la digitalizzazione di

negativi e di diapositive. Essi non sono consigliabili per digitalizzare pagine di testo o altri

documenti su carta. Vi sono anche scanner adatti per fogli di formato standard (A3, A4) che sono i

più comuni per uso personale e che consentono anche la digitalizzazione di materiale trasparente

con più elevate risoluzioni, utilizzando appositi dispositivi (Transparent Media Adapter TMA). Tali

scanner possono essere utilizzati per moltissimi documenti, nel caso in cui occorre però

digitalizzare documenti di dimensioni più grandi (ad esempio mappe) è necessario programmare

anche l’impiego di scanner adatti a questo scopo. Vi sono infine scanner che consentono anche la

(19)

digitalizzazione di documenti di dimensioni molto grandi, che sono però più ingombranti e di più elevato costo, necessari quindi solo nel caso che si lavori sistematicamente su tali documenti. In pratica in un progetto di digitalizzazione più complesso va previsto l’impiego di più scanner in modo da poter programmare il lavoro in maniera più efficiente, il basso costo attuale degli scanner permette di fare ciò.

6.6 Programmi di elaborazione ed archiviazione delle immagini

Tutti gli scanner sono collegati al computer tramite opportuni programmi (drive) che permettono il trasferimento dei dati e la gestione dello scanner stesso (TWAIN e ISIS). Spesso questi consentono anche una prima elaborazione dell’immagine per ottenere migliori risultati e la selezione dell’area da digitalizzare. Occorre prestare attenzione a non fare elaborazioni in questa fase che poi compromettono il risultato finale o creare differenze tra immagini di pagine successive di un documento che rendono più complesse le fasi di produzione del documento digitale finale. Infatti l’immagine ottenuta può essere elaborata in seguito utilizzando uno dei tanti programmi disponibili (come ad esempio Photoshop, Corel Photo-Paint, Ulead PhotoImpact).

Vi è attualmente un buon numero di programmi che facilitano sia il trattamento sia l’archiviazione delle immagini ottenute nel processo di digitalizzazione. Essi consentono l’eliminazione di alcuni difetti, il miglioramento del contrasto ed anche la selezione di aree di interesse. Questi programmi non sono sempre di facile uso e comprensione e favoriscono operazioni errate da parte di utenti poco esperti. Alcuni programmi consentono anche di memorizzare procedure che permettono di risparmiare tempo e ridurre la possibilità di errori. Digitalizzando più pagine di uno stesso documento (o documenti simili) è opportuno fare le stesse operazioni di aggiustamento in modo da ottenere sempre risultati ottimali.

Nell’archiviazione è necessario utilizzare formati immagine appropriati, ad esempio per i documenti primari (master) occorre utilizzare formati TIFF o PNG mentre per quelli secondari anche altri formati possono andare bene (JPEG e GIF). Il file master va archiviato con un formato che permette l’impiego della dinamica con cui è stato digitalizzato il documento (vedi paragrafo 6.3) e non va modificata la risoluzione, se non in casi molto particolari.

6.7 Elaborazione delle immagini

Un’immagine può essere vista come un veicolo d’informazione, portata dai segni in essa contenuti, o- in maniera più semplicistica - può essere vista come un oggetto caratterizzato da alcune proprietà fisiche e chimiche che ne permettono la lettura da parte dell’uomo. L’analisi dell’immagine consente l’estrazione dell’informazione in essa contenuta permettendo così di trasferire al computer, con un maggiore grado di sicurezza, tutto ciò che è contenuto nell’immagine stessa. Questa operazione non può essere facilmente effettuata ed ha un notevole grado di incertezza, in quanto la definizione stessa di informazione contenuta in un’immagine dipende notevolmente dalle metodologie impiegate nell’estrarla.

Nel processo di produzione di una copia digitale si parte dall’assunzione che ciò che va trasferito è l’oggetto immagine con la sua consistenza materiale, che ha quindi traccia delle tecniche con cui è stato prodotto; che sono solo in piccola parte connesse all’informazione veicolata. Così facendo si corre quindi il rischio di trasferire tante informazioni inutili o pleonastiche e di non aver la possibilità di verificare se sia effettivamente possibile trasferire tutta l’informazione contenuta nell’immagine primitiva.

Le immagini prodotte nel processo di digitalizzazioni sono raster (o bitmapped) che richiedono

dimensioni dei file molto grandi perciò vi è un’esigenza quasi ineludibile di impiegare tecniche di

compressione. Vi sono tecniche di compressione (dette prive di errori) che compiono tale

operazione in maniera del tutto reversibile, queste sono le più comunemente usate dai formati di

immagine consigliati per l’archiviazione di immagini primarie. Tramite tecniche di analisi è

possibile scomporre un’immagine in una serie di oggetti elementari (primitive), come si fa per la

produzione di immagini di grafica. Questa operazione è detta vettorializzazione e permette di

ridurre drasticamente le dimensioni dei file. Utilizzando questa tecnica è possibile eseguire

(20)

operazioni come ad esempio la segmentazione, cioè l’estrazioni di oggetti dall’immagine o l’interrogazione dell’immagine da parte di programmi di archiviazione automatica, che sarebbe impossibile eseguire su immagini raster. Ovviamente la vettorializzazione è un’operazione che è possibile compiere su documenti secondari da utilizzare in particolari contesti.

7. E SEMPI PRATICI DELL EFFETTO DEL CAMPIONAMENTO SPAZIALE

Allo scopo di far comprendere meglio gli effetti del campionamento vediamo cosa accade in una digitalizzazione di un’immagine quando si cambia il passo di campionamento. In figura 21 si vede la riproduzione digitale di una lettera ottenuta con un passo di campionamento da 338,7 micron (corrispondenti ad una spi di 75 dpi). A fianco vediamo il risultato su due particolari con un passo di campionamento rispettivamente di 75, 100, 150, 200 e 300 dpi. A 300 dpi il passo di campionamento è di 78,4 micron.

E’ evidente come per tutte le spi è leggibile lo scritto risulta, ma a più grandi spi le sfumature dell’inchiostro e le imperfezioni del foglio si notano sempre meglio. Anche che le dimensioni dell’oggetto crescono quasi linearmente con la frequenza di campionamento (dpi) perciò un’immagine campionata a frequenza maggiore è, in proporzione, più grande. Questo rappresenta un grave problema nella gestione e memorizzazione dell’immagine stessa.

Per fare un altro esempio più evidente in figura 22 è mostrata la riproduzione digitale di un foglio di test di un dispositivo ottico, utile a valutarne le capacità di risoluzione spaziale. Per far ciò sono riportati gruppi di barre verticali e orizzontali con frequenze di linee crescenti. Come si vede i gruppi a più basso numero di coppie di linee

8. C ONCLUSIONI

La programmazione delle attività di digitalizzazione di documenti richiede un buon livello di conoscenza tecnica dei vari problemi da affrontare, una capacità di progettazione e di organizzazione, che sappia gestire gli aspetti di interazione con la struttura che possiede (ed eventualmente tutela) i documenti ed infine una buona conoscenza delle linee guida sviluppate per tali attività a livello nazionale, comunitario ed internazionale.

Esistono ovviamente anche normative che riguardano i singoli aspetti del processo come quelle sui dispositivi per la digitalizzazione, il formato dei file immagine, ecc. Un aspetto non trascurabile è quello dei controlli di qualità e della verifica del corretto funzionamento dei vari dispositivi e delle procedure. Tali verifiche devono essere necessariamente compiute di continuo in quanto un programma di digitalizzazione può richiedere molto tempo e il sistema di digitalizzazione deve avere prestazione, per quanto possibile, costanti nel tempo.

R IFERIMENTI BIBLIOGRAFICI

Besser H. e Trant J., Introduction to Imaging. Getty Art History Information Project.

http://www.gii.getty.edu/intro_imaging/

Dainty J. C. e Shaw R., Image Science, Principles, Analysis, and Evaluation of Photographic-Type Imaging Processes, Academic Press, London 1974).

Drake K.M., Eriksson H. e Borje J. R., Guida alle buone pratiche, MINERVA Rete interministeriale per la valorizzazione degli interventi di digitalizzazione,IST-2001-35461, 2003

Frey F. S. e Reilly J.M., Digital Imaging for Photographic Collections- Foundations for Technical Standards,Image Permanence Institute and Rochester Institute of Technology, Rochester (NY), 1999

Klijn E. de Lusenet Y. SEPIADES Cataloguing photographic collections European Commission on Negroponte, N., Essere Digitali, Sperling & Kupfer, Milano, 1997

Preservation and Access Amsterdam, 2004 ISBN 90-6984-417-6 Published 2004 by the European

Commission on Preservation and Access, Amsterdam.

(21)

ISO 16067/WD, ISO/TC42, Electronic scanners for photographic images - Spatial resolution measurements: Part 1, Scanners for reflective media, September 1999

NARA Guidelines for Digitizing Archival Materials for Electronic Access, September 1998

<www.nara.gov/nara/vision/eap/ eapspec.html>

TASI Technical Advisory Service for Images, www.tasi.ac.uk

Figura 21 – A sinistra riproduzione digitale di una lettera, a destra segmenti della stessa immagine campionati a diverse frequenze spaziali.

Figura 22 – Riproduzione digitale di una fotocopia di un foglio di test per il controllo di

qualità; a destra risultati del campionamento del particolare evidenziato nel

riquadro a frequenze spaziali di 75, 100, 150, 200, 300, 400 dpi.

Riferimenti

Documenti correlati

Il CEIDA, Ente accreditato dalla Regione Lazio quale soggetto erogatore di attività per la Formazione Superiore e Continua, (accreditamento ottenuto con Determinazione del

In caso di simultanea presentazione di due o più liste (tramite pec e a mano/in presenza), per l’attribuzione del numero di lista si procederà al sorteggio. Il sorteggio avverrà alla

Interpretare i sistemi aziendali nei loro modelli, processi e flussi informativi con riferimento alle differenti tipologie di aziende.. applicato al sistema del reddito e

Nella stessa partita i tecnici, tesserati anche come atlete AFI, se inseriti a roster come tecnici non possono essere inseriti a roster contemporaneamente come

La gestione documentale e, ancor più, la gestione della conoscenza, necessitano di una forte volontà politica e di un ampio coinvolgimento degli operatori che devono partecipare –

Il CEIDA, Ente accreditato dalla Regione Lazio quale soggetto erogatore di attività per la Formazione Superiore e Continua, (accreditamento ottenuto con Determinazione del

La sede di realizzazione della formazione generale sarà AICS Comitato Regionale Emilia Romagna, in Via San Donato 146, 40127 Bologna (cod. sede 184825). Durata 42 ore, erogate entro

Il sistema di conservazione predispone, per ciascun pacchetto di versamento, un rapporto di versamento che viene firmato da PA Digitale. Lo schema del rapporto