• Non ci sono risultati.

PARAMETRIZZAZIONE MISTA PER MODELLI ESPONENZIALI CURVI

N/A
N/A
Protected

Academic year: 2021

Condividi "PARAMETRIZZAZIONE MISTA PER MODELLI ESPONENZIALI CURVI"

Copied!
8
0
0

Testo completo

(1)

PARAMETRIZZAZIONE MISTA PER MODELLI ESPONENZIALI CURVI

NEL CASO DI PROCESSI MARKOVIANI DISCRETI Mixed Parametrisation for Curved Exponential Models

in Discrete Markov Processes

MARIA PIERA ROGANTIN

Dipartimento di Matematica - Universit`a di Genova

1. Introduzione

Si cerca una parametrizzazione di modelli markoviani in modo che l’insieme dei parametri sia suddiviso in due blocchi fra loro ortogonali (nel senso che le stime di mas- sima verosimiglianza dei due blocchi di parametri siano asintoticamente indipendenti) il primo dei quali esprima le probabilit`a marginali e il secondo esprima le probabilit`a di transizione. L’utilizzo di questo tipo di parametrizzazioni ortogonali trova applicazione anche in modellizazioni di fenomeni in cui opportune funzioni dei parametri - marginali o di transizione - dipendono linearmente da covariate, si veda ad esempio (Azzalini, 1994).

Il lavoro si inserisce in un filone di studio, riguardante la teoria geometrica dei modelli statistici, che ha condotto alla stesura di alcuni lavori; si veda (Pistone, Rogantin, 1990, 1995 a, 1995 b), (Pistone, Sempi, 1995) e (Rogantin, 1995). Per un inquadramento pi`u completo sull’argomento si veda, ad esempio, (Murray, Rice, 1993).

Si generalizzano alcuni aspetti presentati in (Rogantin, 1995) in cui si trova una estensione della cosiddetta “parametrizzazione mista” in casi di modelli esponenziali curvi. Le applicazioni considerate riguardavano catene di Markov a due stati; in tal caso l’insieme dei parametri che esprimono le probabilit`a di transizione e che sono ortogonali alle probabilit`a marginali ha dimensione uno. `E noto che `e sempre possibile suddividere l’insieme dei parametri in due blocchi ortogonali se la dimensione di uno di essi `e uno, vedi (Cox, Reid, 1987) e (Barndorff-Nielsen, Cox, 1994: 49).

Nel presente lavoro si mostra – sempre utilizzando metodi geometrici – che il risultato trovato per i processi binari `e generale e vale anche nel caso in cui la catena di Markov abbia pi`u di due stati, e quindi i parametri che esprimono le probabilit`a di transizione siano pi`u di uno; anche in tal caso `e possibile trovare una parametrizzazione delle probabilit`a di transizione ortogonale alle probabilit`a marginali.

1.1. Richiami

Anzitutto riprendiamo brevemente le argomentazioni che permettono di trovare una parametrizzazione che rende ortogonali due sottoinsiemi di parametri nel caso di modelli esponenziali; in (Amari,1982), (Barndorff-Nielsen, Cox, 1994: 62) e (Pistone, Rogantin, 1995 a), ad esempio, si trova una trattazione pi`u completa.

(2)

In generale si consideri un modello statistico parametrico e regolare nel senso di Fisher, cio`e una struttura (Ω,F, (pθ)θ∈Θ, μ) dove (Ω,F) `e lo spazio misurabile in cui Ω `e campionario, μ `e una misura dominante e (pθ)θ∈Θ `e una famiglia di densit`a di probabilit`a rispetto a μ di misure tra loro equivalenti con parametro θ ∈ Θ, Θ aperto di Rd.

Quando sono soddisfatte opportune condizioni di regolarit`a discusse pi`u ampia- mente in (Pistone, Rogantin, 1995 a), la famiglia parametrica di densit`a di probabilit`a che compare nel modello, per come `e definita, si interpreta bene come variet`a differen- ziabile di dimensione d nel convesso di tutte le densit`a di probabilit`a equivalenti a quelle date. Le funzioni che definiscono le carte per la costruzione della variet`a differenziabile assumono valori nell’insieme dei parametri.

La trasformazione da θ alla densit`a pθ deve essere invertibile per realizzare una carta: `e la condizione di identificabilit`a dei parametri. La scelta della parametrizzazione

`

e irrilevante per quanto riguarda la descrizione dei punti di tale superficie.

Per definire le nozioni metriche nella variet`a delle densit`a di probabilit`a si uti- lizza la matrice di informazione di Fisher, I(θ), in cui l’elemento (i, j) `e Eθ∂l

∂θi

∂l

∂θj

, dove con l si `e indicato il logaritmo della verosimiglianza del modello.

Nel caso specifico dei modelli esponenziali, indichiamo con l(x; θ) il logaritmo di una versione della verosimiglianza, l(x; θ) = −ψ(θ)+ < T (x), θ >, dove θ varia in un opportuno aperto convesso di Rd, la funzione ψ(θ) `e analitica e strettamente convessa e T `e una statistica sufficiente a valori in Rd, la cui media coincide con il gradiente di ψ e la cui varianza coincide la matrice hessiana di ψ (cio`e la matrice delle derivate seconde di ψ). La matrice di informazione di Fisher `e la matrice hessiana di ψ.

Consideriamo anzitutto una riparametrizzazione tale che le stime di massima verosimiglianza dei nuovi parametri stiano in un aperto convesso che coincide con l’insieme in cui assume i valori la statistica sufficiente T . Indichiamo con f tale tras- formazione, f : Rd⊇ Θ → H ⊆ Rd, e indichiamo con η i nuovi parametri, η = f (θ):

η = Eθ(T ) =∇ψ(θ)

Se I1(θ) e I2(η) sono le matrici di informazione di Fisher secondo le due para- metrizzazioni, allora la matrice I2(η) `e l’inversa della matrice I1(f−1(η)); si veda, ad esempio (Barndorff-Nielsen, Cox, 1994: 64) e (Pistone, Rogantin, 1995 a: 33).

Questo implica che nello spazio della variet`a delle densit`a di probabilit`a la posi- zione reciproca dei due sistemi di riferimento nei parametri θ e η `e tale che `e possibile trovare una riparametrizzazione che rende ortogonali due sottoinsiemi di parametri. Ad esempio, se si vuole che i primi a parametri siano ortogonali agli ultimi d−a parametri, basta scegliere come riparametrizzazione:

1, . . . , θa, ηa+1, . . . , ηd) ;

questa `e la cosiddetta parametrizzazione “mista”, si veda ad esempio (Amari, 1982), (Barndorff-Nielsen, Cox, 1994: 62).

Conseguenza di questa ortogonalit`a `e che le stime di massima verosimiglianza dei due blocchi di parametri sono asintoticamente indipendenti, si veda ad esempio (Barndorff-Nielsen, Cox, 1994: 98) e (Murray, Rice, 1993: 216).

Nei modelli esponenziali la dimensione dei parametri `e uguale a quella della statistica sufficiente. `E possibile trattare nel contesto dei modelli esponenziali anche

(3)

modelli pi`u generali in cui la dimensione dei parametri `e inferiore a quella della statistica sufficiente, immergendo tali modelli in un modello esponenziale ambiente (con numero di parametri uguale a quello della statistica sufficiente). Cio`e la famiglia delle densit`a del modello generale risulta una sottovariet`a della famiglia delle densit`a del modello esponenziale ambiente. Tali modelli sono detti “modelli esponenziali curvi”; si veda, ad esempio (Barndorff-Nielsen, Cox, 1994: 65) e (Pistone, Rogantin, 1995 a: 33).

Se si indicano con θ i parametri del modello esponenziale e con α i parametri del modello esponenziale curvo, risulter`a θ = θ(α) e l’espressione del logaritmo di una ver- sione della versosimiglianza del modello curvo `e: l(x; θ(α)) =−ψ(α)+ < T (x), θ(α) >.

Un sottomodello curvo eredita dal modello ambiente la sua geometria, nel senso che la matrice di informazione di Fisher del sottomodello curvo `e esprimibile come Jθt I1(θ(α)) Jθ (dove Jθ `e la matrice jacobiana associata alla trasformazione θ(α)).

Questa immersione `e solo un artificio analitico che permette di trattare pi`u facilmente il modello generale e non fa perdere la potenza del metodo inferente.

Osserviamo che la curvatura di un modello esponenziale curvo, essendo un concetto metrico, risulta invariante per la scelta di parametrizzazioni; le approssima- zioni del secondo ordine dei modelli – legate al concetto di cuvatura – non sono trattate in questa sede; si veda ad esempio (Cox, Reid, 1987) e (Murray, Rice, 1993: cap. 5).

2. Processi markoviani a J stati

Si consideri un processo markoviano (Xt)t=1,...,T in cui ciascuna variabile casuale Xt assume valori nell’insieme di livelli {1, 2, . . . , J} con probabilit`ap(t)1 , p(t)2 , . . . , p(t)J , doveJj=1 (p(t)j ) = 1. Si consideri quindi un suo n-campione.

Per ogni istante t, con t = 1, . . . , T , indichiamo con:

– p(t) il vettore delle probabilit`a marginali al tempo t, cio`ep1(t), p(t)2 , . . . , p(t)J ; – a(t)ij 

i,j=1,...,J, con Jj=1 a(t)ij = 1, la matrice di transizione che regola la dipen- denza di Xt+1 da Xt, per t = 1, . . . , T−1. Senza perdere di generalit`a imponiamo che a(t)ij > 0; se tale condizione non `e verificata le formule possono essere oppor- tunamente modificate, come `e mostrato con un esempio in (Rogantin, 1995);

– (Nj)t le variabili casuali che indicano il numero campionario di valori uguali a j (j ∈ {1, . . . , J}) che si realizzano al tempo t; deve essere Jj=1 (Nj)t = n; le variabili ((Nj)t)j=1,...,J hanno legge multinomiale di parametri n e p(t);

– (Nij)t con i, j = 1, . . . , J le variabili casuali che indicano il numero campionario delle transizioni dallo stato i al tempo t allo stato j al tempo t + 1, per t = 1, . . . , T − 1;

– Nij con i, j = 1, . . . , J le variabili casuali che indicano il numero campionario delle transizioni dallo stato i allo stato j durate tutto il processo, cio`e Nij =

T −1

t=1(Nij)t.

Esamineremo tre classi di processi markoviani:

(4)

1. processo non omogeneo: le matrici di transizione sono diverse a ogni tempo e la probabilit`a iniziale `e generale;

2. processo omogeneo e non necessariamente stazionario: le matrici di transizione sono uguali a ogni tempo e la probabilit`a iniziale `e generale;

3. processo stazionario: le matrici di transizione sono uguali a ogni tempo e la probabilit`a iniziale `e una probabilit`a stazionaria.

Il primo processo `e il caso pi`u generale, ma dal punto di vista delle applicazioni non `e realistico pensare a modelli con un cos`ı alto numero di parametri. Pi`u significativi sono invece il processo omogeneo non stazionario e quello stazionario; questi per`o non sono modelli esponenziali e per essi sono proposte generalizzazioni dei metodi geometrici di parametrizzazione “mista”.

2.1. Processo non omogeneo

Si consideri un n-campione di un processo markoviano non omogeneo.

Per t ≥ 2 le probabilit`a marginali di successo p(t), possono essere espresse in funzione dei parametri della matrice di transizione.

Quindi i parametri del modello sono (J − 1) per le probabilit`a iniziali e (T − 1)J (J−1) per le probabilit`a della matrice di transizione, cio`e in totale(J−1)(JT −J+1).

Si vogliono trovare dei parametri che esprimano le probabilit`a di transizione che siano ortogonali a tutte le probabilit`a marginali. Le probabilit`a marginali comples- sivamente sono espresse da T (J − 1) parametri, quindi i parametri che esprimono le probabilit`a di transizione devono essere (T − 1)(J − 1)2.

E possibile scrivere il modello in modo che la statistica sufficiente abbia ad` esempio come primi T (J − 1) elementi le variabili casuali (Nnj)t

j=1,...,J−1;t=1,...,T i cui valori attesi sono le probabilit`a marginali p(t)

t=1,...,T.

Il logaritmo di una versione della verosimiglianza `e infatti:

J−1

j=1

(nj)1 n log

p(1)j p(1)J

a(1)jJ a(1)JJ

+

T −1

t=2

(nj)t n log

a(t)jJ a(t)JJ

a(t−1)Jj a(t−1)JJ

+

+ (nj)T n log

a(T −1)Jj a(T −1)JJ

+

T −1

t=1 J−1

i,j=1

(nij)t

n ij)t + log

p(1)J

T −1

t=1

a(t)JJ

(1)

dove (θij)t = log

a(t)ij a(t)iJ

a(t)JJ a(t)Jj

per i, j = 1, . . . , J − 1.

Nell’espressione di questa verosimiglianza si `e scelto come pivot l’elemento (J, J ) delle matrici delle probabilit`a di transizione; altre scelte conducono a risultati del tutto equivalenti. Osserviamo che i parametri (θij)t sono il logaritmo dei determinanti di tutti i minori di secondo ordine con elementi nell’ultima riga e nell’ultima colonna delle matrici di transizione.

Il modello `e un modello esponenziale e quindi gli ultimi (T−1)(J −1)2 elementi del parametro canonico risultano ortogonali ai parametrip(t)

t=1,...,T che esprimono le probabilit`a marginali.

(5)

2.2. Processo omogeneo e non stazionario

Si consideri un n-campione di un processo markoviano omogeneo in cui la ma- trice di transizione (non dipendente dal tempo) `e (aij)i,j=1,...,J con Jj=1 aij = 1.

I parametri del modello sono quindi J − 1 per le probabilit`a iniziali e J(J − 1) per le probabilit`a della matrice di transizione, cio`e in totale J2− 1.

Se indichiamo con (Nj)C le variabili casuali T −1t=2(Nj)t, una versione del loga- ritmo della verosimiglianza del modello `e:

J−1

j=1

(nj)1 n log

p(1)j p(1)J

ajJ aJJ

+ (nj)C n log

ajJ aJj (aJJ)2

+(nj)T n log

aJj aJJ

+

+

J−1

i,j=1

nij n log

aij aiJ

aJJ aJj

+ log(p(1)J ) + (T − 1) log (aJJ) (2) Indichiamo con:

– θ i parametri logaaij

iJ

aJJ

aJj



i,j=1,...,J−1, – ζ i parametri p(1), (aJj)j=1,...,J−1



.

E possibile parametrizzare il modello [??] nei parametri θ e ζ. Infatti il parame-` tro aiJ `e esprimibile come: aiJ = aJJ / aJJ +J−1j=1 eθij aJj−1 e tale trasformazione

`

e di rango pieno.

Il modello [??] `e un modello curvo; infatti le relazioni che legano i parametri θ non sono lineari negli altri parametri canonici del modello; la dimensione dei parametri

`

e J2 − 1, mentre la dimensione della statistica sufficiente `e 3(J − 1) + (J − 1)2, cio`e (J2− 1) + (J − 1).

Come si `e visto nell’Introduzione, `e possibile immergere un modello curvo in un modello esponenziale; una versione del logaritmo della verosimiglianza del pi`u piccolo modello esponenziale che contiene il modello [??] `e:

< T1, θ1 > + < T2, θ2 >−ψ(θ1, θ2) (3) dove:

– T1 e θ1 hanno dimensione 3(J− 1) e T1 = n1 ((Nj)1, (Nj)C, (Nj)T)i,j=1,...,J−1, – T2 e θ2 hanno dimensione (J − 1)2; T2 = 1

n(Nij)i,j=1,...,J−1 e θ2 = θ, – i primi 3(J− 1) elementi di ∇ψ(θ1, θ2) sono (pj(1)), (p(C)j ), (p(T )j ))j=1,...,J−1



, cio`e i parametri che dipendono dalle probabilit`a marginali. Indichiamo tali parametri con η1.

Indichiamo con M la variet`a differenziale corrispondente al modello esponen- ziale ambiente. Una sua parametrizzazione “mista” `e:

M :

 η1 = (∇ψ(θ1, θ2))1 θ2 = θ

(6)

dove (∇ψ(θ1, θ2))1 `e il vettore con le derivate di ψ(θ1, θ2) rispetto ai parametri θ1. Si osservi che la parametrizzazione delle probabilit`a marginali evidenzia la pro- babilit`a delle realizzazioni campionarie al tempo iniziale, al tempo finale e la somma delle probabilit`a delle realizzazioni campionarie intermedie.

2.2.1. Generalizzazione della parametrizzazione “mista” a modelli esponenziali curvi Indichiamo conSomola sottovariet`a diM corrispondente al modello del processo omogeneo non stazionario. Una rappresentazione parametrica di Somo inM `e:

Somo:

 θ1 = F (ζ, θ) θ2 = θ

dove la dimensione di θ1 `e J (J − 1).

La differenza fra la dimensione di M e quella di Somo `e J − 1.

Si consideri quindi un punto ˆP = (ˆζ, ˆθ) appartenente a Somo e la superficie coordinata γPˆ(θ) che passa per ˆP e che giace su Somo. Una sua rappresentazione parametrica `e:

γPˆ(θ) :

 θ1 = F (ˆζ, θ) θ2 = θ Indichiamo con γˆ

Pθ) la matrice Jacobiana corrispondente a γPˆ(θ) le cui colonne generano lo spazio tangente a γPˆ(θ) nel punto ˆP : γˆ

Pθ) =

F2ζ, ˆθ) I

dove F2ζ, ˆθ)

`

e una matrice di dimensione 3(J − 1) × (J − 1)2 con le derivate di F (ζ, θ) rispetto ai parametri θ calcolate in ˆP e dove I `e la matrice identica di dimensione (J − 1)2.

E possibile scrivere un modello esponenziale corrispondente anch’esso alla va-` riet`aM che in ˆP ha le ultime (J−1)2 coordinate proporzionali a γˆ

Pθ), i cui parametri – indicati con (τ1, τ2) – sono combinazioni lineari dei parametri (θ1, θ2). In (Rogantin, 1995) viene fornito un calcolo dettagliato nel caso J = 2.

In tale modello τ2 = θ2 e inoltre i primi 3(J − 1) elementi del gradiente di ψ(θ1, θ2) fatto rispetto a (θ1, θ2) sono uguali ai corrispondenti elementi del gradiente di ψ(τ1, τ2) fatto rispetto a (τ1, τ2); cio`e, indicando con (.)A i primi 3(J − 1) elementi del vettore:

(θψ(θ1, θ2))A= (τψ(τ1, τ2))A . (4) Quindi i parametri η1 che dipendono dalle probabilit`a marginali sono ortogonali ai parametri θ che dipendono dalle probabilit`a di transizione.

Pertanto la superficie coordinata di M corrispondente a η1 – che indicheremo con H – `e ortogonale al piano tangente a γPˆ(θ) in ˆP . La superficie H `e piatta in M, infatti corrisponde a un sottomodello esponenziale di [??].

IntersecandoH con la sottovariet`a Somo corrispondente al modello curvo [??] si ottiene una superficie che indicheremo con C.

La Fig. 1 rappresenta quanto descritto sopra nel caso in cui η1 e θ siano di dimensione rispettivamente due e uno.

(7)

Fig. 1: Variet`a M e sue sottovariet`a

M

S

H C

γ( )θ

o o

Pˆ γ'(θ)ˆ P˜

θ) γ ('˜

P˜

Pˆ Pˆ

La dimensione di C `e 2(J − 1); infatti, per ogni ˆP di Somo, lo spazio tangente a H nel punto ˆP `e ortogonale allo spazio tangente a γPˆ(θ) in ˆP e quindi la dimensione complessiva di questi due spazi tangenti `e uguale alla dimensione diM. Per la formula di Grassmann: dimC = dim H + dim S − dim M; quindi `e dim C = 2(J − 1).

Pertanto la superficieC pu`o essere rappresentata con 2(J −1) parametri funzioni di η1.

Per qualsiasi altro punto ˜P = (˜ζ, ˜θ) appartenente a C sia γP˜(θ) la superficie coordinata che passa per ˜P . Lo spazio ortogonale allo spazio tangente γ˜

Pθ) `e sempre H, come risulta da [??], e quindi la conclusione precedente non dipende dal punto scelto.

Anche per questo modello esponenziale curvo esistono quindi 3(J−1) parametri funzioni delle probabilit`a marginali η1 che sono ortogonali ai parametri θ. Questa pu`o essere considerata una parametrizzazione “mista vincolata”.

2.3 Processo stazionario

Si consideri un n-campione di processo markoviano stazionario.

In tal caso la probabilit`a di successo iniziale e quelle marginali sono uguali e possono essere espresse in funzione dei parametri della matrice di transizione.

I parametri del modello sono quindi J (J − 1).

Il logaritmo della verosimiglianza si pu`o scrivere in modo analogo al precedente con (p(1)j ) funzione di (aij)i,j=1,...,J.

La famiglia parametrica di densit`a di probabilit`a associata a questo modello `e una sottovariet`a di dimensione J (J − 1) immersa in M, che indicheremo con Ssta.

Si pu`o quindi ripercorrere il procedimento svolto nel caso della sottovariet`aSomo

del processo omogeneo.

Indichiamo con H la superficie di M corrispondente a η1; la sua dimensione `e anche in questo caso 3(J−1). Intersecando H con la sottovariet`a Sstacorrispondente al modello curvo del processo stazionario si ottiene una superficie che pu`o essere rappre- sentata con J− 1 parametri funzione di η1 e tali parametri risultano quindi ortogonale ai parametri θ.

(8)

Riferimenti bibliografici

Amari S.-I.(1982), “Differential geometry of Curved Exponential Families-Curvature and Information Loss”,The Annals of Statistics, 18, 2, pp. 357-385

Azzalini A. (1994), “Logistic regression for autocorrelated data with application to repeated measures”, Biometrika, 81, pp. 767-75.

Barndorff-Nielsen O. E., Cox D. R.(1994), Inference and Asymptotics. London:

Chapman & Hall.

Cox D. R., Reid N. (1987), “Parameter orthogonality and approximate conditional inference (with discussion)”, J. R. Statist. Soc., B, 49, pp. 1-39.

Murray M. K., Rice J. W. (1993), Differential Geometry and Statistics, Mono- graphs in Statistics and Applied Probability, 48, London: Chapman & Hall.

Pistone G., Rogantin M.P. (1990), “Gli strumenti della geometria differenziale nell’inferenza statistica”, In Memorial Beniamino Gulotta, Giornate di lavoro di Probabilit`a e Statistica, Istituto Gramsci, Palermo, pp. 85-99.

Pistone G., Rogantin M. P.(1995 a), Geometria differenziale: strumenti dell’infe- renza statistica, Corso di Formazione, XXXVII Riunione Scientifica Societ`a Ita- liana di Statistica, 1994, Rap. int. 1/1995; Dip. Matematica Politecnico Torino.

Pistone G., Rogantin M. P.(1995 b), “The exponential statistical manifold under space transformation and conditioning”, Rapporto interno n. 9/1995; Diparti- mento di Matematica del Politecnico di Torino, in revisione per Bernoulli.

Pistone G., Sempi C. (1992-95), “An Infinite Dimensional Geometric Structure On the space of All the Probability Measures Equivalent to a Given one”, Preprint del Dipartimento di Matematica dell’Universit`a di Lecce, N. 10. Revised 1993, Rapporto interno n. 32/1993; Dipartimento di Matematica del Politecnico di Torino, in corso di stampa su Annals of Statistics (1995).

Rogantin M. P.(1995), “ Modellizzazione geometrica della dipendenza markoviana”, inviato a Metron.

Abstract

We describe a parametrisation of Markov chains such that the set of parameters splits into two mutually orthogonal blocks, the first one representing the marginal probabilities and the latter one representing the transition probabilities. This aim is achieved by using methods of differential geometry. The examined Markov chains are curved exponential models; we propose a geometrical method which generalizes the

“mixed parametrisation” of the exponential models.

This work is a generalization of a previous paper on binary Markov chains;

in this case the parameters space representing transitions and orthogonal to marginal probabilities is one dimensional. In the present paper we show that the result is general and holds for Markov chains with more than two states.

Riferimenti

Documenti correlati

scaffold framework was achieved by combining semantic segmentation to a customized.. The segmentation isolated the scaffold structure, while directional

Si era anche chie sto al Museo Nazionale di Napoli la colonna magnifica di marmo, che esiste nella vanella, insieme al coronamento di bronzo, che il com­

Considering the transverse emittance growth due to the space charge forces, along a drift distance ∆z, the emittance appears to be proportional to the bunch current and the

Although the morulation time is one of our morphodynamic parameters, but it will still be possible to use it as a predictive parameter of the implantation capacity of

amounts to +9.50 B; hence, hexafluorobenzene can favorably interact with anions. stands for atomic units), for benzene and hexafluorobenzene, respectively).. 15

dal momento che non si fa nemmeno un tentativo per salvarlo. Eppure sarebbe bastato sollecitare il prestito da parte della zia ricca, e favorire un matrimonio tra Vanja e il

[r]

di crocera ricostruita con [letti composti da] sacconi i tavolati ed i cavalletti e con lettiga in uso nel 1600”, probabilmente realizzata in una prospettiva didattica e