Bibliografia
B
B
i
i
b
b
l
l
i
i
o
o
g
g
r
r
a
a
f
f
i
i
a
a
[1] Elman J.L., Connectionism, Artificial Life, and Dynamical Systems: New approaches to
old questions.
[2] Horwitz B., The elusive concept of brain connectivity. NeuroImage 19 (2003) 466-470.
[3] Lee L., Harrison L. M. et al., A report of the functional connectivity workshop,
Dusseldorf 2002. NeuroImage 19 (2003) 457–465.
[4] Cerf-Ducastel B., Murphy C., Improvement of fMRI data processing of olfactory
responses with a perception-based template. NeuroImage 22 (2004) 603-610
[5] De Rossi D., L’olfatto. Materiale del corso di Modelli di Sistemi Biologici, Corso di Laurea Specialistica in Ingegneria Biomedica, Università di Pisa
[6] Zelano C. et al., Attentional moudalation in human primary olfactory cortex. Nature neuroscience 8,1 (Jan 2005)
[7] Savic I.,Brain Imaging Studies of the Functional Organization of Human Olfaction. Neuroscientist 8(3):204-211, 2002
[8] Savic I., Imaging of brain activation by odorants in humans. Current Opinion in Neurobiology 2002:12, 455-461
[9] Dekker A. J. (2002): Neurochemical networks, nonlinear systems and functional
neuroimaging. Http://www.home.zonnet.nl/dekker.aj/index.htm.
[10] Casey B.J., Functional magnetic resonance imaging: basic principles of and application
ti developmental science. Developmental Science 5:3 (2002), 301-309.
[11] Noll D. C., A primer on MRI and Functional MRI. 2001.
[12] Savic I.,Brain Imaging Studies of the Functional Organization of Human Olfaction. Neuroscientist 8(3):204-211, 2002.
Bibliografia
[13] Dal ton P.,Psychophysical and Behavioral Characteristics of Olfactory Adaptation. Chem. Senses 25: 487-492, 2000.
[14] Anders H. Andersen, Don M. Gash, Malcolm J. Avison, Principal Component
Analysis of the dynamic responce measured by fMRI: a generalized linear systems framework. Magnetic Resounance Imaging vol.17, no 6, pp 795-815, 1999.
[15] B. Douglas Ward, Deconvolution Analysis of FMRI Time Series Data. Biophysics Research Institute, Medical College of Wisconsin, May 2002.
[16] Silke Dodel, J. Michael Herrmann, Theo Geisel, Localization of brain activity blind
separation for fMRI data. Neurocomputing 32-33 (2000) 701-708.
[17] Martin J. McKeown, Scott Makeig et al., Analysis of fMRI Data by Blind Separation
Into Independent Spatial Components.
Human Brain Mapping 6:160–188(1998).
[18] V. D. Calhoun, T. Adali et al., Spatial and Temporal Indipendent Component
Analysis of Functional MRI Data Containing a Pair of Task-Related Wavwforms. Human
Brain Mapping 13:43–53(2001).
[19] W. D. Penny, K. E. Stephan, A. Mechelli e K. J. Friston, Modelling functional
integration: a comparison of structural equation and dynamic causal models.NeuroImage
23 (2004) 264-274.
[20] Landini L., Elaborazione di Dati e Segnali Biomedici – parte due. Università degli studi di Pisa facoltà di Ingegneria dipartimento di ingegneria dell’informazione, ed. SEU (Feb.2003).
[21] J. V. Stone, Indipendent component analysis: an introduction. Trends in Cognitive Sciences, vol. 6 No. 2 Feb. 2002.
[22] A. Hyvarinen, E. Oja, Indipendent Component Analysis: A tutorial. Helsinki University of Technology, Laboratory of Computer and Information Science, April 1999.
[23] K. J. Friston, L. Harrison e W. Penny, Dynamic causal modelling. NeuroImage, 19 (2003) 1273-1302.
[24] C. Buchel e K. J. Friston, Effective connectivity and neuroimaging. Cerebral Cortex 7, 768-778, 1998.
[25] Lee Harrison e K. J. Friston, Effective Connectivity. The Wellcome Dept. Of Cognitive Neurology, University College London
Bibliografia
[26] McIntosh A.R. e Gonzalez-Lima, Structural modelling of functional neural pathways
mapped with 2- deoxyglucose: effects of acoustic startle abituation on the auditory system 7. Brain Res. 547: 295-302. F. 1991.
[27] McIntosh A.R. e Gonzales-Lima, Structural Equation modelling and its application
to network analysis in functioal brain imaging. Human Brain Mapping 2:2-22. F. 1994b.
[28] L. Astolfi, F. Cincotti e altri, Estimation of the effective and functional human cortical
connectivity with structural equation modeling and directed transfer function. Magnetic
Resounance Imaging 22 (2004) 1457-1470.
[29] K. A. Bollen, 1989. Structural Equations with Latent Variables. Jonh Wiley, New York.
[30] S. G. West, J.F. Finch e P. J. Curran, Structural Equation Models with Nonnormal
Variables. In R. H. Hoyle, editor, Structural Equation Modeling: Concepts, Issues and Application, chapter 4, pages 56-75. Sage Publications, Inc., Thousand Oaks,
California, 1995.
[31] K. J. Friston, A. P. Holmes e altri, Analysis of fMRI Time-Series Revisited. Neuroimage 2, 45-53 (1995)
[32] M. S. Goncalves, D. A. Hall et altri, Can meaningful effective cnnectivities be
obtained between auditory cortical regions? Neuroimage, 14:1353-1360, 2001
[33] M. S. Cohen, Parametric Analysis of fMRI Data Using Linear Systems Methods. Neuroimage 6, 93-103 (1997).
Appendice A Maximum Likelihood
A
A
p
p
p
p
e
e
n
n
d
d
i
i
c
c
e
e
A
A
Maximum Likelihood
Il Likelihood di un set di dati è la probabilità di ottenere quel particolare set, una volta scelta la funzione densità di probabilità da associare a quei dati.
Si consideri una una variabile aleatoria casuale la cui funzione di distribuzione sia:
(
; , ,...,
1 2 k)
f x
θ θ
θ
dove
θ θ
1,
2,...,
θ
k sono parametri costanti incogniti che devono essere stimati.Supponiamo di avere a disposizione un set di N osservazioni indipendenti della variabile x (
x x
1,
2,...,
x
N) che corrispondono nell’analisi dei dati fisici reali alleosservazioni della variabile in diversi istanti temporali. La funzione di Likelihood è definita come:
(
1 2 1 2)
(
1 2)
1, ,...,
| , ,...,
; , ,...,
N N k k iL x x
x
θ θ
θ
L
f x
θ θ
θ
== =
∏
Appendice A Maximum Likelihood
( )
(
(
1 2)
)
1ln
ln
; , ,...,
N i k iL
f x
θ θ
θ
=Λ =
=
∑
Lo stimatore Maximum Likelihood dei parametri
θ θ
1,
2,...,
θ
k si ottiene andando amassimizzare la funzione L o Λ.
Massimizzare la funzione logaritmica è più agevole e si ottiene:
( )
0, 1, 2,...,
jj
k
θ
∂ Λ
=
=
∂
Applichiamo questi risultati ad un set di dati con funzione di distribuzione di probabilità Gaussiana di valor medio
T
e deviazione standardσ
T:( )
2 1 21
2
T T T Tf T
e
σσ
π
⎛ − ⎞ − ⎜ ⎟ ⎝ ⎠=
otteniamo:(
)
(
)
2 2 1 1 2 1 2 T 1 1 21
, ,...,
|T,
2
1
2
i T N i T i T T N N i T T T N TL T T
T
L
e
e
σ σσ
σ
π
σ
π
= ⎛ − ⎞ − ⎜ ⎟ ⎝ ⎠ = ⎛ − ⎞ − ⎜ ⎟ ⎝ ⎠⎡
⎤
⎢
⎥
= =
=
⎢
⎥
⎣
⎦
∑
=
∏
Appendice A Maximum Likelihood
( )
( )
( )
2 11
ln
ln 2
ln
2
2
N i T i TT T
N
L
π
N
σ
σ
=⎛
−
⎞
Λ=
=−
−
−
⎜
⎟
⎝
⎠
∑
Andando a cercare il massimo della funzione Λ attraverso il calcolo e la massimizzazione delle sue derivate parziali rispetto a
T
eσ
T, otteniamo:( )
(
)
( )
(
)
2 1 3 11
0
1
0
N i i T N i i T T TT
T
T
N
T
T
σ
σ
σ
σ
= =∂ Λ
=
−
=
∂
∂ Λ
= −
+
−
=
∂
∑
∑
La cui soluzione porta alle definizioni di
T
eσ
T, a conferma del fatto che lamassimizzazione della funzione di likelihood da una stima ottima dei parametri della pdf. Per avere un’idea visiva di come opera il Maximum Likelihood presentiamo un esempio grafico:
Appendice B Statistica Chi-Quadrato e test-χ2 per LR
A
A
p
p
p
p
e
e
n
n
d
d
i
i
c
c
e
e
B
B
Statistica
χ
2
e test-
χ
2
per LR
-
Statistica
χ
2La distribuzione statistica Chi-quadrato è la distribuzione di una variabile aleatoria ottenuta sommando k variabili aleatorie statisticamente indipendenti e a
distribuzione gaussiana; solitamente questa variabile aleatoria è indicata con
χ
2 e assume la forma: 2 2 2 1 2 kX
=
Z
+
Z
+
"
+
Z
2X
→
χ
dove k sono i gradi di libertà della distribuzione e le
Z
i sono le variabili gaussiane.Appendice B Statistica Chi-Quadrato e test-χ2 per LR
( )
( )
( )
2 2 2 1 1 2 2 k k x k kf
x
=
x
−e
−Γ
dove x≥0e fk
( )
x =0 per x≤0. La funzione di distribuzione cumulativa è:( )
(
( )
2 2)
2,
k x k kF
x
=
γ
Γ
dove le funzioni
γ
eΓ
sono definite:(
)
(
)
1 1 0,
,
a t x x a ta x
t
e dt
a x
t
e dt
γ
∞ − − − −Γ
=
=
∫
∫
Appendice B Statistica Chi-Quadrato e test-χ2 per LR
-
Test
2
χ
per il Likelihood-Ratio
Supponiamo di lavorare con P variabili aleatorie (x) statisticamente indipendenti, ognuna delle quali è descritta da T osservazioni, le cui funzioni di distribuzione di probabilità dipendono da un set di parametri θ appartenenti ad uno spazio Θ; l’insieme delle variabili x rappresenta quello che solitamente è un modello statistico. Supponiamo inoltre di voler andare a confrontare un particolare modello, i cui parametri θ appartengono ad un sottoinsieme
Θ
0 dello spazio Θ, con un modellodi riferimento che sia il più generale possibile; per fare questo si definisce il Likelihood-Ratio come:
( )
sup
{
{
(
(
)
)
:
0}
}
sup
:
L
x
LR x
L
x
θ
θ
θ
θ
∈ Θ
=
∈ Θ
|
|
dove
L
(
θ
|
x
)
è la funzione di likelihood espressa in funzione dei parametri θ; il rapporto LR ha lo scopo di confrontare i due sistemi e di solito è espressa come funzione del suo logaritmo (ln L R
(
)
).Sotto l’ipotesi nulla che i due modelli statistici siano uguali (cioè riescano a descrivere nello stesso modo le variabili osservate x), allora la quantità
( )
2 ln LR
Λ = −
ha una funzione di distribuzione asintotica tipoχ
2con gradi di libertà pari alla differenza delle dimensioni di
Θ
0 e Θ.Per valutare la bontà del modello considerato, possiamo sfruttare questa proprietà
Appendice B Statistica Chi-Quadrato e test-χ2 per LR
L’ipotesi nulla è tanto più vera quanto più LR tende a 1 ovvero
−
2 ln L R
(
)
tende a 0; pertanto se l’ipotesi nulla è falsa alloraΛ
tende a crescere, pertanto la zona di rifiuto dell’ipotesi nulla è sulla coda superiore della distribuzioneχ
2 con gradi di libertà k.Andando a confrontare il
Λ
con una soglia fissata di quella distribuzione, 2 1αχ
− , si può valutare quale sia la probabilità con cui l’ipotesi nulla è ritenuta falsa. Infatti se per esempio si fissa la soglia 21α
χ
− tale che(
)
( )
2 1 2 2 1 kP
f
x d x
p
α α χχ
χ
− ∞ −≥
=
∫
=
allora un valore di
Λ
superiore a quella soglia ha probabilità di appartenere alla distribuzione pari adp
; in altri termini si può dedurre che quel particolaremodello, il cui ln-Likelihood è pari a
Λ
(≥ 2 1αχ
− ), ha una probabilità di verificare l’ipotesi nulla inferiore o al più uguale ap
, il che corrisponde alla probabilità concui è verificata l’ipotesi alternativa. In sostanza il parametro
1
−
p
indica il livello diconfidenza che si ha nell’assumere vera l’ipotesi nulla.
Quindi, una volta fissato il valore di
ˆp
che determina la soglia di confidenza desiderata, quello che si fa solitamente è confrontare il p-value del modello, ricavato da quel determinato valore diΛ
integrando una distribuzione con k gradi di libertà, direttamente con la sogliaˆp
e decidere se il modello è accettabile o meno.Di seguito riportiamo i “valori critici” di soglia della variabile
χ
2 per diversi livelli di probabilitàp
(p-value).Appendice C Least Squares e Weighted Least Squares
A
A
p
p
p
p
e
e
n
n
d
d
i
i
c
c
e
e
C
C
Least Squares e Weighted Least
Squares
Il Least Squares (LS), al contrario di altri stimatori come l’MVU, BLUE e MLE, non fa nessuna assunzione sulle caratteristiche statistiche dei dati. L’unica ipotesi di lavoro è considerare un modello del segnale come funzione lineare dei parametri:
s
=
H
⋅
θ
dove
s
=
⎣
⎡
s
[ ] [ ]
0 ,
s
1 ,...,
s N
[
−
1
]
⎤
⎦
T , H è una matrice nota (N x p) e[ ] [ ]
0 ,
1 ,...,
[
N
1
]
Tθ
=
⎡
⎣
θ
θ
θ
−
⎤
⎦
è il vettore contenente i parametri del modello.Al modello si aggiunge una componente di rumore
ε
=
⎣
⎡
ε
[ ] [ ]
0 ,
ε
1 ,...,
ε
[
N
−
1
]
⎤
⎦
T che rappresenta l’imprecisione del modello:Appendice C Least Squares e Weighted Least Squares La funzione Least-Squares è:
( )
1(
[ ] [ ]
)
2(
) (
)
1 N T nJ
θ
x n
s n
x
H
θ
x
H
θ
− ==
∑
−
=
− ⋅
⋅ − ⋅
Differenziando e ponendo uguale a zero:
( )
0
J
θ
θ
∂
=
∂
− ⋅
2
H x
T+ ⋅
2
H H
T⋅ =
θ
ˆ
0
e quindi:(
)
1ˆ
T TH H
H x
θ
=
−Un applicazione particolare di questo metodo è il WLS (Weighted Least Squares) in cui ogni contributo all’errore quadratico di ogni componente del vettore dei parametri può essere pesata a seconda della sua importanza usando una forma modificata di J(θ):
( )
1[ ] [ ] [ ]
(
)
2(
)
(
)
1 N T nJ
θ
w n
x n
s n
x
H
θ
W x
H
θ
− ==
∑
⋅
−
=
−
−
Appendice C Least Squares e Weighted Least Squares
dove W è una matrice diagonale N x N, definita positiva, contenente i pesi che indicano quanta influenza hanno le singole osservazioni sulla stima finale dei parametri. Comunemente i pesi adottati sono i reciproci della varianza dell’errore
che affligge ogni osservazione: 2