Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Breve introducción a la
Matemática de la Estadı́stica
Espacial
1 Prólogo 5
3
4 ÍNDICE GENERAL
Bibliografı́a 111
Prólogo
5
6 Oscar Bustos y Aureliano Guerrero
x(1,1) ··· x(n,1)
x = ··· ··· ··· .
x(1,m) ··· x(n,m)
Tt = φ1 Tt−1 + · · · + φp Tt−p + εt , t = p + 1, · · · , n,
Para llevar en cuenta la correlación de cada variable con sus vecinos espa-
ciales en tal situación se vienen usando desde hace ya algunos años (ver
por ejemplo Besag (1989) ([2])) los llamados procesos de Markov que son
extensiones de las Cadenas de Markov muy usadas en diversos contextos.
Más adelante (3.2.3) veremos uno de los más simples y usados procesos
de Markov: el Modelo de Ising. En Frery et al. (2009) ([4]) se puede ver
el comportamiento de este modelo para lograr clasificaciones en imágenes,
más exactas y eficientes que las obtenidas con las técnicas usuales de clasi-
ficación que se aplican en el caso de variables independientes.
Desde el punto de vista de la Estadı́stica Matemática la extensión de
resultados referidos a convergencia en probabilidad, en distribución, teore-
mas de ergodicidad, etc. de modelos causales a no-causales es un verdadero
desafı́o. En la mayorı́a de los casos es preciso estudiar nuevos conceptos,
resultados especı́ficos para estos modelos no-causales y no siempre es posi-
ble extender resultados que valen para modelos causales a estos últimos.
Cap. 1 Prólogo 9
Modelos Espaciales de
Segundo Orden y
Geoestadı́stica
10
Cap. 2 Modelos Espaciales de Segundo Orden y Geoestadı́stica 11
k
3. Imagen multiespectral: E = {0, 1, . . . , 255} con k ≥ 3 (k es el
número de bandas).
Xω (s) = Xs (ω).
Definición
−1 1 = {X1,s /s ∈ S} , X2 = {X2,s /s ∈ S} y F(Xi ) =
2.1.8. Sean X
σ Xi,s (B)/s ∈ S, B ∈ B . Se dice que X1 y X2 son P independientes
si
A ∈ F(X1 ) B ∈ F(X2 ) ⇒ P (A ∩ B) = P (A).P (B).
Sean X1 , . . . , Xn n procesos con soporte S1 , . . . , Sn respectivamente. Se
dice que son P -independientes si ∀k ≤ n y un conjunto de ı́ndices 1 ≤ i1 <
. . . < ik ≤ n, si Ai1 ∈ F(Xi1 ), . . . , Aik ∈ F(Xik ) ⇒ P (Ai1 ∩ . . . ∩ Aik ) =
Qk
P (Aij ).
j=1
1. CX (s, s) ≥ 0 ∀s ∈ S.
2. CX (s1 , s2 ) = CX (s2 , s1 ) ∀s1 , s2 ∈ S.
3. CX es d.n.n.
2
4. |CX (s1 , s2 )| ≤ CX (s1 , s1 )CX (s2 , s2 ) ∀s1 , s2 ∈ S.
2
5. |CX (s1 , s) − C X (s2 , s)| ≤ CX (s, s) CX (s1 , s1 ) + CX (s2 , s2 )
−2CX (s2 , s1 ) ∀s1 , s2 ∈ S.
1. C(s, s) > 0 ∀s ∈ S.
2
4. |C(s1 , s) − C(s2 , s)| ≤
C(s, s) [C(s1 , s1 ) + C(s2 , s2 ) − 2C(s2 , s1 )] ∀s, s1 , s2 ∈ S.
1. C 0 (−s) = C 0 (s) ∀s ∈ S.
2. C 0 (s) ≤ C 0 (0), ∀s ∈ S.
3. C 0 es d.p.
2
4. C 0 (s + h) − C 0 (s) ≤ C 0 (0)2 C 0 (0) − C 0 (h) , ∀s y h ∈ S.
C := a1 C1 + a2 C2
Cu (s1 , s2 ) := C̃(u, s1 , s2 )
es definida positiva.
ii) Para cada (s1 , s2 ) ∈ S × S la función C(s1 ,s2 ) : U −→ R dada por
ks1 − s2 k = ks1 − s3 k = h
entonces
!2
3
X
3CX,I (h)(1 + 2ρX,I (h)) = E Xsi ≥ 0.
i=1
1
b) ρX,I (h) ≥ 2 ∀h.
i) X0 ≡ 0.
X(s,t] := Xt − Xs .
mX ((h1 , h2 )) = a1 h1 + a2 h2 .
k
X
γ X (h) = γ Xi (h) ∀h.
i=1
2.8 Anisotropı́a
En esta Sección supondremos S = R2 y que X = {Xs /s ∈ S} es un proceso
intrı́nseco.
Definición 2.8.1. Sea ẽ ∈ R2 con kẽk = 1. Llamamos semivariograma
de X en la dirección de ẽ a γ X,ẽ : R 7−→ [0, +∞) dada por
1 2
γ X,ẽ (h) = γ X (hẽ) = E (Xs+hẽ − Xs ) ∀s.
2
Definición 2.8.2. Diremos que X es anisotrópico o más precisamente
que X tiene un semivariograma anisotrópico si existen ẽ1 y ẽ2 dis-
tintos de norma 1 tales que γ X,ẽ1 6= γ X,ẽ2 .
Definición 2.8.3. Diremos que X es isotrópico o más precisamente
que X tiene un semivariograma isotrópico si dados h1 y h2 ∈ R2 con
kh1 k = kh2 k ⇒ γ X (h1 ) = γ X (h2 ).
Nota 2.8.4. X es isotrópico si y sólo si X no es anisotrópico.
Definición 2.8.5. Se dice que un proceso anisotrópico X tiene aniso-
tropı́a
geométrica
si ∃T : R2 7−→ R2 lineal y biyectiva tal que X T =
2
XT (s) /s ∈ R es isotrópico.
Cap. 2 Modelos Espaciales de Segundo Orden y Geoestadı́stica 23
a) E(Xs ) = 0 ∀s.
b) E(Xs Xt ) = 12 e−|s−t| ∀s, t ∈ S.
c) trXω es infinitamente diferenciable en s, ∀s ∈ S.
d) X no es d.m.c. en s, ∀s ∈ S.
a) ∃γ ′′X (h), ∀h ∈ R.
b) X es d.m.c. ∀s ∈ R.
n o
c) Ẋ := Ẋs /s ∈ R es w − L2 .
a) µn −→ µ.
n→∞
b) σ 2n −→ σ 2 .
n→∞
D
c) Yn −→ Z (convergencia en distribución).
n→∞
a) Ẋ es gaussiano.
b) Xs y Ẋs son independientes, ∀s ∈ S.
b) X es d.m.c., Ẋ es w − L2 y
0 0
′′
CẊ (h) = − CX (h) ∀h ∈ R.
i) X es w − L2 .
0
m ≥ 1 entero,
ii) Sea CX es 2m-veces diferenciable en todo t ∈ R y
0 (2m)
CX (0) < ∞.
Entonces
a) X es d.m.c. de orden m.
26 Oscar Bustos y Aureliano Guerrero
0 m 0
(2m)
b) CX (m) (t) = (−1) CX (t), t ∈ R.
Definición 2.10.9. Diremos que X es d.m.c. infinitamente (o de
orden infinito) si es d.m.c. de orden m ∀m ≥ 1.
Proposición
2.10.10. Supongamos que para todo m ≥ 1 entero se tiene
(m)
que γ X (0) < ∞. Entonces:
donde ∀x ≥ 0
+∞
Z
1
J0 (x) := sin (x. cosh(t)) dt
2π
0
2.11.2 Caso S = R
Similar al caso anterior cambiando solamente las expresiones de C 0 y fC 0 .
a) C 0 : R 7−→ R está dada por:
Z
0
C (h) = cos(ht)FC 0 (dt)
R
2.11.3 Caso S = Z2
a) C 0 : S 7−→ R satisface:
i) C 0 (−x̃) = C 0 (x̃) ∀x̃ ∈ S,
ii) C 0 es acotada.
iii) C 0 es definida no negativa.
si y sólo si existe F0 medida finita sobre ([0, 2π) × [0, 2π),
B2 ∩ [0, 2π) × [0, 2π)) tal que:
Z D E
0
C (h̃) = cos( h̃, t̃ )FC 0 (dt).
P 2
b) Si C 0 es cuadrado sumable ( C 0 (h̃) < ∞), entonces FC 0 es dife-
h̃∈S
renciable p.p. con derivada dada por:
2 X
1
fC 0 (t̃) = cos(< h̃, t̃ >)C 0 (h̃).
2π 2 h̃∈Z
P 0
c) En la situación del inciso anterior, si C (h̃) < ∞, entonces fC 0 es
h̃∈S
continua.
28 Oscar Bustos y Aureliano Guerrero
a) X es W − L2 ;
0 σ 2η P P
b) CX (ũ) = (2π)2
ct̃ ct̃+h̃ cos ũ, t̃ ∀ũ ∈ Z2 .
h̃∈Z2 t̃∈Z2
0
c) La densidad espectral de CX e ∈ T2 := [−π, π) × [−π, π)
es: para todo :λ
2
X D E
σ 2η
fCX e =
0 (λ) e t̃
ct̃ cos λ,
(2π) t̃∈Z2
2
donde σ 2η := E η 2s̃ , para todo s̃ ∈ Z2 .
# {s̃/cs̃ 6= 0} < ∞.
2 2 2 2
P (B) : RZ −→ RZ y Q(B) : RZ −→ RZ dadas por:
X
P (B) := φr̃ B r̃
r̃∈R
X
Q(B) := θm̃ B m̃ .
m̃∈M
η = η s̃ /s̃ ∈ Z2 un proceso SWN.
Si X = Xs̃ /s̃ ∈ Z2 satisface:
con σ 2η := E η 2s̃ , para todo s̃ ∈ Z2 .
a) E(Xs̃ ) = 0 ∀s̃ ∈ Z2 .
d) E(Xs̃ η t̃ ) = 0 si s̃ 6= t̃.
Entonces diremos que X es un proceso SAR con coeficientes
AR y proceso de innovación η.
entonces
1. E(Xs̃ ) = 0 ∀s̃ ∈ Z2 .
1. E(Xs̃ ) = 0 ∀s̃ ∈ Z2 .
P
3. Xs̃ = ar̃ Xs̃−r̃ +η s̃ = αX(s1 −1,s2 ) +βX(s1 ,s2 −1) +αβX(s1 −1,s2 −1) +
r̃∈R
η s̃ con s̃ = (s1 , s2 ).
Notación 2.13.6. Sea s ∈ Z. Con B1s y B2s denotaremos las funciones
2
definidas sobre RZ por:
B1s (x)(t̃) := x(t1 − s, t2 )
B2s (x)(t̃) := x(t1 , t2 − s)
σ 2η = V ar(η s̃ ) ∀s̃ ∈ S.
Definición 2.13.9. Diremos
que un sistema (R, AR , η) identifica un
proceso SAR, X = Xs̃ /s̃ ∈ Z2 si
i) R ⊂ Z2 \{(0, 0)} es finito no vacı́o.
ii) AR = {ar̃ /r̃ ∈ R} ⊂ R.
iii) η = η s̃ /s̃ ∈ Z2 es un proceso SWN.
P
iv) Xs̃ = ar̃ Xs̃−r̃ + η s̃ en L2 (Ω, F, P, R) .
r̃∈R
1. X ∈ w− L2 .
P
2. cs̃ Xt̃−s̃ + et̃ donde
s̃∈L
P P
ii) Sea P (eiλ̃ ) := 1− cs̃ exp(ihλ̃, s̃i) = 1−2 cs̃ cos(hλ̃, s̃i), λ̃ ∈ T2 ,
s̃∈L+ s̃∈L+
con P (eiλ̃ ) 6= 0 ∀λ̃ ∈ T2 .
Entonces:
34 Oscar Bustos y Aureliano Guerrero
0
a) CX tiene densidad espectral dada por
2
1 1
fCe0 (λ̃) = σ 2e , λ̃ ∈ T2 .
2π P (eiλ̃ )
b) Se cumple: 2
σ e si s̃ = 0
Cov(et̃ , et̃+s̃ ) = −σ e cs̃ si s̃ ∈ L
0 c.c. .
2
Proposición
+
Sean: L ⊂
2.14.13.
2
Z \{(0, 0)} finito, no vacı́o y simétrico;
L := s̃ ∈ L/0̃ ≤ s̃ ; cs̃ /s̃ ∈ Z satisfaciendo:
cs̃ = c−s̃ ∀s̃ ∈ L.
cs̃ = 0 ∀s̃ ∈
/ L.
σ e > 0; ee = et̃ /t̃ ∈ Z2 es un proceso w− L2 centrado con
2
σ e si s̃ = 0
Ce0 (s̃) = −σ e cs̃ si s̃ ∈ L
0 c.c. .
P
Para cada λ̃ ∈ T2 sea P (eiλ̃ ) := 1 − 2 cs̃ cos(hλ̃, s̃i) con P (eiλ̃ ) 6= 0
s̃∈L+
∀λ̃ ∈ T2 .
Entonces:
Sea R̃ := {(r̃1 , r̃2 )/r̃1 ∈ R, r̃2 ∈ R y r̃1 > r̃2 } y sea ≡ la relación de
equivalencia en R̃ dada por (r̃1 , r̃2 ) ≡ (r̃1′ , r̃2′ ) si r̃1 − r̃2 = r̃1′ − r̃2′ .
Cap. 2 Modelos Espaciales de Segundo Orden y Geoestadı́stica 35
Q((r̃1J , r̃2J )) = J y r̃1J ≤ r̃1 , r̃2J ≤ r̃2 ∀(r̃1 , r̃2 ) ∈ R̃ tal que Q((r̃1 , r̃2 )) = J.
Sea R1 := r̃1J − r̃2J /J ∈ R0 y sean R1∗ = R1 \R; L := R ∪ (−R) ∪
R1∗ ∪ (−R1∗ ).
Sea s̃ ∈ Z2 ⇒ cs̃ := 0 si s̃ ∈ / L.
!
P
as̃ / 1 + ar̃1 ar̃2 si s̃ ∈ R\R1
(r̃1 ,r̃2 )∈J(s̃) !
cs̃ =
P
1
1+ a2 as̃ −
ar̃1 ar̃2 si s̃ ∈ R1 ∩ R
P
t̃ (r̃1 ,r̃2 )∈J(s̃)
t̃∈R
n o
siendo s̃ = r̃1J − r̃2J , J ∈ R0 , y J(s̃) := (r̃1 , r̃2 ) ∈ R̃/Q((r̃1 , r̃2 )) = J .
1 X
cs̃ = − P ar̃1 ar̃2 si s̃ ∈ R1∗ .
1+ a2t̃
(r̃1 ,r̃2 )∈J(s̃)
t̃∈R
σ 2η
siendo σ 2e := 1+
P
a2t̃
.
t̃∈R
entonces
CY0 (t) = CX
0
(t) ∀t ∈ Z. (2.2)
Esta proposición junto con la anterior nos dice que: en dimensión 1 los
conceptos de proceso SAR y CAR son equivalentes.
El siguiente ejemplo muetra un CAR(L) con dimensión 2 que no admite
una representación SAR.
Ejemplo 2.14.16.
Sean L = {(1, 0), (0, 1), (−1, 0), (0, −1)} ; c > 0; X =
Xs̃ /s̃ ∈ Z2 tal que E(Xs̃ ) = 0 ∀s̃ ∈ Z2 y
X
Xt̃ = c Xt̃−s̃ + et̃ ∀t̃ ∈ Z2 ,
s̃∈L
donde ee = et̃ /t̃ ∈ Z2 es un proceso w− L2 satisfaciendo
2
σ e si s̃ = 0
Cov(et̃ , et̃+s̃ ) = −σ e cs̃ si s̃ ∈ L
0 c.c.
2
con σ 2e := (2π)
c .
Entonces no existe Y = Ys̃ /s̃ ∈ Z2 que sea SAR y tal que fCX
0 (λ̃) =
2
fCY0 (λ̃) ∀λ̃ ∈ T .
Cap. 2 Modelos Espaciales de Segundo Orden y Geoestadı́stica 37
Definición 2.14.17.
Sean: c ∈ l2 (Z2 ); η = η s̃ /s̃ ∈ Z2 un proceso SWN
con σ 2η := E η 2s̃ ∀s̃ ∈ Z2 .
Diremos que X = Xs̃ /s̃ ∈ Z2 es un proceso de medias móviles
de orden ∞ sobre Z2 con coeficiente c y proceso de innovación η si
X
Xt̃ = cs̃ η t̃−s̃ ∀t̃ ∈ Z2 .
s̃∈Z2
Sean:
R1 : = {(1, −1)}
L : = R ∪ (−R) ∪ R1 ∪ (−R1 )
= {(0, 1), (0, −1), (−1, 1), (1, −1), (1, 0), (−1, 0)};
a(0,1) β α
c(0,1) := 1+a2(0,1) +a2(1,0)
= 1+α2 +β 2
c(1,0) := 1+α2 +β 2
con
L : = L1 ∪ L2 ,
L1 : = {(0, 1), (0, −1), (−1, 1), (1, −1), (1, 0), (−1, 0)} ,
L2 : = {(1, 1), (−1, −1), (2, 0), (−2, 0), (0, 2), (0, −2)} .
2 2 −1
K
= (1 + 2a + 2b ) .
2
ee = et̃ /t̃ ∈ Z proceso centrado tal que
E(e2t̃ ) := σ 2e > 0
−σ e cs̃ si s̃ ∈ L, t̃ ∈ Z2
Cov(et̃ , et̃+s̃ ) =
0 si s̃ ∈ / L, t̃ ∈ Z2 .
con L = {(0, 1), (0, −1), (−1, 1), (1, −1), (1, 0), (−1, 0), (1, 1), (−1, −1)} .
Los coeficientes {cs̃ /s̃ ∈ L} resultan ser:
c(1,0) = c(−1,0) = α(1 + α2 )−1
K = (1 + α2 )−1 (1 + β 2 )−1 .
ee = et̃ /t̃ ∈ Z2 como en los ejemplos anteriores.
E(X ∗ ) = 0 ∈ Rn .
Y ∗ = ̺W Y ∗ + ε∗
entonces X ∗ = Y ∗ .
i) cs,s = 0 ∀s ∈ S.
ii) X ∗ = CX ∗ + e∗ .
iii) E(Xt es ) = 0 si s 6= t.
X ∗ = CX ∗ + e
Y ∗ = CY ∗ + e.
D
Entonces X = Y .
6 Σ(X ∗ )−1 = σ −2 t
ε A A.
a(s,t) 6= 0 y a(t,s) = 0.
~ := {V
Diremos que G = (S, V ~t / t ∈ S}) es un grafo orientado lla-
mado grafo orientado asociado a la representación SAR de X dada
por (2.3).
Sea:
Q =6 Σ(X ∗ )−1
y pongamos
Q = [q(s,t) ](s,t)∈S×S .
[Q] como en la nota 2.15.11; esto es
0 si s = t
[Q] (s, t) :=
q(s,t) si s 6= t.
Diag := Diagonal q(s,s) / s ∈ S .
Entonces X tiener una representación CAR con matriz de coeficientes:
A(ρ) := Id − ρW,
siendo:
Diag(ρ) := Diagonal de Q(ρ)
0 si s = t
[Q(ρ)](s,t) :=
Q(ρ)(s,t) si s 6= t.
Por la Proposición 2.14.6, si ρ es conocido tenemos que
X̂ := −(Diag(ρ))−1 [Q(ρ)]X
Xs = m(s) + εs ∀s ∈ S.
m(i, j) = µ + αi + β j 0 ≤ i ≤ I, 0 ≤ j ≤ J.
m(i, j) = µ + αi + β j + γz(i,j) 0 ≤ i ≤ I, 0 ≤ j ≤ J,
I
P J
P
con αi = 0, β j = 0.
i=1 j=1
Desde el punto de vista estadı́stico µ, α1 , . . . , αI , β 1 , . . . , β J , γ son pa-
rámetros a estimar.
Notación 2.16.5. En el Ejemplo 2.16.3 supongamos que N = #(S) y sea
I : S 7→ {1, ..., N } una biyección.
Sean:
α̃ = (α1 , ..., αp )′ ;
Se dice que X̂s0 ∈ L(X̃Λ , Xs0 , ZeΛ , Zes0 ) es un estimador linear insesgado
óptimo de Xs0 conocidos Z̃Λ y Z̃s0 si
X̂s0 − Xs0
2 ≤ kY − Xs0 kL2
L
Campos Aleatorios de
Gibbs Markov sobre
Redes
Sean:
• E la σ-algebra de Borel de E.
• S ⊂ Z2 a lo sumo numerable;
E V := {x / x : V 7−→ E} .
• Sea ∅ 6= V ⊂ S. Definimos
n o
GV := σ −1V,s (B) / B ∈ E, s ∈ V .
48
Cap. 3 Campos Aleatorios de Gibbs Markov sobre Redes 49
donde S ∩ Λ := {∆ ∈ S / ∆ ∩ Λ 6= ∅} .
A la función HΛΦ se la llama energı́a del potencial Φ sobre Λ.
Pondremos: H Φ := HΛΦ / Λ ∈ S .
Definición 3.1.2. Sean: λ una medida σ-finita no nula sobre (E, E); Φ =
{ΦΛ / Λ ∈ S} un potencial sobre (E S , F). Se dice que Φ es λ-admisible
si R
0< exp −HΛΦ (ξxS\Λ ) λΛ (dξ) < ∞,
EΛ
λ(B1 )...λ(Bn )
cualesquiera sean B1 , ..., Bn en E.
50 Oscar Bustos y Aureliano Guerrero
hΦ Φ
Λ (x) := exp(−HΛ (x)),
para todo x ∈ E S y Λ ∈ S.
En el caso en que Φ es λ-admisible, definimos
R
Φ
ZΛ,λ (x) := exp(−HΛΦ (ξxS\Λ ))λΛ (dξ), x ∈ E S .
EΛ
Φ
A esta función ZΛ,λ la llamamos función partición del potencial Φ
sobre Λ. n o
Pondremos: ZλΦ := ZΛ,λ Φ
/Λ∈S .
Proposición
3.1.3. Sean λ una medida σ-finita sobre (E, E); Φ = ΦΛ :
Λ ∈ S un potencial sobre (E S , F) λ-admisible.
Para cada Λ ∈ S sea ̺Φ S
Λ,λ : E 7−→ [0, +∞) dada por:
hΦ
Λ (x)
̺Φ
Λ,λ (x) := Φ (x)
, x ∈ ES .
ZΛ,λ
Para cada Λ ∈ S sea γ Φ S
Λ,λ : F×E 7−→ [0, 1] dada por
R Λ
γΦ
Λ,λ (A | x) := 1A (ξxS\Λ )̺Φ
Λ,λ (ξxS\Λ )λ (dξ),
EΛ
para todo A ∈ F y x ∈ E S .
Entonces:
a) Para cada A ∈ F, γ Φ
Λ,λ (A | ·) es JΛ -medible
b) Para cada x ∈ E S , γ Φ S
Λ,λ (A | ·) ∈ P(E , F) (es una probabilidad sobre
S
(E , F)).
c) Si Λ ⊂ ∆, ambos en S, entonces
R Φ
γ Λ,λ (A | ω)γ Φ Φ
∆,λ (dω | x) = γ ∆,λ (A | x)
ES
cualquiera sean A ∈ F, x ∈ E S .
d) B ∈ JΛ =⇒ γ Φ S
Λ,λ (B | x) = 1B (x) ∀x ∈ E .
e) A ∈ F, B ∈ JΛ =⇒ γ Φ Φ
Λ,λ (A ∩ B | x) = γ Λ,λ (A | x)1B (x).
Demostración. Ejercicio.
Definición 3.1.4. En la situación de la proposición anterior a γ Φ
λ :=
(γ Φ
Λ,λ )Λ∈S se la llama especificación inducida por Φ y λ.
Cap. 3 Campos Aleatorios de Gibbs Markov sobre Redes 51
Si µ ∈ G(γ Φ
λ ) diremos que µ es una distribución de Gibbs asociada
a γΦ
λ.
Nota 3.1.7. G(γ Φ λ ) puede ser vacı́a, o tener un solo elemento o tener
infinitos elementos (transición de fase).
i) s ∈
/ Vs , ∀s ∈ S.
ii) s ∈ Vt ⇔ t ∈ Vs ; s y t en S s 6= t.
S
iii) S = Vs .
s∈S
∂V (Λ) := {t ∈
/ Λ / ∃s ∈ Λ con t ∈ Vs } .
Definición 3.1.9.
Sean: λ una medida σ-finita sobre (E, E); Φ =
ΦΛ / Λ ∈ S un potencial sobre (E S , F) λ-admisible; γ Φ Φ
λ = (γ Λ,λ )Λ∈S la
especificación inducida por Φ y λ; V := {Vs / s ∈ S} un sistema de vecin-
dades de S; G := (S, V) el grafo sobre S inducido por V. Se dice que γ Φ λ
es G-markoviana si γ Φ Λ,λ (A | ·) es F∂V (Λ) -medible, ∀A ∈ FΛ , ∀Λ ∈ S.
Luego:
!
R X #(Λ)
exp(−HΛΦ (ξxS\Λ ))λΛ (dξ) ≤ exp kΦ∆ ks (λ(E)) <∞
EΛ ∆∈S∩Λ
Luego:
R X
∞> exp − Φ∆ (ξxS\{s} ) λ(dξ) ≥ λ(E)ekΦks
E ∆∈S∩{s}
⇒ λ(E) < ∞.
Nota 3.1.13. Se puede ver, por ejemplo en Theorem (4.23) de Georgii
(1988) ([6]), pag. 72 que:
Φ = {ΦΛ /Λ ∈ S} un potencial sobre (E S , F), λ una medida σ-finita sobre
(E, E), E un espacio métrico separable y completo, E su σ−álgebra de
Borel.
Si Φ es sumable y λ(E) < ∞, entonces G(γ Φ λ ) 6= ∅.
Cap. 3 Campos Aleatorios de Gibbs Markov sobre Redes 53
Luego:
Φ Φ
ZΛ,λ (x) = ZΛ,λ (y). (4)
Por (3) y (4) tenemos entonces:
̺Φ Φ Λ
Λ,λ (ξxS\Λ ) = ̺Λ,λ (ξyS\Λ ) ∀ξ ∈ E .
γΦ Φ
Λ,λ (A|x) = γ Λ,λ (A|y).
∆ ⊂ (Λ ∪ ∂V (Λ)) .
Φ∆ (ξxS\Λ ) = Φ∆ (ξyS\Λ ) ∀ξ ∈ E Λ .
Cap. 3 Campos Aleatorios de Gibbs Markov sobre Redes 55
hΦ
S (x) = exp(−HSΦ (x)).
Sea λ una medida σ-finita sobre (E, E). Supongamos que Φ es λ-admisible.
Φ
En este caso ZS,λ es la constante dada por
R
Φ
ZS,λ = exp(−HΛΦ (ξ))λS (dξ);
ES
̺Φ S
S,λ (x) : E 7−→ [0, +∞) dada por:
hΦ
S (x)
̺Φ
S,λ (x) := Φ
.
ZS,λ
γΦ S
S,λ será la probabilidad sobre (E , F) con densidad (con respecto a la
S Φ
medida λ ) ̺S,λ . Esto es
R S
γΦ
S,λ (A) = ̺Φ
S,λ (x)λ (dx) A ∈ F.
A
Λ ∈ S con Λ 6= S ⇒ γ Φ Φ
Λ,λ (A | ·) ∈ γ S,λ (A | JΛ ), A ∈ F,
luego:
µ(A) = γ Φ
S,λ (A).
π({y})
π s (y) := P ,
π({ξyS\{s} })
ξ∈E
(β ,β ) (α,β ,β )
Afirmación: ΦΛ H V y ΦΛ H V son G δ -potenciales (δ ≥ 1). Luego,
por Corolario 3.1.16 si λ es la medida de conteo sobre (E, P(E)) tenemos
que (β ,β ) (α,β ,β )
G γ λΦ 6= ∅ y G γ Φ
H V H V
λ 6= ∅.
Sea [
L := LΛ .
Λ∈S
1. f − fn ∈ L∞ (E S , F, R), ∀n ≥ 1.
2. kf − fn kL∞ −→ 0.
n→∞
Luego
ε ε
|f (x) − f (x′ )| ≤ |f (x) − (φΛ ◦ σ Λ )(x)|+|f (x′ ) − (φΛ ◦ σ Λ )(x′ )| < + = ε.
2 2
Luego OΛ (f ) ≤ ε y por lo tanto O(f ) ≤ ε.
Por la arbitrariedad de ε se sigue que O(f ) = 0.
⇐⌋ Sea ǫ > 0 cualquiera.
Sea Λ1 ∈ S tal que OΛ1 (f ) < ǫ.
Sea Λ ∈ S tal que Λ1 ⊂ Λ ⇒ OΛ (f ) < ǫ
Sea x ∈ E S y φΛ : E Λ → R definida por
φΛ (ξ) = f (ξxS\Λ ) ∀ξ ∈ E Λ .
Luego
kf − φΛ ◦ σ Λ kL∞ < ǫ.
Por lo tanto, f es quasilocal.
b) Si E es finito, entonces
Λ ∈ S, f ∈ L ⇒γ Φ
Λ,λ (f ) ∈ L̄.
a) ̺Φ Φ
Λ,λ local ∀Λ ∈ S ⇒ γ λ es quasilocal.
b) ̺Φ Φ
Λ,λ quasilocal ∀Λ ∈ S y λ(E) < ∞ ⇒ γ λ es quasilocal.
c) HΛΦ local ∀Λ ∈ S ⇒ γ Φ
λ es quasilocal.
Si γ es quasilocal, entonces ρΛ ∈ L̄ ∀Λ ∈ S.
Demostración. Ejercicio.
Sea x ∈ E s .
Sea
y = xs aS\{s} .
Esto es:
a ∀t 6= s
σ t (y) =
xs t = s.
Como ΦΛ y ΨΛ son FΛ -medibles, ∃φ : E Λ → R y ψ : E Λ → R E Λ -
medibles tales que: ΦΛ = φ ◦ σ Λ y ΨΛ = ψ ◦ σ Λ .
Luego
ΦΛ (x) = ΦΛ (y) y ΨΛ (x) = ΨΛ (y). (1)
Sea ahora ∆ ∈ S ∩ Λ con #(∆) ≥ 2. Como Φ = (ΦΛ )Λ∈S y Ψ =
(ΨΛ )Λ∈S son a-normalizados se tiene que
Luego:
HΛΦ (y) = ΦΛ (y) y HΛΨ (y) = ΨΛ (y). (3)
Como HΛΦ − HΛΨ es FS\Λ -medible, tenemos que:
HΛΦ (ξyS\Λ ) − HΛΨ (ξyS\Λ ) = HΛΦ (ηyS\Λ ) − HΛΨ (ηyS\Λ ), ∀ξ, η ∈ E. (4)
σ t (ã) = a ∀t ∈ S.
También:
X
HΛΦ (y) = Φ∆ (y)
∆∈S
∆⊂Λ
X
HΛΨ (y) = Ψ∆ (y).
∆∈S
∆⊂Λ
y X
Ψ(A) = Φ(B), A ∈ S ∪ {∅}.
B⊂A
R
Φ
• ZΛ,λ (x) = EΛ
exp(−HΛΦ (ξxS\Λ ))λΛ (dξ).
Φ
exp(−HΛ (x))
̺Φ
Λ,λ (x) = Φ (x)
ZΛ,λ
·
R Λ
γΦ
Λ,λ (A | x) := EΛ
1A (ξxS\Λ )̺Φ
Λ,λ (ξxS\Λ )λ (dξ) A ∈ F.
γΦ Φ
λ = (γ Λ,λ )Λ∈S .
66 Oscar Bustos y Aureliano Guerrero
a) ln(̺Φ Φ
Λ )(aΛ xS\Λ ) − ln(̺Λ )(x) =
b) p(a,Λ) (ln(̺Φ Φ
Λ )) = p(a,Λ) (ln(̺∆ ))
Demostración.
̺Φ
Λ (aΛ xS\Λ )
Parte a) ln(̺Φ Φ
Λ )(aΛ xS\Λ ) − ln(̺Λ )(x) = ln ̺Φ
Λ (x)
exp(−H Φ (a x ))
Λ Λ S\Λ
Z Φ (aΛ xS\Λ )
= ln Λ,λ
exp(−H Φ (x))
= (1)
Λ
Z Φ (x)
Λ,λ
Φ
Como ZΛ,λ es FS\Λ -medible, tenemos que
Φ Φ
ZΛ,λ (aΛ xS\Λ ) = ZΛ,λ (x).
Luego
!
exp(−HΛΦ (aΛ xS\Λ ))
(1) = ln = HΛΦ (x) − HΛΦ (aΛ xS\Λ ).
exp(−HΛΦ (x))
Φ
Como Λ ⊂ ∆, S\∆ ⊂ S\Λ. Luego Z∆,λ es FS\Λ -medible, pues es
FS\∆ -medible.
Por lo tanto, con un razonamiento similar al de recién, se prueba que:
ln(̺Φ Φ Φ Φ
∆ )(aΛ xS\Λ ) − ln(̺∆ )(x) = H∆ (x) − H∆ (aΛ xS\Λ ).
Ahora X X
Φ
H∆ (x) − HΛΦ (x) = ΦA (x) − ΦA (x) = (2).
A∈S∩∆ A∈S∩Λ
Ahora S ∩ Λ⊂ S ∩ ∆. Luego:
X
(2) = ΦA (x) = (3).
A∈S∩∆
A⊂S\Λ
Por lo tanto:
Φ Φ
H∆ (x) − H∆ (aΛ xS\Λ ) = HΛΦ (x) − HΛΦ (aΛ xS\Λ ).
P
(−1)#(Λ\C) (ln(̺Φ Φ
Λ )(xC aS\C ) − ln(̺∆ )(xC aS\C )) = (4).
C⊂Λ
ln(̺Φ Φ Φ Φ
Λ ) − ln(̺Λ ) = −(ln(̺Λ )(aΛ yS\Λ ) − ln(̺∆ )(aΛ yS\Λ )).
P
pues (−1)#(Λ\C) = 0.
C⊂Λ
Notemos que:
• Λ1 ⊂ Λ2 ⊂ .... y
• Λ ∈ S ⇒ ∃n tal que Λ ⊂ Λn .
Entonces
O∞ (f )(x) = lim OΛn (f )(x).
n→∞
68 Oscar Bustos y Aureliano Guerrero
O∞ (̺Φ
Λ )(x) = 0, x ∈ E S , Λ ∈ S. (0)
Entonces
a) ΦaΛ es FΛ -medible,∀Λ ∈ S.
b) Para cada Λ ∈ S y x ∈ E S se tiene que:
a
Φ
(b1) Existe lim HΛ,∆ (x) y
Λ⊂∆↑S
a a
(b2) HΛΦ (x) Φ
:= lim HΛ,∆ (x) = HΛΦ (x) − HΛΦ (aΛ xS\Λ ).
Λ⊂∆↑S
c) Φa es λ-admisible.
a
d) Φ ∼ Φa (esto es: HΛΦ − HΛΦ es FS\Λ -medible ∀Λ ∈ S).
a
e) ̺Φ Φ
Λ,λ = ̺Λ,λ ∀Λ ∈ S.
a
f ) γΦ Φ S
Λ,λ (A | x) = γ Λ,λ (A | x) Λ ∈ S, A ∈ F, x ∈ E .
a
g) G(γ Φ Φ
λ ) = G(γ λ ).
Demostración.
a
Φ
Afirmación 1: HΛ,∆ (x) = HΛΦ (x∆ aS\∆ ) − HΛΦ (aΛ x∆\Λ aS\∆ )
De aquı́, por la Proposición 3.3.25 se tiene que
a
Φ
HΛ,∆ (x) = ln(̺Φ Φ
Λ )(aΛ x∆\Λ aS\∆ ) − ln(̺Λ )(x∆ aS\∆ ).
Cap. 3 Campos Aleatorios de Gibbs Markov sobre Redes 69
= − ln(̺Φ Φ
∆ )(y) + ln(̺∆ )(aΛ yS\Λ ) = (2)
con
y = x∆ aS\∆ .
Por a) de la Proposición 3.3.25 tenemos:
Φ Φ Φ Φ
(2) = H∆ (y) − H∆ (aΛ yS\Λ ) = H∆ (x∆ aS\∆ ) − H∆ (aΛ x∆ aS\∆ ).
Luego:
R a
exp(−HΛΦ (ξxS\Λ ))λΛ (dξ) = exp(HΛΦ (aΛ xS\Λ ))
EΛ
R
× exp(−HΛΦ (ξxS\Λ ))λΛ (dξ) < ∞.
EΛ
70 Oscar Bustos y Aureliano Guerrero
O∞ (f )(x) = 0 ∀x ∈ E S .
V + t 6= V + s si s 6= t. (3.4)
Sea
ΦV := φV ◦ σ V .
Para cada V ∈ S sea ΦΛ : E S 7−→ R dada por:
0 ∀x ∈ E S si Λ ∈/ SV
ΦΛ (x) =
ΦV (θ−t (x)) ∀x ∈ E S , Λ = V + t.
#(SV ∩ Λ) < ∞.
Demostración. Ejercicio.
Ejemplo 3.4.3. Potencial invariante por traslaciones asociado a p ≥ 2
conjuntos V1 , ..., Vp en S y funciones φk : E Vk 7→ R para k = 1, ..., p
E k -medibles.
Sea
S(V1 , ..., Vk ) := Vk + t / t ∈ Z2 , k = 1, ..., p .
Cap. 3 Campos Aleatorios de Gibbs Markov sobre Redes 73
Vk + s 6= Vk + t si s 6= t,
cualquiera sea 1 ≤ k ≤ p.
Sea θ = (θ1 , ..., θ p )′ ∈ Rp . Para cada t ∈ Z2 y cada k = 1, ..., p sea
ΦVk +t : E S 7→ R dada por
Sea
ΦΛ ≡ 0 si Λ ∈
/ S(V1 , ..., Vk ).
Demostración. Ejercicio.
J : S × S 7→ R simétrica;
Bs : E 7→ R, Cs : E 7→ R E-medibles, s ∈ S;
C : = {Λ ∈ S / #(Λ) ≤ 2}.
Para cada C ∈ S :
pC = 2 si #(C) = 1, pC = 1 si #(C) = 2;
(J(s, s), 1)′ si C = {s}, s ∈ S;
θC =
J(s, t) si C = {s, t}, s 6= t ambos en S;
74 Oscar Bustos y Aureliano Guerrero
ΦΛ ≡ 0 si Λ ∈
/ C.
′
Φ{s} (x) = θ{s} φ{s} (x) = J(s, s)Bs (x(s)) + Cs (x(s))
′
Φ{s,t} (x) = θ{s,t} φ{s,t} (x) = J(s, t)Bs (x(s))Bt (x(t)) si s 6= t.
Notemos que para que Φ = (ΦΛ )Λ∈S sea un potencial (de acuerdo a la
Definición 3.1.1) debe cumplirse que existe
X
Φ∆ , ∀Λ ∈ S. (3.5)
∆∈S∩Λ
También, si λ es una medida σ-finita sobre (E, E), para que Φ sea λ-
admisible debe cumplirse
!
R X
exp − Φ∆ (ξxS\Λ ) λΛ (dξ) < ∞ (3.7)
EΛ ∆∈S∩Λ
cualquiera sea x ∈ E S y Λ ∈ S.
Teorema 3.5.3. Sean: λ una medida σ-finita; E (con más de dos puntos)
un e.m. separable y completo; Φ = (ΦΛ )Λ∈S un potencial sobre (E S , F)
a-normalizado con a ∈ E, λ-admisible y sobre pares de S.
ln(̺Φ
{s},λ (x)) = as (x)bs (x) − cs (x) − ds (x)
ln(̺Φ
{s},λ (x)) = as (x)bs (x) − cs (x) − ds (x)
Φ Φ
De aquı́, como Φ es a-normalizado: H{s} (axS\{s} ) = 0 y como Z{s},λ
es FS\{s} -medible, resulta:
̺Φ
{s},λ (x) Φ
= exp(−H{s} (x)).
̺Φ
{s},λ (aXS\{s} )
Luego:
X
ln(̺Φ
{s},λ (x)) = −Φ{s} (x) − Φ{s,t} (x) − ds (x) = (1)
t6=s
con
ds (x) := − ln(̺Φ
{s},λ (axS\{s} )),
Parte a)
Como vimos al probar b), se tiene, ∀s ∈ S y ∀x ∈ E S :
X
ln(̺Φ
{s},λ (x)) = −Φ{s} (x) − Φ{s,t} (x) + ln(̺Φ
{s},λ (aXS\{s} )).
t6=s
X
Φ{s} (y) + Φ{s,t} (y) = Φ{s} (y) + Φ{s,r} (y)
t6=s
= Φ{s} (x) + Φ{s,r} (x).
Φ{s} (x) + Φ{s,r} (x) = −as (x(r)aS\{r} )bs (x) + cs (x). (4)
Luego, ξ ∈ E y η ∈ E :
y
Φ{s,t} (x) = J(s, t)bs (x)bt (x) s 6= t.
ΦΛ = 0 ∀Λ ∈
/ C(G);
γ Φ,0 Φ −1
s,λ (A | x) = γ {s},λ (σ s (A) | x)
R Φ
= ̺{s},λ (ξxS\{s} )λ(dξ).
A
Luego ξ 7→ ̺Φ
{s},λ (ξxS\{s} ) es una λ-densidad de la probabilidad sobre
Φ,0
(E, E) dada por γ s,λ (· | x).
Ejemplo 3.6.1 (Automodelo logı́stico para E = {0, 1}). Sean:
J : S × S 7→ R simétrica tal que:
J(s, t) = 0 si t ∈
/ Vs .
bs (x) = x(s),
luego:
0 si x = (0xS\{s} )
bs (x) =
1 si x = (1xS\{s} );
cs : E S 7→ R dada por: cs (x) = 0 ∀x ∈ E S .
ln(̺Φ
{s},λ (x)) = as (x)bs (x) − ds (x),
con
X
as (x) = −J(s, s) − J(s, t)x(t)
t∈Vs
ds (x) = − ln(̺Φ
{s},λ (0xS\{s} )).
Luego, si
ps,x := γ Φ,0
s,λ ({1} | x),
entonces
ps,x
logit(ps,x ) := ln = as (x).
1 − ps,x
Ejemplo 3.6.2 (Automodelo binomial para E = {0, 1, ..., N } con N ∈ N).
Como es habitual, consideramos E = {0, ..., N }, λ medida de conteo sobre
(E, P(E)).
Para cada s ∈ S sea θs : E S 7→ (0, 1) una función FS\{s} -medible.
Nos preguntamos si es posible que
γ Φ,0
s,λ (· | x) ∼ Bi(N, θ s (x)).
Cap. 3 Campos Aleatorios de Gibbs Markov sobre Redes 79
γ Φ,0
s,λ (· | x) ∼ Poisson(λs (x)).
80 Oscar Bustos y Aureliano Guerrero
Definimos entonces:
También:
Luego:
∞
X
exp −J(s, s)ξ − J(t, t)ξ − 2 ln(ξ!) − J(s, t)ξ 2 < ∞.
ξ=0
γ Φ,0
s,λ (· | x) ∼ Exp(λs (x)).
Debemos tener:
−λs (x)ξ
̺Φ
{s},λ (ξxS\{s} ) = λs (x)e ∀ξxS\{s} ∈ E S .
También:
Por ser Φ λ-admisible se puede ver que debe ser J(s, s) > 0 y J(s, t) ≥ 0
para s ∈ S, y t ∈ Vs .
Capı́tulo 4
Inferencias en Modelos
Espaciales
82
Cap. 4 Inferencias en Modelos Espaciales 83
1 X
γ\
ON,δ,∆ (h) := (Xs − Xt )2 .
2# (NON (∆, δ, r, α))
(s,t)∈NON (∆,δ,r,α)
Sea Aδ,∆
h la matriz simétrica N × N dada por:
- para i < j
0 si N (h) ∩ {(IN (i), IN (j)), (IN (j), IN (i))} = ∅.
Aδ,∆
h (i, j) =
− n1h c.c.
- para i = 1, ..., N :
nh (1, i) + nh (2, i)
Aδ,∆
h (i, i) = .
nh
Entonces: ′
δ,∆
2γ\
ON,δ,∆ (h) = X̃ON Ah X̃ON ,
donde ′
X̃ON = (XIN (1) , ..., XIN (N ) ).
Demostración. Ejercicio.
1
E(γ\
ON,δ,∆ (h)) = tr(Aδ,∆
h 6 Σ),
2
y
1
V ar(γ\
ON,δ,∆ (h)) = tr((Aδ,∆
h 6 Σ)2 ).
2
Demostración. Sea V matriz N × N tal que
6 Σ = V V ′. (1)
Sea
Y = V −1 X̃ON . (2)
Entonces:
Cov(Y ) = V −1 V V ′ (V −1 )′ = IN (3)
(IN es la identidad N × N ).
Luego
Y ∼ N (0̃, IN ). (4)
Sea
Γ := V ′ Ah V. (5)
Entonces por la Proposición 4.1.2:
′ ′ ′ −1 ′
O (h) = X̃ON Ah X̃ON = X̃ON (V )
2γc V Ah V V −1 X̃ON
′
= X̃O N
(V ′ )−1 ΓV −1 X̃ON = Y ′ ΓY. (6)
Γ = P ′ DP (7)
y
r
X
V ar(2γc
O (h)) = 2 a2j .
j=1
Equivalentemente:
r
1X
E(γc
O (h)) = aj ,
2 j=1
y
r
1X 2
V ar(γc
O (h)) = a .
2 j=1 j
Ahora:
Ah V ṽ = Ah V V ′ (V ′ )−1 ṽ = Ah 6 Σ(V ′ )−1 ṽ.
Por (13) tenemos entonces:
1
γ iso
X (r) := V ar(Xs+h − Xs ),
2
con h ∈ R2 tal que khk = r.
Para cada r > 0 y ∆ ≥ 0 sea
V∆ (r) := {h ∈ R2 / |khk − r| ≤ ∆}.
Recordemos el orden lexicográfico en R2 :
Sean: s̃ := (s1 , s2 ) ∈ R2 , t̃ = (t1 , t2 ) ∈ R2 .
Ponemos
s̃ ≺ t̃ si s2 < t2 o s1 < t1 si s2 = t2 . (4.1)
Definimos
NON (∆, r) := {(s, t) ∈ ON × ON / s ≺ t y (s, t) ∈ V∆ (r)}.
Definición 4.1.5. Sea r > 0 y ∆ ≥ 0. Llamaremos estimador empı́rico
de γ iso
X (r) basado en XO con tolerancia ∆ ≥ 0 a:
1 X
γ\ iso (r) :=
ON,∆ (Xs − Xt )2 .
2#(NON (∆, r))
(s,t)∈NON (∆,r)
- para i < j
0 si (IN (i), IN (j)) ∈
/ Nr ,
A∆
r (i, j) =
− n1r c.c.
- para i = 1, ..., N :
nr (1, i) + nr (2, i)
A∆
r (i, i) = .
nr
En este caso nr (1, N ) = nr (2, 1) = 0, por definición.
Entonces:
2γ\
′
iso (r) = X̃ ∆
ON,∆ ON Ar X̃ON ,
donde ′
X̃ON = (XIN (1) , ..., XIN (N ) ).
PX (σ −1
Λ (B)) = PXΛ (B), B ∈ E Λ , ∀Λ ∈ S.
P = {µθ / θ ∈ Θ}.
Pondremos entonces
γ iso
X (r) = γ X (h) con h tal que khk = r, con r ≥ 0.
88 Oscar Bustos y Aureliano Guerrero
∀(θ1 , θ2 ) ∈ Θ.
Cap. 4 Inferencias en Modelos Espaciales 89
(γ̃[
iso ′ [ iso [ iso
N,∆ − γ̃(θ̂ GLS,∆,N )) [6 Σθ GLS,∆,N (γ̃ N,∆ )](γ̃ N,∆ − γ̃(θ̂ GLS,∆,N ))
≤ (γ̃[
iso ′ [ iso [ iso
N,∆ − γ̃(θ)) [6 Σθ (γ̃ N,∆ )](γ̃ N,∆ − γ̃(θ)) ∀θ ∈ Θ.
Definición 4.2.5. Para cada i = 1, ..., k sea wi : (0, +∞) → (0, 1) tales
que:
Xk
wi (t) = 1 ∀t ∈ (0, +∞).
i=1
k
X
wi (V arθ̂W LS,N,∆ (γ\
ON,∆ i
\
iso (r )))(γ iso (r ) − γ(r , θ̂
ON,∆ i
2
i W LS,N,∆ )) ≤
i=1
k
X
wi (V arθ (γ\
ON,∆ i
\
iso (r )))(γ iso (r ) − γ(r θ))2
ON,∆ i i, ∀θ ∈ Θ.
i=1
H = Rp , p ≥ 1 y H := Bp .
Xs = Zst δ + εs ,
εt := Xt − Zt′b
2. Definir b δ M C ∀t.
lON (b
θM V ) ≥ lON (θ) θ ∈ Θ,
siendo
1
lON (θ) := − {ln(det(6 Σ(θ))) + (X̃ON − µ)′ 6 Σ(θ)−1 (X̃ON − µ)}.
2
En tal caso, llamaremos estimador de máxima verosimilitud de
γ̃(θ) basado en X̃ON a γ̃(θ̂M V ).
con s ∈ Z2 , khk = r y
σ 2X = V ar(Xs ),
cualquiera sea s ∈ Z2 .
Supongamos ahora
H0 : Conocemos σ 2X , γ(·, θ) y θ ∈ Θ tal que PX = µθ .
A partir de este supuesto y de las observaciones X̃ON .
Definiremos dos métodos de validación de H0 .
6 Σi =6 Σ(OX̃ON,i ).
Por la Proposición 2.17.2 se tiene que:
Sea
q(N, β) = Fχ−1
2 (β) ∀β ∈ (0, 1),
N
y
(j)
γ max
ON ,∆ (r) := max({γ ON ,∆ (r) / j : 1, ..., m}),
para r = r1 , ..., rk .
(j)
Supongamos ahora que γ ON , j = 1, ..., m son independientes. (4.6)
(j)
Entonces, para cada r : γ ON ,∆ (r) con j = 1, ..., m son v.a. indepen-
dientes.
El estadı́stico que usamos se basa en el siguiente resultado cuya de-
mostración queda como ejercicio.
Lema 4.5.1. Sean Z1 , ..., Zm+1 v.a.i.i.d.. Entonces
1
P (Z1 = min(Z1 , ..., Zm+1 )) ≤ .
m+1
94 Oscar Bustos y Aureliano Guerrero
\ (j) 1 X (j)
γ ON ,∆ (r) := (ys(j) − yt )2 .
2#(NON (∆, r))
(s,t)∈NON (∆,r)
y
\ (j)
γ\
max (r) := max({γ
ON ,∆ ON ,∆ (r) / j : 1, ..., m}).
Sea γ\ iso
ON ,∆ (r) para cada r = r1 , ..., rk como fue definido en la Defini-
ción 4.1.5.
4. Rechazar H0 si para algún r = r1 , ..., rk se tiene
γ\
iso \ min o γ\
iso \ max
ON ,∆ (r) < γ ON ,∆ (r) ON ,∆ (r) > γ ON ,∆ (r).
(j)
Notemos que la única razón para suponer ỸON gaussiano es para faci-
(j)
litar el paso 1 de la definición de test. Lo importante es que 6 Σ(ỸON ) =6 Σ
∀j = 1, ..., m.
Por el Lema recién mencionado el test aquı́ propuesto tiene nivel de
2
confianza ≥ 1 − m+1 .
En ([5]) se dice que este test es relativamente conservador en el sentido
de que en la práctica rechaza menos veces de las que debiera.
∗ WR (s, t)
WR (s, t) := P ,
WR (s, t′ )
t′ ∈Rs
Fijamos n ∈ N.
Sea X = (Xs )s∈Dn . Pongamos Dn := {s1 , ..., sn }.
Consideremos que Xs ∈ L2 (Ω, F, µ, R).
H0 : Xs1 , ..., Xsn son µ-independientes.
Definición 4.6.3. Si µ(Xs ) := Eµ (Xs ) = 0 ∀s ∈ Dn definimos
X X
CWR ,Dn ,0 (X) := WR (s, t)Xs Xt .
s∈Dn t∈Dn
Demostración. Ejercicio.
i) µ(Xs ) = 0 ∀s ∈ Dn .
iii) Se cumple H0 .
Entonces:
V arµ (CWR ,Dn ,0 (X))
X X
= σ4 ((WR (s, t))2 + WR (s, t)WR (t, s))as at .
s∈Dn t∈Dn
i) µ(Xs ) = 0 ∀s ∈ Dn .
i) µ(Xs ) = µX ∀s ∈ Dn .
ii) µ((Xs − µX )2 ) := σ 2X , ∀s ∈ Dn .
Cap. 4 Inferencias en Modelos Espaciales 97
donde:
1 X
X:= Xs .
n
s∈Dn
siendo Rs := {t ∈ S / t ∈ Vs }.
Supongamos que
#(Vs ) ≤ M ∀s ∈ S.
Definición 4.6.10. Sea ∅ 6= R ⊂{(s, t) ∈ S × S / t ∈ Vs }.
Sea WR : S × S → [0, M ] con 0 < M < ∞
0 si t = s, s ∈ S
WR (s, t) := 0 si (s, t) ∈
/R
> 0 si (s, t) ∈ R.
Diremos que WR es una matriz de contigüidad asociada a R.
Para cada n ≥ 2 entero sea Dn ∈ S(S) con #(Dn ) = n.
Sea X = (Xs )s∈S tal que
µ(Xs ) = µX ∀s ∈ S
2
µ((Xs − µX ) ) = σ 2X <∞ ∀s ∈ S
con µX y σ 2X > 0 a ser estimados.
M
Para cada n = 1, 2, ... sea IW R ,Dn
(X) como en la Definición 4.6.8.
Teorema 4.6.11. Sean
a) H0 : X = (Xs )s∈S está formado por v.a. µ-independientes.
4+2δ
b) ∃δ > 0 tal que sups∈S µ(|Xs | ) < ∞.
S1,Dn (WR )
c) lim n > 0.
Entonces:
S0,Dn (WR ) D
IM (X) → N (0, 1).
(S1,Dn (WR ))1/2 WR ,Dn
Para una demostración ver pag 168 de ([5]).
Cap. 4 Inferencias en Modelos Espaciales 99
µ = ν.
siendo:
n
P
P := {p : R → C / p(x) = ak eiuk x
k=1
con n ≥ 1, ak ∈ R, uk ∈ R, k = 1, ..., n}.
m
P
Q := {q : [0, +∞) → R / q(x) = bj e−vj x
j=1
con m ≥ 1, bj ∈ R, vj ≥ 0, j = 1, ..., n}.
1 n x
f (x) = n x 2 −1 e− 2 1(0,+∞) (x).
Γ( n2 )2 2
∀u ∈ R y ∀s ≥ 0.
Ahora por el Lema 4.6.14, (1) es equivalente a:
∀u ∈ Ry∀s ≥ 0.
Veamos entonces que se cumple (2). Pongamos X := (X1 , ..., Xn ).
Sean: u ∈ R y s ≥ 0 cualesquiera.
E(exp(iuh(X) − sQ(X)))
1 R 1
= n/2
exp(iuh(x̃) − sQ(x̃)) exp(− Q(x̃))dx̃ =
(2π) Rn 2
1 R 1
= exp(iuh(x̃) − (2s + 1)Q(x̃))dx̃ (3)
(2π)n/2 Rn 2
1
Para cada j = 1, ..., n sea yj := (1 + 2s) 2 xj . Entonces:
n
Q(ỹ) = (1 + 2s)Q(x̃) y dỹ = (1 + 2s) 2 dx̃.
h(x̃) = h(ỹ).
Cap. 4 Inferencias en Modelos Espaciales 101
Luego:
1 1 R 1
(3) = exp(iuh(ỹ) − Q(ỹ))dỹ
(2s + 1)n/2 (2π)n/2 R n 2
1 R 1 1
= exp(iuh(ỹ)) exp(− Q(ỹ)) dỹ
(2s + 1)n/2 Rn (2π)n/2 2
1
= E(exp(iuh(X1 , ..., Xn ))).
(2s + 1)n/2
n
P
1
con X : = n Xj .
j=1
Entonces h(X1 , ..., Xn ) y Q(X1 , ..., Xn ) son independientes.
1
M (j, j) : = (1 − ) ∀j = 1, ..., n.
n
1
M (j, k) : =− 1 ≤ j, k ≤ n, j 6= k.
n
Sea
X̃ = (X1 , ..., Xn )′ .
Entonces
Q(X̃) = X̃ ′ M X̃. (1)
Por resultados clásicos de Algebra Lineal se tiene que ∃P matriz n × n
ortogonal tal que
P ′M P = Λ (2)
con Λ matriz n × n diagonal dada por:
Λ(j, j) = 1 si 1 ≤ j ≤ n − 1.
Λ(n, n) = 0.
Sea
η̃ = P ′ X̃. (3)
102 Oscar Bustos y Aureliano Guerrero
Luego:
n−1
X
′
Q(X̃) = η̃ Λη̃ = η 2j .
j=1
Es fácil ver que para probar la independencia entre h(X1 −X, . . . , Xn −X)
y Q(X̃) no hay pérdida de generalidad en suponer que θ = 0.
η̃ ∼ Nn (0̃, σ 2 I).
Por lo tanto
1
ξ̃ := η̃ ∼ Nn (0̃, I). (5)
σ
Pongamos
ξ̃ : (ξ 1 , ..., ξ n )′ .
Luego: ξ 1 , ..., ξ n−1 son v.a.i.i.d. N (0, 1).
Además:
η1
···
(X1 − X, ..., Xn − X)′ = M X̃ = P ΛP ′ X̃ = P Λη̃ = P
η n−1 . (6)
0
se tiene:
se tiene
h(X1 − X, ..., Xn − X) = h1 (ξ 1 , ..., ξ n−1 )
n−1
P
y ξ 2j son independientes por el Teorema 4.6.15.
j=1
siendo
n
1X
X̃ : = (X1 , ..., Xn )′ ; X := Xj ;
n j=1
M
Demostración. Es fácil ver que IW R ,Dn
es homogénea de grado 0, con-
n
siderada como función de R en R.
!
p
(nC W ,D (X̃))
E((nCWR ,Dn (X̃))p ) = E R n
(QW (X̃))p , (1)
(QW (X̃))p
siendo
n
X
QW (X̃) := S0,Dn (WR ) (Xsj − X)2 .
j=1
104 Oscar Bustos y Aureliano Guerrero
e) E(Zj2 Zk Zl ) = − n−3 4
n2 σ , 1 ≤ j, k, l ≤ n, #({j, k, l}) = 3.
3 4
f ) E(Zj Zk Zj1 Zj2 ) = n2 σ , 1 ≤ j, k, j1 , k1 ≤ n, #({j, k, j1 , k1 }) = 4.
Demostración. Ejercicio.
Teorema 4.6.19. Continuacióm de la Proposición 4.6.17.
Se cumple:
M 1
a) E(IW R ,Dn
(X̃)) = − n−1 .
M 1,Dn n2 S
R (W )−nS
2,Dn R (W )+3(S
0,Dn (WR ))2 1
b) V ar(IW R ,Dn
(X̃)) = (n2 −1)(S0,Dn (WR ))2 − (n−1)2 ,
con:
P n
n P
S0,Dn (WR ) := WR (sj , sk );
j=1 k=1
Pn P n
S1,Dn (WR ) := ((WR (sj , sk ))2 + WR (sj , sk )WR (sk , sj ));
j=1 k=1
Pn
S2,Dn (WR ) := (WR (sj , ∗) + WR (∗, sj ))2 ;
j=1
n
P
WR (sj , ∗) := WR (sj , sk );
k=1
Pn
WR (∗, sj ) := WR (sj , sk ).
j=1
Cap. 4 Inferencias en Modelos Espaciales 105
Prueba de a):
Como
W (j, j) = 0 ∀j = 1, ..., n,
basta ver qué vale E(Zj Zk ) para 1 ≤ j, k ≤ n, j 6= k.
Esto es
E(N ) = −σ 2 S0 .
Ahora
n
X 1 2
E(D) = S0 E(Zj2 ) = nS0 (1 − )σ = S0 (n − 1)σ 2 .
j=1
n
Por lo probado en a)
1
V ar(I) = E(I 2 ) − . (4)
(n − 1)2
106 Oscar Bustos y Aureliano Guerrero
Por lo tanto:
siendo:
T := {(j, k) /1 ≤ j, k ≤ n, j 6= k}.
Sean ahora:
con
X X
S0,Dn (WR ) : = WR (s, t) y
s∈Dn t∈Dn
1 X
X : = Xs .
n
s∈Dn
Demostración. Ejercicio.
a) E(IG ) = 1.
(2S1 +S2 )(n−1)−4S2
b) V ar(IG ) = 2(n+1)S0 ·
Demostración. Ejercicio.
Bibliografı́a
[2] Besag, J., 1989, Towards Bayesian image analysis. Journal of Applied
Statistics, 16, pp. 395–407.
[4] Frery, A.C. Ferrero, S., and Bustos, O.H. (2009). The Influence of
training errors, context and number of bands in the accuracy of image
classification. International Journal of Remote Sensing. 30, 6: 1425–
1440
[9] Ojeda, S., Vallejos, R. and Bustos, O. (2010). A new image segmenta-
tion algorithm with applications to image inpainting. Computational
Statistics and Data Analysis 54 (2010) 2082-2093.
111
112 Bibliografı́a
113
114 Índice alfabético
Representación AR, 40
Representación ARMA, 40
Representación CAR asociada al SAR-
local uniparamétrico, 43
Representación CAR-Markov, 41
Representación Espectral de
caso S = R, 27
caso S = Z2 , 27