Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Geoestadistica
Geoestadistica
APLICADA
MARTN A. DAZ VIERA
Instituto de Geofsica, UNAM
Instituto de Geofsica y Astronoma, CITMA, Cuba
e-mail: mdiaz@tonatiuh.igeofcu.unam.mx
2002
NDICE
Pgs.
Captulos
1
INTRODUCCIN
1.1
1.2
1.3
1
1
2
1.4
CONCEPTOS BSICOS
2.1
2.2
2.3
2.4
2.5
2.6
Variables Regionalizadas
Funcin Aleatoria
Funcin de distribucin y momentos de una funcin aleatoria
Funciones aleatorias estacionarias
Funciones aleatorias intrnsecas
Funciones aleatorias no estacionarias
3
3
4
5
6
7
ANLISIS ESTRUCTURAL
3.1
3.2
3.3
3.4
3.5
3.6
3.9
El Semivariograma. Definicin
Estimadores del semivariograma
Consideraciones prcticas para el cmputo del semivariograma muestral
Formas generales del semivariograma muestral
Condiciones que deben cumplir los modelos del semivariograma
Modelos autorizados para el semivariograma
Modelos transitivos o acotados
Modelos no acotados
Semivariogramas Anisotrpicos
Modelacin del variograma experimental
Mtodos de ajuste
Criterios de Seleccin de los Modelos
Validacin del modelo del semivariograma
9
9
12
13
15
17
17
21
25
26
26
27
28
KRIGING
31
4.1
4.2
4.3
4.4
4.5
4.6
31
31
33
35
37
38
38
39
40
41
42
43
43
46
3.6.1
3.6.2
3.7
3.8
3.8.1
3.8.2
4.6.1
4.6.2
4.6.3
4.7
4.8
4.8.1
4.8.2
4.8.3
ii
4.8.4
4.8.5
4.9.1
4.9.2
4.9.3
4.10
47
49
51
52
54
55
57
GEOSTADISTICA MULTIVARIADA
59
5.1
5.2
5.3
5.4
5.5
5.6
5.7
5.8
5.9
5.10
5.11
5.12
5.12.1
5.12.2
5.12.3
5.13
5.14
59
59
60
60
63
64
65
66
68
69
71
71
71
73
75
76
79
5.15
5.16
5.16.1
5.16.2
5.17
5.18
5.19
Introduccin
Definiciones de los momentos cruzados de segundo orden
Propiedades de los momentos cruzados de segundo orden
Cokriging en el caso estacionario
Cokriging en el caso de funciones aleatorias intrnsecas
Cokriging en el caso no estacionario
Estimacin de los momentos cruzados de segundo orden
Modelacin de los momentos cruzados de segundo orden
Modelo de corregionalizacin lineal
Anlisis estructural multivariado
Validacin del modelo de semivariograma cruzado
Ejemplos de Aplicaciones del Cokriging
El caso de dos variables correlacionadas
Estimacin de combinaciones lineales de variables
El problema de variables pobremente muestreadas
Modelo de correlacin intrnseco
Anlisis de Componentes Principales basado en el Modelo Lineal de
Corregionalizacin
Dificultades y Aspectos Prcticos del Cokriging
Algunos mtodos alternativos al Cokriging
Kriging combinado con Regresin Lineal
Kriging con una Deriva Externa
Kriging Factorial
Esquema General del Anlisis de Corregionalizacin
Manejo de procesos espacio-temporales
SIMULACIN CONDICIONAL
88
6.1
6.2
6.3
6.4
6.5
6.6
6.7
6.8
6.9
6.10
6.11
6.12
Introduccin
Objetivos de la simulacin
Condicionamiento
Simulacin o estimacin ?
La teora de la simulacin condicional
Mtodos de simulacin de funciones aleatorias ms conocidos
Mtodos del tipo Gaussiano
Mtodo matricial
Mtodo espectral
Mtodo de bandas rotantes
Mtodos secuenciales
Mtodos del tipo Recocido Simulado
4.9
Anexos
A
A.1
80
80
80
81
82
85
86
88
89
90
91
92
94
95
96
98
101
103
104
106
106
iii
A.2
A.3
Estadstica multivariada
Regresin lineal y mnimos cuadrados
116
122
124
BIBLIOGRAFA BSICA
130
iv
CAPITULO 1: INTRODUCCIN
1.1 Origen, definicin y objeto de estudio
En los aos 60, Matheron acu el trmino de Geoestadstica. Reconocido como el padre de
esta disciplina, Matheron formaliz y generaliz matemticamente un conjunto de tcnicas
desarrolladas por D. G. Krige (1941) que explotaban la correlacin espacial para hacer
predicciones en la evaluacin de reservas de las minas de oro en Sudfrica. l defini a la
Geoestadstica
la
{Z ( x ) , Z ( x ) ,..., Z ( x )}
1
variada:
FZ ( x1 ),Z ( x2 ),...,Z ( xn ) ( z1 , z2 ,..., zn ) = Pr Z ( x1 ) z1 , Z ( x 2 ) z2 ,..., Z ( x n ) zn
(2.1)
El conjunto de todas las distribuciones para todo valor de n y para cualquier seleccin de
puntos en \ 3 constituye la ley espacial de probabilidad de la funcin aleatoria Z ( x ) . Esta
funcin en la prctica es imposible de determinar y slo se puede esperar inferir los
primeros momentos de la distribucin de Z ( x ) . En las aplicaciones en geoestadstica
lineal resulta suficiente estimar los momentos hasta de segundo orden, no obstante en la
mayora de los casos la informacin disponible no permite inferir momentos de orden
superior.
Momentos de la distribucin de Z ( x )
- El momento de primer orden de Z ( x ) es la esperanza matemtica definida como:
m ( x ) = E Z ( x )
(2.2)
(2.3)
C ( x i , x j ) = E {Z ( x i ) m ( x i )} Z ( x j ) m ( x j )
(2.4)
(2.5)
(2.6)
( xi , x j ) =
2
1
E Z ( xi ) Z ( x j )
Se debe notar que tanto la varianza como el variograma son siempre positivos, mientras que
la covarianza puede tomar valores negativos.
si su funcin de
{Z ( x ) , Z ( x ) ,..., Z ( x )} es
1
Se dice que una funcin aleatoria es estacionaria de segundo orden si se cumple que:
(2.7)
(2.8)
(2.9)
2
1
E {Z ( x + h ) Z ( x )}
(2.10)
(2.11)
En este caso resulta suficiente usar una de las dos funciones para caracterizar la
dependencia espacial.
E Z ( x + h ) Z ( x ) = 0
ii)
(2.12)
(2.13)
(2.14)
(2.15)
2
1
m ( x + h ) m ( x )}
{
2
(2.16)
1
2
( m1 h )
2
(2.17)
pero crece con el cuadrado de h , lo cual puede servir de indicador para la deteccin de la
existencia de tendencia.
Existe un enfoque que considera a las funciones aleatorias no estacionarias como
intrnsecas de orden k. Esto quiere decir que si se toman las diferencias de un orden k
apropiado stas resultan ser estacionarias.
de
Z ( x)
(3.1)
( h ) =
N ( h)
Z ( x
1
2 N ( h)
i =1
+ h ) Z ( x i )
(3.2)
el
empleo
se
de
debe
este
estimador
produce
variogramas
- Heterocedasticidad.
10
Se dice que los datos son heterocedsticos, si el diagrama del valor medio m contra la
desviacin estndar , calculadas en
los valores
tanto, por ser el semivariograma una medida de la dispersin, su magnitud est ligada a
la magnitud de los valores de los datos. Cuando se da este tipo de fenmeno, se dice
que existe un efecto proporcional.
- Desviaciones en el muestreo.
Las observaciones {Z ( x i ) , i = 1,..., n} de la funcin aleatoria Z ( x ) no estn distribuidas
espacialmente en forma aleatoria. Consecuentemente se produce un sesgo en el muestreo
es decir en la eleccin de las localizaciones de las observaciones, tendientes a estar
agrupadas
mediante un grfico
del
nmero
de
muestras
correctas,
pero
veces
suelen aparecer
observaciones discordantes que pueden ser debidas a errores humanos y/o mal
funcionamiento de los instrumentos de medicin. Si es posible constatar que un valor
de estos es errneo, lo mejor es eliminarlo, aunque esto no siempre es factible. De ah
que la eliminacin de estas observaciones puedan causar una subestimacin del
potencial de un rea.
Estimadores alternativos del variograma.
- El estimador de Cressie y Hawkins
11
(3.3)
no
obstante,
automticamente
infravalora
los
datos
contaminados,
acumulativa,
como
probabilidad.
semivariograma
muestral.
Para el cmputo del semivariograma es necesario tener en cuenta algunas reglas prcticas
que permiten elevar la eficiencia y la calidad de la estimacin, independientemente del
tipo de estimador que se utilice.
Estas reglas son las siguientes:
- En la estimacin del semivariograma los pares de las observaciones se agrupan
segn la distancia dentro de un intervalo h = h con una tolerancia h 2 y dentro de
una direccin
mnimo de 10 debe ser usado para determinar con precisin el rango y la meseta del
semivariograma.
- El largo de los intervalos debe ser elegido de forma tal que el nmero de pares en cada
intervalo sea lo suficientemente grande para que el estimado del semivariograma
sea
50
pares
satisfacen este
requerimiento.
- Los valores estimados para cada intervalo se
deben
graficar
contra la distancia
En
el
primer
tipo,
que
hay
dos
tipos principales
de
incremento del valor absoluto del intervalo |h| hasta alcanzar un valor mximo a partir
del cul se mantiene relativamente constante y oscila alrededor del mismo. Estos
semivariogramas son conocidos como de tipo transitivo. El valor del intervalo a partir del
cual el semivariograma no se incrementa es conocido como alcance o rango (radio de
correlacin) y marca el lmite de la dependencia espacial de la propiedad. La varianza
mxima es conocida como "sill" o meseta del semivariograma y tericamente debe
coincidir con la varianza a priori 2 de la muestra de la funcin aleatoria Z ( x ) .
13
Una variable con este tipo de semivariograma no slo cumple la hiptesis intrnseca, sino
tambin es estacionaria de segundo
constante
E Z ( x ) = m;
(3.4)
E {Z ( x ) m}{Z ( x + h ) m}
el
semivariograma
est
relacionado
con
las
funciones
(3.5)
de covarianza y de
(3.6)
( h ) = C ( h ) C ( 0) = 1 ( h) C ( 0)
(3.7)
Y = i Z ( xi )
(3.8)
i =1
Var [Y ] = i j C ( x i , x j )
(3.9)
i =1 j =1
15
C ( x1 , x1 ) C ( x1 , x 2 )
C ( x 2 , x1 ) C ( x 2 , x 2 )
...
...
C ( x n , x1 ) C ( x n , x 2 )
... C ( x1 , x n )
... C ( x 2 , x n )
...
...
... C ( x n , x n )
(3.10)
debe ser definida positiva, es decir, el determinante y todos sus menores principales son
positivos
cero.
Aqu
las
covarianzas
estn
definidas
como
C ( x i , x j ) = Cov Z ( x i ) , Z ( x j ) ; i, j = 1,..., n.
La funcin de covarianzas C ( h ) si existe debe ser positiva semidefinida por lo que
sern permisibles funciones que cumplan este criterio.
Las propiedades que no tengan covarianzas a priori finitas no tendrn definida la
funcin de covarianzas. En el caso de que cumplan la hiptesis intrnseca, entonces
estar definido el semivariograma y se cumple que:
n
i =1
j =1
Var [Y ] = C ( 0 ) i j i j ( x i , x j )
Si los pesos i suman 0, es decir
i =1
(3.11)
i =1 j =1
= 0 entonces:
n
Var [Y ] = i j ( x i , x j )
(3.12)
i =1 j =1
condicin
i =1
negativa semidefinida.
Como consecuencia de esta propiedad, se puede demostrar que el semivariograma debe
tener un ritmo de crecimiento inferior a h 2 , es decir se debe cumplir que:
16
( h)
=0
h h 2
lim
(3.13)
Cuando no se satisface esta condicin puede ser un indicador de que la funcin aleatoria no
sea estacionaria.
Por otro lado de la definicin de semivariograma se infiere que ste debe anularse en el
origen, es decir ( 0 ) = 0 .
Las funciones que cumplen las condiciones anteriores son conocidas como modelos
autorizados del semivariograma.
El hecho de probar si una funcin dada es aceptable o no, est relacionado con el
examen de su Transformada de Fourier. Christakos [1984] obtuvo las condiciones que
el espectro de la funcin debe reunir para ser un modelo autorizado.
Como una propiedad importante se debe destacar que cualquier combinacin lineal de
modelos autorizados es un modelo autorizado.
17
(3.14)
para 0 h a
para
(3.15)
h>a
Modelo Circular
En dos dimensiones, los bloques son discos de dimetro a. El rea de interseccin de
stos, separados a una distancia h de sus centros es:
A=
a2
h h 2
cos 1
a h 2 ; para h a
2
a 2
del
rea
del
disco
obtenemos
(3.16)
la
funcin de
autocorrelacin
( h) =
( )
2
2 1 h h
1 h
cos
a
a a
y el semivariograma
18
(3.17)
2
2
2h
1 h
h
S
1
cos
1
a
(h) =
a a
( )
para 0 h a
para
(3.18)
h>a
gradiente=4S/(a)
Este modelo no ha encontrado mucha aplicacin en las ciencias de la tierra.
Modelo Esfrico
Por analoga podemos derivar este modelo
considerando
el solapamiento de los
2a 3
h3
a 2 h + ; para h a
4 3
3
(3.19)
3h 1 h
+
2a 2 a
(3.20)
y el semivariograma
S h h 3
(h) = 2 a a
para 0 h a
para
(3.21)
h>a
gradiente=3S/(2a)
Debe sealarse que el modelo esfrico es apropiado para el caso de tres dimensiones
aunque se puede aplicar para casos de una y dos dimensiones. Lo inverso no se cumple.
El modelo circular slo es apropiado para una y dos dimensiones. El lineal solamente
para el caso unidimensional. Esto se debe a que solamente en estos casos estos modelos
son funciones condicionalmente negativas semidefinidas.
19
Modelo Exponencial
Si el solapamiento de los bloques vara su tamao de forma aleatoria, entonces el
semivariograma resulta exponencial. En el caso isotrpico es:
(h) = S 1 e r
gradiente = S/r
para
h0
(3.22)
de
Markov
producen
modelos
exponenciales.
Modelo Gaussiano
Est dado por la expresin:
h
(h) = S 1 e r
para h 0
(3.23)
20
sin(h)
(h) = S 1
para
h>0
(3.24)
Este puede ser usado para representar procesos regularmente continuos y que muestran
un comportamiento peridico, el cual es frecuentemente encontrado, donde existe una
sucesin de zonas ricas y pobres. Es un modelo negativo definido en tres dimensiones.
Otra alternativa es:
(h) = S (1 cos(h) )
para
h0
(3.25)
varianza
aparenta
incrementarse indefinidamente. As
tambin si se toma cada vez un menor intervalo de muestreo, siempre existe alguna
variacin que queda sin resolver. Un punto de partida para entender esta variacin es el
movimiento Browniano en una dimensin, en el cual:
Z ( x) Z ( x + h) =
(3.26)
1
h ;
2
21
(3.27)
(3.28)
(3.29)
(3.30)
22
(3.31)
Combinacin de modelos
1.- La combinacin lineal de semivariogramas (funciones de autocovarianza) con
coeficientes positivos representa un semivariograma (funcin de autocovarianza). Si
consideramos la funcin aleatoria Z ( x ) como una combinacin lineal de n funciones
aleatorias independientes Yi ( x ) ,
n
Z ( x ) = iYi ( x )
(3.32)
i =1
( h ) = i2 i ( h )
(3.33)
i =1
n
C ( h ) = i2Ci ( h )
(3.34)
i =1
Z ( x ) = Yi ( x )
(3.35)
i =1
C ( h ) = Ci ( h )
i =1
23
(3.36)
i =1
i =1
( h ) = Ci ( 0 ) Ci ( h )
(3.37)
A partir de estas dos propiedades se pueden encontrar modelos mas complejos mediante la
combinacin de los modelos simples antes estudiados.
De hecho muchos de los modelos anteriores los encontramos usualmente como
combinaciones por ejemplo del tipo
(h) = 0 (h) + 1 (h)
(3.38)
formada
por
componentes
variaciones
anidada.
espaciales a diferentes
(3.39)
0 (h) = S0 (1 (h) )
(3.40)
S h h 3
1 3 ; h a1
1 (h) = 2 a1 a1
h > a1
S1 ;
(3.41)
donde
24
S h h 3
2 3 ; h a2
2 (h) = 2 a2 a2
h > a2
S 2 ;
(3.42)
(3.43)
Esta funcin puede ser aplicada como un factor al argumento h de la funcin semivarianzas
en el caso de los modelos transitivos o al gradiente en los modelos no acotados.
En la prctica se estudian 4 direcciones,
estimando
los semivariogramas y
determinando los rangos para los mismos, y luego se construye el grfico direccional
de los rangos para decidir si hay anisotropa geomtrica presente o no.
En presencia de anisotropa geomtrica, el grfico direccional de los rangos forma una
elipse, en la cual el eje menor B es el rango de la direccin de mas rpida variacin y A,
el eje mayor, est en la direccin en que la variabilidad es mas lenta. La relacin =A/B es
una medida de anisotropa.
En caso de anisotropa si se desea disear una red ptima de muestreo se debe hacer en
forma rectangular haciendo coincidir los lados con las direcciones de los ejes
25
principales y las longitudes de los mismos deben estar en la proporcin , donde el lado
menor le correspondera a la direccin del eje B.
Mardia (1980) ha sugerido pruebas de significacin formales
para
la relacin de
donde
26
(3.44)
reemplazar Var[(hj)] por [(hj, )]2/m(hj) dando un peso considerablemente mayor a las
semivarianzas esperadas menores. La diferencia en los resultados de la aplicacin de
estos dos tipos de pesos es pequea y se ha confirmado que cuando se utiliza m(hj) se le
asigna pesos muy pequeos a los estimados de los intervalos hj menores.
Laslett ha sugerido un mejoramiento. Sus pesos estn dados por:
m(h j ) (h j )
(h j , )
(3.45)
y estos son actualizados en cada iteracin del proceso cuando (hj, ) es reestimada.
Tericamente esta forma de ponderacin debe dar mejor convergencia y en la prctica se
ha encontrado que as es.
3.8.2 Criterios de Seleccin de los Modelos
Un compromiso entre la bondad de ajuste y la complejidad del modelo puede
ofrecerlo el Criterio de Informacin de Akaike (AIC), que se define como
AIC = 2 ln( mx. verosimilitud ) + 2 ( nm. de parmetros)
Y se puede estimar usando
( AIC )
2
= n ln
n
+ n + 2 + n ln ( R ) + 2 p
27
(3.46)
(3.47)
Debido a que la cantidad que se encuentra entre llaves en la expresin anterior Ec.(3.47) es
constante ( n ln ( 2 n ) + n + 2 = const ) independientemente del tipo de modelo, entonces
para fines prcticos se calcula:
A = n ln ( R ) + 2 p
(3.48)
p es el
i=1
la
muestra.
Como
resultado
se
obtiene
un
mapa
de
las
diferencias
a)
1 n
Z ( x i ) Z * ( x i )}
{
n i =1
cercano a 0.
28
b)
2
1 n
Z ( x i ) Z * ( x i )}
{
n i =1
*
1 n Z ( x i ) Z ( x i )
c)
n i =1
i
pequeo.
2
cercano a 1.
{Z ( x ) Z * ( x )}
i
i es cercana a cero.
Siendo:
Z ( x i ) - los valores muestrales de la propiedad en xi,
Z * ( x i ) - los valores estimados de la propiedad en el punto xi,
i - es la desviacin estndar de la estimacin en el punto xi.
29
30
CAPITULO 4: KRIGING.
4.1 El mejor estimador lineal insesgado
El kriging es un trmino que ha sido acuado para designar al "mejor estimador lineal
insesgado" de un punto y al mejor promedio lineal mvil ponderado de un bloque.
Este nombre apareci alrededor de 1960 para nombrar una tcnica creada en Francia por
Matheron a partir de los trabajos de D. G. Krige quin fue probablemente el primero
que hizo uso de la correlacin espacial y del mejor estimador lineal insesgado en el
campo de la evaluacin de yacimientos minerales.
El kriging es una tcnica de estimacin local que ofrece el
mejor
estimador lineal
misma.
31
(4.1)
(4.2)
Var [ Z ( x + h) Z ( x) ] = 2 (h)
(4.3)
- un variograma
donde al menos uno de estos dos momentos de segundo orden se supone conocido.
funcin aleatoria Z ( x ) se
considera intrnseca.
Los valores experimentales consisten en
un
conjunto
de
valores
discretos
casi puntuales, en otros casos son los valores medios ZVi ( x i ) definidos en los soportes
Vi centrados en los puntos xi , donde los n soportes pueden ser todos diferentes.
La estimacin del valor medio ZVi ( x i ) en el dominio de Vi se define como
ZVi ( x i ) = V1i Z ( x ) d x
Vi
Es bueno destacar que bajo la hiptesis de estacionaridad el valor esperado de cada uno de
estos datos es E Z ( x i ) = m,
i .
32
Z * ( x k ) = i Z ( x i ) ,
i =1
donde Z k* = Z * ( x k ) .
Los n coeficientes i son calculados de manera tal que el estimador sea insesgado y que
la varianza de la estimacin sea mnima,
ptimo.
E Z k* = E i Z ( x i ) = m;
i =1
(4.4)
E Z ( x ) = E Z
i =1
33
*
k
(4.5)
entonces
n
m = m
i
i =1
(4.6)
y finalmente
n
i =1
=1
(4.7)
F = e2 2 i 1
i =1
(4.8)
donde
e2 - es la varianza de la estimacin,
- un multiplicador de Lagrange.
Ntese que la funcin F a minimizar consta de la varianza de la estimacin e2 e incluye
la condicin que garantiza el no sesgo de la estimacin.
La varianza de la estimacin se expresa de la siguiente manera:
2
e2 = Var Z k Z k* = E ( Z k Z k* )
34
(4.9)
(4.10)
i =1
(4.11)
desarrollando obtenemos
n
e2 = Z2 2 i Z Z + i j Z Z
k
k i
i =1
i =1 j =1
(4.12)
+
j Zi Z j 2 = 0, i = 1,..., n
Z k Zi
j =1
i
n
F = 1 = 0
i
i =1
(4.13)
i =1
(4.14)
e2 = Z2 i Z Z +
k
i =1
k i
35
(4.15)
21 22
...
...
n1 n 2
1
1
... 1n 1 1 k1
... 2 n 1 2 k 2
... ... ... ... = ...
... nn 1| n kn
... 1 0 1
(4.16)
donde ij = Zi Z j
Ntese que bajo la hiptesis intrnseca las covarianzas pueden ser reemplazados por las
semivarianzas, usando la expresin:
ij = 2 ij
(4.17)
donde
0 12
21 0
... ...
n1 n 2
1
1
... 1n 1 1 k1
... 2 n 1 2 k 2
... ... ... ... = ...
... 0 1| n kn
... 1 0 1
36
(4.18)
e2 = i ki +
(4.19)
i =1
Estas ltimas expresiones resultan ser la formulacin del Kriging ms comn puesto que se
aplica en el caso cuando la variable regionalizada cumple la hiptesis intrnseca la cual es
una condicin menos exigente que la estacionaridad de segundo orden.
Multigaussiano
Disyuntivo
Lognormal
-
no paramtrico:
Simple
Ordinario
Universal
Residual
Indicador
Probabilstico
proyecciones de un
se necesitarn ms requisitos.
n
= m ( x ) m ( x )
i
0
i
0
i =1
(4.20)
Estimador:
n
Z 0* = 0 + i Z ( x i )
i =1
Varianza de la estimacin:
38
(4.21)
K2 = 00' i i' 0
S
(4.22)
i =1
donde
m( x i ) = E Z ( x i ) es el valor esperado en el punto xi,
4.6.2 Kriging lineal con valor esperado estacionario pero desconocido: Kriging
Ordinario
Sistema de ecuaciones:
n
j ij = 0i , i = 1,..., n
j =1
n
=1
i
i =1
(4.23)
Estimador:
n
Z 0* = i Z ( xi )
i =1
Varianza de la estimacin:
39
(4.24)
K2 = 00 i i 0 +
O
(4.25)
i =1
Requisitos:
- Se requiere que el valor esperado m( x i ) = E Z ( x i ) = m, i = 1,..., n de la funcin
aleatoria Z ( x ) sea constante
- Conocer la funcin de covarianzas ij o el semivariograma ij de la funcin aleatoria
Z ( x) .
j ij ll ( x i ) = 0i , i = 1,..., n
j =1
l =1
n
( x ) = ( x ), l = 1,..., L
i
0
i l
l
i =1
(4.26)
Estimador:
n
Z 0* = i Z ( x i )
(4.27)
i =1
Varianza de la estimacin:
n
i =1
l =1
K2 = 00 i i 0 + ll ( x 0 )
U
Requisitos :
40
(4.28)
ZV*k = i Z ( x i )
(4.29)
i =1
En las ecuaciones del Kriging puntual el vector del miembro derecho las semivarianzas ij
son reemplazadas por las semivarianzas promedios con respecto al bloque Vk que se
expresan como:
V ,i =
k
1
Ak
( x x )d x
i
VK
41
(4.30)
0 12
21 0
... ...
n1 n 2
1
1
... 1n 1 1 Vk ,1
... 2 n 1 2 Vk ,2
... ... ... ... = ...
... 0 1| n Vk ,n
... 1 0 1
(4.31)
V2 = i V ,i + V ,V
k
i =1
(4.32)
donde
V V =
K K
1
( x y )d xd y
Ak2 VK VK
(4.33)
menos que el
variograma de los residuos sea conocido, digamos que a partir de su estimacin en una
direccin donde no se perciba la deriva,
el
kriging
universal
tiene
serias
dificultades operacionales.
Como ya se ha visto el kriging universal puede ser expresado de manera muy simple. El
problema real es que cuando existe una sola realizacin de la funcin aleatoria no
estacionaria Z ( x ) resulta imposible estimar el variograma. Lo que uno puede hacer
es intentar eliminar la deriva m(x) y trabajar con los residuos R ( x ) = Z ( x ) m ( x ) los
cuales son estacionarios o al menos intrnsecos. Esto significa que la deriva tiene que ser
estimada a partir de los valores muestrales. Aqu comienzan las dificultades.
Debido a que este estimador tiene que ser no sesgado y de varianza mnima uno obtiene
un conjunto de ecuaciones para calcular los coeficientes de la deriva expresada como un
polinomio. Pero para reducir las ecuaciones que dan este estimador ptimo es necesario
conocer el variograma de la funcin aleatoria, lo cual es precisamente el ltimo
propsito del estudio. Sin embargo, un estimador no sesgado simple es valido y puede
ser derivado a partir de los mtodos de mnimos cuadrados del anlisis de superficie de
tendencia.
Nosotros somos ahora
capaces
de
calcular
un
residuos estimados R* ( h ) pero Matheron (1969) ha mostrado que tal variograma difiere
del variograma de los residuales verdaderos R ( h ) y que el sesgo es una funcin de
la forma del estimador de m ( x ) .
44
Se puede ver que en la estimacin del variograma es donde est la clave del problema. No
hay solucin directa conocida, uno puede solo hacer un conjunto de suposiciones y
tratar de verificarlos mediante el mtodo de prueba y error, por lo que entonces el
Kriging Universal se transforma en un procedimiento heurstico.
El proceso entero puede ser resumido como sigue :
Se necesita conocer el variograma ( h ) de Z ( x ) , pero como ste no puede ser
directamente estimado uno trata de estimar el variograma de los residuos R ( h ) .
Para esto se requiere seleccionar un tamao (un radio rv ) de la vecindad y dentro de
sta se supone un tipo de deriva m ( x ) , en general se toma un polinomio en x de
cierto orden k . Es decir, m* ( x ) = pk ( x ) , donde pk ( x ) es un polinomio de orden k .
Los coeficientes del polinomio de la deriva son estimados haciendo una suposicin
del tipo del variograma R ( h ) .
Con los coeficiente de la deriva podemos obtener los residuos R ( x i ) en los puntos
muestrales xi .
Entonces se calcula el variograma experimental de los residuos R* ( h ) .
El variograma terico esperado de los residuos es calculado R ( h ) .
El variograma terico supuesto al inicio R ( h ) y el experimental resultante de los
residuos R* ( h ) son comparados en algn sentido de su bondad de ajuste segn la
norma R* ( h ) R ( h ) que se elija .
45
algoritmo es simple, pero desde el punto de vista prctico puede consumir una gran
cantidad de tiempo y no ofrece ninguna garanta de que exista convergencia.
Otro criterio que permitira discriminar en qu medida son correctos o no los supuestos del
procedimiento podra ser el empleo del mtodo de validacin cruzada (ver seccin 3.del
modelo (combinacin de variograma y deriva) que se obtiene en cada paso. En este sentido
una eleccin razonable sera tomar el modelo que arroje el mejor resultado en trminos de
los estadgrafos (valor medio y desviacin estndar) de los errores
Z ( xi ) Z * ( xi )
producto de la validacin cruzada de los valores estimados Z * ( x i ) con los valores reales
Z ( x i ) de la muestra.
de
las
Funciones
46
(error)
El enfoque de trabajo propuesto es dejar que la posicin espacial de los datos determine la
escala de variacin (la deriva es a gran escala). Esto concuerda con el anlisis
exploratorio de datos, en que las decisiones sobre el modelo se basan ms en lo que se
ve que en lo que pudiera haberse visto.
Se puede ajustar con exactitud una superficie a travs de los puntos observados, pero
hay poco poder predictivo en este enfoque. Se quiere extraer la deriva aparente y tratar de
modelar el resto mediante estacionaridad dbil.
El enfoque spline es similar, donde se permite que el tamao de la rejilla determine la
variabilidad a gran escala, conjuntamente con las condiciones adicionales acerca de la
diferenciabilidad y la suavidad de la funcin.
Para el tipo de aplicaciones en mente, sin embargo, es la variabilidad local la que se
desea modelar, interpretar y en consecuencia explotar con el kriging.
Se toma un enfoque analtico :
datos = ajuste + residuo
Los residuos son tomados como datos originales y se realiza el mismo proceso :
residuos = nuevo ajuste + nuevo residuo
47
y as sucesivamente.
Supongamos que la localizacin de los datos es un subconjunto de puntos de una malla
finita rectangular L, la cual no tiene que estar obligatoriamente completa. Cuando los datos
estn irregularmente distribuidos, cada dato se le asigna el nodo ms cercano de una
malla imaginaria superpuesta.
Cressie (1984) sugiri que el ajuste ij en la localizacin (i,j) sea obtenido mediante la
mediana de los valores observados:
ij = a + ri + cj
Rij = Zij ij
donde :
ri - efecto fila, cj - efecto columna, Rij - residuos.
med i (Rij ) = med j (Rij ) = 0, med i (ri ) = med j (cj ) = 0.
En la prctica se obtuvo buenos resultados aplicando esta metodologa seguida de una
estimacin por kriging ordinario. Esto se debi a que la variacin a gran escala est
basada en la mediana la cual es resistente a los outliers, y por otro lado debido a que los
residuos tienen media 0, esto hace que el variograma sea menos sesgado. El resultado
final es un estimador kriging robusto y resistente en presencia de no estacionaridad.
En resumen, el kriging con Mediana se ejecuta de la siguiente forma :
Zij = ij + Rij
donde:
49
Existen otras modificaciones, como la de Samper (1986), propuestas al mtodo del kriging
residual que consisten esencialmente en estimar la matriz de covarianzas no a partir del
variograma muestral, sino directamente a partir de los residuos. Para efectos prcticos, estas
modificaciones pueden convertir al procedimiento en impracticable. Incluso, en la mayora
de los casos resulta suficiente la estimacin con mnimos cuadrados ordinarios, obviando
los pasos 6-10 del algoritmo anterior.
50
funcin
aleatoria
expresa
51
(4.34)
Z ( x + h)
depende de la
magnitud del vector h que separa a estas variables aleatorias y no depende de las
localizaciones particulares: x1 = x y x 2 = x + h .
Esto implica estacionaridad de la distribucin univariada, es
( A, zc ) =
1
i ( x, zc ) d x
A xA
(4.35)
donde
1,
i ( x, zc ) =
0,
si Z ( x) > zc
donde
Z ( x ) - es el valor observado en el punto x ,
zc - es el valor umbral o de corte.
52
(4.36)
( A, zc ) =
1
I ( x, zc ) d x
A xA
(4.37)
donde
I ( x, zc ) - es la funcin indicador aleatoria definida como:
si Z ( x) zc
1,
I ( x, zc ) =
0,
(4.38)
si Z ( x ) > zc
(4.39)
1
{(1) Pr [ Z ( x) zc ] + (0) Pr [ Z ( x) > zc ]}d x
A xA
(4.40)
E [ ( A, zc ) ] =
E [ ( A, zc ) ] =
E [ ( A, zc ) ] = Pr [ Z ( x) zc ] = FZ ( zc )
(4.41)
donde
FZ ( zc ) - funcin de distribucin acumulativa univariada de Z estacionaria.
La funcin de distribucin espacial ( A, zc ) puede ser vista como una realizacin de una
funcin aleatoria ( A, zc ) , cuyo valor esperado es igual al valor de la funcin de
distribucin acumulativa univariada estacionaria FZ ( zc ) . La distribucin de la
variable
indicador en los puntos muestrales i ( x, zc ) , ser la misma con slo dos valores 0 y 1. Si
el valor observado es menor que el valor de corte, el valor indicador ser 1, en caso
contrario, este ser 0. Claramente, la variable indicador i ( x, zc ) ,
53
cambiar con el
incremento del valor de corte. Ms muestras tienen valores menores que el valor de corte,
por lo tanto mas variables indicador tienen el valor 1.
La distribucin de probabilidad de variables indicador es una distribucin de Bernoulli y
sus momentos estn dados por:
a) valor esperado
E [ I ( x, zc ) ] = (1) Pr [ Z ( x ) zc ] + (0) Pr [ Z ( x) > zc ] = FZ ( zc )
(4.42)
b) funcin de covarianzas
CI ( h, zc ) = E [ I ( x, zc ), I ( x + h, zc ) ] { E [ I ( x, zc ) ]} =
2
= Fx , x + h ( zc , zc ) { FZ ( zc )}
(4.43)
c) varianza
Var [ I ( x, zc )] = C ( 0, zc ) = FZ ( zc ) [1 FZ ( zc )]
(4.44)
d) y la funcin de dsemivarianzas
I ( h, zc ) = CI ( 0, zc ) CI ( h, zc ) = FZ ( zc ) Fx , x + h ( zc , zc )
4.9.2
(4.45)
Variograma Indicador
Z Z max
I (h, zc ) = 0, Z Z max
(4.46)
(4.47)
Por lo tanto el variograma indicador I (h, zc ) siempre alcanza una meseta S ( zc ) que
coincide con CI (0, zc ) y de acuerdo con Ec. (4.43) segn (Myers, 1984) se deduce que
a) S ( zc ) es una funcin creciente de zc en el intervalo ( , zM ) , donde
FZ ( zM ) = 0.5 .
b) S ( zc ) es una funcin decreciente en el intervalo ( zM , ) ,
54
(4.48)
Los variogramas de indicador I (h, zc ) son estimados para cada valor de corte dado zc , de
la misma manera que se procede usualmente en la estimacin de los variogramas de
funciones aleatorias intrnsecas. Hay que hacer notar que stos son mas robustos, es decir,
son menos sensibles a la presencia de valores extremos (outliers)
4.9.3
El propsito de transformar los datos originales mediante las variables indicador es para
usar las variables indicador para estimar la funcin de probabilidad acumulativa
FZ ( zc ) . Las funciones
de probabilidad estimadas
* ( A, zc ) se obtienen mediante
* ( A, zc ) = ( zc )i ( x , zc )
(4.50)
=1
( z ) = 1
=1
(4.51)
2
KI
( A, zc ) = ( zc ) I ( x , A, zc ) I ( A, A, zc )
(4.52)
=1
donde
I ( x , A, zc ) =
1
I ( x x, zc )d x
A A
(4.53)
y
1
I ( x y, zc )d xd y
A2 A A
es el valor medio de I ( x j , A, zc ) cuando x recorre todo el dominio A .
I ( A, A, zc ) =
(4.54)
Para cada regin, * ( A, zc ) es una funcin del valor de corte zc . Si es aplicada una serie
de valores de corte, ser obtenida una serie de estimados. Con el incremento del valor de
corte, * ( A, zc ) se incrementa, debido a que el porcentaje de los puntos con valores
menores que el valor de corte se incrementa. Debido a que * ( A, zc ) es una funcin de
probabilidad acumulativa, las siguientes relaciones de orden deben cumplirse:
a) * ( A, ) = 0, y * ( A,+ ) = 1,
b) 0 * ( A, zc ) 1
A, zc
c) * ( A, zc ) no es decreciente, es decir
* ( A, zc ) * ( A, zc' )
si zc zc'
56
propiedad de optimalidad no se ve
57
teora en sentido estricto transformando hacia atrs para obtener el valor estimado para Z*,
sera:
1 2
Z = exp Y * + KY
(4.55)
2
Var Z = mZ2 exp ( Y2 ) 1 exp ( KY
)
(4.56)
y su varianza
~
Existen las siguientes dificultades segn Journel y Huijbregts (1978). En la prctica Z no
siempre satisface la condicin de sesgo nulo, ya que puede diferir fuertemente de la media
obtenida a partir de las valores observados de Z. Para evitar esta dificultad se propone el
estimador
1 2
Z = K exp Y * + KY
(4.57)
~
donde K se determina imponiendo que la media aritmtica de los valores estimados de Z
coincida con el valor esperado mZ .
58
Cij ( h ) = E Z i ( x + h ) mi Z j ( x ) m j
(5.1)
1
E Z i ( x + h ) Z i ( x ) Z j ( x + h ) Z j ( x )
2
(5.2)
59
ij ( h ) = ji ( h )
(5.4)
(5.5)
En el caso en que la covarianza cruzada Cij ( h ) sea simtrica, entonces resulta sta
equivalente al semivariograma cruzado.
La expresin general que relaciona al semivariograma cruzado con la covarianza cruzada se
escribe como:
2 ij ( h ) = 2Cij ( 0 ) Cij ( h ) Cij ( h )
(5.6)
Por lo que si consideramos el caso simtrico esta expresin se reduce a:
ij ( h ) = Cij ( 0 ) Cij ( h )
(5.7)
Cij ( 0 )
Cii ( 0 ) C jj ( 0 )
(5.8)
i = 1,..., n
( )
Cij ( x y ) = E Z i ( x ) Z j y ,
(5.9)
i, j = 1,..., n
(5.10)
{Zi }i =1
n
segundo
orden
conjuntamente.
Dados los puntos muestreados x1 , x 2 ,..., x m y un punto no muestreado x , el objetivo es
j = 1,.., n
Z i* ( x ) = ijk Z j ( x k )
(5.11)
k =1 j =1
convierte en:
Z
( x ) = k Z ( x k );
donde
k =1
Para que Z
( x)
k = ijk
(5.12)
k =1
=I
(5.13)
ij
ij
1, i = j
k =1
(5.14)
*
*
Var Z *j ( x ) Z j ( x ) = E Z ( x ) Z ( x ) Z ( x ) Z ( x )
j =1
(5.15)
m
j C ( xi x j ) + = C ( x i x )
j =1
m
= I,
i = 1,..., m
k
k =1
(5.16)
C21 ( x i x j ) C22 ( x i x j )
C ( xi x j ) =
...
...
Cn1 ( x i x j ) Cn 2 ( x i x j )
... C1n ( x i x j )
... C2 n ( xi x j )
...
...
... Cnn ( x i x j )
(5.17)
C ( x1 x1 )
...
K =
C ( x m x1 )
(5.18)
... C ( x1 x m )
...
...
... C ( x m x m )
...
I
1
...
= ,
...
I
C ( x1 x )
...
D=
C ( x m x )
(5.19)
(5.20)
2
CK
= Tr C ( 0 ) Tr j C ( x x j ) Tr
(5.21)
j =1
C ( x x )
i =1 k =1
62
k
ij
ij
jj
(5.22)
Observaciones prcticas:
correlacionadas entonces
independientes separadas.
el sistema
se convierte en n sistemas
de
ecuaciones
i=1,, n
ii) Cov Z i ( x + h ) Z i ( x ) , Z j ( x + h ) Z j ( x ) = 2 ij ( h ) ,
i,j=1,, n
T
1
E Z ( x + h ) Z ( x ) Z ( x + h ) Z ( x )
2
(5.23)
...
...
...
... ...
...
=
x x
( m 1 ) ... ( x m x m ) I m ( x x m )
I
...
I
0
I
63
(5.24)
2
CK
= Tr 1 ... m
( x x1 )
...
( x xm )
(5.25)
F ( x ) = f1 ( x ) ,..., f p ( x )
un vector de funciones
conocidas, linealmente
independientes.
Entonces se asume que:
E Z ( x ) = BF ( x )
(5.26)
BF ( x ) = j BF ( x j )
(5.27)
j =1
j =1
Fl ( x j ) = Fl ( x);
l = 1,..., p
64
(5.28)
donde l
p
m
j C ( xi x j ) + l Fl ( x ) = C ( xi x )
l =1
j =1
m
F ( x ) = F ( x ) ; l =1,...,p i =1,...,m
j
l
j l
j =1
son matrices n n de multiplicadores de Lagrange.
(5.29)
En forma matricial
C ( x1 x1 )
...
C ( x n x1 )
W=
F1 ( x1 )
...
Fp ( x1 )
... C ( x1 x n )
...
...
...
...
...
... Fp ( x1 )
...
...
...
...
C ( x n x n ) F 1 ( x n ) ... Fp ( x n )
F 1( xn )
0
...
0
...
...
...
...
Fp ( x n )
0
...
0
1
...
n
X = ,
1
...
p
F1 ( x1 )
C ( x1 x)
...
C ( x n x )
H = F ( x)
1
...
Fp ( x)
(5.30)
(5.31)
WX =H
(5.32)
i =1
l =1
i C ( x xi ) Tr Fl ( x)
(5.33)
(5.34)
El cual es una generalizacin del estimador del semivariograma simple y por lo tanto
adolece de los mismos problemas y limitaciones.
(5.35)
2
1
E aZ i ( x + h) + bZ j ( x + h) aZ i ( x) bZ j ( x)
2
= a 2 ii (h) + b 2 jj ( h) + 2ab ij (h)
ij+ (h) =
(5.36)
entonces
ij (h) =
1
ij+ (h) a 2 ii (h) b 2 jj (h)
2ab
(5.37)
(5.38)
2
1
E aZi ( x + h) bZ j ( x + h) aZi ( x) + bZ j ( x)
2
= a 2 ii (h) + b 2 jj ( h) 2ab ij (h)
ij (h) =
(5.39)
y por lo tanto
ij (h) =
1
ij (h) a 2 ii (h) b 2 jj (h)
2ab
(5.40)
1
ij+ (h) ij (h)
4ab
66
(5.41)
(5.42)
donde
ij+ (h) - es el semivariograma de la suma de Zi y Zj.
ii (h) y jj (h) - son los semivariogramas de Zi y Zj respectivamente.
En resumen, para modelar el variograma cruzado hay que calcular los variogramas
muestrales para Zi, Zj , Zi+Zj y ZiZj. Para cada miembro de la cuarteta se selecciona uno
de los modelos estndar tales como: esfrico, exponencial, gaussiano, etc., entonces el
modelo para ij (h) se determina como una combinacin de stos usando la expresin
anterior, pero con la condicin de que satisfaga la desigualdad de Cauchy-Schwartz. En el
caso en que no se cumpla esta condicin ltima se deben realizar modificaciones a cada
uno de los modelos ajustados a ii (h), jj (h), ij+ (h) y ij (h) ,de manera tal que sta sea
satisfecha.
Para modelar el variograma cruzado de n variables aleatorias regionalizadas, se deben
realizar solamente (n2 +n)/2 ajustes de variogramas simples.
Pero en realidad este procedimiento no garantiza que se obtenga un modelo vlido de
semivariogramas cruzados, ya que la desigualdad de Cauchy-Schwartz es una condicin
necesaria pero no suficiente.
La condicin que se requiere para que el modelo sea vlido es la anloga al caso
univariado, es decir
T
(5.43)
i C ( xi x j ) j 0
i
i ( x i x j ) j 0, si
T
=0
(5.44)
67
(5.46)
1 ( h ) ,..., m ( h ) son modelos simples de variogramas vlidos. Esto se conoce como modelo
de corregionalizacin lineal.
C ( h ) = V k k ( h )
(5.47)
k =0
es
conocido
como
modelo
de
Z ( x ) = Ak Y k ( x )
(5.48)
k =0
Z i ( x ) = aijk Y jk ( x ); i = 1,.., n
(5.49)
k = 0 j =1
68
b V k b 0,
(5.50)
donde b es un vector cualquiera. Cuando una matriz es positiva semidefinida sus valores
propios y los determinantes de ella y de todos sus menores principales son no negativos.
Un modelo de corregionalizacin lineal est dado por
S
k =0
k =0
C ( h ) = V k k ( h ) Cij ( h ) = ijk k ( h )
(5.51)
k =0
k =0
( h ) = V k k ( h ) ij ( h ) = ijk k ( h )
(5.52)
69
Una condicin suficiente para que el modelo de corregionalizacin lineal sea vlido
consiste en que todas las matrices de corregionalizacin V k sean positivas semidefinidas.
Si V k es una matriz simtrica y positiva semidefinida, entonces se cumple que
ijk iik kjj , i j
(5.53)
= 0
S S
0 0
21 22
21 ( h ) 22 ( h ) 21 22
(5.54)
(5.55)
70
E[ Z1 ( x)] = m1 , E[ Z 2 ( x)] = m2
(5.56)
C12 ( x y ) = E Z1 ( x) Z 2 ( y )
(5.57)
Z ( x) = k Z ( x k )
*
(5.58)
k =1
Z i* ( x) = ijk Z j ( x k ),
i = 1, 2
(5.59)
k =1 j =1
11k 12k
,
donde k = k
k
21 22
k =1
=I,
I - matriz identidad.
0, i j
k
ij
ij
1, i = j
k =1
(5.60)
C11 ( x y ) C12 ( x y )
C ( x y) =
C21 ( x y ) C22 ( x y )
(5.61)
C11 ( x1 x1 ) C12 ( x1 x1 )
C21 ( x1 x1 ) C22 ( x1 x1 )
...
K = C11 ( x n x1 ) C12 ( x n x1 )
C ( x x ) C ( x x )
1
n
22
21 n 1
1 0
0 1
...
...
1 0
0 1
...
C12 ( x n x n ) 1 0 (5.62)
C22 ( x n x n ) 0 1
0
0
0
1
0 0
C11 ( x1 x n ) C12 ( x1 x n )
C ( x x ) C ( x x )
1
n
22
21 1 n
...
C ( x xn )
... 11 n
C21 ( x n x n )
1
...
0
72
111 121
1
1
21 22
...
= 11n 12n ,
n
n
21 22
12
11
21 22
2
CK
= C jj (0)
j
C11 ( x1 x) C12 ( x1 x)
C21 ( x1 x ) C22 ( x1 x )
...
D = C11 ( x n x) C12 ( x n x)
C ( x x ) C ( x x )
n
22
21 n
1 0
0 1
(5.63)
K = D
(5.64)
ij
i =1 k =1
( x x k )ijk jj
(5.65)
Z ( x) = [ Z1 ( x ) ... Z m ( x) ]
A = [ a1 ... am ] , donde ai \
T
73
W * ( x 0 ) = jW ( x j ),
j =1
j =1
=1
(5.67)
2
KD
= W ( x 0 x j ) j
(5.68)
j =1
(5.69)
b) Estimacin conjunta.
En lugar de la estimacin directa de W ( x 0 ) se estima Z ( x) = [ Z1 ( x ) ... Z m ( x) ]
por
W ** ( x 0 ) = A Z ( x 0 ) = A j Z ( x j )
T
(5.70)
j =1
Una condicin suficiente para que coincidan ambos estimadores es que se cumpla:
T
T
j A = j A , j
(5.71)
2
KC
= A ( x 0 x j ) j A A AT
T
j =1
74
(5.72)
se
cumpliera
que = A AT .
pero sera
No obstante en general
2
2
KC
.
W * ( x 0 ) W ** ( x 0 ) y KD
por
{ x1 , ...,
funciones aleatorias . Supongamos que los datos en los puntos x 2 , ..., x n son obtenidos
para todas las variables pero en x1 slo es obtenido para Z 2 , ..., Z m .
Deseamos estimar Z1 ( x1 ) usando todos los datos disponibles suponiendo que (h) es
conocido.
El estimador lineal del cokriging Z1* ( x1 ) puede ser escrito en la forma usual:
n
Z 1 ( x1 ) = k Z ( x k )
*
k =1
75
(5.73)
11k
1
donde k = ... y se requiere que 111 = 0. La condicin de universalidad est dada por:
1km
1
0
n
1
(5.74)
k =
...
k =1
0
No hay prdida de generalidad si se considera que Z1 es la variable primaria y si los
datos estn perdidos para Z1 en otras ubicaciones k0 o para otras variables j0 en otras
posiciones se deben imponer condiciones adicionales de la forma 1kj00 = 0 , ya que 1kj00
determina la contribucin de Z j0 ( x k0 ) a la estimacin de Z1* .
(5.75)
(5.76)
Cij ( h )
Cii ( h ) C jj ( h )
(5.77)
(5.78)
ij ( h )
ii ( h ) jj ( h )
76
ij
ii jj
(5.79)
y no depende de la escala espacial. Por este motivo, el modelo propuesto es conocido como
modelo de correlacin intrnseco.
Un modo de verificar la existencia de correlacin intrnseca se basa precisamente en la
propiedad anterior. Para lo cual se calcula y grafica el coeficiente de codispersin el cual se
define como:
ccij ( h ) =
ij ( h )
ii ( h ) jj ( h )
(5.80)
(5.81)
o equivalentemente
p
Z i ( x ) = aijY j ( x )
(5.82)
77
Sean 1 2 ... n > 0 los valores propios y q1 , q 2 ,..., q n los correspondientes vectores
T
i =1
j =1
Z2 = Tr V = ii = j
(5.83)
por los que se escogen las primeras p componentes ordenadas de mayor a menor en orden
decreciente del por ciento de la varianza total que explican.
Entonces, aplicando la descomposicin en valores propios de la matriz de covarianzas V ,
sta se puede expresar como:
T
V AA
(5.84)
(5.85)
Z i ( x ) = j qijY j ( x )
(5.86)
donde qij es la componente i del vector propio q j y j es el valor propio asociado a ste.
Las componentes se relacionan con las variables originales mediante
T
Y ( x ) = Q Z ( x )
o puede escribirse escalado con varianza unitaria
1 T
1 n
Yj ( x ) =
q j Z ( x) =
qij Zi ( x );
j
j i =1
j = 1,.., p
(5.87)
(5.88)
(5.89)
(5.90)
(5.91)
(5.92)
donde inmediatamente se puede ver que la matriz Q ofrece la solucin ya que satisface:
T
T
Q = Q V
(5.93)
Una vez conocidos los valores de las componentes Y j ( x ) en los puntos de medicin
usando Ec.(5.88), se puede estimar sus valores en cualquier otro punto usando Kriging
ordinario y a partir de stos se obtienen los valores estimados de las variables originales
Z i ( x ) empleando la Ec. (5.82).
El modelo de correlacin intrnseco, tambin conocido como corregionalizacin isotpica,
es un caso importante de referencia cuando las variables estn todas muestreadas en los
mismos puntos de observacin, ya que la estimacin conjunta se simplifica, puesto que
1) Se reducen las dimensiones del problema original a travs del anlisis de
componentes principales, con las consecuentes ventajas de reduccin en el
almacenamiento de la informacin.
2) Se usa el Kriging Ordinario para p componentes en lugar de Cokriging para n
variables, donde usualmente p n .
79
(5.94)
j = l + 1,..., m
(5.95)
y las varianzas de los errores de la prediccin por regresin estn dadas por
2
1
(Y j Y ) ,
2j = e2 + N
2
N
Yi Y )
(
i =1
80
j = l + 1,..., m
(5.96)
donde Y =
1
N
Yi ,
i =1
e2 =
2
1 N
Z i aY j b ) ,
(
N 2 i =1
Con los l datos originales de Z se estima el variograma y usando todos los m datos se
realiza mediante Kriging su estimacin espacial.
5.16.2 Kriging con una Deriva Externa
Este mtodo fue desarrollado por el grupo de Matheron de la Escuela de Minas de
Fontainebleau y no ha sido muy usado.
Para su aplicacin se requiere que el valor esperado de una variable Z sea una funcin
lineal conocida dependiente de otra variable Y, como sigue:
E Z ( x i ) Y ( x i ) = c1Y ( x i ) + c2
(5.97)
Z * ( x k ) = i Z ( x i )
(5.98)
i =1
E Z * ( x k ) Z ( x k ) Y ( x k ) = 0
(5.99)
min E Z * ( x k ) Z ( x k ) Y ( x k ) = 0
(5.100)
N
jij + 1 + 2Y ( x i ) = ik , i = 1,..., N
j =1
N
j = 1
j =1
N
jY ( x j ) = Y ( x k )
j =1
(5.101)
obtenemos:
81
e2 = Var Z * ( x k ) Z ( x k ) Y ( x k ) = iik + 1 + 2Y ( x k )
(5.102)
i =1
(5.103)
C ( h ) = D ge ( h )
e
(5.104)
e =1
o equivalentemente
Ne
Cij ( h ) = Dije g e ( h )
(5.105)
e =1
son matrices n n positivas definidas que en principio deben ser conocidas. Esta
descomposicin obedece a su vexz a la descomposicin de cada variable Zi ( x ) como la
suma de una serie de factores Fi e ( x ) , es decir
Ne
Z i ( x ) = Fi e ( x ) + mi ( x )
e =1
(5.106)
D e g ( h ) , si e = e
(5.107)
E Fi e ( x + h ) Fi e ( x ) = ij e
si e e
0,
Estos factores se expresan como combinaciones lineales de una serie de variables Y je ( x )
independientes entre s
m
Fi e ( x ) = aijeY je ( x )
(5.108)
j =1
D = Ae Ae , e = 1,..., N e
(5.109)
que siempre es factible puesto que las matrices D son positivas definidas. Las variables
Z i ( x ) = aijeY je ( x ); i = 1,.., n
(5.110)
e =1 j =1
(5.111)
i =1 =1
=1
83
(5.112)
= 1 + Cij ( x x ) 2 a g e ( x x 0 )
i =1 j =1 =1 =1
e
i
e
j
i =1 =1
e
i
(5.113)
e
ik
84
Kriging Factorial
NO
Existe correlacin
Intrnseca?
Se ajusta un Modelo de
Corregionalizacin Lineal (MCL)
S
C ( h ) = V k k ( h )
k =0
SI
Se ajusta un Modelo de Correlacin
Intrnseca (MCI)
C ( h) = V ( h)
Anlisis de Componentes
Principales (ACP ) de la matriz V
85
{Z ( x , t ) , Z ( x , t ) ,..., Z ( x , t )}
1
86
funciones aleatorias
espaciales
{Z ( x, t ) , Z ( x, t ) ,..., Z ( x, t )} correlacionadas
1
entre s. De manera
87
aleatoria.
La equivalencia estadstica en un sentido estricto significa que todas las realizaciones
Z S ( x ) tengan la misma distribucin de probabilidad de la funcin aleatoria Z ( x ) que se
simula, pero en la mayora de los casos nos tenemos que conformar con que al menos
posean los mismos momentos de primer y segundo orden que inferimos a partir de una
muestra de Z ( x ) .
Resulta deseable en muchas aplicaciones quedarse solamente con aquellas realizaciones
Z S ( x ) que en los puntos muestrales { x i , i = 1,..., n} coinciden los valores simulados
la
fragmentada
informacin
y
disponible
en muchos casos
est
usualmente
muy
probabilidad o por sus dos primeros momentos, los cuales son estimados a partir de
datos experimentales.
89
Z ( x)
obtener otra
realizacin Z S ( x ) de
esta
funcin
aleatoria Z ( x ) .
Las
dos
6.3 Condicionamiento
Existe un nmero infinito de realizaciones que cumplen con la condicin de que sus valores
simulados coinciden con los valores experimentales, es decir
Z SC ( xi ) Z M ( xi ) ; i = 1,..., n
(6.1)
{Z ( x ) , i = 1,..., n}
M
90
todo
una suerte de
informacin cualitativa disponible del fenmeno real. Como por ejemplo en el caso de un
depsito se le puede aadir la geometra de las fallas principales, etc.
Z * ( x ) el cual es tan cercano como sea posible del valor real desconocido Z ( x ) .
Los criterios de la calidad de la estimacin son:
i.)
E Z * ( x ) Z ( x ) = 0
ii.)
(6.2)
(6.3)
91
los
que
en
los
puntos
experimentales los valores simulados deben coincidir con los valores observados.
Z SC ( xi ) Z M ( xi ) ; i = 1,..., n
(6.4)
{Z ( x ) , i = 1,..., n} .
M
Estos
desconocido
Z ( x ) = Z K* ( x ) + {Z ( x ) Z K* ( x )}
92
(6.5)
( )
E Z K* y {Z ( x ) Z K* ( x )} = 0;
x, y
(6.6)
{Z ( x ) , i = 1,..., n}
S
el
error
del
*
Kriging resultar Z S ( x ) Z SK
( x)
(6.7)
entonces
*
E Z K* ( x ) = E Z ( x ) y E Z SK
( x ) = E Z S ( x )
(6.8)
E Z SC ( x ) = E Z ( x )
(6.9)
93
no necesariamente sus
en
los
puntos
los
datos experimentales.
(6.10)
Gaussiano
Malla Regular
Matricial
Si
Si
No
Espectral
No
Si
No
Bandas Rotantes
No
Si
No
Secuencial Gaussiano
Si
Si
No
Secuencial Indicador
Si
No
No
Gaussiano Truncado
Si
Si
No
Recocido
Si
No
Si
(Annealing)
Simulado
Una de las caractersticas distintivas de los mtodos de simulacin es si generan
directamente simulaciones condicionadas o si se requiere de un postprocesamiento para
condicionarlas usando Kriging. Existe una gran cantidad de mtodos que generan
simulaciones Gaussianas, por lo que ste es otro punto a tener en cuenta. Y por ltimo
veremos cuales mtodos requieren de mallas regulares.
94
En la tabla anterior se resumen las tres caractersticas antes mencionadas de los mtodos de
simulacin que revisaremos a continuacin con cierto detalle.
FY ( y p ) = FZ ( z p ) = p; p [ 0,1]
y por lo tanto la transformacin que se requiere sera
y = FY 1 ( FZ ( z ) )
(6.11)
(6.12)
95
(6.13)
Distribucin
Gaussiana ?
Si
No
Transformacin Gaussiana
Anlisis Estructural:
Obtencin del variograma
Simulacin Gaussiana
Condicional ?
Si
No
Condicionamiento: Kriging
Simulacin Condicional
de la F.A. original Z SC ( x )
Fig. 6.1: Esquema general de las Simulaciones de tipo Gaussianas
96
(6.14)
m ( x ) = E Z ( x )
97
(6.15)
ii.)
C ( xi , x j ) = E {Z ( xi ) m ( xi )} Z ( x j ) m ( x j )
(6.16)
(6.17)
Var [ Z ] = C ( xi , x j ) C
(6.18)
MM =C
(6.19)
ZS = m+ M
(6.20)
(6.21)
C = LL
(6.22)
donde L es una matriz n n triangular inferior (todos los elementos por encima de la
diagonal son ceros).
98
Es bueno hacer notar que usualmente el vector se toma como realizaciones de variables
aleatorias con distribucin gaussiana y por lo tanto esto implica que Z S es una realizacin
de una distribucin gaussiana multivariada, aunque se podra tomar en calidad de
realizaciones de variables aleatorias no correlacionadas con media cero y varianza uno de
cualquier distribucin de probabilidad conjunta.
En el caso estacionario los componentes de la matriz de covarianza son:
Cij = C ( xi , x j ) = Z2 ij
(6.23)
Cij = ( x 0 xi ) + ( x 0 x j ) ij
(6.24)
estimacin, resultando:
Z SC = Z + M
*
(6.25)
Este mtodo clsico fue introducido en aplicaciones geoestadsticas por Davis (1987), y es
aplicable hasta lmite que sea factible la descomposicin de Cholesky, es decir, hasta unos
cuanto cientos de puntos simulados.
6.9
Mtodo espectral
99
E Z ( x ) = 0; x
ii.)
(6.26)
2 = C (0)
(6.27)
Ha sido demostrado (Bochner, 1955) que cualquier funcin positiva definida y simtrica
cos ( h ) dF ( )
(6.28)
C ( h ) dh < , entonces
12
cos ( x + )
i =1
(6.29)
E Z N ( x ) =
( 2 N )1 2
2
y funcin de covarianzas C ( h )
N +
cos ( x + ) f ( ) d d = 0
(6.30)
i =1
E Z N ( x + h ) Z N ( x ) = ( 2 2 / N ) E cos ( k x + k ) cos (l ( x + h ) + l )
k =1 l =1
= 2 E cos ( k x + k ) cos ( k ( x + h ) + k )
2
(6.31)
cos ( h ) f ( )d = C ( h )
x [ a, b ]
(6.32)
vectoriales.
Como en general se simulan funciones aleatorias Z ( x ) con valor esperado no nulo,
E Z ( x ) = m ( x ) , luego de simular el proceso estacionario con media cero se requiere
agregar a los valores simulados el valor medio esperado m ( x ) de Z ( x ) .
El mtodo espectral tiene como ventaja que permite producir simulaciones en cualquier
punto dada la funcin de covarianzas C ( h ) siempre que se pueda calcular su
101
unidimensional, estacionaria de segundo orden Y ( xL1 ) definida sobre dicha lnea L1 , con
1
valor esperado E Y ( xL1 ) = 0 y funcin de covarianzas unidimensional C ( ) ( hL1 ) .
102
(6.33)
Esta funcin aleatoria es estacionaria de segundo orden, con valor esperado cero y funcin
de covarianzas tridimensional
1
E Z1 ( x ) Z1 ( x + h ) = E Y ( xL1 ) Y ( xL1 + hL1 ) = C ( ) ( hL1 )
(6.34)
{Y ( x ) , i = 1,..., N } , entonces
Li
3
3
(6.35)
se le asigna el siguiente valor
N i =1
Esta realizacin de la funcin aleatoria tridimensional es estacionaria de segundo orden con
zS ( x ) =
E Z S ( x ) Z S ( x + h ) = CS ( h )
103
(6.37)
simulada en cada una de las N lneas se obtiene a partir de la primera usando la expresin
C (1) ( r ) =
d
rC (3) ( r )
dr
(6.38)
Sin embargo no existe unas expresin directa para obtener la C (1) ( h ) a partir de la funcin
de covarianzas bidimensional C (2) ( h ) .
Es uno de los mtodos mas eficientes para producir simulaciones en varias dimensiones
puesto que reduce su complejidad al orden de las simulaciones en una dimensin. Como
dificultades prcticas se le debe apuntar que requiere del conocimiento o del clculo de
zc especificado por el usuario o como alternativa mas eficiente pero menos precisa del
semivariograma obtenido para el valor corte correspondiente a la mediana zM .
104
(6.39)
Los umbrales yi son elegidos de manera que concuerden con las proporciones pi de los
indicadores
yi = G 1 p j
j =1
(6.40)
1
C ( h; z ) =
2
o
( h)
z 2 du
exp
1+ u 1 u2
(6.41)
n 1 ( y ) n 1 ( y )
n
(h)
n
n =1
(6.42)
C yy ( h ) = g ( y ) g ( y )
105
donde n ( y ) = H n ( y )
plurigaussianas truncadas.
106
, y en un
vector de p gaussianas:
Y ( x ) = (Y1 ( x ) , Y2 ( x ) ,..., Yp ( x ) )
(6.43)
107
1) Crea imagen inicial asignando a cada nodo de las malla de simulacin valores de
manera aleatoria generados a partir de la funcin distribucin de probabilidad
(FDP) suministrada por el usuario. Cuando el nodo de la malla de simulacin
coincide con el nodo de una observacin o es cercano a ste con cierto error de
tolerancia, se le asigna el valor observado a ste. Este imagen inicial as obtenida no
tiene que reflejar ningn modelo de variograma especfico.
2) En una segunda etapa el algoritmo intenta reproducir el variograma modelo
intercambiando valores en los nodos de la malla de simulacin elegidos de manera
aleatoria. Se aceptan como permanentes los intercambios que reduzcan la diferencia
entre el variograma suministrado ( h ) y el que refleja los datos simulados * ( h ) .
Es decir, se intenta minimizar la siguiente funcin objetivo
* ( hi ) ( hi )
FO1 =
( hi )
i
(6.44)
Para evitar caer en un mnimo local, son aceptados algunos intercambios que incrementan
el valor de la funcin objetivo, es decir la aceptacin del intercambio es probabilstica. Se
espera que para un nmero elevado de iteraciones la funcin objetivo tienda al mnimo
global y consecuentemente los valores simulados posean una estructura espacial cercana al
variograma de los datos observados.
Una alternativa a la funcin objetivo arriba propuesta puede incluir restricciones y tener la
siguiente forma:
FO2 = w1 * ( hi ) ( hi ) + w2 *j j
2
(6.45)
108
109
Variable Aleatoria (V.A.): Es una variable Z (propiedad) que puede tomar una serie
de valores o realizaciones (zi, i=1,...,N) con un conjunto dado de probabilidad de
ocurrencia (pi, i=1,...,N)
2.-
i = 1,..., N
=1
i =1
p [0,1]
z j zi
(A.1)
(A.2)
2.- F( + ) = 1
3.- Pr{Z > z} = 1 F ( z )
4.- F ( z1 ) F ( z 2 ), z1 z 2 , es decir es una funcin no decreciente.
-
dF ( z )
dz
(A.3)
2.-
f ( z )dz = 1
3.- F ( z1 ) =
z1
f ( z )dz
5.- f(z) 0
- Percentiles o cuantiles de una distribucin F(z).
El percentil de una distribucin F(z) es el valor zp de la V.A. tal que:
F ( z p ) = p [ 0,1]
(A.4)
107
(A.5)
(A.6)
z0.25 = F 1 (0.25)
(A.7)
z0.75 = F 1 (0.75)
(A.8)
[ z0.25 , z0.75 ]
(A.9)
Cuartiles
p=0.25 (primer cuartil o inferior)
m = E [ Z ] = pi zi
(A.10)
i =1
2.- VA continua
m = E [Z ] =
zdF ( z ) = zf ( z )dz
(A.11)
De manera anloga se puede definir el valor esperado de cualquier funcin de una VA. Por
ejemplo si tenemos la funcin ( Z ) de la VA Z, entonces su valor esperado se define
como:
1.- VA discreta
N
E ( Z ) = pi ( zi )
i =1
108
(A.12)
2.- VA continua
E ( Z ) =
( z ) dF ( z ) = ( z ) f ( z )dz
(A.13)
E ak Z k = ak E {Z k }
k
k1
(A.14)
(A.15)
z r dF ( z ) = z r f ( z )dz
(A.16)
( z m)
dF ( z ) = ( z m ) f ( z )dz
r
(A.17)
(A.18)
2 = E ( Z m ) = E Z 2 2mZ + m 2
2
= E Z 2mE [ Z ] + m 2 = E Z 2 m 2
(A.19)
109
1.- VA discreta
N
Var [ Z ] = pi ( zi m )
(A.20)
i =1
2.- VA continua
Var [ Z ] =
( z m)
dF ( z ) = ( z m ) f ( z )dz
2
(A.21)
- Desviacin Estndar
= Var [ Z ]
(A.22)
(A.23)
(A.24)
(A.25)
- Signo de Simetra
cuando >0, m > M y se dice que hay asimetra positiva
Sign ( m M ) =
(A.26)
cuando <0, m < M y se dice que hay asimetra negativa
Ver figura 1.
- Coeficiente de simetra (medida de la simetra)
1 =
3
23/ 2
(A.27)
4
3
22
110
(A.28)
1
N
z
i =1
(A.29)
- Varianza
( 2 ) = S 2 =
*
1 N
2
( zi z )
N 1 i =1
(A.30)
111
(A.31)
z2
1
exp
2
2
(A.32)
La correspondiente FDP no tiene una expresin analtica, pero est bien tabulada:
z
G0 ( z ) =
g (u )du
(A.33)
y correspondientemente
z
G( z) =
g (u )du = G
zm
(A.34)
g (m + z ) = g (m z );
G (m z ) = 1 G (m + z );
(A.35)
(A.36)
Una de las razones de la popularidad de la distribucin gaussiana se debe a los teoremas del
lmite central que dice:
Si n VAs Z i independientes tienen la misma FDP y media cero, entonces la variable
aleatoria
Y=
1 n
Zi tiende a tener una distribucin Normal cuando n
n i =1
(A.37)
negativos. Varias transformaciones del modelo normal han sido definidas para acomodarse
a las caractersticas de las distribuciones de los datos en ciencias de la tierra.
Una VA positiva Y se dice que tiene una distribucin
X = ln (Y ) esta normalmente distribuido.
112
lognormal si su logaritmo
Y > 0 log N ( m, 2 ) , si X = ln Y N ( , 2 )
(A.38)
(A.39)
ln y
1
g0
(A.40)
Y su correspondiente fdp es
fY ( y ) = FY' ( y ) =
2
2
2
= m e
+ 2 / 2
2
ln
=
2
1 2
= ln 1 + 2
(A.41)
distribuidas cuando n es grande. Usando el teorema del lmite central, tenemos que
n
i =1
i =1
Y = Yi ln Y = ln Yi Normal cuando n
entonces Y Lognormal, cuando n .
113
(A.42)
.
una muestra dada y tambin de la distribucin muestral del estadgrafo
se dice que es un estimador insesgado de un parmetro de una
Def: Un estadgrafo
poblacin si se cumple que
= E [ ] = m
m = E
(A.43)
E e = E
E [ ] = 0
(A.44)
Def: Se considera el estimador ms eficiente a aquel que tiene la menor varianza de todos
los estimadores insesgados posibles de un parmetro de una poblacin
Ejemplo: Estimacin del valor medio (m)
Estimador puntual:
114
1
N
(A.45)
E Z = m
(A.46)
Var Z = 2 / N
(A.47)
z=
i =1
Intervalo de estimacin:
Cuando N es suficientemente grande (>30) se puede considerar la distribucin muestral del
estadgrafo Z aproximadamente como normal con media
mZ y desviacin estndar
Z =Z / N .
Sabemos que una VA Z S con una distribucin normal estndar se encuentra en el intervalo
[-1.96,1.96] con una probabilidad de 0.95,
donde Z S =
donde Z
(A.48)
Z mZ
(A.49)
1.96 Z
1.96 Z
< mZ < Z +
Pr Z
= 0.95
N
N
(A.50)
Z mZ
Z / N
1.96 Z
1.96 Z
< mZ < Z +
intervalo de confianza para 95 %.
N
N
Generalizando, tenemos que un intervalo de confianza para la media con una probabilidad
de (1-)100% para N>30 esta dado por
z
z / 2 Z
z
< mZ < z + / 2 Z
N
N
115
(A.51)
( Z )
y Z
En la prctica se sustituyen
mZ*
correspondientes, resultando
z / 2 ( Z )
m
*
Z
z / 2 ( Z )
< mZ < m +
*
Z
(A.52)
(A.53)
lim
z1 , z2 ,..., zi 1 , zi +1 ,..., zn
(A.54)
116
z1 z2
zn
"
(A.55)
se dice entonces que f Z1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) es la funcin de densidad de probabilidad nvariada o conjunta.
Cuando las n variables aleatorias Z1 , Z 2 ,..., Z n son independientes entonces la funcin de
densidad
de
probabilidad
conjunta
se
puede
expresar
como
el
producto
por la
117
(A.56)
FXY ( x, y ) =
f XY (u, v)dudv
(A.57)
donde f XY ( x, y ) =
d 2 FXY ( x, y )
es la funcin de densidad de probabilidad (fdp)
dxdy
bivariada.
En la prctica se estima mediante la proporcin de pares de valores de X y Y que se
encuentran por debajo del umbral x, y respectivamente.
Diagrama de Dispersin (Scattergram)
El equivalente bivariado del histograma es el diagrama de dispersin o scattergram (Fig.
2), donde cada par (xi, yi) es un punto.
El grado de dependencia entre las dos variables aleatorias X y Y puede ser caracterizado
por el diagrama de dispersin alrededor de cualquier lnea de regresin.
Semivariograma
El momento de inercia del diagrama de dispersin con respecto a una lnea de 45o de
pendiente, permite caracterizar la carencia de dependencia, ver Fig. 2.
XY =
1
N
[ di ] =
2
i =1
1
2N
[ x y ]
i =1
(A.58)
118
xi yi
di
yi
( xi , yi )
45D
x
xi
mXY = E { XY } = pij xi y j
(A.59)
i =1 j =1
2.- VA continua
mXY = E { XY } =
+ +
xyd
+ +
FXY ( x, y ) =
xyf
XY
( x, y ) dxdy
(A.60)
m XY = xi yi
i =1
119
(A.61)
Covarianza centrada
Dadas dos variables aleatorias X y Y , se puede definir la covarianza de manera anloga a
los momentos centrales univariados, como
Cov ( X , Y ) = E {( X mX )(Y mY )}
+ +
( x mX )( y mY ) f XY ( x, y ) dxdy
(A.62)
(A.63)
Y se estima como:
XY =
1
N
1
( x m )( y m ) = N x y m
i =1
i =1
mY
(A.64)
X2 = Var { X } = Cov { X , X } = E [ X mX ] 0
2
(A.65)
Cov { X , Y }
XY
=
[ 1,1]
XY
Var { X }Var {Y }
(A.66)
120
(A.67)
1
N
[ x y ]
i =1
(A.68)
entonces
2 XY =
1
N
1
xi2 mX2 +
N
i =1
1
yi2 mY2 2
i =1
N
N
x y m
i =1
2
mY + ( mX mY ) (A.69)
y por lo tanto
2 XY = X2 + Y2 2 XY + ( mX mY ) 0
2
(A.70)
Si XY XY y viceversa.
Relacin entre coeficiente de correlacin y variograma
X mX
Y mY
, donde
y Y =
X
Y
correlacin XY
X mX Y mY
X Y = E
X Y
= XY
(A.71)
121
(A.72)
(A.73)
(A.74)
donde
(1, X , X
1
p 1
( b , b , b ,..., b ) de manera que sea mnima la suma de los cuadrados de los errores:
0
p 1
Se = ei
(A.75)
i =1
(A.76)
b = ( b0 , b1 , b2 ,..., bp 1 )
(A.77)
1 X 11
1 X
21
X=
# #
1 X n1
122
... X 1 p
... X 2 p
...
#
... X np
(A.78)
(A.79)
2 Ce ,
(A.80)
b = X X
X Y
(A.81)
*T
S2 =
1
Se
n p
Se = Y Y b X Xb
(A.82)
Cb = 2 X X
(A.84)
b = X Ce X
X Ce Y
(A.85)
Se = Y Xb
* T
Ce
( Y Xb )
*
(A.86)
Cb = 2 X Ce X
(A.87)
123
limitado de sectores
124
Funcin Aleatoria: Puede ser vista como una coleccin de variables aleatorias que
dependen de la posicin.
Geoestadstica: Metodologa para el anlisis de datos espacialmente correlacionados. El
rasgo caracterstico es el uso de variogramas de tcnicas relacionadas para cuantificar y
modelar la correlacin espacial de la estructura. Tambin incluye diferentes tcnicas como
Kriging, la cual utiliza modelos de correlacin espacial. Los mtodos geoestadsticos son
aplicables en todas las ciencias de la Tierra. Pueden aplicarse para explorar los procesos
responsables de la variacin espacial. Tambin pueden aplicarse donde existe una
informacin completa obtenida por percepcin remota u otra fuente, para determinar un
muestreo eficiente, as como tambin para estimar el valor de propiedades en localidades no
muestreadas.
Hiptesis Intrnseca: Suposicin de que la media y la varianza de las diferencias son
estacionarias, es decir no dependen de una traslacin h de la funcin aleatoria.
Intervalo (lag): Intervalos de distancia de la clase usada para calcular el variograma.
125
Kriging de bloques: Estimacin del valor de un bloque a partir de los valores de una
muestra continua usando Kriging. El rea de un bloque es un arreglo de aproximadamente
2x2, 3x3, 4x4 puntos con centro en cada nodo de la malla especificada. Se dice que se
obtiene un valor suavizado de la estimacin.
Kriging Ordinario: Es un tipo de Kriging que asume que la media local no est
necesariamente cercana a la media de la poblacin, y que usa solamente para el estimado la
muestra para la vecindad local. Es el mtodo usado mas comnmente por su robustez.
Kriging Puntual: Estimacin del valor de un punto de los valores de la muestra cercana
usando kriging. El estimado para un punto ser casi similar al estimado por un bloque
relativamente cercano centrado en el punto, pero la desviacin estndar del kriging
calculada ser alta. Cuando el punto del Kriging coincide con el lugar de la muestra, el
estimado tendr un valor igual al de la muestra.
Kriging Simple: Variedad de kriging que asume que las medias locales son relativamente
constantes e iguales a la media de la poblacin, la que es bien conocida. La media de la
poblacin es usada como un factor en cada estimado local, con todas las muestras en la
misma vecindad. No es un mtodo muy usado.
Kriging: Mtodo de interpolacin del valor medio ponderado donde los pesos asignados a
las muestras minimizan la varianza del error, la que se calcula como una funcin del
modelo de variograma y localizaciones de las muestras relacionadas unas con las otras, y
del punto o bloque que est siendo estimado.
Madograma: Grfico de la diferencia media absoluta de pares de muestras medidas como
una funcin de la distancia y la direccin. Los madogramas no son verdaderos variogramas,
y generalmente no deben ser usados en Kriging. En caso de usarse los estimados del
Kriging tienen que ser razonables, pero las desviaciones estndar del Kriging no tendrn
significado.
126
Meseta (sill): Lmite superior de cualquier modelo de variograma acotado, al que tiende
asintticamente para grandes distancias. Para el modelo lineal, la relacin sill/rango se usa
para definir la pendiente.
Modelo Esfrico: Es una de las funciones autorizadas que es usada frecuentemente como
modelo de variograma, en combinacin con el modelo Nugget.
Modelo Exponencial: Es una de las funciones autorizadas que es usada frecuentemente
como modelo de variograma, en combinacin con el modelo Nugget.
Modelo Lineal: Es una de las funciones autorizadas que es usada frecuentemente como
modelo de variograma, en combinacin con el modelo Nugget.
Modelo Nugget: Modelo de varianza constante comnmente usado en combinacin con
uno o mas funciones cuando se ajustan modelos matemticos a variogramas
experimentales.
Modelos de variograma anidado: Aquel que es la suma de dos o mas modelos tales como
Nugget, esfrico, etc. Agregando el componente Nugget a uno de los otros modelos se
obtiene el modelo anidado mas comn, aunque muy pocas veces se usan combinaciones
muy complejas.
Octante de bsqueda: La elipse de bsqueda de vecindad en Kriging puede ser dividida en
8 sectores de ngulos iguales, los que pueden tener especificadas nmero de muestras
mnimas y mximas. Tambin puede especificarse un nmero consecutivo de sectores
vacos. Cuando no se satisface el criterio especificado, para un punto o un bloque, entonces
no se produce el estimado por Kriging.
Semi-Variograma: Es sinnimo de variograma. No hay acuerdo en la literatura
geoestadstica de cual trmino debe usarse y se usan ambos indistintamente.
127
Soporte: El trmino es usado en ambos sentidos: matemtico y fsico. Con frecuencia los
valores experimentales estn definidos en soportes puntuales o casi puntuales, en otros
casos son los valores medios ZVi ( x i ) definidos en los soportes Vi
centrados en los
128
variogramas relativos son usados en Kriging, la desviacin estndar del Kriging resultante
representa fracciones decimales de los valores estimados.
Variograma: Grfico de la semivarianza (la mitad de la diferencia media cuadrada) como
una funcin de la distancia (y de la direccin) entre
Tpicamente, son examinadas todos los pares de muestras y agrupadas en clases (intervalos)
de distancia y direccin aproximadamente iguales. Los variogramas aportan un significado
de cuantificacin de la relacin observada comnmente de que las muestras cercanas entre
ellas tienden a tener valores mas similares que las muestras mas alejadas. Es la herramienta
central de la Geoestadstica, ya que da una descripcin adecuada de la escala y del patrn
de la variacin espacial dentro de una regin dada. Los procesos de kriging, optimizacin
del muestreo y los clculos de probabilidades condicionadas utilizan la informacin de la
variacin espacial obtenida de los variogramas.
Vecindad de bsqueda: Es el rea elptica centrada en un punto o bloque que est siendo
analizado por el Kriging. Solamente las muestras dentro de la elipse sern usadas para el
clculo de la estimacin por Kriging.
129
ANISOTROPY:
BLOCK KRIGING:
COVARIANCE:
DRIFT:
EXPONENT MODEL:
such
as
INTRINSIC
INVERTED
ISOTROPIC:
A term applied
variogram. See
property.
both to a
anisotropic
KRIGING:
the
not
and
the
LAG:
LINEAR MODEL:
MADOGRAM:
"reasonable",
meaningless.
but
the
kriging
standard
deviations
will
be
NESTED VARIOGRAM MODEL: A model which is the sum of two or more component
models such as nugget, spherical, etc. Adding a nugget
component to one of the other models is the most common nested
model, but not more complex combinations are occasionally
used.
NON-ERGODIC VARIOGRAM: A variogram computed by subtracting lag covariance from
the sample variance. This approach compensates for cases where
in directional variograms, the mean of the, say, west members
of the sample pairs is not the same as the mean of the east
members. "Non-ergodic" is a rather obscure term referring to
the fact that some probabilistic assumptions underlying the
variogram computation are no longer necessary. Non-ergodic
variograms may be modeled and used in kriging in the same way
as ordinary variograms.
NUGGET:
NUGGET MODEL:
OCTANT SEARCH:
ORDINARY KRIGING: A variety of kriging which assumes that local means are not
necessarily closely related to the population mean, and which
therefore uses only the samples in the local neighborhood for
the estimate. Ordinary kriging is the most commonly used
method for environmental situations.
POINT KRIGING:
SILL(of a variogram): The value of the variogram for distances beyond the
range of the variogram. The Power model does not have a sill.
The upper limit of any variogram model which has such a limit,
i.e., which tends to "level off" at large distances. In
Geo-EAS, the spherical, gaussian, exponential, and nugget
models have sills. For the linear model, "sill/range" is used
merely to define the slope.
SIMPLE KRIGING:
SPATIAL CORRELATION: Used both as a generic term to denote that data at two
locations is correlated in some sense as a function of their
locations and also to denote the value of a spatial structure
4
SUPPORT:
TREND:
VARIOGRAM:
BIBLIOGRAFA
1. Akaike, H., 1974, A new look at statistical model identification, IEEE
Transactions on Automatic Control, AC-19, 716-722.
2. Akaike, H., 1977, An entropy maximization principle, Applications of Statistics,
P.R. Krishnaiah, ed., North Holland, Amsterdam.
3. Armstrong, M. y P. Delfiner, 1980, Towards a more robust variogram: case
study on coal, Note n-671, CGMM, Fontainebleau, Francia.
4. Armstrong, M., 1984, Problems with Universal Kriging, Math. Geol., 16(1),
101-108.
5. Clark I. and W. V. Harper , 2000, Practical Geostatistics 2000.
6. Cressie, N. y J. Hawkins, 1980, Robust estimation of the variogram, J. Math.
Geol., 12(2), 115-126.
7. Cressie, N., 1985, Fitting variogram models using weighted least squares, J.
Math. Geol., 17, 693-702.
8. David M., 1977, Geostatistical Ore Estimation, Elsevier, 264 pp.
9. David M., 1988, Handbook Of Applied Advanced Geostatistical Ore Reserve
Estimation.
10. David, M., 1976, The Practice of Kriging, Avanced Geostatistics in the Mining
Industry, M. Guarascio et al., eds. Dordrecht, Holland, 31-48.
11. Daz-Viera
130
P.
K.,
1997, Introduction
to
Geostatistics:
Applications
in
131