Está en la página 1de 144

GEOESTADSTICA

APLICADA
MARTN A. DAZ VIERA
Instituto de Geofsica, UNAM
Instituto de Geofsica y Astronoma, CITMA, Cuba
e-mail: mdiaz@tonatiuh.igeofcu.unam.mx
2002
NDICE
Pgs.
Captulos
1 INTRODUCCIN 1

1.1 Origen, definicin y objeto de estudio 1


1.2 Etapas del anlisis geoestadstico 1
1.3 La Geoestadstica, su posicin y su relacin con respecto a otras ramas de la 2
estadstica.
1.4 Campos de aplicacin 2

2 CONCEPTOS BSICOS 3

2.1 Variables Regionalizadas 3


2.2 Funcin Aleatoria 3
2.3 Funcin de distribucin y momentos de una funcin aleatoria 4
2.4 Funciones aleatorias estacionarias 5
2.5 Funciones aleatorias intrnsecas 6
2.6 Funciones aleatorias no estacionarias 7

3 ANLISIS ESTRUCTURAL 9

3.1 El Semivariograma. Definicin 9


3.2 Estimadores del semivariograma 9
3.3 Consideraciones prcticas para el cmputo del semivariograma muestral 12
3.4 Formas generales del semivariograma muestral 13
3.5 Condiciones que deben cumplir los modelos del semivariograma 15
3.6 Modelos autorizados para el semivariograma 17
3.6.1 Modelos transitivos o acotados 17
3.6.2 Modelos no acotados 21
3.7 Semivariogramas Anisotrpicos 25
3.8 Modelacin del variograma experimental 26
3.8.1 Mtodos de ajuste 26
3.8.2 Criterios de Seleccin de los Modelos 27
3.9 Validacin del modelo del semivariograma 28

4 KRIGING 31

4.1 El mejor estimador lineal insesgado 31


4.2 Planteamiento del problema general 31
4.3 Ecuaciones del Kriging ordinario 33
4.4 Ecuaciones del Kriging ordinario en forma matricial 35
4.5 Clasificacin de los diferentes tipos de Kriging 37
4.6 Ejemplos de Kriging lineal ms usuales 38
4.6.1 Kriging lineal con valores esperados conocidos: Kriging Simple 38
4.6.2 Kriging lineal con valor esperado estacionario pero desconocido: Kriging Ordinario 39
4.6.3 Kriging lineal en presencia de tendencia : Kriging Universal 40
4.7 Kriging por Bloques 41
4.8 Kriging en presencia de no estacionaridad 42
4.8.1 Modos habituales de manejar la no estacionaridad 43
4.8.2 Aspectos prcticos del Kriging Universal 43
4.8.3 El modelo de las Funciones Aleatorias Intrnsecas de orden k 46

ii
4.8.4 Kriging con mediana suavizada 47
4.8.5 Kriging Residual 49
4.9 Kriging Indicador 51
4.9.1 La Funcin Indicador 52
4.9.2 Variograma Indicador 54
4.9.3 Estimacin de la funcin de distribucin de probabilidad acumulativa 55
4.10 Kriging logartmico 57

5 GEOSTADISTICA MULTIVARIADA 59

5.1 Introduccin 59
5.2 Definiciones de los momentos cruzados de segundo orden 59
5.3 Propiedades de los momentos cruzados de segundo orden 60
5.4 Cokriging en el caso estacionario 60
5.5 Cokriging en el caso de funciones aleatorias intrnsecas 63
5.6 Cokriging en el caso no estacionario 64
5.7 Estimacin de los momentos cruzados de segundo orden 65
5.8 Modelacin de los momentos cruzados de segundo orden 66
5.9 Modelo de corregionalizacin lineal 68
5.10 Anlisis estructural multivariado 69
5.11 Validacin del modelo de semivariograma cruzado 71
5.12 Ejemplos de Aplicaciones del Cokriging 71
5.12.1 El caso de dos variables correlacionadas 71
5.12.2 Estimacin de combinaciones lineales de variables 73
5.12.3 El problema de variables pobremente muestreadas 75
5.13 Modelo de correlacin intrnseco 76
5.14 Anlisis de Componentes Principales basado en el Modelo Lineal de 79
Corregionalizacin
5.15 Dificultades y Aspectos Prcticos del Cokriging 80
5.16 Algunos mtodos alternativos al Cokriging 80
5.16.1 Kriging combinado con Regresin Lineal 80
5.16.2 Kriging con una Deriva Externa 81
5.17 Kriging Factorial 82
5.18 Esquema General del Anlisis de Corregionalizacin 85
5.19 Manejo de procesos espacio-temporales 86

6 SIMULACIN CONDICIONAL 88

6.1 Introduccin 88
6.2 Objetivos de la simulacin 89
6.3 Condicionamiento 90
6.4 Simulacin o estimacin ? 91
6.5 La teora de la simulacin condicional 92
6.6 Mtodos de simulacin de funciones aleatorias ms conocidos 94
6.7 Mtodos del tipo Gaussiano 95
6.8 Mtodo matricial 96
6.9 Mtodo espectral 98
6.10 Mtodo de bandas rotantes 101
6.11 Mtodos secuenciales 103
6.12 Mtodos del tipo Recocido Simulado 104

Anexos
A CONCEPTOS BSICOS DE ESTADSTICA 106

A.1 Estadstica univariada 106

iii
A.2 Estadstica multivariada 116
A.3 Regresin lineal y mnimos cuadrados 122

B GLOSARIO DE TRMINOS GEOESTADSTICOS 124

BIBLIOGRAFA BSICA 130

iv
Martn A. Daz Viera

CAPITULO 1: INTRODUCCIN

1.1 Origen, definicin y objeto de estudio


En los aos 60, Matheron acu el trmino de Geoestadstica. Reconocido como el padre de
esta disciplina, Matheron formaliz y generaliz matemticamente un conjunto de tcnicas
desarrolladas por D. G. Krige (1941) que explotaban la correlacin espacial para hacer
predicciones en la evaluacin de reservas de las minas de oro en Sudfrica. l defini a la
Geoestadstica como "la aplicacin del formalismo de las funciones aleatorias al
reconocimiento y estimacin de fenmenos naturales" (Matheron, 1962). Si bien ms adelante
nos detendremos en el concepto de una funcin aleatoria, baste decir de momento que puede
visualizarse como la asociacin de una variable aleatoria a cada punto del espacio.

La geoestadstica es una rama de la estadstica aplicada que se especializa en el anlisis y la


modelacin de la variabilidad espacial en ciencias de la tierra. Su objeto de estudio es el
anlisis y la prediccin de fenmenos en espacio y/o tiempo, tales como: ley de metales,
porosidades, concentraciones de un contaminante, etc. Aunque el prefijo geo- es
usualmente asociado con geologa, sin embargo la geoestadstica tiene sus orgenes en la
minera.

1.2 Etapas del anlisis geoestadstico


Actualmente, la geoestadstica es un conjunto de tcnicas usadas para analizar y predecir
valores de una propiedad distribuida en espacio o tiempo. En contraposicin con la
estadstica clsica o convencional, tales valores no se consideran independientes, por el
contrario se suponen de manera implcita que estn correlacionados unos con otros, es decir
que existe una dependencia espacial. Intuitivamente esto indica que mientras ms cercanos
estn situados dos puntos estn mas correlacionados y mientras ms separados hay menos
relacin entre estos.

El proceso de estimacin y modelacin de la funcin que describe la correlacin espacial es


conocido como anlisis estructural. Una vez realizado el anlisis estructural, la

1
Martn A. Daz Viera

prediccin de valores en puntos no muestrales se puede hacer aplicando la tcnica de


interpolacin "kriging" o simulndolos a travs de simulaciones condicionales.

En resumen, a grosso modo un anlisis geoestadstico est compuesto por tres etapas: (a) el
anlisis exploratorio de los datos, (b) el anlisis estructural y (c) las predicciones (kriging o
simulaciones)

La primera etapa, conocida como anlisis exploratorio de datos, est basada en tcnicas
estadsticas convencionales que nos permiten obtener todo un conjunto de informacin,
desconocida a priori sobre la muestra bajo estudio, que es imprescindible para realizar
correctamente cualquier anlisis estadstico y en particular un anlisis geoestadstico.

1.3 La Geoestadstica, su posicin y su relacin con respecto a otras ramas de la


estadstica.
Muchos de las ideas de las geoestadstica han sido inspiradas en su hermana menor: las series
cronolgicas o series de tiempo. Se puede advertir que los objetivos del Anlisis de Series de
Tiempo son similares a los de la Geoestadstica. Mientras que el Anlisis de Series
Temporales est orientado al estudio de procesos unidimensionales con datos muestrales
uniformemente distribuidos, la Geoestadstica se ocupa del estudio de fenmenos con datos
distribuidos de forma arbitraria en el espacio y tiempo, por lo que la metodologa de sta
ltima tiene un carcter mucho ms general.

En un marco ms amplio, la geoestadstica es una disciplina que pertenece a la estadstica


espacial.

1.4 Campos de aplicacin


La geoestadstica ha sido ampliamente aplicada en diversas ramas de las ciencias aplicadas
y en las ingenieras, entre otras tenemos: petrleo, minera, pesca, geofsica marina,
hidrogeologa, medio ambiente, estudios forestales, salud pblica, ingeniera civil,
procesamiento de imgenes, cartografa, finanzas, ciencias de materiales, meteorologa,
edafologa, etc.

2
Martn A. Daz Viera

CAPITULO 2: CONCEPTOS BSICOS

2.1 Variables Regionalizadas

La Geoestadstica es la aplicacin de la Teora de las Variables Regionalizadas a la


estimacin de procesos o fenmenos geolgicos en el espacio (Matheron 1962).

Se nombra como variable regionalizada z ( x ) a la variable distribuida en el espacio de

manera tal que presenta una estructura espacial de correlacin.

Una definicin ms rigurosa matemticamente equivalente consistira en decir que una


variable regionalizada es una variable aleatoria z definida en un punto del espacio x .
Donde en el caso ms general x es un punto en el espacio tridimensional, es decir

x = ( x1 , x2 , x3 ) .

2.2 Funcin Aleatoria

Si a cada punto x que pertenece a un dominio en el espacio le hacemos corresponder una

variable aleatoria z ( x ) , que en sentido general pueden ser dependientes, entonces el

conjunto de variables aleatorias espacialmente distribuidas { z ( x ) , x } ser una funcin

aleatoria Z ( x ) .

Al tomar una muestra de una funcin aleatoria Z ( x ) , a la que llamaremos realizacin, se

obtendr una funcin espacial discreta Z = {Z ( x i ) , x i , i = 1,..., n} la cual constituye una

variable regionalizada. Es decir una realizacin de una funcin aleatoria Z ( x ) es una

variable regionalizada Z .

En lo sucesivo no haremos distincin entre la funcin aleatoria y su realizacin.

3
Martn A. Daz Viera

2.3 Funcin de distribucin y momentos de una funcin aleatoria

Sea Z ( x ) una funcin aleatoria definida en \ 3 , entonces el vector aleatorio

{Z ( x ) , Z ( x ) ,..., Z ( x )}
1 2 n se caracteriza por su funcin de distribucin de probabilidad n-

variada:
FZ ( x1 ),Z ( x2 ),...,Z ( xn ) ( z1 , z2 ,..., zn ) = Pr Z ( x1 ) z1 , Z ( x 2 ) z2 ,..., Z ( x n ) zn (2.1)

El conjunto de todas las distribuciones para todo valor de n y para cualquier seleccin de
puntos en \ 3 constituye la ley espacial de probabilidad de la funcin aleatoria Z ( x ) . Esta

funcin en la prctica es imposible de determinar y slo se puede esperar inferir los


primeros momentos de la distribucin de Z ( x ) . En las aplicaciones en geoestadstica

lineal resulta suficiente estimar los momentos hasta de segundo orden, no obstante en la
mayora de los casos la informacin disponible no permite inferir momentos de orden
superior.

Momentos de la distribucin de Z ( x )

- El momento de primer orden de Z ( x ) es la esperanza matemtica definida como:

m ( x ) = E Z ( x ) (2.2)

- Los momentos de segundo orden considerados en geoestadstica son:

i) La varianza de Z ( x )

2 ( x ) = Var Z ( x ) = E {Z ( x ) m ( x )}
2
(2.3)

ii) La covarianza de dos variables aleatorias Z ( x i ) y Z ( x j ) definida como:

{
C ( x i , x j ) = E {Z ( x i ) m ( x i )} Z ( x j ) m ( x j )
} (2.4)

4
Martn A. Daz Viera

Esta funcin es tambin conocida como funcin de autocovarianza.

iii) El semivariograma ( xi , x j ) que se define como:

2 ( xi , x j ) = Var Z ( xi ) Z ( x j ) (2.5)

( xi , x j ) =
1
{
E Z ( xi ) Z ( x j ) }
2
(2.6)
2

Tambin conocido como funcin de semivarianza. Adems el variograma es 2 ( xi , x j )

pero con frecuencia se usa el trmino indistintamente para designar a ( xi , x j ) .

Se debe notar que tanto la varianza como el variograma son siempre positivos, mientras que
la covarianza puede tomar valores negativos.

2.4 Funciones aleatorias estacionarias

Se dice que una funcin aleatoria es estrictamente estacionaria si su funcin de


distribucin Ec.(2.1) es invariante a cualquier traslacin respecto a un vector h o lo que es

equivalente, la funcin de distribucin del vector aleatorio {Z ( x ) , Z ( x ) ,..., Z ( x )} es


1 2 n

idntica a la del vector {Z ( x1 + h ) , Z ( x 2 + h ) ,..., Z ( x n + h )} para cualquier h .

Puesto que, como se plante anteriormente, usualmente se trabaja slo con los momentos
hasta de segundo orden resulta prctico limitar la hiptesis de estacionaridad a estos
primeros momentos.

Se dice que una funcin aleatoria es estacionaria de segundo orden si se cumple que:

5
Martn A. Daz Viera

i) su valor esperado existe y no depende de x ,

E Z ( x ) = m; x (2.7)

ii) para cualquier par de variables aleatorias Z ( x ) y Z ( x + h ) , su covarianza existe y slo

depende del vector de separacin h ,

C ( h ) C ( x + h, x ) = E Z ( x + h ) Z ( x ) m 2 (2.8)

La estacionaridad de la varianza implica que la varianza existe, es finita y no depende de


x , es decir

2 = C ( 0 ) = Var Z ( x ) (2.9)

As mismo bajo esta hiptesis el semivariograma tambin es estacionario y se cumple que:


1
( h ) ( x + h, x ) = E {Z ( x + h ) Z ( x )}
2
(2.10)
2
Adems existe una relacin directa entre el semivariograma y la funcin de covarianza
( h) = C ( 0) C ( h) (2.11)

En este caso resulta suficiente usar una de las dos funciones para caracterizar la
dependencia espacial.

2.5 Funciones aleatorias intrnsecas

Existen funciones aleatorias Z ( x ) que representan a fenmenos fsicos que muestran una

capacidad casi ilimitada de variacin, por lo que para estas funciones no estn definidas la
varianza ni la covarianza. Sin embargo existen casos en que sus incrementos o diferencias
Z ( x + h ) Z ( x ) tienen una varianza finita. En otras palabras, esto quiere decir que las

diferencias son estacionarias de segundo orden.


Por lo tanto las funciones aleatorias intrnsecas son aquellas que cumplen las siguientes
condiciones:

i) El valor esperado de las diferencias es

6
Martn A. Daz Viera

E Z ( x + h ) Z ( x ) = 0 (2.12)

ii) La varianza de las diferencias es


Var Z ( x + h ) Z ( x ) = 2 ( h ) (2.13)

Estas condiciones se conocen como Hiptesis Intrnseca.

Es evidente que una funcin aleatoria estacionaria de segundo orden es siempre intrnseca.
Lo contrario no se cumple. A las funciones que cumplen con la hiptesis intrnseca se les
considera como dbilmente estacionarias.

2.6 Funciones aleatorias no estacionarias

Las funciones aleatorias no estacionarias son aquellas cuya esperanza matemtica depende
de x :

E Z ( x ) = m ( x ) (2.14)

A m ( x ) se le conoce como funcin de deriva o tendencia.

Si consideramos a la funcin aleatoria Z ( x ) como la suma de una componente

determinstica m ( x ) y de un residuo R ( x ) estacionario con media nula, es decir:

Z ( x) = m ( x) + R ( x) (2.15)

Entonces vemos que el semivariograma de Z ( x ) depende de x

1
( x + h, x ) = R ( h ) + { m ( x + h ) m ( x )}
2
(2.16)
2

7
Martn A. Daz Viera

En el caso en que la deriva sea lineal m ( x ) = m0 + m1 x el semivariograma no depende de

x
1
(h) = R (h) + ( m1 h )
2
(2.17)
2
pero crece con el cuadrado de h , lo cual puede servir de indicador para la deteccin de la
existencia de tendencia.

Existe un enfoque que considera a las funciones aleatorias no estacionarias como


intrnsecas de orden k. Esto quiere decir que si se toman las diferencias de un orden k
apropiado stas resultan ser estacionarias.

Fig. : Ejemplo de semivariograma en presencia de tendencia muestra un crecimiento h 2 en


la direccin de 45 con intervalo 4 km .

8
Martn A. Daz Viera

CAPITULO 3: ANLISIS ESTRUCTURAL

El anlisis estructural es uno de los tpicos mas importantes de la geoestadstica puesto


que se encarga de la caracterizacin de la estructura espacial de una propiedad o
fenmenoregionalizado. Es el proceso en el marco del cual se obtiene un modelo
geoestadstico para la funcin aleatoria que se estudia.

En pocas palabras podemos decir que el anlisis estructural consiste en estimar y


modelar una funcin que refleje la correlacin espacial de la variable regionalizada a
partir de la adopcin razonada de la hiptesis ms adecuada acerca de su variabilidad. Esto
quiere decir, que en dependencia de las caractersticas de estacionaridad del fenmeno se
modelar la funcin de covarianzas o la de semivarianzas.

Por su importancia y generalidad estudiaremos el proceso de estimacin y modelacin de la


funcin de semivarianzas o semivariograma.

3.1 El Semivariograma. Definicin.

El semivariograma, conocido tambien como variograma, es la herramienta central de


la geoestadstica. Dada una variable regionalizada Z ( x) que cumpla la Hiptesis

Intrnseca entonces existe la funcin semivarianza y se define como sigue:

( h ) = 12 Var Z ( x ) Z ( x + h ) = 12 E {Z ( x ) Z ( x + h )}
2
(3.1)

El semivariograma es una funcin que relaciona la semivarianza con el vector h


conocido como "lag", el cual denota la separacin en distancia y direccin de cualquier
par de valores Z ( x ) y Z ( x + h ) .

9
Martn A. Daz Viera

3.2 Estimadores del semivariograma.

La forma de estimacin mas comn del semivariograma viene dada por

N ( h)
 ( h ) = Z ( x + h ) Z ( x i )
2
1
2 N ( h) i (3.2)
i =1

donde N ( h ) es el nmero de pares Z ( x i ) y Z ( x i + h ) separados a una distancia h = h .

Debido a que  ( h ) es esencialmente una media muestral, tiene todas las desventajas

comnmente asociadas a este tipo de estimador como es la no robustez.

Sus caractersticas son las siguientes:

- Es un estimador no paramtrico.
- Es ptimo cuando se dispone de una malla regular de muestreo que sea representativa y
la distribucin sea normal. En estas condiciones el sesgo es el mnimo posible.

En la prctica a menudo el empleo de este estimador produce variogramas


experimentales errticos, lo cul se debe a desviaciones del caso ideal para la
aplicacin del mismo.

Estas desviaciones pueden ser enumeradas por su importancia en el orden siguiente:

- Desviaciones en la distribucin.

Z ( x ) y Z ( x + h ) no pueden ser representadas apropiadamente por una distribucin

binormal. Con frecuencia Z ( x ) es sesgada y con grandes colas.

- Heterocedasticidad.

10
Martn A. Daz Viera

Se dice que los datos son heterocedsticos, si el diagrama del valor medio m contra la
desviacin estndar , calculadas en vecindades mviles, muestra que la dispersin de
los valores (medidos por ) est relacionada con su magnitud (medida por m ). Por la
tanto, por ser el semivariograma una medida de la dispersin, su magnitud est ligada a
la magnitud de los valores de los datos. Cuando se da este tipo de fenmeno, se dice
que existe un efecto proporcional.

- Desviaciones en el muestreo.

Las observaciones {Z ( x i ) , i = 1,..., n} de la funcin aleatoria Z ( x ) no estn distribuidas

espacialmente en forma aleatoria. Consecuentemente se produce un sesgo en el muestreo


es decir en la eleccin de las localizaciones de las observaciones, tendientes a estar
agrupadas en reas de altos o bajos valores. Estas desviaciones pueden ser detectadas
mediante un grfico del nmero de muestras n contra el valor medio m para
vecindades mviles de un tamao determinado.

- Existencia de valores atpicos (outliers).

Normalmente las observaciones son correctas, pero a veces suelen aparecer


observaciones discordantes que pueden ser debidas a errores humanos y/o mal
funcionamiento de los instrumentos de medicin. Si es posible constatar que un valor
de estos es errneo, lo mejor es eliminarlo, aunque esto no siempre es factible. De ah
que la eliminacin de estas observaciones puedan causar una subestimacin del
potencial de un rea.

Estimadores alternativos del variograma.

- El estimador de Cressie y Hawkins

11
Martn A. Daz Viera

Este estimador constituye una alternativa robusta al estimador tradicional y se define


como:
4
( )
1
N h
1 1
( )
1
( h ) = ( 0.457 + 0.494 N ( h ) )
*
Z ( xi + h ) Z ( xi ) 2
(3.3)
2 N ( h ) i =1

Aunque el estimador de Cressie y Hawkins se considera ptimo en condiciones de


normalidad, no obstante, automticamente infravalora los datos contaminados,
mientras que en el estimador tradicional los trminos cuadrticos exageran la
contaminacin.

- Estimadores de ponderacin univariados.

En este grupo de estimadores alternativos se incluyen tanto los basados en la funcin de


distribucin acumulativa, como aquellos basados en la funcin de densidad de
probabilidad.

3.3 Consideraciones prcticas para el cmputo del semivariograma


muestral.

Para el cmputo del semivariograma es necesario tener en cuenta algunas reglas prcticas
que permiten elevar la eficiencia y la calidad de la estimacin, independientemente del
tipo de estimador que se utilice.

Estas reglas son las siguientes:

- En la estimacin del semivariograma los pares de las observaciones se agrupan


segn la distancia dentro de un intervalo h = h con una tolerancia h 2 y dentro de

una direccin con una tolerancia 2 . El semivariograma as estimado es


considerado suavizado o regularizado.

12
Martn A. Daz Viera

- El semivariograma muestral debe ser considerado solamente para pequeas distancias


por lo que generalmente, se estima para valores de h menores que la mitad de la

distancia mxima ( h < d max 2 ).

- La eleccin del nmero de intervalos es arbitraria. No obstante se considera que un


nmero mximo de 25 intervalos es suficiente para cualquier propsito, y un
mnimo de 10 debe ser usado para determinar con precisin el rango y la meseta del
semivariograma.

- El largo de los intervalos debe ser elegido de forma tal que el nmero de pares en cada
intervalo sea lo suficientemente grande para que el estimado del semivariograma
sea relativamente estable. Se considera que entre 30 y 50 pares satisfacen este
requerimiento.

- Los valores estimados para cada intervalo se deben graficar contra la distancia
promedio de todos los pares que se encuentran dentro de dicho intervalo.

3.4 Formas generales del semivariograma muestral.

En sentido amplio se considera por su forma que hay dos tipos principales de
semivariogramas. En el primer tipo, la semivarianza se incrementa con el
incremento del valor absoluto del intervalo |h| hasta alcanzar un valor mximo a partir
del cul se mantiene relativamente constante y oscila alrededor del mismo. Estos
semivariogramas son conocidos como de tipo transitivo. El valor del intervalo a partir del
cual el semivariograma no se incrementa es conocido como alcance o rango (radio de
correlacin) y marca el lmite de la dependencia espacial de la propiedad. La varianza
mxima es conocida como "sill" o meseta del semivariograma y tericamente debe
coincidir con la varianza a priori 2 de la muestra de la funcin aleatoria Z ( x ) .

13
Martn A. Daz Viera

Una variable con este tipo de semivariograma no slo cumple la hiptesis intrnseca, sino
tambin es estacionaria de segundo orden. Esto significa que su valor esperado es
constante
E Z ( x ) = m; x (3.4)

y la funcin de covarianza existe y est definida por


C ( h ) = Cov Z ( x + h ) , Z ( x )
(3.5)
E {Z ( x ) m}{Z ( x + h ) m}

y el semivariograma est relacionado con las funciones de covarianza y de


autocorrelacin como sigue:
( h) = C ( 0) C ( h) (3.6)

( h ) = C ( h ) C ( 0) = 1 ( h) C ( 0) (3.7)

donde 2 = C ( 0 ) es la varianza de la muestra, tambin conocida como varianza a priori,

de la funcin aleatoria Z ( x ) .

El segundo tipo de semivariograma aparenta un incremento sin lmites, es decir son no


acotados, por esto no presentan una varianza a priori finita.

Un aspecto del semivariograma que es importante sealar es que por definicin ( 0 ) = 0

pero en la prctica el semivariograma muestral * ( h ) cuando h tiende a cero no

necesariamente se anula.

Esto es conocido como efecto "nugget" o pepita, y el valor del semivariograma en cero
( 0 ) es conocido como la varianza "nugget" o microvarianza. En principio esto puede

ocurrir solamente si existen discontinuidades en la funcin aleatoria. En la prctica su


existencia de debe a la variacin espacial que no puede explicar el variograma debido a la
escala del muestreo. Para un material continuamente variable el efecto nugget se
produce a partir de la contribucin de los errores de medicin y la variacin a
distancias mucho menores que el intervalo de muestreo ms pequeo.

14
Martn A. Daz Viera

3.5 Condiciones que deben cumplir los modelos del semivariograma

En la seleccin de una funcin adecuada para ser ajustada a un semivariograma muestral,


se debe tener en cuenta en la mayora de las casos hasta tres elementos: un intercepto con
la ordenada, una seccin montonamente creciente y una meseta. Sin embargo, no servir
cualquier modelo que aparente ajustar a los valores empricos debido a la siguiente
razn.

Supongamos que Z ( x ) es una funcin aleatoria estacionaria de segundo orden de la cual

obtenemos la variable regionalizada {Z ( x i ) , i = 1,..., n} , donde su semivariograma y su

funcin de covarianzas son ( h ) y C ( h ) respectivamente.

Sea Y una combinacin lineal de Z ( x i ) tal que


n
Y = i Z ( xi ) (3.8)
i =1

donde i , i = 1,..., n , son pesos arbitrarios.

La magnitud Y es tambin una variable regionalizada con varianza:


n n
Var [Y ] = i j C ( x i , x j ) (3.9)
i =1 j =1

La varianza de Y puede ser positiva o cero, pero no negativa y la funcin de covarianza


en la parte derecha de la expresin anterior debe asegurar que esta condicin sea
satisfecha.
La matriz de covarianzas

15
Martn A. Daz Viera

C ( x1 , x1 ) C ( x1 , x 2 ) ... C ( x1 , x n )

C ( x 2 , x1 ) C ( x 2 , x 2 ) ... C ( x 2 , x n )
(3.10)
... ... ... ...

C ( x n , x1 ) C ( x n , x 2 ) ... C ( x n , x n )

debe ser definida positiva, es decir, el determinante y todos sus menores principales son
positivos o cero. Aqu las covarianzas estn definidas como

C ( x i , x j ) = Cov Z ( x i ) , Z ( x j ) ; i, j = 1,..., n.

La funcin de covarianzas C ( h ) si existe debe ser positiva semidefinida por lo que

sern permisibles funciones que cumplan este criterio.

Las propiedades que no tengan covarianzas a priori finitas no tendrn definida la


funcin de covarianzas. En el caso de que cumplan la hiptesis intrnseca, entonces
estar definido el semivariograma y se cumple que:

n n n n
Var [Y ] = C ( 0 ) i j i j ( x i , x j ) (3.11)
i =1 j =1 i =1 j =1

n
Si los pesos i suman 0, es decir
i =1
i = 0 entonces:

n n
Var [Y ] = i j ( x i , x j ) (3.12)
i =1 j =1

Esto implica que ( h ) debe ser condicionalmente positiva semidefinida, con la


n
condicin
i =1
i = 0 . Esto es equivalente a decir que ( h ) debe ser condicionalmente

negativa semidefinida.

Como consecuencia de esta propiedad, se puede demostrar que el semivariograma debe


tener un ritmo de crecimiento inferior a h 2 , es decir se debe cumplir que:

16
Martn A. Daz Viera

( h)
lim =0 (3.13)
h h 2

Cuando no se satisface esta condicin puede ser un indicador de que la funcin aleatoria no
sea estacionaria.

Por otro lado de la definicin de semivariograma se infiere que ste debe anularse en el
origen, es decir ( 0 ) = 0 .

Las funciones que cumplen las condiciones anteriores son conocidas como modelos
autorizados del semivariograma.

El hecho de probar si una funcin dada es aceptable o no, est relacionado con el
examen de su Transformada de Fourier. Christakos [1984] obtuvo las condiciones que
el espectro de la funcin debe reunir para ser un modelo autorizado.

Como una propiedad importante se debe destacar que cualquier combinacin lineal de
modelos autorizados es un modelo autorizado.

3.6 Modelos autorizados para el semivariograma

Segn la forma del semivariograma se pueden dividir en transitivos y no acotados.

3.6.1 Modelos transitivos o acotados

Este grupo de modelos se deriva a partir de la nocin de autocorrelacin entre los


valores promedios dentro de los bloques. La idea es que la funcin aleatoria, de la
cual la propiedad medida es una realizacin, depende del grado de solapamiento de
los dos bloques, es decir, una zona de transicin.

17
Martn A. Daz Viera

Modelo Lineal con Meseta.

En una dimensin los bloques son simplemente lneas. Supongamos que estos son de
longitud a y la distancia entre sus centros es h. Su solapamiento es entonces ah, el cual,
cuando se expresa como una proporcin de a es 1-(h/a), siendo h a.

La funcin de autocorrelacin es entonces:

(h) = 1 h a (3.14)

y el semivariograma se expresa como

S ( h a ) para 0 h a
(h) = (3.15)
S para h>a

Modelo Circular

En dos dimensiones, los bloques son discos de dimetro a. El rea de interseccin de


stos, separados a una distancia h de sus centros es:

a2 h h 2
A= cos 1 a h 2 ; para h a (3.16)
2 a 2

Expresado como una fraccin del rea del disco obtenemos la funcin de
autocorrelacin

2 1 h h
( )
2
( h) = cos 1 h (3.17)
a a a

y el semivariograma

18
Martn A. Daz Viera

2
( )
2
1 h 2h h
S
1 cos 1 para 0 h a
(h) =
a a a (3.18)

S para h>a

gradiente=4S/(a)

Este modelo no ha encontrado mucha aplicacin en las ciencias de la tierra.

Modelo Esfrico

Por analoga podemos derivar este modelo considerando el solapamiento de los


volmenes de dos esferas de dimetro a y h la distancia que separa sus centros. El
volumen de interseccin es:
2a 3 h3
V= a 2 h + ; para h a (3.19)
4 3 3

Dividiendo por el volumen de la esfera (a3/6) se obtiene la funcin de autocorrelacin


3
3h 1 h
( h) = 1 + (3.20)
2a 2 a
y el semivariograma
S h h 3
3 para 0 h a
(h) = 2 a a (3.21)

S para h>a

gradiente=3S/(2a)

Debe sealarse que el modelo esfrico es apropiado para el caso de tres dimensiones
aunque se puede aplicar para casos de una y dos dimensiones. Lo inverso no se cumple.

El modelo circular slo es apropiado para una y dos dimensiones. El lineal solamente
para el caso unidimensional. Esto se debe a que solamente en estos casos estos modelos
son funciones condicionalmente negativas semidefinidas.

19
Martn A. Daz Viera

Modelo Exponencial

Si el solapamiento de los bloques vara su tamao de forma aleatoria, entonces el


semivariograma resulta exponencial. En el caso isotrpico es:


h
(h) = S 1 e r para h0 (3.22)

gradiente = S/r

Se considera como rango efectivo a =3r.

Los procesos autorregresivos de primer orden y de Markov producen modelos


exponenciales.

Modelo Gaussiano

Est dado por la expresin:



2
h

(h) = S 1 e r para h 0 (3.23)




donde r es un parmetro no lineal que determina la escala espacial de la variacin,
como en el caso exponencial. El rango efectivo se considera a = 3r , que corresponde al
valor 0.95S del variograma.

Modelo de efecto agujero

El efecto agujero es indicativo de fenmenos con componentes peridicas. Las expresiones


ms comunes de modelos de semivariogramas son:

20
Martn A. Daz Viera

sin(h)
(h) = S 1 para h>0 (3.24)
h

Este puede ser usado para representar procesos regularmente continuos y que muestran
un comportamiento peridico, el cual es frecuentemente encontrado, donde existe una
sucesin de zonas ricas y pobres. Es un modelo negativo definido en tres dimensiones.

Otra alternativa es:


(h) = S (1 cos(h) ) para h0 (3.25)

Si el efecto agujero es observado muy acentuado en cierta direccin, por ejemplo la


vertical, cuando el fenmeno es una sucesin pseudoperidica de estratificacin
horizontal. Este modelo es negativo definido en una dimensin.

3.6.2 Modelos no acotados

Modelo Potencia

Existen casos en que la varianza aparenta incrementarse indefinidamente. As


tambin si se toma cada vez un menor intervalo de muestreo, siempre existe alguna
variacin que queda sin resolver. Un punto de partida para entender esta variacin es el
movimiento Browniano en una dimensin, en el cual:
Z ( x) Z ( x + h) = (3.26)
es una variable aleatoria gaussiana, espacialmente independiente.

Su semivariograma es:
1
(h) = h ; para 0 < < 2 (3.27)
2

21
Martn A. Daz Viera

Mandelbrot (1982) llam al resultado de tales procesos fractales.

Existe una relacin entre la dimensin fractal (Hausdorff-Besicovitch) y el parmetro


dada por la expresin

D = 2 ( 2 ) (3.28)

donde podemos ver los siguientes casos extremos

- para =2 es una parbola y D=1, no representa un proceso aleatorio, adems


(h) = kh 2 (3.29)

no es una funcin condicionalmente negativa definida.

- para =0 representa el caso de ruido puro

Con frecuencia notamos que muchos semivariogramas aparentan ser de varianza nugget
pura. Esto ocurre porque toda la varianza est dentro de un intervalo de muestreo mas
pequeo.

Modelo de efecto pepita puro

Formalmente se puede definir como sigue:


(h) = S (1 (h) ) (3.30)

Modelo logartmico (Modelo de Wijsian)

Se define como:
(h) = k log(h) (3.31)

22
Martn A. Daz Viera

Puede ser de utilidad cuando el semivariograma experimental se comporta linealmente si se


usa una escala logartmica para las distancias.

Combinacin de modelos

1.- La combinacin lineal de semivariogramas (funciones de autocovarianza) con


coeficientes positivos representa un semivariograma (funcin de autocovarianza). Si
consideramos la funcin aleatoria Z ( x ) como una combinacin lineal de n funciones

aleatorias independientes Yi ( x ) ,
n
Z ( x ) = iYi ( x ) (3.32)
i =1

Al sustituir en las definiciones de semivariograma y covarianza obtenemos:


n
( h ) = i2 i ( h ) (3.33)
i =1

n
C ( h ) = i2Ci ( h ) (3.34)
i =1

donde i ( h ) y Ci ( h ) son el semivariograma y la funcin de autocovarianza de la variable

Yi ( x ) .

2.- El producto de funciones de autocovarianza es tambin otra funcin de autocovarianza.


Consideremos a Z ( x ) como el producto de n funciones aleatorias independientes Yi ( x ) , es

decir
n
Z ( x ) = Yi ( x ) (3.35)
i =1

De la definicin de funcin de autocovarianza se puede deducir que


n
C ( h ) = Ci ( h ) (3.36)
i =1

23
Martn A. Daz Viera

y el semivariograma correspondiente ser

n n
( h ) = Ci ( 0 ) Ci ( h ) (3.37)
i =1 i =1

A partir de estas dos propiedades se pueden encontrar modelos mas complejos mediante la
combinacin de los modelos simples antes estudiados.

De hecho muchos de los modelos anteriores los encontramos usualmente como


combinaciones por ejemplo del tipo
(h) = 0 (h) + 1 (h) (3.38)

donde 0 (h) = S0 (1 (h) ) representa el efecto nugget puro, mientras que 1 ( h ) es

cualquier otro modelo de variograma que expresa la variacin espacial.

Con frecuencia se encuentra que la combinacin est formada por componentes


(semivariogramas) que tienen diferentes rangos, lo cual se conoce estructura anidada.
Los modelos con estructuras anidadas describen variaciones espaciales a diferentes
escalas y que se deben por lo tanto, a factores de naturaleza diferente.

Por ejemplo:
( h) = 0 ( h) + 1 (h) + 2 ( h) (3.39)
donde
0 (h) = S0 (1 (h) ) (3.40)
S h h 3
1 3 ; h a1
1 (h) = 2 a1 a1 (3.41)


S1 ; h > a1

24
Martn A. Daz Viera

S h h 3
2 3 ; h a2
2 (h) = 2 a2 a2 (3.42)


S 2 ; h > a2

3.7 Semivariogramas Anisotrpicos

Todos los modelos anteriormente presentados son isotrpicos, es decir, la variabilidad


espacial no depende de la direccin. En la prctica existen numerosas situaciones en que
la variacin es anisotrpica, por lo que en cada direccin hay semivariograma
diferente.

Si la anisotropa se puede tener en cuenta mediante una transformacin lineal simple


de las coordenadas, entonces se dice que la anisotropa es geomtrica o afn.

La transformacin se puede expresar mediante la siguiente frmula:

( ) = ( A2 cos 2 ( ) + B 2 sen 2 ( ) )
1
2
(3.43)

Esta funcin puede ser aplicada como un factor al argumento h de la funcin semivarianzas
en el caso de los modelos transitivos o al gradiente en los modelos no acotados.

En la prctica se estudian 4 direcciones, estimando los semivariogramas y


determinando los rangos para los mismos, y luego se construye el grfico direccional
de los rangos para decidir si hay anisotropa geomtrica presente o no.

En presencia de anisotropa geomtrica, el grfico direccional de los rangos forma una


elipse, en la cual el eje menor B es el rango de la direccin de mas rpida variacin y A,
el eje mayor, est en la direccin en que la variabilidad es mas lenta. La relacin =A/B es
una medida de anisotropa.

En caso de anisotropa si se desea disear una red ptima de muestreo se debe hacer en
forma rectangular haciendo coincidir los lados con las direcciones de los ejes

25
Martn A. Daz Viera

principales y las longitudes de los mismos deben estar en la proporcin , donde el lado
menor le correspondera a la direccin del eje B.

Mardia (1980) ha sugerido pruebas de significacin formales para la relacin de


anisotropa. Estos parecen no haber sido usados en la prctica geoestadstica.

3.8 Modelacin del variograma experimental

3.8.1 Mtodos de ajuste

Algunos geoestadsticos ajustan los modelos de forma visual, pero esta prctica no es
fiable y es preferible usar algn procedimiento estadstico para estos fines. Con
frecuencia es usada la aproximacin por Mnimos Cuadrados.

- Mnimos Cuadrados Ordinarios (MCO).

Asume que los residuos estn normalmente distribuidos y son independientes y que las
semivarianzas estimadas poseen igual varianza.

- Mnimos Cuadrados Generalizados (MCG).

Se evitan muchos de los problemas de los MCO, pero requiere de la inversin de grandes
matrices, lo que hace el procedimiento muy complicado.

- Mnimos Cuadrados Ponderados.

Se minimiza la siguiente expresin:


2
k (h j ) (h j , )
W ( , k ) = (3.44)
j =1 Var (h j )

donde

26
Martn A. Daz Viera

es el vector de los parmetros del modelo,


Var[(hj)] es la varianza del valor estimado del semivariograma en hj.

Desafortunadamente esta varianza es desconocida casi siempre. Con frecuencia se escoge


en su lugar el nmero de pares de observaciones m(hj) con que se estima la misma,
suponiendo que es inversamente proporcional a la varianza de los estimados.

Cressie (1985) ha demostrado tericamente que un mejor procedimiento sera


reemplazar Var[(hj)] por [(hj, )]2/m(hj) dando un peso considerablemente mayor a las
semivarianzas esperadas menores. La diferencia en los resultados de la aplicacin de
estos dos tipos de pesos es pequea y se ha confirmado que cuando se utiliza m(hj) se le
asigna pesos muy pequeos a los estimados de los intervalos hj menores.

Laslett ha sugerido un mejoramiento. Sus pesos estn dados por:


m(h j ) (h j )
3
(3.45)
(h j , )

y estos son actualizados en cada iteracin del proceso cuando (hj, ) es reestimada.
Tericamente esta forma de ponderacin debe dar mejor convergencia y en la prctica se
ha encontrado que as es.

3.8.2 Criterios de Seleccin de los Modelos

Un compromiso entre la bondad de ajuste y la complejidad del modelo puede


ofrecerlo el Criterio de Informacin de Akaike (AIC), que se define como
AIC = 2 ln( mx. verosimilitud ) + 2 ( nm. de parmetros) (3.46)
Y se puede estimar usando
2
( AIC ) + n + 2 + n ln ( R ) + 2 p
*
= n ln (3.47)
n

27
Martn A. Daz Viera

Debido a que la cantidad que se encuentra entre llaves en la expresin anterior Ec.(3.47) es
constante ( n ln ( 2 n ) + n + 2 = const ) independientemente del tipo de modelo, entonces

para fines prcticos se calcula:


A = n ln ( R ) + 2 p (3.48)
que es un estimador simplificado del Criterio de Informacin de Akaike. Donde n es el
nmero de valores estimados { * ( hi ) , i = 1,..., n} del variograma muestral, R es la suma
residual de los cuadrados de las diferencias entre los valores experimentales * ( hi ) y los
n
del modelo ajustado ( hi ) , es decir R = ( ( hi ) * ( hi ) ) , mientras que
2
p es el
i=1

nmero de parmetros del modelo de variograma ajustado ( h ) .

Se considera que el modelo que presenta el menor AIC es el mejor.

3.9 Validacin del modelo del semivariograma

Para validar el modelo obtenido de variograma se puede proceder de varias maneras. Un


mtodo que resulta atractivo por su sencillez y eficiencia es el leave one out que consiste
en sacar un elemento de la muestra y estimar el valor en ese punto usando Kriging con el
modelo de variograma obtenido. De forma anloga se acta para el resto de los elementos
de la muestra. Como resultado se obtiene un mapa de las diferencias
Z ( x i ) Z * ( x i ) , i = 1,..., n entre el valor real y el estimado.

De forma tal que si el modelo del semivariograma refleja adecuadamente la


estructura espacial implcita en el conjunto de datos, entonces los valores estimados deben
ser cercanos a los valores observados.

Esta "cercana" puede ser caracterizada segn los siguientes estadgrafos:

1 n
a)
n i =1
{ Z ( x i ) Z * ( x i )} cercano a 0.

28
Martn A. Daz Viera

1 n
{ Z ( x i ) Z * ( x i )}
2
b) pequeo.
n i =1

1 n Z ( x i ) Z ( x i )
* 2

c) cercano a 1.
n i =1 i
d) La correlacin muestral de Z ( x i ) , Z * ( x i ) sea cercana a 1.

e) La correlacin muestral de Z ( x i ) , {Z ( x ) Z * ( x )}
i i i es cercana a cero.

Siendo:
Z ( x i ) - los valores muestrales de la propiedad en xi,

Z * ( x i ) - los valores estimados de la propiedad en el punto xi,

i - es la desviacin estndar de la estimacin en el punto xi.

Idealmente todos los estadgrafos anteriores deben satisfacerse simultneamente, pero en la


prctica una mejora en uno de ellos puede degradar a otro. Por lo que es recomendable hacer un
anlisis integral de los estadgrafos de las diferencias.

Mediante el histograma de los errores normalizados se compila una lista con los puntos
que poseen grandes errores. Esto es til para la identificacin de valores atpicos
(outliers), datos sospechosos o anomalas de otra naturaleza.

La eliminacin de las localizaciones con elevados errores normalizados y el reclculo del


semivariograma y su modelacin puede producir mejoras significativas.

El procedimiento de leave one out es un caso particular del mtodo conocido como
Jacknifing, ya que de disponer de suficientes datos espacialmente distribuidos de forma
homognea de la funcin aleatoria Z ( x ) , stos se podran dividir en dos muestras: Z1 ( x )

y Z 2 ( x ) . La primera se usara para estimar el variograma, mientras que la segunda servira

para validarlo. Es decir, se estimaran como en el mtodo anterior los valores empleando

29
Martn A. Daz Viera

kriging con el modelo de variograma obtenido usando la primera muestra Z1 ( x ) en los

puntos correspondientes a las observaciones que pertenecen a la segunda muestra Z 2 ( x ) y

se evaluaran los estadgrafos de las diferencias Z 2 ( x i ) Z 2* ( x i ) de manera anloga.

30
Martn A. Daz Viera

CAPITULO 4: KRIGING.

4.1 El mejor estimador lineal insesgado

El kriging es un trmino que ha sido acuado para designar al "mejor estimador lineal
insesgado" de un punto y al mejor promedio lineal mvil ponderado de un bloque.

Este nombre apareci alrededor de 1960 para nombrar una tcnica creada en Francia por
Matheron a partir de los trabajos de D. G. Krige quin fue probablemente el primero
que hizo uso de la correlacin espacial y del mejor estimador lineal insesgado en el
campo de la evaluacin de yacimientos minerales.

El kriging es una tcnica de estimacin local que ofrece el mejor estimador lineal
insesgado de una caracterstica desconocida que se estudia. La limitacin a la clase de
estimadores lineales es bastante natural ya que esto significa que solamente se requiere
el conocimiento del momento de segundo orden de la funcin aleatoria (la covarianza
o el variograma) y que en general en la prctica es posible inferir a partir de una
realizacin de la misma.

4.2 Planteamiento del problema general

Sea Z ( x ) una funcin aleatoria, la cual est definida en un soporte puntual y es

estacionaria de segundo orden, con :

- un valor esperado,

E Z ( x ) = m; x (4.1)

donde m es una constante generalmente desconocida,

31
Martn A. Daz Viera

- una funcin de covarianza centrada

C ( h ) = E Z ( x + h ) Z ( x ) m 2 (4.2)

- un variograma

Var [ Z ( x + h) Z ( x) ] = 2 (h) (4.3)

donde al menos uno de estos dos momentos de segundo orden se supone conocido.

Cuando solamente existe el variograma, entonces la funcin aleatoria Z ( x ) se

considera intrnseca.

Los valores experimentales consisten en un conjunto de valores discretos


{Z ( x ) , i = 1,..., n} . Con frecuencia estos valores estn
i definidos en soportes puntuales o

casi puntuales, en otros casos son los valores medios ZVi ( x i ) definidos en los soportes

Vi centrados en los puntos xi , donde los n soportes pueden ser todos diferentes.

La estimacin del valor medio ZVi ( x i ) en el dominio de Vi se define como

ZVi ( x i ) = V1i Z ( x ) d x
Vi

Es bueno destacar que bajo la hiptesis de estacionaridad el valor esperado de cada uno de
estos datos es E Z ( x i ) = m, i .

El estimador lineal Z k* considerado es una combinacin lineal de n valores de datos tal


que:

32
Martn A. Daz Viera

n
Z * ( x k ) = i Z ( x i ) ,
i =1

donde Z k* = Z * ( x k ) .

Los n coeficientes i son calculados de manera tal que el estimador sea insesgado y que

la varianza de la estimacin sea mnima, entonces se dice que el estimador Z k* es


ptimo.

4.3 Ecuaciones del kriging ordinario

Como ya hemos planteado el estimador kriging se considera ptimo ya que es insesgado


y es el que minimiza la varianza de la estimacin. A partir de estos dos criterios
se derivan las ecuaciones del kriging.

- La condicin de insesgadez.

Para obtener un valor esperado del error igual a cero resulta suficiente imponer la
condicin:

n
E Z k* = E i Z ( x i ) = m; (4.4)
i =1

donde m es el valor esperado de la funcin aleatoria Z ( x ) .

Esto implica que

E Z ( x ) = E Z
i =1
i i
*
k (4.5)

33
Martn A. Daz Viera

entonces
n

m = m
i =1
i (4.6)

y finalmente

i =1
i =1 (4.7)

- La condicin de que la estimacin sea de mnima varianza

Para satisfacer esta condicin hay que minimizar la siguiente funcin:

n
F = e2 2 i 1 (4.8)
i =1
donde
e2 - es la varianza de la estimacin,
- un multiplicador de Lagrange.

Ntese que la funcin F a minimizar consta de la varianza de la estimacin e2 e incluye


la condicin que garantiza el no sesgo de la estimacin.

La varianza de la estimacin se expresa de la siguiente manera:

e2 = Var Z k Z k* = E ( Z k Z k* )
2
(4.9)

e2 = Var [ Z k ] 2Cov Z k , Z k* + Var Z k* (4.10)

Sustituyendo en esta ltima frmula la expresin del estimador Z k* tenemos:

34
Martn A. Daz Viera

n
n
e2 = Var [ Z k ] 2Cov Z k , i Z ( xi ) + Var i Z ( xi ) (4.11)
i =1 i =1
desarrollando obtenemos

n n n
e2 = Z2 2 i Z Z + i j Z Z
k k i i j
(4.12)
i =1 i =1 j =1

Si hallamos las derivadas parciales de F respecto a los coeficientes desconocidos i y


con respecto a obtenemos el siguiente sistema de ecuaciones:

F n


i
= 2 Z k Zi + 2
j =1
j Zi Z j 2 = 0, i = 1,..., n
(4.13)
F = 1 = 0
n

i =1
i

De una manera ms usual se escribe como sigue:

n
j Zi Z j = Z k Zi , i = 1,..., n
j =1
n (4.14)
=1

i =1
i

El sistema de ecuaciones as obtenido sirve para el clculo del Kriging Puntual. Y la


varianza del error de la estimacin se puede calcular de una manera ms simple si se
sustituye el valor de :
n
e2 = Z2 i Z Z +
k k i
(4.15)
i =1

4.4 Ecuaciones del Kriging ordinario en forma matricial

35
Martn A. Daz Viera

De forma anloga podemos representar el sistema de ecuaciones del Kriging en forma


matricial como sigue:

11 12 ... 1n 1 1 k1
... 2 n 1 2 k 2
21 22
... ... ... ... ... ... = ... (4.16)

n1 n 2 ... nn 1| n kn
1 1 ... 1 0 1

donde ij = Zi Z j

Ntese que bajo la hiptesis intrnseca las covarianzas pueden ser reemplazados por las
semivarianzas, usando la expresin:

ij = 2 ij (4.17)

donde
2 = C( 0) , es la varianza total o a priori de la muestra.

Entonces sustituyendo la expresin de la covarianza en funcin de la semivarianza


obtenemos el sistema del Kriging en funcin de las semivarianzas:

0 12 ... 1n 1 1 k1
... 2 n 1 2 k 2
21 0
... ... ... ... ... ... = ... (4.18)

n1 n 2 ... 0 1| n kn
1 1 ... 1 0 1

36
Martn A. Daz Viera

Y la varianza de la estimacin se calcula como sigue:

n
e2 = i ki + (4.19)
i =1

Estas ltimas expresiones resultan ser la formulacin del Kriging ms comn puesto que se
aplica en el caso cuando la variable regionalizada cumple la hiptesis intrnseca la cual es
una condicin menos exigente que la estacionaridad de segundo orden.

4.5 Clasificacin de los diferentes tipos de Kriging

I) Segn la forma del estimador


- lineales:
Simple
Ordinario
Universal
Residual

- no lineales:
Disyuntivo
Indicador
Probabilstico

II) Segn el soporte de la medicin de los datos


- puntual
- en bloques

III) Kriging paramtrico y no paramtrico

- paramtrico:

37
Martn A. Daz Viera

Multigaussiano
Disyuntivo
Lognormal

- no paramtrico:
Simple
Ordinario
Universal
Residual
Indicador
Probabilstico

4.6 Ejemplos de Kriging lineal ms usuales

Todos los estimadores "kriging" pueden ser interpretados como proyecciones de un


valor desconocido Z ( x ) en el conjunto de los posibles estimadores. Mientras mas amplio

sea el conjunto en el cual es hecha la proyeccin mas cercano estar el estimador


kriging correspondiente del valor desconocido y se necesitarn ms requisitos.

4.6.1 Kriging lineal con valores esperados conocidos: Kriging Simple.

Sistema de ecuaciones:
n
j ij = i 0 , i = 1,..., n
' '

j =1
n
(4.20)
= m ( x ) m ( x )
0 0
i =1
i i

Estimador:
n
Z 0* = 0 + i Z ( x i ) (4.21)
i =1

Varianza de la estimacin:

38
Martn A. Daz Viera

n
K2 = 00' i i' 0
S
(4.22)
i =1

donde
m( x i ) = E Z ( x i ) es el valor esperado en el punto xi,

ij' = ij m( xi )m( x j ) - covarianza centrada.

Requisitos:

- Conocer n + 1 valores esperados m( x i ) = E Z ( x i ) , i = 0,..., n de la funcin aleatoria

Z ( x) .

- Conocer la funcin de covarianzas ij de la funcin aleatoria Z ( x ) .

4.6.2 Kriging lineal con valor esperado estacionario pero desconocido: Kriging
Ordinario

Sistema de ecuaciones:

n
j ij = 0i , i = 1,..., n
j =1
n (4.23)
=1

i =1
i

Estimador:

n
Z 0* = i Z ( xi ) (4.24)
i =1

Varianza de la estimacin:

39
Martn A. Daz Viera

n
K2 = 00 i i 0 +
O
(4.25)
i =1

Requisitos:

- Se requiere que el valor esperado m( x i ) = E Z ( x i ) = m, i = 1,..., n de la funcin

aleatoria Z ( x ) sea constante

- Conocer la funcin de covarianzas ij o el semivariograma ij de la funcin aleatoria

Z ( x) .

4.6.3 Kriging lineal en presencia de tendencia : Kriging Universal

Sistema de ecuaciones:

n L

j ij ll ( x i ) = 0i , i = 1,..., n

j =1 l =1
n (4.26)
( x ) = ( x ), l = 1,..., L

i =1
i l i l 0

Estimador:
n
Z 0* = i Z ( x i ) (4.27)
i =1

Varianza de la estimacin:

n L
K2 = 00 i i 0 + ll ( x 0 )
U
(4.28)
i =1 l =1

Requisitos :

40
Martn A. Daz Viera

- Conocer la forma de la tendencia m ( x ) = E Z ( x ) de la funcin aleatoria Z ( x )

expresada mediante funciones conocidas l ( x ) , usualmente polinomios.

- Conocer la funcin de covarianzas ij o el semivariograma ij de la funcin aleatoria

Z ( x ) sin tendencia, es decir {Z ( x ) m ( x )} .

4.7 Kriging por Bloques

Hemos visto hasta el momento estimaciones en un punto, en el caso cuando se desea


conocer el valor promedio sobre una regin o bloque, se formulan las ecuaciones del
Kriging de manera anloga al caso puntual.

En el kriging por bloques en lugar de estimar el valor en un punto x k se considera una

regin Vk de rea Ak con centro en el punto x k . El estimador tiene la siguiente forma:

n
ZV*k = i Z ( x i ) (4.29)
i =1

En las ecuaciones del Kriging puntual el vector del miembro derecho las semivarianzas ij

son reemplazadas por las semivarianzas promedios con respecto al bloque Vk que se

expresan como:

1
V ,i =
k
Ak ( x x )d x
VK
i (4.30)

Entonces las ecuaciones del Kriging por bloques sern:

41
Martn A. Daz Viera

0 12 ... 1n 1 1 Vk ,1
... 2 n 1 2 Vk ,2
21 0
... ... ... ... ... ... = ... (4.31)

n1 n 2 ... 0 1| n Vk ,n
1 1 ... 1 0 1

Y la varianza de la estimacin se expresa como

n
V2 = i V ,i + V ,V
k k k k
(4.32)
i =1

donde

1
Ak2 VK VK
V V =
K K
( x y )d xd y (4.33)

La estimacin por bloques resulta ms suave que la estimacin puntual.

4.8 Kriging en presencia de no estacionaridad

El mejor predictor sin suponer linealidad es E [ Z k / Z1 ,..., Z n ] . Para calcularlo es necesario

conocer las distribuciones conjuntas de (n+1) dimensiones lo cual es imposible en la


prctica. Cuando la funcin aleatoria Z ( x ) es un proceso Gaussiano el mejor predictor es

el estimador lineal. En lo adelante se impondr que fue hecha una transformacin


adecuada que convierte el problema en datos gaussianos ( con posibles outliers
aditivos ), por supuesto, la prediccin se necesita en la escala original y al invertir las
transformaciones se deben hacer correcciones para el sesgo y la varianza. Cuando este
tipo de transformacin no es obvia han sido propuesto un nmero de enfoques como son:

- disyuntivo (Matheron 1976)


- multigaussiano (Verly 1983)

42
Martn A. Daz Viera

- indicador (Journel 1983)


- probabilstico (Suliman 1984)

El objetivo fundamental de este captulo es estudiar como aplicar el kriging en


presencia de no estacionaridad (tendencia).

4.8.1 Modos habituales de manejar la no estacionaridad

Supongamos que exista no estacionaridad en la media

E Z ( x ) = m ( x ) , donde m ( x ) - es una funcin espacial y se conoce como tendencia

o deriva.

Han sido propuestas dos vas del kriging en presencia de deriva no constante :

1) Se supone que m ( x ) puede ser representado como un polinomio de orden finito k .

2) Se postula que una cierta diferencia de orden finito k de la funcin aleatoria Z ( x ) es

dbilmente estacionaria (o intrnseca de orden k ).

El primer mtodo es conocido como Kriging Universal (Matheron 1969), mientras que
el segundo es el de las Funciones Aleatorias Intrnsecas de orden k (Matheron 1973).

4.8.2 Aspectos Prcticos del Kriging Universal

En este mtodo deben ser conocidos a priori el orden k del polinomio que mejor describe o
explica la tendencia y la funcin de semivarianzas o variograma de la funcin aleatoria

Z ( x ) sin tendencia.

Los supuestos anteriores nos conducen en la prctica a dos problemas :

43
Martn A. Daz Viera

a) el orden k del polinomio nunca es conocido, hay que adivinarlo.


b) El variograma tampoco es conocido y hay que estimarlo a partir de los

residuales (datos deriva), es decir R ( x ) = Z ( x ) m ( x ) .

Matheron seal (1971) que tales estimadores son sesgados y que a menos que el
variograma de los residuos sea conocido, digamos que a partir de su estimacin en una
direccin donde no se perciba la deriva, el kriging universal tiene serias
dificultades operacionales.

Como ya se ha visto el kriging universal puede ser expresado de manera muy simple. El
problema real es que cuando existe una sola realizacin de la funcin aleatoria no
estacionaria Z ( x ) resulta imposible estimar el variograma. Lo que uno puede hacer

es intentar eliminar la deriva m(x) y trabajar con los residuos R ( x ) = Z ( x ) m ( x ) los

cuales son estacionarios o al menos intrnsecos. Esto significa que la deriva tiene que ser
estimada a partir de los valores muestrales. Aqu comienzan las dificultades.

Debido a que este estimador tiene que ser no sesgado y de varianza mnima uno obtiene
un conjunto de ecuaciones para calcular los coeficientes de la deriva expresada como un
polinomio. Pero para reducir las ecuaciones que dan este estimador ptimo es necesario
conocer el variograma de la funcin aleatoria, lo cual es precisamente el ltimo
propsito del estudio. Sin embargo, un estimador no sesgado simple es valido y puede
ser derivado a partir de los mtodos de mnimos cuadrados del anlisis de superficie de
tendencia.

Nosotros somos ahora capaces de calcular un variograma experimental de los


residuos estimados R* ( h ) pero Matheron (1969) ha mostrado que tal variograma difiere

del variograma de los residuales verdaderos R ( h ) y que el sesgo es una funcin de

la forma del estimador de m ( x ) .

44
Martn A. Daz Viera

Se puede ver que en la estimacin del variograma es donde est la clave del problema. No
hay solucin directa conocida, uno puede solo hacer un conjunto de suposiciones y
tratar de verificarlos mediante el mtodo de prueba y error, por lo que entonces el
Kriging Universal se transforma en un procedimiento heurstico.

El proceso entero puede ser resumido como sigue :

Se necesita conocer el variograma ( h ) de Z ( x ) , pero como ste no puede ser

directamente estimado uno trata de estimar el variograma de los residuos R ( h ) .

Para esto se requiere seleccionar un tamao (un radio rv ) de la vecindad y dentro de

sta se supone un tipo de deriva m ( x ) , en general se toma un polinomio en x de

cierto orden k . Es decir, m* ( x ) = pk ( x ) , donde pk ( x ) es un polinomio de orden k .

Los coeficientes del polinomio de la deriva son estimados haciendo una suposicin
del tipo del variograma R ( h ) .

Con los coeficiente de la deriva podemos obtener los residuos R ( x i ) en los puntos

muestrales xi .

Entonces se calcula el variograma experimental de los residuos R* ( h ) .

El variograma terico esperado de los residuos es calculado R ( h ) .

El variograma terico supuesto al inicio R ( h ) y el experimental resultante de los

residuos R* ( h ) son comparados en algn sentido de su bondad de ajuste segn la

norma R* ( h ) R ( h ) que se elija .

Si el ajuste es razonable (no existen pruebas an para la bondad de ajuste) la vecindad


tomada, el tipo de deriva y el variograma supuestos son correctos. En caso contrario, uno
de los parmetros del procedimiento es cambiado y el proceso comienza otra vez. El

45
Martn A. Daz Viera

algoritmo es simple, pero desde el punto de vista prctico puede consumir una gran
cantidad de tiempo y no ofrece ninguna garanta de que exista convergencia.

Otro criterio que permitira discriminar en qu medida son correctos o no los supuestos del
procedimiento podra ser el empleo del mtodo de validacin cruzada (ver seccin 3.del
modelo (combinacin de variograma y deriva) que se obtiene en cada paso. En este sentido
una eleccin razonable sera tomar el modelo que arroje el mejor resultado en trminos de
los estadgrafos (valor medio y desviacin estndar) de los errores Z ( xi ) Z * ( xi )

producto de la validacin cruzada de los valores estimados Z * ( x i ) con los valores reales

Z ( x i ) de la muestra.

4.8.3 El modelo de las Funciones Aleatorias Intrnsecas de orden k

El segundo mtodo de kriging en presencia de tendencia es el de las Funciones


Aleatorias Intrnsecas de orden k , el cual posee como supuesto un modelo ms general
que el primero, pero en la prctica se reduce a adivinar el orden k y estimar una
funcin de covarianzas generalizada a partir de las diferencias de orden k .

Su utilidad ha estado limitada debido a :

a) no ha sido posible de forma general estimar la covarianza generalizada de


forma no paramtrica.

b) no es fcil interpretar los parmetros de la covarianza generalizada.

c) el orden k de las diferencias tiene que ser adivinado (se toma usualmente 2).

d) los efectos de frontera conducen a una reduccin drstica de aquellos puntos que
pueden ser estimados por este mtodo.

46
Martn A. Daz Viera

4.8.4 Kriging con mediana suavizada

Parte de la siguiente premisa

Valores observados = variacin en gran escala + variacin en pequea escala


(deriva) (error)

El enfoque de trabajo propuesto es dejar que la posicin espacial de los datos determine la
escala de variacin (la deriva es a gran escala). Esto concuerda con el anlisis
exploratorio de datos, en que las decisiones sobre el modelo se basan ms en lo que se
ve que en lo que pudiera haberse visto.

Se puede ajustar con exactitud una superficie a travs de los puntos observados, pero
hay poco poder predictivo en este enfoque. Se quiere extraer la deriva aparente y tratar de
modelar el resto mediante estacionaridad dbil.

El enfoque spline es similar, donde se permite que el tamao de la rejilla determine la


variabilidad a gran escala, conjuntamente con las condiciones adicionales acerca de la
diferenciabilidad y la suavidad de la funcin.

Para el tipo de aplicaciones en mente, sin embargo, es la variabilidad local la que se


desea modelar, interpretar y en consecuencia explotar con el kriging.

Se toma un enfoque analtico :

datos = ajuste + residuo

Los residuos son tomados como datos originales y se realiza el mismo proceso :

residuos = nuevo ajuste + nuevo residuo

47
Martn A. Daz Viera

y as sucesivamente.

Supongamos que la localizacin de los datos es un subconjunto de puntos de una malla


finita rectangular L, la cual no tiene que estar obligatoriamente completa. Cuando los datos
estn irregularmente distribuidos, cada dato se le asigna el nodo ms cercano de una
malla imaginaria superpuesta.

Cressie (1984) sugiri que el ajuste ij en la localizacin (i,j) sea obtenido mediante la
mediana de los valores observados:

ij = a + ri + cj

Rij = Zij ij

donde :
ri - efecto fila, cj - efecto columna, Rij - residuos.

med i (Rij ) = med j (Rij ) = 0, med i (ri ) = med j (cj ) = 0.

En la prctica se obtuvo buenos resultados aplicando esta metodologa seguida de una


estimacin por kriging ordinario. Esto se debi a que la variacin a gran escala est
basada en la mediana la cual es resistente a los outliers, y por otro lado debido a que los
residuos tienen media 0, esto hace que el variograma sea menos sesgado. El resultado
final es un estimador kriging robusto y resistente en presencia de no estacionaridad.

En resumen, el kriging con Mediana se ejecuta de la siguiente forma :

Zij = ij + Rij
donde:
ij - es la deriva estimada por la interpolacin mediante Mediana suavizada.
Rij - es una variable regionalizada (error de la estimacin).

48
Martn A. Daz Viera

4.8.5 Kriging Residual

La hiptesis principal del kriging residual propuesto por Gambolati y Volpi (1978 y 1979)
consiste en considerar conocido el orden de la deriva o tendencia m(x), la cual se estima
usando mnimos cuadrados ordinarios m*(x), y a partir de sta se obtienen los residuos R(x)
a los que se le aplica el kriging ordinario.

- Kriging residual directo


El algoritmo se puede resumir en los siguientes pasos:
1. Suponer conocido el orden k de la deriva en base a razonamientos fsicos.
2. Ajustar mediante mnimos cuadrados ordinarios la deriva mk* ( x ) .

3. Calcular los residuos R ( x ) = Z ( x ) mk* ( x ) .

4. Estimar y modelar el semivariograma de los residuos R ( h ) .

5. Aplicar kriging ordinario a los residuos R ( x ) usando el semivariograma R ( h ) .

6. Se obtiene la estimacin en un punto no observado como Z * ( x ) = mk* ( x ) + R* ( x ) .

El proceso del kriging residual es internamente inconsistente ya que el mtodo de los


mnimos cuadrados ordinarios supone que los residuos sean espacialmente independientes,
mientras que la existencia del semivariograma lo contradice.

- Kriging residual iterativo


El algoritmo es similar al kriging residual directo y fue propuesto por Neuman y Jacobson
(1984). Su principal diferencia radica en que en su primera parte hace una bsqueda
sistemtica del modelo de tendencia que produzca residuos estacionarios, es decir, los
puntos 1 al 4 se ejecutan cclicamente incrementando el orden del modelo de tendencia
hasta que el variograma de los residuos sea estacionario. Mientras que en su segunda parte
se aplica mnimos cuadrados generalizados usando la matriz de covarianzas de los residuos

( C ) , en lugar de mnimos cuadrados ordinarios, para la reestimacin del modelo de


R

49
Martn A. Daz Viera

tendencia mk* ( x ) con el objetivo de eliminar la inconsistencia de la estimacin del mtodo

directo.

Esquema general del algoritmo:

1. Suponer que el orden de la deriva es k = 1 .


2. Ajustar mediante mnimos cuadrados ordinarios la deriva mk* ( x ) .

3. Calcular los residuos R ( x ) = Z ( x ) mk* ( x ) .

4. Estimar el semivariograma de los residuos R* ( h ) .

5. Comprobar que el variograma estimado sea estacionario. Si lo es ir al paso 6, en


caso contrario incrementar el orden del modelo de tendencia k = k + 1 e ir al paso 2.
6. Calcular la matriz de covarianzas ( CR )ij = R2 R* ( x i x j )

7. Ajustar mediante mnimos cuadrados generalizados la deriva mk* ( x ) .

8. Calcular los residuos R ( x ) = Z ( x ) mk* ( x ) .

9. Estimar el semivariograma de los residuos R* ( h ) .

10. Comprobar que el variograma estimado R* ( h ) y el modelo de deriva mk* ( x )

alcanzan valores estables. Si es as pasar al paso 11, en caso contrario ir al paso 6.


11. Modelar el semivariograma de los residuos R ( h ) .

12. Aplicar kriging ordinario a los residuos R ( x ) usando el semivariograma R ( h ) .

13. Se obtiene la estimacin en un punto no observado como Z * ( x ) = mk* ( x ) + R* ( x ) .

Existen otras modificaciones, como la de Samper (1986), propuestas al mtodo del kriging
residual que consisten esencialmente en estimar la matriz de covarianzas no a partir del
variograma muestral, sino directamente a partir de los residuos. Para efectos prcticos, estas
modificaciones pueden convertir al procedimiento en impracticable. Incluso, en la mayora
de los casos resulta suficiente la estimacin con mnimos cuadrados ordinarios, obviando
los pasos 6-10 del algoritmo anterior.

50
Martn A. Daz Viera

4.9 Kriging Indicador

La teora y el desarrollo de estimadores no paramtricos de distribuciones espaciales,


es similar a la teora y el desarrollo de estimadores no paramtricos del valor medio local
(Journel, 1983).

La mayor diferencia entre estos dos tipos de estimadores est en el estimado de las
variables y en los tipos de datos usados. Una variable aleatoria puede ser definida en
cada y cualquier locacin xi dentro de la regin de inters. El conjunto de estas variables
aleatorias determina una funcin aleatoria. Como un conjunto de variables aleatorias,
la funcin aleatoria expresa el comportamiento local y regional de la variable de
inters. En un punto dado en el espacio, la funcin aleatoria Z ( x ) es una variable

aleatoria, pero sobre una regin, la funcin aleatoria incorpora la estructura de


correlacin espacial completa de cualquier subconjunto de variables aleatorias. Entonces
la funcin aleatoria describe los aspectos aleatorios y estructurados de la variable.

Para cualquier tipo de estimacin, algn conocimiento de la ley espacial de la funcin


aleatoria es necesario antes que un estimador ptimo pueda ser definido.

Debido a que los datos son de slo una realizacin y porque cualquier propiedad de la
funcin aleatoria no puede ser inferida a partir de una realizacin simple sin un modelo,
un supuesto de estacionaridad debe ser incluido en el modelo para permitir la
inferencia de las propiedades de la funcin aleatoria. El tipo de estacionaridad invocada
para la estimacin no paramtrica de distribuciones espaciales es la estacionaridad de la
distribucin bivariada de Z ( x ) y Z ( x + h ) para varios valores del vector de distancia

h , que es:

FZ ( x1 ),Z ( x2 ) ( z1 , z2 ) = Fx , x + h ( z1 , z2 ) = Fh ( z1 , z2 ) (4.34)

51
Martn A. Daz Viera

distribucin bivariada de dos variables aleatorias Z ( x ) y Z ( x + h) depende de la

magnitud del vector h que separa a estas variables aleatorias y no depende de las
localizaciones particulares: x1 = x y x 2 = x + h .

Esto implica estacionaridad de la distribucin univariada, es decir, que las variables


aleatorias que representan la variable de inters de cada localizacin particular Z ( x1 ) ,

Z ( x 2 ) , ... , Z ( x n ) estn idnticamente distribuidas, con distribucin FZ ( z ) .

Con la estacionaridad de la distribucin bivariada establecida, los estimadores no


paramtricos de la distribucin de probabilidad pueden ser desarrollados.

4.9.1 La Funcin Indicador

La distribucin espacial de una variable aleatoria en un soporte puntual dentro de una


regin A puede ser definida matemticamente (Journel 1983) como:
1
A xA
( A, zc ) = i ( x, zc ) d x (4.35)

donde
( A, zc ) - es la distribucin espacial de valores puntuales dentro de la regin A para
un valor umbral zc , es decir la proporcin de valores dentro de la regin A menores que

zc , es un indicador definido como:

1, si Z ( x) zc

i ( x, zc ) = (4.36)
0, si Z ( x) > zc

donde
Z ( x ) - es el valor observado en el punto x ,

zc - es el valor umbral o de corte.

52
Martn A. Daz Viera

La distribucin espacial ( A, zc ) puede ser considerada como una realizacin de una

variable aleatoria ( A, zc ) , la cual a su vez representa la transformacin integral de la

variable aleatoria Z ( x ) siguiente:

1
( A, zc ) = I ( x, zc ) d x
A xA
(4.37)

donde
I ( x, zc ) - es la funcin indicador aleatoria definida como:

1, si Z ( x) zc

I ( x, zc ) = (4.38)
0, si Z ( x ) > zc

El valor esperado de la variable aleatoria ( A, zc ) puede ser determinado como:

1 1
E [ ( A, zc ) ] = E I ( x, zc ) d x = E [ I ( x, zc ) ] d x (4.39)
A xA A xA

1
E [ ( A, zc ) ] =
A xA
{(1) Pr [ Z ( x) zc ] + (0) Pr [ Z ( x) > zc ]}d x (4.40)

E [ ( A, zc ) ] = Pr [ Z ( x) zc ] = FZ ( zc ) (4.41)

donde
FZ ( zc ) - funcin de distribucin acumulativa univariada de Z estacionaria.

La funcin de distribucin espacial ( A, zc ) puede ser vista como una realizacin de una

funcin aleatoria ( A, zc ) , cuyo valor esperado es igual al valor de la funcin de

distribucin acumulativa univariada estacionaria FZ ( zc ) . La distribucin de la variable

indicador en los puntos muestrales i ( x, zc ) , ser la misma con slo dos valores 0 y 1. Si

el valor observado es menor que el valor de corte, el valor indicador ser 1, en caso
contrario, este ser 0. Claramente, la variable indicador i ( x, zc ) , cambiar con el

53
Martn A. Daz Viera

incremento del valor de corte. Ms muestras tienen valores menores que el valor de corte,
por lo tanto mas variables indicador tienen el valor 1.

La distribucin de probabilidad de variables indicador es una distribucin de Bernoulli y


sus momentos estn dados por:
a) valor esperado
E [ I ( x, zc ) ] = (1) Pr [ Z ( x ) zc ] + (0) Pr [ Z ( x) > zc ] = FZ ( zc ) (4.42)
b) funcin de covarianzas
CI ( h, zc ) = E [ I ( x, zc ), I ( x + h, zc ) ] { E [ I ( x, zc ) ]} =
2

(4.43)
= Fx , x + h ( zc , zc ) { FZ ( zc )}
2

c) varianza
Var [ I ( x, zc )] = C ( 0, zc ) = FZ ( zc ) [1 FZ ( zc )] (4.44)
d) y la funcin de dsemivarianzas

I ( h, zc ) = CI ( 0, zc ) CI ( h, zc ) = FZ ( zc ) Fx , x + h ( zc , zc ) (4.45)

4.9.2 Variograma Indicador

Si la funcin aleatoria Z ( x) es acotada, es decir, si existe un valor Z max tal que

Z ( x) Z max x , entonces se cumple que:

i ( x, zc ) = 1, Z Z max
(4.46)
I (h, zc ) = 0, Z Z max

La funcin aleatoria indicador siempre posee varianza finita y acotada en el intervalo


0 CI ( h, zc ) 0.25 (4.47)
Por lo tanto el variograma indicador I (h, zc ) siempre alcanza una meseta S ( zc ) que
coincide con CI (0, zc ) y de acuerdo con Ec. (4.43) segn (Myers, 1984) se deduce que
a) S ( zc ) es una funcin creciente de zc en el intervalo ( , zM ) , donde
FZ ( zM ) = 0.5 .
b) S ( zc ) es una funcin decreciente en el intervalo ( zM , ) ,

54
Martn A. Daz Viera

c) Una vez conocida la meseta del variograma S ( zc ) se puede calcular FZ ( zc ) usando


la expresin:
FZ ( zc ) = 0.5 + signo ( zc zM ) 0.25 S ( zc ) (4.48)

Este puede ser interpretado como una probabilidad bivariada:

I (h, zc ) = 0.5{Pr [ Z ( x) > zc , Z ( x + h) zc ]} + 0.5{Pr [ Z ( x + h) > zc , Z ( x) zc ]} (4.49)

Los variogramas de indicador I (h, zc ) son estimados para cada valor de corte dado zc , de

la misma manera que se procede usualmente en la estimacin de los variogramas de


funciones aleatorias intrnsecas. Hay que hacer notar que stos son mas robustos, es decir,
son menos sensibles a la presencia de valores extremos (outliers)

4.9.3 Estimacin de la funcin de distribucin de probabilidad acumulativa

El propsito de transformar los datos originales mediante las variables indicador es para
usar las variables indicador para estimar la funcin de probabilidad acumulativa
FZ ( zc ) . Las funciones de probabilidad estimadas * ( A, zc ) se obtienen mediante
combinaciones lineales de la funcin indicador. Esta funcin es la proporcin exacta de
valores, dentro de cualquier rea A, de una variable Z ( x ) , menores que el valor de corte

zc . Si la medida de probabilidad es usada, el valor de * ( A, zc ) puede ser tomado

como la probabilidad de que un parmetro estimado sea menor que el valor de corte.

La forma del estimador de ( A, zc ) est dado por:


n
* ( A, zc ) = ( zc )i ( x , zc ) (4.50)
=1
con la condicin para el no sesgo,
n



( z ) = 1
=1
c (4.51)

donde ( zc ) son los pesos.

55
Martn A. Daz Viera

El kriging simple puede ser aplicado para hallar los pesos usando las variables
indicador i ( x, zc ) y el variograma indicador.

La varianza de la estimacin del Kriging indicador es:


n
KI
2
( A, zc ) = ( zc ) I ( x , A, zc ) I ( A, A, zc ) (4.52)
=1
donde
1
A A
I ( x , A, zc ) = I ( x x, zc )d x (4.53)

y
1
A2 A A
I ( A, A, zc ) =
I ( x y, zc )d xd y (4.54)

es el valor medio de I ( x j , A, zc ) cuando x recorre todo el dominio A .

Para cada regin, * ( A, zc ) es una funcin del valor de corte zc . Si es aplicada una serie

de valores de corte, ser obtenida una serie de estimados. Con el incremento del valor de
corte, * ( A, zc ) se incrementa, debido a que el porcentaje de los puntos con valores

menores que el valor de corte se incrementa. Debido a que * ( A, zc ) es una funcin de

probabilidad acumulativa, las siguientes relaciones de orden deben cumplirse:

a) * ( A, ) = 0, y * ( A,+ ) = 1,

b) 0 * ( A, zc ) 1 A, zc

c) * ( A, zc ) no es decreciente, es decir

* ( A, zc ) * ( A, zc' ) si zc zc'

Si ocurre alguno de los siguientes casos :

56
Martn A. Daz Viera

a) * ( A, zc ) estimada por KI es decreciente.

b) * ( A, zc ) tiene valores negativos o mayores que 1,

las relaciones de orden no se cumplen. En resumen, si una distribucin estimada tiene


problemas con las relaciones de orden, no es una funcin de distribucin vlida.

Las ecuaciones del Kriging indicador se resuelven en la prctica para un nmero finito N ,
usualmente menor que 10, de valores de corte zc . Si la estimacin de cada valor de

* ( A, zc ) se realiza por separado no se puede garantizar que se cumplan las relaciones de


orden arriba expuestas.

Como alternativa (Myers, 1984) se plantea:


a) Resolver el sistema de ecuaciones para zc = zM y luego utilizar los coeficientes

( zc ) para otros valores de zc .

b) Utilizar Cokriging indicador, es decir el estimado de * ( A, zc ) se obtiene a partir de

los indicadores i ( x , z ), = 1,..., n y = 1,..., N . Esta alternativa es ms exacta

pero a la vez es ms costosa en cuanto a cmputo.

4.10 Kriging logartmico

El Kriging se considera ptimo cuando Z ( x ) tiene una distribucin normal. Cuando no se

cumple esta condicin se requiere realizar una transformacin sobre Z ( x ) de manera tal

que siga una distribucin normal. Por fortuna los estimadores asociados a la distribucin
normal son bastante robustos, es decir que su propiedad de optimalidad no se ve
fuertemente afectada en el caso en que la distribucin se aleje ligeramente de la normal.

57
Martn A. Daz Viera

La metodologa a seguir puede ser resumida en pocos pasos. Sea Y = f ( Z ) la variable

transformada, entonces la aplicacin del Kriging consiste en:

1.- Transformar todos los datos: Y ( x i ) = f ( Z ( x i ) ) , i=1,,n.

2.- Estimar y modelar el semivariograma de Y ( x ) .

3.- Aplicar las ecuaciones del Kriging a la variable Y para obtener Y * y Var [Y Y *] .

El clculo de Z * y de Var [ Z Z *] a partir de los resultados de Y puede no ser trivial.

Lo que debe tenerse bien presente es que Z * f 1 (Y *)

El ejemplo ms comn es cuando la distribucin es lognormal. Entonces aplicando una


transformacin logartmica Y = log( Z ) ser normal.

Al aplicar la metodologa habitual del Kriging a Y y luego si intentamos emplear la


teora en sentido estricto transformando hacia atrs para obtener el valor estimado para Z*,
sera:
1 2
Z = exp Y * + KY (4.55)
2

y su varianza

Var Z = mZ2 exp ( Y2 ) 1 exp ( KY


2
) (4.56)

~
Existen las siguientes dificultades segn Journel y Huijbregts (1978). En la prctica Z no
siempre satisface la condicin de sesgo nulo, ya que puede diferir fuertemente de la media
obtenida a partir de las valores observados de Z. Para evitar esta dificultad se propone el
estimador
1 2
Z = K exp Y * + KY (4.57)
2
~
donde K se determina imponiendo que la media aritmtica de los valores estimados de Z
coincida con el valor esperado mZ .

58
Martn A. Daz Viera

CAPITULO 5: GEOSTADSTICA MULTIVARIADA

5.1 Introduccin.

La estimacin conjunta de variables aleatorias regionalizadas, ms comnmente conocida


como Cokriging (Kriging Conjunto) es el anlogo natural del Kriging de una funcin
aleatoria. Mientras que el Kriging utiliza la correlacin espacial para determinar los
coeficientes en el estimador lineal, el Cokriging utiliza la correlacin espacial y la
correlacin entre funciones aleatorias al mismo tiempo.

Las aplicaciones que han recibido una mayor atencin en la geoestadstica de minas son los
casos donde dos o ms variables estn muestreadas, pero una est menos muestreada que
las otras o existe la presencia de errores de muestreo.

Existe un nmero de dificultades prcticas, la ms importante de todas es la ausencia de


modelos estndar para las covarianzas cruzadas o covariogramas. Uno de los modelos
ms simples, el modelo lineal "estricto", no produce una varianza de estimacin menor
que el Kriging separado excepto en los dos casos mencionados anteriormente.

5.2 Definiciones de los momentos cruzados de segundo orden

En el anlisis de varias variables correlacionadas entre s existen varios momentos de


segundo orden que miden el grado de correlacin de las mismas.

Bajo la hiptesis de estacionaridad de segundo orden, se puede definir para cada par de
variables Zi ( x ) y Z j ( x ) la covarianza cruzada como:

{
Cij ( h ) = E Z i ( x + h ) mi Z j ( x ) m j } (5.1)

y correspondientemente el semivariograma cruzado se define como

ij ( h ) =
1
{ }
E Z i ( x + h ) Z i ( x ) Z j ( x + h ) Z j ( x )
2
(5.2)

donde mi = E Z i ( x ) y m j = E Z j ( x ) son los valores esperados de las variables Zi ( x )


y Z j ( x ) respectivamente.

En el caso particular cuando i = j , los momentos cruzados se convierten en la covarianza y


en la semivarianza de la variable Zi ( x ) .

59
Martn A. Daz Viera

El semivariograma cruzado ij ( h ) , a diferencia del semivariograma de una variable que


siempre es positivo, puede tomar valores negativos. Los valores negativos se asocian a la
situacin en que el incremento de una de las variables implica en promedio el decremento
de la otra

5.3 Propiedades de los momentos cruzados de segundo orden

De su definicin se infiere que el semivariograma cruzado ij ( h ) es simtrico con respecto


al intervalo o vector de separacin h y con respecto a los ndices (i, j ) de las variables, de
modo que se cumple que:
ij ( h ) = ij ( h ) (5.3)
y
ij ( h ) = ji ( h ) (5.4)

Sin embargo, la covarianza cruzada Cij ( h ) no es simtrica en general. Se cumple que:


Cij ( h ) = C ji ( h ) (5.5)

En el caso en que la covarianza cruzada Cij ( h ) sea simtrica, entonces resulta sta
equivalente al semivariograma cruzado.

La expresin general que relaciona al semivariograma cruzado con la covarianza cruzada se


escribe como:
2 ij ( h ) = 2Cij ( 0 ) Cij ( h ) Cij ( h ) (5.6)

Por lo que si consideramos el caso simtrico esta expresin se reduce a:


ij ( h ) = Cij ( 0 ) Cij ( h ) (5.7)

que es anloga a la existente entre semivariogramas y covarianzas simples.

El coeficiente de correlacin entre las variables Z i ( x ) y Z j ( x ) en un mismo punto x se


define como:

Cij ( 0 )
ij = (5.8)
Cii ( 0 ) C jj ( 0 )

5.4 Cokriging en el caso estacionario.

60
Martn A. Daz Viera

Sean Z1 ( x ) , Z 2 ( x ) ,..., Z n ( x ) funciones aleatorias tales que:


E Z i ( x ) = mi , i = 1,..., n (5.9)

Cij ( x y ) = E Z i ( x ) Z j y , ( ) i, j = 1,..., n (5.10)

existe para todo i, j y la covarianza de Z i ( x ) y Z j ( x ) depende solamente de la diferencia


x y.

{Zi }i =1
n
Esto quiere decir que son funciones estacionarias de segundo orden
conjuntamente.

Dados los puntos muestreados x1 , x 2 ,..., x m y un punto no muestreado x , el objetivo es


estimar conjuntamente cada variable aleatoria Z i ( x ) mediante combinaciones lineales de
observaciones de todas las variables aleatorias Z j ( x k ) , k = 1,.., m j = 1,.., n

m n
Z i* ( x ) = ijk Z j ( x k ) (5.11)
k =1 j =1

En forma matricial, si Z ( x ) = Z1 ( x ) , Z 2 ( x ) ,..., Z n ( x ) entonces la expresin anterior se


T

convierte en:
m
Z
*
( x ) = k Z ( x k ); donde k = ijk (5.12)
k =1

Para que Z
*
( x) sea un estimador no sesgado de Z ( x ) se debe cumplir que:


k =1
k
=I (5.13)

donde I es la matriz identidad.


0, i j
m

k
ij = ij =
1, i = j
(5.14)
k =1

Se toma que la varianza de la estimacin sea:

{ }
n T
Var Z *j ( x ) Z j ( x ) = E Z ( x ) Z ( x ) Z ( x ) Z ( x )
* *
(5.15)
j =1

El sistema puede ser escrito en la forma:

61
Martn A. Daz Viera

m
j C ( xi x j ) + = C ( x i x )
j =1
m (5.16)
= I,
k
i = 1,..., m
k =1

donde = ij - es una matriz de n n multiplicadores de Lagrange y

C11 ( x i x j ) C12 ( x i x j ) ... C1n ( x i x j )



C21 ( x i x j ) C22 ( x i x j ) ... C2 n ( xi x j )
C ( xi x j ) = (5.17)
... ... ... ...

Cn1 ( x i x j ) Cn 2 ( x i x j ) ... Cnn ( x i x j )

Entonces si escribimos el sistema del Cokriging en forma matricial tenemos que:

K = D (5.18)

Donde
C ( x1 x1 ) ... C ( x1 x m ) I

... ... ... ...
K = (5.19)
C ( x m x1 ) ... C ( x m x m ) I

I ... I 0
1 C ( x1 x )

... ...
= , D= (5.20)
C ( x m x )
m
I

y la varianza total de la estimacin puede ser escrita como:


m
CK
2
= Tr C ( 0 ) Tr j C ( x x j ) Tr (5.21)
j =1

la cual representa una varianza acumulada, mientras que la varianza de la estimacin de la


variable Z j ( x ) est dada por
n m
CK
2
j
= C jj ( 0 ) C ( x x )
i =1 k =1
k
ij ij k jj (5.22)

62
Martn A. Daz Viera

Observaciones prcticas:

( )
- A pesar de la asimetra de C x y , la matriz de coeficientes K es simtrica.
- Todas las entradas son invertibles (excepto 0 ) de forma tal que puede ser reducida a una
matriz triangular mediante la operacin con matrices de menor dimensin y as simplificar
el cmputo.
( )
- Si C x y tiene forma diagonal, es decir, las componentes no estn
correlacionadas entonces el sistema se convierte en n sistemas de ecuaciones
independientes separadas.

5.5 Cokriging en el caso de funciones aleatorias intrnsecas.

Como con el Kriging de una variable es ms simple usar covariogramas que covarianzas
cruzadas, pero esto no siempre es posible; la hiptesis intrnseca anloga es:

i) E Z i ( x + h ) Z i ( x ) = 0 , i=1,, n

ii) Cov Z i ( x + h ) Z i ( x ) , Z j ( x + h ) Z j ( x ) = 2 ij ( h ) , i,j=1,, n

existe y depende slo de h .

Si i) se cumple entonces la matriz de semivarianzas cruzadas puede ser escrita como:

( h ) = ij ( h ) =
1
2
{
E Z ( x + h ) Z ( x ) Z ( x + h ) Z ( x )
T
} (5.23)

donde ( h ) es simtrica en contraste con C x y . ( )


Entonces al sustituir en el sistema de ecuaciones del Kriging a las funciones de covarianzas
cruzadas por los co-semivariogramas o variogramas cruzados, se obtiene

( x1 x1 ) ... ( x1 x m ) I 1 ( x x1 )

... ... ... ... ... ...
x x = (5.24)
( m 1 ) ... ( x m x m ) I m ( x x m )

I ... I 0 I

La varianza de la estimacin se expresa como:

63
Martn A. Daz Viera

( x x1 )

...
CK
2
= Tr 1 ... m (5.25)
( x xm )

I

5.6 Cokriging en el caso no estacionario.

Si se supone que las componentes de Z ( x ) no son estacionarias, es decir, los valores


esperados m ( x ) estn representados localmente mediante combinaciones lineales de
funciones conocidas, entonces los resultados de la seccin anterior pueden ser extendidos
de forma similar al Kriging Universal para una variable.

Sea F ( x ) = f1 ( x ) ,..., f p ( x ) un vector de funciones conocidas, linealmente


independientes.

Entonces se asume que:


E Z ( x ) = BF ( x ) (5.26)
donde B = bij , una matriz de n p .

Para que Z ( x ) sea insesgado es suficiente que:


m
BF ( x ) = j BF ( x j ) (5.27)
j =1

para cualquier eleccin de B .

Considerando todas las matrices de la forma:

1, i = i0 , j = j0

B = bij ; donde bij =
0, en otro caso

y escribiendo Fl ( x j ) = f l ( x j )I entonces la expresin anterior se convierte
m


j =1
j
Fl ( x j ) = Fl ( x); l = 1,..., p (5.28)

El sistema de ecuaciones para el Kriging Universal resulta

64
Martn A. Daz Viera

m p

j C ( xi x j ) + l Fl ( x ) = C ( xi x )
j =1 l =1
m (5.29)
F ( x ) = F ( x ) ; l =1,...,p i =1,...,m

j =1
j l j l

donde l son matrices n n de multiplicadores de Lagrange.

En forma matricial
C ( x1 x1 ) ... C ( x1 x n ) F1 ( x1 )... Fp ( x1 )

... ... ... ... ... ...

C ( x n x1 ) ... C ( x n x n ) F 1 ( x n ) ... Fp ( x n )
W= (5.30)
F1 ( x1 ) ... F 1( xn ) 0 ... 0

... ... ... ... ... ...
Fp ( x1 ) ... Fp ( x n ) 0 ... 0

1 C ( x1 x)

... ...
C ( x n x )
X = ,
n
H = F ( x) (5.31)
1
1
... ...

Fp ( x)
p

WX =H (5.32)

La varianza de la estimacin puede ser escrita como:


m p
CKU
2
= Tr C (0) Tr i C ( x xi ) Tr Fl ( x)
i =1 l =1
l
(5.33)

5.7 Estimacin de los momentos cruzados de segundo orden

El mtodo ms usual para estimar el semivariograma cruzado es el siguiente:

1 N (h)
( h) =
*
ij [ Zi ( x k + h) Zi ( x k )] Z j ( x k + h) Z j ( x k )
2 N (h) k =1
(5.34)

donde N ( h ) es el nmero de pares {Z i ( x k ) , Z i ( x k + h )} y {Z j ( x k ) , Z j ( x k + h )} separados

a una distancia h = h .

65
Martn A. Daz Viera

El cual es una generalizacin del estimador del semivariograma simple y por lo tanto
adolece de los mismos problemas y limitaciones.

5.8 Modelacin de los momentos cruzados de segundo orden

Es una prctica muy comn ajustar modelos desarrollados para una variable como son:
esfrico, exponencial, etc, al semivariograma cruzado, aunque en este caso no se pueda
asegurar que estos modelos sean vlidos.

Myers (1984), propuso una metodologa para el ajuste de los semivariogramas cruzados, la
cual consiste en definir para cada par de variables Z i ( x) y Z j ( x) una nueva variable como
una combinacin lineal de stas, es decir:

Z ij+ ( x) = aZ i ( x) + bZ j ( x) (5.35)

cuyo semivariograma viene dado por:

ij+ (h) =
1
2
{
E aZ i ( x + h) + bZ j ( x + h) aZ i ( x) bZ j ( x)
2
} (5.36)
= a 2 ii (h) + b 2 jj ( h) + 2ab ij (h)

entonces
1
ij (h) = ij+ (h) a 2 ii (h) b 2 jj (h) (5.37)
2ab

De manera anloga se puede obtener el semivariograma de la diferencia

Z ij ( x) = aZ i ( x) bZ j ( x) (5.38)

su semivariograma est dado por:

ij (h) =
1
2
{
E aZi ( x + h) bZ j ( x + h) aZi ( x) + bZ j ( x)
2
} (5.39)
= a 2 ii (h) + b 2 jj ( h) 2ab ij (h)
y por lo tanto
1
ij (h) = ij (h) a 2 ii (h) b 2 jj (h) (5.40)
2ab

Combinando ambos resultados se obtiene una tercera expresin

1
ij (h) = ij+ (h) ij (h) (5.41)
4ab

66
Martn A. Daz Viera

Entonces el procedimiento ms adecuado para modelar el semivariograma cruzado


consiste en modelar los 4 semivariogramas simples: ii (h), jj (h), ij+ (h) y ij (h) ,
comprobar que satisfagan las tres expresiones anteriores y adems que se cumpla la
desigualdad de Cauchy-Schwartz:

2
ij+ (h) ii (h) jj (h) (5.42)
donde
ij+ (h) - es el semivariograma de la suma de Zi y Zj.
ii (h) y jj (h) - son los semivariogramas de Zi y Zj respectivamente.

En resumen, para modelar el variograma cruzado hay que calcular los variogramas
muestrales para Zi, Zj , Zi+Zj y ZiZj. Para cada miembro de la cuarteta se selecciona uno
de los modelos estndar tales como: esfrico, exponencial, gaussiano, etc., entonces el
modelo para ij (h) se determina como una combinacin de stos usando la expresin
anterior, pero con la condicin de que satisfaga la desigualdad de Cauchy-Schwartz. En el
caso en que no se cumpla esta condicin ltima se deben realizar modificaciones a cada
uno de los modelos ajustados a ii (h), jj (h), ij+ (h) y ij (h) ,de manera tal que sta sea
satisfecha.

Para modelar el variograma cruzado de n variables aleatorias regionalizadas, se deben


realizar solamente (n2 +n)/2 ajustes de variogramas simples.

Pero en realidad este procedimiento no garantiza que se obtenga un modelo vlido de


semivariogramas cruzados, ya que la desigualdad de Cauchy-Schwartz es una condicin
necesaria pero no suficiente.

La condicin que se requiere para que el modelo sea vlido es la anloga al caso
univariado, es decir
i C ( xi x j ) j 0
T
(5.43)
i j

que la matriz C ( h ) sea positiva semidefinida o equivalentemente en trminos de las


semivarianzas
i ( x i x j ) j 0, si
T
i
=0 (5.44)
i j i

que significa que la matriz ( h ) sea condicionalmente negativa semidefinida.

Estas condiciones no son sencillas de comprobar y en el caso univariado se resuelve


usando combinaciones lineales de modelos autorizados, es decir:
ai i ( h ) i
(5.45)

67
Martn A. Daz Viera

es un modelo vlido, donde a1 ,..., am son coeficientes positivos y 1 ( h ) ,..., m ( h ) son


modelos simples de variogramas vlidos.

Por lo que la alternativa anloga al caso univariado es:


Ai i ( h ) i
(5.46)

es un modelo vlido, donde A1 ,..., Am son matrices de coeficientes positivas definidas y


1 ( h ) ,..., m ( h ) son modelos simples de variogramas vlidos. Esto se conoce como modelo
de corregionalizacin lineal.

5.9 Modelo de Corregionalizacin Lineal


Un modelo comnmente usado para un conjunto de funciones aleatorias es el modelo
multivariado de funciones de covarianzas anidadas
S
C ( h ) = V k k ( h ) (5.47)
k =0

donde k es el ndice de S + 1 estructuras anidadas a diferentes escalas con funcin de


correlacin k ( h ) y las matrices de corregionalizacin V k son las matrices de
covarianzas que describen la correlacin multivariada a la escala k .

El modelo de funciones aleatorias asociado es conocido como modelo de


corregionalizacin lineal (MCL) y se expresa como:

S
Z ( x ) = Ak Y k ( x ) (5.48)
k =0

S p
Z i ( x ) = aijk Y jk ( x ); i = 1,.., n (5.49)
k = 0 j =1

donde Y k ( x ) = Y1k ( x ) , Y2 k ( x ) ,..., Ypk ( x )


T
es el vector de p funciones aleatorias
estacionarias de segundo orden no correlacionadas (independientes entre s) definidas en la
escala espacial k .

Una va para determinar los coeficientes del modelo de corregionalizacin lineal (MCL), a
partir de un modelo multivariado de funciones de covarianzas anidadas es mediante la
aplicacin del mtodo de componentes principales basado en la descomposicin en valores
propios de las matrices de corregionalizacin V k .

5.10 Anlisis Estructural Multivariado

68
Martn A. Daz Viera

El anlisis estructural multivariado que se requiere para el Cokriging es mucho ms


complejo y sofisticado que el que demanda el Kriging ya que para modelar los
variogramas cruzados de n variables aleatorias regionalizadas, se deben modelar (ajustar)
un total de n ( n + 1) 2 variogramas simples. Mientras que el uso de modelos de
variogramas autorizados o combinaciones de stos no garantiza, es decir no es una
condicin suficiente, como lo es en el caso univariado para que la matriz de covarianzas
C ( h ) sea positiva definida.

La manera ms comnmente aceptada en la actualidad para realizar un anlisis estructural


multivariado es a travs de un modelo de corregionalizacin lineal (Goovaerts, 1997). No
obstante existen otras metodologas menos difundidas que usan mtodos espectrales y
estn basadas en el teorema de Bochner (Christakos, 1992; Wackernagel, 1995).

El punto medular para poder establecer un modelo de corregionalizacin lineal consiste en


probar que las matrices de coeficientes V k son positivas semidefinidas.

Por definicin, una matriz V k es positiva semidefinida (Golub y Van Loan, 1989) si
T
b V k b 0, b (5.50)
donde b es un vector cualquiera. Cuando una matriz es positiva semidefinida sus valores
propios y los determinantes de ella y de todos sus menores principales son no negativos.

Un modelo de corregionalizacin lineal est dado por

S S
C ( h ) = V k k ( h ) Cij ( h ) = ijk k ( h ) (5.51)
k =0 k =0

en trminos de las covarianzas o equivalentemente


S S
( h ) = V k k ( h ) ij ( h ) = ijk k ( h ) (5.52)
k =0 k =0

en trminos de las semivarianzas. Y se interpreta como S + 1 estructuras anidadas a


diferentes escalas y las matrices de corregionalizacin V k son las matrices de covarianzas
que describen la correlacin multivariada a la escala k . Note que a cada escala k le
corresponde una estructura elemental o bsica con mesetas igual a la unidad ( k ( h ) o
k ( h ) ). Si determinada estructura bsica no est presente, se le hace corresponder un
coeficiente cero en la matriz V k .

El nombre de modelo lineal de corregionalizacin se origina del hecho de que las matrices
de covarianzas o semivarianzas de las Ecs. (5.51) y (5.52) se obtienen considerando la
transformacin lineal de funciones aleatorias Ec.(5.48).

69
Martn A. Daz Viera

Una condicin suficiente para que el modelo de corregionalizacin lineal sea vlido
consiste en que todas las matrices de corregionalizacin V k sean positivas semidefinidas.

Si V k es una matriz simtrica y positiva semidefinida, entonces se cumple que

ijk iik kjj , i j (5.53)


Pero en general la proposicin inversa es falsa.

No obstante en el caso de matrices de orden dos si se cumple, es decir es unas condicin


necesaria y suficiente para que la matriz sea positiva semidefinida. Esto resulta muy til,
puesto que es muy comn la modelacin conjunta de slo dos funciones aleatorias.

Un ejemplo de modelo de corregionalizacin lineal en el caso de dos funciones aleatorias


Z1 ( x ) y Z 2 ( x ) , es

11 ( h ) 12 ( h ) 110 120 11S 12S


= 0 0 0
( h ) + ... + S S S
(h) (5.54)
21 ( h ) 22 ( h ) 21 22 21 22

Para asegurar de que el modelo sea vlido es suficiente probar que

11k > 0 y 22
k
> 0, k = 0,..., S
(5.55)
12k 11k 22
k
, k = 0,..., S

Procedimiento general para la obtencin de un modelo de corregionalizacin lineal

El procedimiento general para ajustar un modelo de corregionalizacin lineal consiste en


postular el nmero de estructuras y sus modelos elementales correspondientes para los
cuales estn definidos los rangos o alcances, y luego intentar el ajuste de las mesetas
mediante prueba o error, o aplicando algn mtodo de optimizacin.

El esquema general usando el mtodo de prueba y error es el siguiente:

1. Modelar cada semivariograma simple ii ( h ) , i = 1,..., n y semivariograma cruzado


ij ( h ) , i j , y i, j = 1,..., n individualmente segn el procedimiento expuesto en el
captulo 3 del anlisis estructural de una funcin aleatoria.
2. Determinar el nmero de estructuras anidadas S + 1 de manera que sea mnimo (es
deseable que sea cuanto ms tres), segn las consideraciones siguientes:
a) Si ijk > 0 entonces iik > 0 y kjj > 0 . Es decir, si una estructura k ( h ) hace
contribucin al modelo anidado del variograma cruzado ij ( h ) , entonces debe

70
Martn A. Daz Viera

contribuir tambin en el modelo de los variogramas simples ii ( h ) y jj ( h ) . Lo


contrario es falso
b) Si iik > 0 y kjj > 0 no implica nada sobre ijk . Es decir, si una estructura
k ( h ) hace contribucin a los modelos anidados de los variogramas simples
ii ( h ) y jj ( h ) , dicha estructura puede contribuir o no en el modelo anidado
del variograma cruzado ij ( h ) .
c) Si iik = 0 , entonces ijk = 0, j = 1,..., n . Es decir, si una estructura k ( h ) no
contribuye en el modelo anidado del variograma simple ii ( h ) , entonces dicha
estructura no puede contribuir en ninguno de los modelos anidados de los
variogramas cruzados ij ( h ) que involucran a la componente i .
3. Comprobar que todos los determinantes de los menores de orden dos son no
negativos.
4. Verificar que todas las matrices de corregionalizacin V k sean positivas
semidefinidas, en caso contrario hacer los cambios necesarios hasta satisfacer la
condicin o volver al paso 2.

Goulard (1989) y Goulard y Voltz (1992), propusieron un algoritmo iterativo para el ajuste
de los coeficientes mediante mnimos cuadrados bajo restricciones de positividad.

5.11 Validacin del modelo de semivariograma cruzado

El mtodo convencional de validacin del semivariograma cruzado ij (h) en el caso de dos


variables consiste en estimar por Cokriging los valores de Z i ( x) y Z j ( x) en los puntos
muestrales usando el procedimiento de leave one out. Con los valores estimados obtenidos
Z i* ( x) , Z *j ( x) y sus correspondientes varianzas de la estimacin i2 , 2j se calculan los
criterios convencionales de la validacin cruzada para una variable (error medio, error
cuadrtico medio, etc,...)

El mtodo anterior no es ptimo, ya que la validacin de ij (h) debe ligarse con la


validacin de los semivariogramas ii (h), jj (h) , es decir se debera validar primero por
separado ii (h), jj (h) y luego ij (h) de manera conjunta.

5.12 Ejemplos de Aplicaciones del Cokriging

5.12.1 El caso de dos variables correlacionadas

Supongamos que tenemos dos variables que son estacionarias de segundo orden, entonces
se cumple que:

71
Martn A. Daz Viera

E[ Z1 ( x)] = m1 , E[ Z 2 ( x)] = m2 (5.56)

C12 ( x y ) = E Z1 ( x) Z 2 ( y ) (5.57)

El estimador sera de la siguiente forma:

n
Z ( x) = k Z ( x k )
*
(5.58)
k =1
n 2
Z i* ( x) = ijk Z j ( x k ), i = 1, 2 (5.59)
k =1 j =1

11k 12k n
donde k = k k
, =I, I - matriz identidad.
21 22
k
k =1

n 0, i j
k
ij = ij =
1, i = j
(5.60)
k =1

C11 ( x y ) C12 ( x y )
C ( x y) = (5.61)
C21 ( x y ) C22 ( x y )

C11 ( x1 x1 ) C12 ( x1 x1 ) C11 ( x1 x n ) C12 ( x1 x n ) 1 0


... C ( x x ) C ( x x ) 0 1
C21 ( x1 x1 ) C22 ( x1 x1 ) 21 1 n 22 1 n
... ... ... ...

K = C11 ( x n x1 ) C12 ( x n x1 ) C ( x xn ) C12 ( x n x n ) 1 0 (5.62)
C ( x x ) C ( x x ) ... 11 n
C21 ( x n x n ) C22 ( x n x n ) 0 1
21 n 1 22 n 1
1 0 1 0 0 0
0 1 ... 0
1 0 0

72
Martn A. Daz Viera

111 121 C11 ( x1 x) C12 ( x1 x)


1 1
21 22 C21 ( x1 x ) C22 ( x1 x )
... ...

= 11n 12n , D = C11 ( x n x) C12 ( x n x) (5.63)
n n C ( x x ) C ( x x )
21 22 21 n 22 n
12 1 0
11
21 22 0 1

K = D (5.64)

2 n
CK
2
j
= C jj (0) C
i =1 k =1
ij ( x x k )ijk jj (5.65)

5.12.2 Estimacin de combinaciones lineales de variables corregionalizadas

Existe un nmero de aplicaciones donde es deseado estimar una combinacin lineal


de variables corregionalizadas. Por ejemplo si se necesita identificar anomalas entonces
una combinacin lineal de algunas variables puede ser relevante y de este modo las
variables que son indicativas de la presencia de un elemento particular pueden ser
usadas. Existen varios enfoques posibles. El ms directo es tomar un conjunto de
datos multivariados y formar una combinacin lineal para obtener un nuevo conjunto de
datos para la variable construida, entonces es calculado el variograma muestral, luego
modelado y finalmente se le aplica el Kriging.

Otro enfoque consiste en estimar cada variable y luego construir la combinacin lineal.
Este puede ser llevado a cabo mediante la estimacin de cada variable por separado o
mediante la estimacin conjunta por Cokriging. La diferencia de estos mtodos se refleja
en las varianzas de la estimacin.

Al primer enfoque lo nombraremos como la estimacin directa y al segundo como la


estimacin conjunta.

a) Estimacin directa.

Z ( x) = [ Z1 ( x ) ... Z m ( x) ] A = [ a1 ... am ] , donde ai \


T T
Dados: y

T
El objetivo es estimar la combinacin lineal W ( x) = A Z ( x) considerndola como una
nueva funcin aleatoria.

73
Martn A. Daz Viera

Aunque en la prctica un modelo de variograma W (h) ser estimado y ajustado para


la funcin aleatoria W ( x) y no a las componentes por separado, resulta til relacionarlo
con los variogramas separados.
1
{
W (h) = E A Z ( x + h) A Z ( x)
2
T T 2
}
1
2
{
= AE [ Z ( x + h) Z ( x) ][ Z ( x + h) Z ( x) ] A
T T
(5.66) }
1 T
= A (h) A
2
donde (h) es la matriz de semivarianzas cruzadas.

El estimador puede ser expresado como:


n n
W * ( x 0 ) = jW ( x j ), j =1 (5.67)
j =1 j =1

La varianza de la estimacin para W * ( x 0 ) es :


n
KD
2
= W ( x 0 x j ) j (5.68)
j =1

o puede ser expresada equivalentemente como


1 n
= A ( x 0 x j ) j A
T
KD
2
(5.69)
2 j =1

b) Estimacin conjunta.

En lugar de la estimacin directa de W ( x 0 ) se estima Z ( x) = [ Z1 ( x ) ... Z m ( x) ]


T
por
T *
cokriging y entonces se forma W ** ( x 0 ) = A Z ( x 0 ) . El estimador resultante se puede
expresar como:
n
W ** ( x 0 ) = A Z ( x 0 ) = A j Z ( x j )
T * T
(5.70)
j =1

Una condicin suficiente para que coincidan ambos estimadores es que se cumpla:
T T
j A = j A , j (5.71)

La varianza de la estimacin est dada por


n
= A ( x 0 x j ) j A A AT
T
KC
2
(5.72)
j =1

74
Martn A. Daz Viera

Como vemos la condicin anterior es casi suficiente para que KD


2
= KC
2
pero sera
necesario tambin que se cumpliera que = A AT . No obstante en general
W * ( x 0 ) W ** ( x 0 ) y KD
2
KC
2
.

El caso particular de estimar las componentes de Z ( x) = [ Z1 ( x ) ... Z m ( x) ]


T
por
separado en lugar de la estimacin conjunta produce una estimacin no ptima y
necesita un factor de ajuste.

c) Comentarios generales

El mtodo directo tiene un nmero de ventajas obvias:

- Slo un variograma debe ser modelado.


- Requiere menor tiempo de cmputo debido a que las componentes de la matriz de
coeficientes son escalares en lugar de matrices.

No obstante cualquier cambio en las componentes de la matriz A implica una nueva


modelacin del variograma y la resolucin de un sistema de ecuaciones para Kriging. Si
los coeficientes de A cambian constantemente es preferible utilizar la estimacin conjunta
ya que esto no implica ningn cambio, solamente multiplicar por la nueva matriz A.

El uso de una variable compuesta podra obscurecer las diferencias en anisotropa o la


presencia de tendencia en algunas variables.

5.12.3 El problema de variables pobremente muestreadas

En contraste con los problemas donde el inters es estimar varias funciones aleatorias
simultneamente mediante el uso del estimador Cokriging para todas las variables en
todas las ubicaciones muestrales, pocas veces los datos muestrales en otras variables es
usado para mejorar la estimacin de la variable primaria o ms comnmente para
compensar muestras perdidas de la variable primaria.

{ x1 , ..., x n } las posiciones de la red de muestreo y Z = [ Z1 , ..., Z m ] el vector de las


T
Sean
funciones aleatorias . Supongamos que los datos en los puntos x 2 , ..., x n son obtenidos
para todas las variables pero en x1 slo es obtenido para Z 2 , ..., Z m .

Deseamos estimar Z1 ( x1 ) usando todos los datos disponibles suponiendo que (h) es
conocido.

El estimador lineal del cokriging Z1* ( x1 ) puede ser escrito en la forma usual:
n
Z 1 ( x1 ) = k Z ( x k )
* 1
(5.73)
k =1

75
Martn A. Daz Viera

11k
1
donde k = ... y se requiere que 111 = 0. La condicin de universalidad est dada por:
1km

1
n 0
k =
1
(5.74)
k =1 ...

0

No hay prdida de generalidad si se considera que Z1 es la variable primaria y si los


datos estn perdidos para Z1 en otras ubicaciones k0 o para otras variables j0 en otras
posiciones se deben imponer condiciones adicionales de la forma 1kj00 = 0 , ya que 1kj00
determina la contribucin de Z j0 ( x k0 ) a la estimacin de Z1* .

5.13 Modelo de correlacin intrnseco

Dado un vector de n funciones aleatorias Z ( x ) = Z1 ( x ) , Z 2 ( x ) ,..., Z n ( x ) , el modelo


T

ms simple para su matriz de covarianzas conjuntas (cruzadas) es el siguiente:

C ( h) = V ( h) (5.75)
donde V es la matriz de covarianzas cruzadas en h = 0 , es decir
ij = Cij ( 0 ) = Cov {Zi ( x ) , Z j ( x )} = E ( Z i ( x ) mi ) ( Z j ( x ) m j ) (5.76)
y ( h ) es la funcin de correlacin directa.

Recordando que la funcin de correlacin cruzada por definicin se expresa como:

Cij ( h )
ij ( h ) = (5.77)
Cii ( h ) C jj ( h )
y empleando el modelo de covarianzas cruzadas introducido en la Ec. (5.75), es decir,

Cij ( h ) = ij ( h ) (5.78)
entonces resulta que el coeficiente de correlacin entre dos funciones aleatorias Z i ( x ) y
Z j ( x ) est dado por
ij ( h ) ij
rij = = (5.79)
ii ( h ) jj ( h ) ii jj

76
Martn A. Daz Viera

y no depende de la escala espacial. Por este motivo, el modelo propuesto es conocido como
modelo de correlacin intrnseco.

Un modo de verificar la existencia de correlacin intrnseca se basa precisamente en la


propiedad anterior. Para lo cual se calcula y grafica el coeficiente de codispersin el cual se
define como:

ij ( h )
ccij ( h ) = (5.80)
ii ( h ) jj ( h )

Si el coeficiente de codispersin es constante para todo i j , esto es un indicador de que la


correlacin no depende de la escala espacial y por lo tanto se puede considerar un modelo
de correlacin intrnseca.

El modelo lineal asociado al modelo de correlacin intrnseco se escribe como:


Z ( x ) = AY ( x ) (5.81)
o equivalentemente
p
Z i ( x ) = aijY j ( x ) (5.82)
j

donde A es la matriz n p de los coeficientes de la transformacin lineal aij ,

Y ( x ) = Y1 ( x ) , Y2 ( x ) ,..., Yp ( x ) es un vector de p funciones aleatorias estacionarias de


T

segundo orden no correlacionadas (independientes entre s), cuya funcin directa de


correlacin ( h ) no depende del ndice j .

Para un modelo de correlacin intrnseco dado existen muchas matrices A que


T
satisfacen V = A A , pero el modo natural para obtener los coeficientes de la transformacin
Ec. (5.82) lo ofrece el Anlisis de Componentes Principales (ACP), el cual est basado en
la descomposicin en valores propios de la matriz de covarianzas V y los factores Y j ( x )
pueden ser interpretados como componentes principales. Estas componentes se obtienen
imponiendo la condicin de que expliquen en una proporcin elevada (usualmente 80% o
ms) la varianza total Z2 del vector de funciones aleatorias Z ( x ) .
El objetivo que persigue el anlisis de componentes principales es transformar el vector de
funciones aleatorias correlacionadas Z ( x ) de dimensin n a un vector de funciones
aleatorias (componentes principales) no correlacionadas Y ( x ) de dimensin p , donde se
espera que p  n .

77
Martn A. Daz Viera

Sean 1 2 ... n > 0 los valores propios y q1 , q 2 ,..., q n los correspondientes vectores
T
propios asociados de la matriz V , donde se cumple que q i q j = ij . Las mayores varianzas
estn directamente relacionadas con los mayores valores propios i de la matriz de
covarianzas de los datos V ,
n p
Z2 = Tr V = ii = j (5.83)
i =1 j =1

por los que se escogen las primeras p componentes ordenadas de mayor a menor en orden
decreciente del por ciento de la varianza total que explican.

Entonces, aplicando la descomposicin en valores propios de la matriz de covarianzas V ,


sta se puede expresar como:
T
V AA (5.84)
  T = I , donde Q y son las matrices de los p vectores propios y de
con A = Q y QQ
los p valores propios correspondientemente.

Entonces los coeficientes aij de la matriz A estn dados por:

aij = j qij (5.85)


y por lo tanto la Ec.(5.82) se transforma en
p
Z i ( x ) = j qijY j ( x ) (5.86)
j

donde qij es la componente i del vector propio q j y j es el valor propio asociado a ste.

Las componentes se relacionan con las variables originales mediante


Y ( x ) = Q Z ( x )
T
(5.87)
o puede escribirse escalado con varianza unitaria
1 T 1 n
Yj ( x ) =
j
q j Z ( x) = qij Zi ( x );
j i =1
j = 1,.., p (5.88)

Lo cual se verifica si suponemos que Y ( x ) = BZ ( x ) , donde B es una matriz p n que


T
cumple que B B = I , entonces

YY = BZY = BZ ( BZ ) = BZ Z B
T T T T T
(5.89)
aplicando el operador valor esperado a ambos miembros se obtiene
E YY = BE Z Z B
T T T
(5.90)
T
D = BV B (5.91)

78
Martn A. Daz Viera

multiplicando ambos miembros por B resulta


DB = BV (5.92)
donde inmediatamente se puede ver que la matriz Q ofrece la solucin ya que satisface:
T T
Q = Q V (5.93)

Una vez conocidos los valores de las componentes Y j ( x ) en los puntos de medicin
usando Ec.(5.88), se puede estimar sus valores en cualquier otro punto usando Kriging
ordinario y a partir de stos se obtienen los valores estimados de las variables originales
Z i ( x ) empleando la Ec. (5.82).

El modelo de correlacin intrnseco, tambin conocido como corregionalizacin isotpica,


es un caso importante de referencia cuando las variables estn todas muestreadas en los
mismos puntos de observacin, ya que la estimacin conjunta se simplifica, puesto que
1) Se reducen las dimensiones del problema original a travs del anlisis de
componentes principales, con las consecuentes ventajas de reduccin en el
almacenamiento de la informacin.
2) Se usa el Kriging Ordinario para p componentes en lugar de Cokriging para n
variables, donde usualmente p  n .

5.14 Anlisis de Componentes Principales basado en el Modelo Lineal de


Corregionalizacin

El modelo de Anlisis de Componentes Principales estndar es slo adecuado paras datos


que puedan ser considerados como una realizacin de un modelo de correlacin intrnseco.
El MCL cubre una clase ms general de fenmenos que los que pueden ser descritos con
un variograma multivariado anidado. En este modelo tenemos diferentes estructuras de
correlacin a diferentes escalas del espacio (tiempo). Un Anlisis de Componentes
Principales Corregionalizado se realiza separadamente para cada una de estas escalas.

El anlisis de valores propios es realizado en cada matriz de corregionalizacin V k del


variograma multivariado anidado. Los coeficientes de correlacin rijk entre las variables
originales y las componentes principales en una escala dada k pueden ser usados para
construir crculos de correlacin que ayudan a entender la estructura de correlacin en esa
escala espacial (temporal).

Los valores estimados de las componentes principales Y jk* ( x ) son obtenidos mediante la
aplicacin de Cokriging y pueden ser graficados como mapas.

El Anlisis de Componentes Principales Corregionalizado (ACPC) ha sido exitosamente


aplicado en numerosos casos de estudio.

79
Martn A. Daz Viera

5.15 Dificultades y Aspectos Prcticos del Cokriging.

El problema de estimar varias variables corregionalizadas simultneamente usando el


Cokriging es el enfoque ms riguroso y el que se basa en un menor nmero de hiptesis.
Sin embargo, requiere que se disponga de un nmero relativamente elevado de puntos
muestrales donde estn medidas todas las variables para una adecuada estimacin de los
semivariogramas cruzados. Cuando no se cumple este requisito el Cokriging puede perder
su superioridad sobre otros mtodos alternativos.

La mayora de los problemas encontrados en la prctica del Cokriging son los mismos
que los encontrados en la prctica del Kriging pero quizs magnificados por el
nmero de variables incorporadas, por una parte, exigiendo un tiempo de clculo
considerable en la modelacin de los semivariogramas cruzados mediante la modelacin y
validacin de mltiples semivariogramas y por otra en la estimacin de las variables
debido al aumento de la complejidad de los sistemas de ecuaciones a resolver.

5.16 Algunos mtodos alternativos al Cokriging

A continuacin revisaremos algunas tcnicas alternativas al Cokriging.

5.16.1 Kriging combinado con Regresin Lineal

Este mtodo fue propuesto por Delhomme(1974,1976) y consiste en establecer un modelo


de regresin lineal entre las variables Z ( x ) y Y ( x ) de la manera siguiente:

Z ( x ) = aY ( x ) + b (5.94)
donde a y b son los parmetros de la recta de regresin determinados a partir de l pares de
datos {Z ( x i ) , Y ( x i )} si las variables regionalizadas Z y Y estn muestreadas en l puntos
simultneamente, y adems consideremos que Z est muestreada en los l puntos mientras
que Y en m puntos, donde m>l, es decir Y est ms densamente muestreada que Z.

Entonces podemos estimar a Z en los m-l puntos restantes a travs de Y usando el modelo
de regresin lineal anteriormente obtenido como sigue:

Z ( x j ) = aY ( x j ) + b, j = l + 1,..., m (5.95)
y las varianzas de los errores de la prediccin por regresin estn dadas por


(Y j Y ) ,
2
1
2j = e2 + N j = l + 1,..., m (5.96)
N
( Yi Y )
2

i =1

80
Martn A. Daz Viera

N
1 1 N
Yi , ( Z i aY j b ) ,
2
donde Y = e2 =
N i =1 N 2 i =1

Con los l datos originales de Z se estima el variograma y usando todos los m datos se
realiza mediante Kriging su estimacin espacial.

5.16.2 Kriging con una Deriva Externa

Este mtodo fue desarrollado por el grupo de Matheron de la Escuela de Minas de


Fontainebleau y no ha sido muy usado.

Para su aplicacin se requiere que el valor esperado de una variable Z sea una funcin
lineal conocida dependiente de otra variable Y, como sigue:

E Z ( x i ) Y ( x i ) = c1Y ( x i ) + c2 (5.97)
donde c1 y c2 son dos constantes, que no se requieren conocer.

Adems se necesita que la segunda variable Y haya sido muestreada en un gran nmero de
puntos y que ofrezca una informacin bastante buena acerca de la estructura de correlacin
de la primera variable Z.

Considerando el estimador lineal habitual del Kriging para Z en un punto no muestral x k :

N
Z * ( x k ) = i Z ( x i ) (5.98)
i =1

Si aplicamos las condiciones del Kriging:

sesgo nulo
E Z * ( x k ) Z ( x k ) Y ( x k ) = 0 (5.99)
y varianza del error mnima

{
min E Z * ( x k ) Z ( x k ) Y ( x k ) = 0
2
} (5.100)
obtenemos:

N
jij + 1 + 2Y ( x i ) = ik , i = 1,..., N
j =1
N
j = 1 (5.101)
j =1
N
jY ( x j ) = Y ( x k )
j =1

81
Martn A. Daz Viera

donde ~ij es el semivariograma de Z condicionado a la variable Y.

La varianza condicionada del error de la estimacin viene dada por:

N
 e2 = Var Z * ( x k ) Z ( x k ) Y ( x k ) = iik + 1 + 2Y ( x k ) (5.102)
i =1

Ntese que hay que conocer a la variable Y en los puntos x k (o estimarla) y el


semivariograma ~ij coincide con el semivariograma de los residuos R ( x ) obtenidos
mediante:

R ( x i ) = Z ( x i ) c1Y ( x i ) c2 (5.103)

En la prctica suele reemplazarse el semivariograma ~ij por el semivariograma de Z sin


condicionamiento. Esto parece no afectar significativamente los valores estimados de Z y
tiene el efecto de sobrevalorar la varianza del error.

5.17 Kriging Factorial

Un mtodo tradicionalmente relacionado con el de componentes principales es el anlisis


factorial., por lo que se puede definir de manera anloga el Kriging factorial que fue
desarrollado por Matheron (1982). Este se basa en la descomposicin de la estructura de
correlacin espacial de las variables Zi ( x ) como una combinacin lineal de varias
subestructuras bsicas, es decir,

Ne
C ( h ) = D ge ( h )
e
(5.104)
e =1

o equivalentemente
Ne
Cij ( h ) = Dije g e ( h ) (5.105)
e =1

donde g e ( h ) es la subestructura bsica e , N e es el nmero total de subestructuras y D


e

son matrices n n positivas definidas que en principio deben ser conocidas. Esta
descomposicin obedece a su vexz a la descomposicin de cada variable Zi ( x ) como la
suma de una serie de factores Fi e ( x ) , es decir

Ne
Z i ( x ) = Fi e ( x ) + mi ( x ) (5.106)
e =1

donde mi ( x ) son los valores medios de Zi ( x ) , E Fi e ( x ) = 0 y su covarianza cruzada


est dada por:

82
Martn A. Daz Viera

D e g ( h ) , si e = e
E Fi e ( x + h ) Fi e ( x ) = ij e (5.107)
0, si e e
Estos factores se expresan como combinaciones lineales de una serie de variables Y je ( x )
independientes entre s

m
Fi e ( x ) = aijeY je ( x ) (5.108)
j =1

donde los coeficientes aije se obtienen mediante la descomposicin:

e T
D = Ae Ae , e = 1,..., N e (5.109)
e
que siempre es factible puesto que las matrices D son positivas definidas. Las variables
Zi ( x ) se relacionan con las componentes Y je ( x ) mediante

Ne m
Z i ( x ) = aijeY je ( x ); i = 1,.., n (5.110)
e =1 j =1

El objetivo del Kriging factorial no es estrictamente la estimacin conjunta de las variables


originales Zi ( x ) , si no mas bien se pretende estimar la distribucin espacial de la
contribucin de cada una de las componentes. En ciertos casos es posible interpretar la
descomposicin Ec.(5.104) como la descomposicin de la variabilidad a distintas escalas
segn Wackernagel, et al. (1989).

Las componentes Yke ( x ) pueden estimarse mediante Kriging ordinario a partir de los datos
de las variables originales Zi ( x ) , es decir

n N
Yke ( x 0 ) = ie Z i ( x ); k = 1,.., m; e = 1,..., N e (5.111)
i =1 =1

donde los coeficientes del Kriging ie se obtienen como es habitual imponiendo la


condicin de sesgo nulo y que sea mnima la varianza del error de la estimacin.

Las ecuaciones del Kriging factorial que resultan son:

n N e
j Cij ( x x ) + i = aik g e ( x x 0 ) , i = 1,..., n
e e

j =1 =1
N (5.112)
e = 0,
i = 1,..., N
=1

83
Martn A. Daz Viera

para cada estructura e = 1,..., N e y para cada componente k = 1,..., m .


Y la varianza de la estimacin es:
e2,k = E (Yke* ( x ) Yke ( x ) )
2


n n N N n N (5.113)
= 1 + Cij ( x x ) 2 a g e ( x x 0 )
e
i
e
j
e
i
e
ik
i =1 j =1 =1 =1 i =1 =1

Aplicacin del Kriging Factorial

El Kriging Factorial permite separar un vector de n funciones aleatorias en m


componentes, cada una representando una escala de variacin diferente (o longitud de
onda) del fenmeno que se estudia. Por ejemplo, en las mediciones magnticas o
gravimtricas uno desea distinguir las longitudes de onda largas asociadas con las fuentes
profundas de las cortas que reflejan fuentes superficiales. En ste sentido se puede
considerar un mtodo de filtrado.

Esta separacin o filtrado se realiza tradicionalmente usando anlisis espectral en dos o ms


dimensiones, pero usando el Kriging Factorial es posible e incluso ventajoso obtener la
determinacin espacial de las componentes que se deseen directamente. Ya que los
mtodos espectrales tienen ciertas limitaciones como son:

a) requieren de una malla rectangular completa, que si no se posee, se requiere


entonces interpolar o an peor extrapolar ( se usa en ocasiones para esto el Kriging)
lo cual altera las caractersticas espectrales,
b) opaca la resolucin de las anomalas locales sobre todas las frecuencias.

El Kriging Factorial se ha aplicado con xito en prospeccin geoqumica (Sandjivy, 1984),


prospeccin geofsica Galli et al., 1984, Chiles y Guilln, 1984, exploracin petrolera
(Jaquect, 1989), etc.

84
Martn A. Daz Viera

5.18 Esquema General para el Anlisis de Corregionalizacin


Dado un vector Z ( x ) de n funciones aleatorias se procede de la siguiente manera:

Estimacin y Modelacin de las


funciones de semivarianzas simples
ii ( h ) y cruzadas ij ( h ) para la
obtencin de la matriz C ( h ) Kriging Factorial

Se ajusta un Modelo de
NO Corregionalizacin Lineal (MCL)
Existe correlacin S
Intrnseca? C ( h ) = V k k ( h )
k =0

SI

Se ajusta un Modelo de Correlacin Anlisis de Componentes Principales


Intrnseca (MCI) (ACP) de las matrices V k
C ( h) = V ( h)

Anlisis de Componentes Se obtienen las transformaciones


Principales (ACP ) de la matriz V Z ( x ) YZZ
ZZX Y ( x )

Se obtienen las transformaciones CoKriging de los factores Y ( x )


Z ( x ) YZZ
ZZX Y ( x )

Kriging de los factores Y ( x ) Mapas de los factores Y ( x )

85
Martn A. Daz Viera

5.19 Manejo de procesos espacio-temporales

Existen un gran nmero de fenmenos cuyo estudio de manera natural requiere de un


marco espacio-temporal. Este es el caso, por ejemplo, de las variables meteorolgicas o la
evolucin de un contaminante en un acufero, etc. Histricamente, se han desarrollado dos
vertientes principales usando un enfoque estadstico, una que se encarga de la modelacin
de fenmenos temporales, que son las series de tiempo o cronolgicas, y la otra que
estudia los procesos que varan slo en el espacio, de la cual se ha encargado la estadstica
espacial y en particular la geoestadstica.

Por lo anteriormente planteado resulta conveniente definir procesos estocsticos espacio-


temporales que pueden ser caracterizados mediante funciones aleatorias Z ( x, t ) que varan
en el espacio, es decir dependen de la posicin x \ 3 y dependen del tiempo t . Dicho de
otra manera, a cada punto del espacio-tiempo ( x, t ) le hacemos corresponder una variable
aleatoria Z .

En la prctica, el problema a resolver consiste en estimar valores en puntos desconocidos


( x 0 , t0 ) de la funcin aleatoria Z ( x, t ) , dados un conjunto finito, y con frecuencia
reducido, de mediciones en espacio { x1 , x 2 ,..., x M } y en tiempo {t1 , t2 ,..., t N } . Hasta la fecha
no existen un mtodo general para la solucin de ste problema, no obstante existe una
serie de alternativas propuestas para su manejo aplicables bajo ciertas condiciones. A
continuacin enumeraremos las ms comunes:

1) Se considera al tiempo como otra coordenada adicional, para esto es necesario


x
definir un vector velocidad de transmisin v = , (Bilonik, 1985).
t
2) Se separa de manera explcita la dependencia espacial de la temporal, considerando
que la deriva de Z ( x, t ) est compuesta por una componente espacial mx ( x ) y otra
temporal mt ( t ) , y la funcin de covarianzas se modela como la suma de una
covarianza espacial y otra temporal, (Rouhani, 1989).
3) Se supone que para un tiempo ti dado, Z ( x, ti ) es una funcin aleatoria intrnseca,
cuyo semivariograma depende de ti , a travs de uno de sus parmetros, Bastin et
al., 1984).
4) Se supone que en cada punto x j , Z ( x j , t ) es una funcin aleatoria cuya media y
covarianza dependen del punto x j . Es decir, se definen M funciones aleatorias
{Z ( x , t ) , Z ( x , t ) ,..., Z ( x , t )}
1 2 M correlacionadas cuya estimacin puede hacerse
mediante Cokriging y resulta eficiente cuando M  N , (Solow y Gorelick, 1986 ).
5) Es lo opuesto al caso anterior, se considera que para un para un tiempo ti dado,
Z ( x, ti ) es una funcin aleatoria, entonces tenemos N funciones aleatorias

86
Martn A. Daz Viera

espaciales {Z ( x, t ) , Z ( x, t ) ,..., Z ( x, t )} correlacionadas


1 2 N entre s. De manera
similar este enfoque se resuelve usando Cokriging y resulta eficiente cuando
M  N , (Myers, 1988).

87
Martn A. Daz Viera

CAPITULO 6: SIMULACIN GEOESTADISTICA

6.1 Introduccin

Una variable regionalizada z ( x ) es interpretada como una realizacin de una cierta

funcin aleatoria Z ( x ) . Esta funcin aleatoria Z ( x ) puede ser caracterizada por una

funcin de distribucin de probabilidad y, en dependencia de su grado de estacionaridad,


por una funcin de correlacin (funcin de covarianzas o semivarianzas).

La idea bsica detrs de la simulacin estadstica consiste en obtener nuevas realizaciones


artificiales Z S ( x ) de la funcin aleatoria Z ( x ) de manera tal que stas reflejen las

mismas propiedades estadsticas que se esperan que posea la funcin aleatoria Z ( x ) . Pero

como por lo general no conocemos con precisin las propiedades estadsticas de Z ( x ) y

cuando ms lo que podemos hacer es inferirlas a travs de una sola realizacin o muestra de
la funcin aleatoria, entonces lo que se hace es intentar obtener realizaciones simuladas
Z S ( x ) que sean estadsticamente equivalentes a la muestra que se posee de la funcin

aleatoria.
La equivalencia estadstica en un sentido estricto significa que todas las realizaciones
Z S ( x ) tengan la misma distribucin de probabilidad de la funcin aleatoria Z ( x ) que se

simula, pero en la mayora de los casos nos tenemos que conformar con que al menos
posean los mismos momentos de primer y segundo orden que inferimos a partir de una
muestra de Z ( x ) .

Resulta deseable en muchas aplicaciones quedarse solamente con aquellas realizaciones


Z S ( x ) que en los puntos muestrales { x i , i = 1,..., n} coinciden los valores simulados

Z S ( xi ) con los valores reales o experimentales Z M ( xi ) . A estas realizaciones Z S ( x ) de la

funcin aleatoria Z ( x ) se les conoce como "simulaciones condicionales" Z SC ( x ) del

fenmeno regionalizado Z ( x ) .

88
Martn A. Daz Viera

6.2 Objetivos de la simulacin

Las estimaciones espaciales de un fenmeno regionalizado que se pueda describir mediante


una funcin aleatoria Z ( x ) son con frecuencia insuficientes debido a mltiples factores,

pero sobre todo debido a la carencia de suficiente informacin (mediciones) acerca de la


funcin aleatoria Z ( x ) .

Como desafortunadamente no se dispone de un conocimiento exacto de la realidad "in


situ" y la informacin disponible en muchos casos est usualmente muy
fragmentada y se limita fundamentalmente al conocimiento de unos pocos puntos
muestrales, las estimaciones obtenidas a partir de esta informacin incluso empleando el
estimador Kriging, son demasiadas imprecisas para los clculos exactos de las dispersiones
que se requieren en ciertas aplicaciones.

Cmo es imposible estimar la realidad "in situ" correctamente, con suficiente


detalle?.

Una idea simple es simular esta realidad en base a un modelo, por lo que la realidad y
la simulacin son variables diferentes de un mismo fenmeno.

Consideremos el siguiente ejemplo. Tenemos mediciones reales del fenmeno, es decir,


una realizacin {Z M ( xi ) , i = 1,..., n} de la funcin Z ( x ) en ciertos puntos xi de la regin

a estudiar. El enfoque geoestadstico consiste en interpretar la distribucin espacial de


la variable regionalizada Z M ( x ) como una realizacin particular de la funcin aleatoria

Z ( x ) . Esta funcin aleatoria esta caracterizada por su funcin de distribucin de

probabilidad o por sus dos primeros momentos, los cuales son estimados a partir de
datos experimentales.

89
Martn A. Daz Viera

Este modelo es entonces adecuado para el problema prctico de la determinacin de


medidas de la dispersin de los valores observados Z M ( xi ) , ya que las varianzas de la

dispersin de Z ( x) pueden ser expresadas como una funcin del momento de

segundo orden solamente (covarianza o variograma). Una simulacin entonces consiste


en obtener otra realizacin Z S ( x ) de esta funcin aleatoria Z ( x ) . Las dos

realizaciones la real y la simulada difiere una de la otra en determinadas


localizaciones pero ambas pertenecen a la misma funcin aleatoria Z ( x ) , es decir

tienen la misma funcin de distribucin y los mismos momentos de primer y segundo


rdenes por lo se dice que son estadsticamente equivalentes.

El fenmeno simulado tiene la ventaja de ser conocido en todos los puntos y no


solamente en los puntos experimentales {Z M ( xi ) , i = 1,..., n} . Con frecuencia al fenmeno

simulado se le llama "modelo numrico" del fenmeno real.

6.3 Condicionamiento

Existe un nmero infinito de realizaciones que cumplen con la condicin de que sus valores
simulados coinciden con los valores experimentales, es decir
Z SC ( xi ) Z M ( xi ) ; i = 1,..., n (6.1)
donde Z M ( xi ) es el valor muestral de la funcin aleatoria Z ( x ) en el punto x i .

Esta condicin le confiere una cierta robustez a la simulacin condicionada Z SC ( x ) con

respecto a las caractersticas de los datos reales {Z ( x ) , i = 1,..., n}


M i los cuales no son

modelados explcitamente por la funcin aleatoria Z ( x ) . Si por ejemplo un nmero

suficiente de datos muestran una tendencia local entonces la simulacin condicional que
est basada incluso en un modelo estacionario reflejar la tendencia local en la misma zona.

90
Martn A. Daz Viera

La simulacin condicional puede ser perfeccionada agregndole todo una suerte de


informacin cualitativa disponible del fenmeno real. Como por ejemplo en el caso de un
depsito se le puede aadir la geometra de las fallas principales, etc.

6.4 Simulacin o estimacin ?

Los fenmenos simulados tienen los mismos valores experimentales en las localizaciones
muestrales y tienen las mismas medidas de dispersin (al menos hasta de orden 2) que
el depsito real.

Entonces, en qu sentido la simulacin condicional difiere de una estimacin ?

La diferencia estriba en sus objetivos.

A. El objetivo de una estimacin es ofrecer en cada punto x un valor estimado

Z * ( x ) el cual es tan cercano como sea posible del valor real desconocido Z ( x ) .

Los criterios de la calidad de la estimacin son:

i.) que sea no sesgada


E Z * ( x ) Z ( x ) = 0 (6.2)

ii.) y que la varianza el error sea mnima

min E {Z * ( x ) Z ( x )}
2
(6.3)
x

El estimador no tiene que reproducir la variabilidad espacial de los valores reales


Z ( x ) . En el caso del Kriging este produce un suavizado de las dispersiones reales,

dicho de otra forma, se subestima la variabilidad de los valores reales.

91
Martn A. Daz Viera

B. Mientras que el objetivo de la simulacin es reproducir las propiedades estadsticas


de la funcin aleatoria Z ( x ) . Dicho explcitamente, la simulacin Z S ( x ) posee los

mismos momentos experimentales (media, covarianza o variograma, as como el


histograma) que los valores reales {Z M ( xi ) , i = 1,..., n} , los cuales caracterizan

las principales propiedades estadsticas de Z ( x ) . En particular, en las simulaciones

condicionadas en cada punto x el valor simulado Z SC ( x ) no es el mejor estimador

posible de Z ( x ) . Por el contrario, se puede mostrar que la varianza del error de la

estimacin de Z ( x ) mediante simulacin condicional Z SC ( x ) es exactamente el

doble de la varianza del error usando Kriging.

6.5 La teora de la simulacin condicional

El problema consiste en construir una realizacin de la funcin aleatoria Z SC ( x )

isomorfa a Z ( x ) , es decir una realizacin que tenga el mismo valor esperado ( E Z ( x ) )

y el mismo momento de segundo orden ( C ( h ) o ( h ) ). Adems la realizacin Z SC ( x )

debe estar condicionada a los datos experimentales o sea que en los puntos
experimentales los valores simulados deben coincidir con los valores observados.

Z SC ( xi ) Z M ( xi ) ; i = 1,..., n (6.4)

Consideremos el valor real Z ( x ) y el valor interpolado por Kriging Z K* ( x ) a partir de

los datos disponibles {Z ( x ) , i = 1,..., n} .


M i Estos dos valores difieren en un error

desconocido

Z ( x ) = Z K* ( x ) + {Z ( x ) Z K* ( x )} (6.5)

92
Martn A. Daz Viera

Una propiedad caracterstica del Kriging es que su error Z ( x ) Z K* ( x ) es ortogonal a los

valores interpolados

( )
E Z K* y {Z ( x ) Z K* ( x )} = 0; x, y (6.6)

Para obtener la simulacin condicional deseada es suficiente reemplazar el error del


Kriging Z ( x ) Z K* ( x ) por un error isomorfo e independiente Z S ( x ) Z S* ( x ) .

Dada una realizacin Z S ( x ) cuando aplicamos el Kriging a la misma configuracin de

datos {Z ( x ) , i = 1,..., n}
S i el error del Kriging resultar Z S ( x ) Z SK
*
( x) e

independiente de Z K* ( x ) . La simulacin condicional requerida es

Z SC ( x ) = Z K* ( x ) + {Z S ( x ) Z SK
*
( x )} (6.7)

Los requerimientos de una simulacin condicional son satisfechos ya que tenemos lo


siguiente:

a) La funcin aleatoria Z S ( x ) tiene el mismo valor esperado que Z ( x ) . Esto sale

de la condicin de insesgadez del Kriging


E Z K* ( x ) = E Z ( x ) y E Z SK
*
( x ) = E Z S ( x ) (6.8)

entonces
E Z SC ( x ) = E Z ( x ) (6.9)

b) La funcin aleatoria Z SC ( x ) es isomorfa a Z ( x ) , esto sale de que el error del

kriging de la simulacin Z S ( x ) Z SK
*
( x) es isomorfo al error verdadero

Z S ( x ) Z S* ( x ) e independiente de Z K* ( x ) . En otras palabras los variogramas de

estas dos funciones aleatorias son idnticas pero no necesariamente sus


covarianzas.

93
Martn A. Daz Viera

c) La realizacin simulada Z SC ( x ) es condicional a los datos experimentales.

Esto se obtiene del hecho que en los puntos de observacin los valores
interpolados por Kriging son iguales a los valores medidos
Z K* ( xi ) = Z M ( xi ) y Z SK
*
( xi ) = Z S ( xi ) xi , i = 1,..., n (6.10)

6.6 Mtodos de simulacin de funciones aleatorias ms conocidos

Las aplicaciones de la simulacin de funciones aleatorias en los ltimos tiempos han


adquirido una importancia cada vez mayor en la industria del petrleo, en geofsica e
hidrogeologa lo cual ha hecho que esta rea de la geoestadstica sea la que ms
activamente se ha desarrollado. Debido a esto se han diversificado los mtodos de
simulacin, por lo que intentar establecer alguna clasificacin sistemtica de los mismos
resulta una tarea compleja y difcil. Aqu intentaremos dar una idea general de los mtodos
ms conocidos y sus caractersticas.

Mtodo de Simulacin Condicionado Gaussiano Malla Regular


Matricial Si Si No
Espectral No Si No
Bandas Rotantes No Si No
Secuencial Gaussiano Si Si No
Secuencial Indicador Si No No
Gaussiano Truncado Si Si No
Recocido (Annealing) Si No Si
Simulado

Una de las caractersticas distintivas de los mtodos de simulacin es si generan


directamente simulaciones condicionadas o si se requiere de un postprocesamiento para
condicionarlas usando Kriging. Existe una gran cantidad de mtodos que generan
simulaciones Gaussianas, por lo que ste es otro punto a tener en cuenta. Y por ltimo
veremos cuales mtodos requieren de mallas regulares.

94
Martn A. Daz Viera

En la tabla anterior se resumen las tres caractersticas antes mencionadas de los mtodos de
simulacin que revisaremos a continuacin con cierto detalle.

6.7 Mtodos del tipo Gaussiano

En el caso de los mtodos del tipo Gaussiano haremos un parntesis, y nos detendremos
brevemente en ellos antes de abordar en detalle cada uno de los mtodos en especfico ya
que requieren de un tratamiento especial.

Estos mtodos requieren que la FDP multivariada de la funcin aleatoria Z ( x ) a simular

sea Gaussiana.

Como es conocido la mayora de los fenmenos de ciencias de la tierra no presentan


histogramas simtricos y mucho menos gaussianos. Por lo que nos enfrentamos aqu con la
primera dificultad a la hora de aplicar esta clase de mtodos.

La primera condicin necesaria para que una funcin aleatoria posea una distribucin
normal multivariada es que su distribucin univariada sea normal. Esto nos dice que
necesitamos transformar a la funcin aleatoria Z ( x ) de manera que resulte su FDP normal.

El modo de hacerlo es relativamente simple. Si Y ( x ) es una funcin aleatoria con FDP

univariada FY ( y ) = G ( y ) normal estandarizada N ( 0,1) . Entonces, se cumple que

FY ( y p ) = FZ ( z p ) = p; p [ 0,1] (6.11)
y por lo tanto la transformacin que se requiere sera
y = FY 1 ( FZ ( z ) ) (6.12)

En la prctica los n datos de la muestra de Z ( x ) son ordenados de modo creciente de sus

valores:
z (1) z (2) ... z ( n ) (6.13)

95
Martn A. Daz Viera

Datos muestrales de la Funcin


Aleatoria Z ( x )

Distribucin Si
Gaussiana ?

No
Transformacin Gaussiana

Anlisis Estructural:
Obtencin del variograma

Simulacin Gaussiana

Si
Condicional ?

No

Condicionamiento: Kriging

Transformacin Gaussiana Inversa

Simulacin Condicional
de la F.A. original Z SC ( x )

Fig. 6.1: Esquema general de las Simulaciones de tipo Gaussianas

96
Martn A. Daz Viera

La FDP acumulativa de Z ( x ) est dada por FZ ( z ( k ) ) = k n , entonces la transformacin

correspondiente sera
y ( k ) = G 1 ( k n ) (6.14)
A este tipo de transformacin se le conoce como anamorfosis.

Pero esto an sera insuficiente puesto que se requerira verificar la normalidad al menos de
la distribucin bivariada. Aunque en muchos casos para fines prcticos no se lleva tan lejos
el anlisis y se toma la decisin de considerar a la distribucin gaussiana o por el contrario
se rechaza esa hiptesis y se elige otro mtodo de simulacin no gaussiano.

Luego de realizar la simulacin Gaussiana a los datos transformados se requiere hacer la


transformacin inversa de los valores simulados obtenidos. En la Fig. 6.1 se muestra un
esquema general de cmo proceder con las simulaciones de tipo Gaussianas.

6.8 Mtodo matricial

El mtodo matricial consiste en generar variables aleatorias cuya matriz de covarianza


coincide con la obtenida a partir del kriging. Es sencillo de implementar pero resulta muy
costoso al incrementarse la cantidad de puntos a simular ya que el tiempo de procesamiento
es superior al cuadrado del nmero de puntos.

Supongamos que se desea obtener realizaciones de una funcin aleatoria Z ( x ) en n

puntos prefijados, es decir, necesitamos obtener realizaciones estadsticamente equivalentes

del vector aleatorio Z = {Z ( x1 ) , Z ( x 2 ) ,..., Z ( x n )} .


T

Supongamos adems, que son conocidos


i.) El valor medio esperado de Z ( x )

m ( x ) = E Z ( x ) (6.15)

97
Martn A. Daz Viera

ii.) Y la funcin de covarianzas de cualquier par de puntos Z ( xi ) y Z ( x j ) definida

como:

{ }
C ( xi , x j ) = E {Z ( xi ) m ( xi )} Z ( x j ) m ( x j )

(6.16)

Entonces el vector de los valores esperados de Z se puede expresar como:

E [ Z ] = {m ( x1 ) , m ( x 2 ) ,..., m ( x n )} m
T
(6.17)

y correspondientemente la matriz de covarianzas

{ }
Var [ Z ] = C ( xi , x j ) C (6.18)

donde C es una matriz n n simtrica y positiva definida.

Dada una matriz M que satisfaga


T
MM =C (6.19)

Entonces el vector aleatorio Z puede ser simulado usando la relacin:

ZS = m+ M (6.20)

donde { ( x1 ) , ( x 2 ) ,..., ( x n )} es un vector de variables aleatorias no correlacionadas,


T

con valor medio cero y varianza unitaria, es decir:


E [ ] = 0 y Var [ ] = I (6.21)

En particular, para la obtencin de la matriz M , la descomposicin de Cholesky resulta

una buena eleccin ya que permite expresar eficientemente a C como:


T
C = LL (6.22)

donde L es una matriz n n triangular inferior (todos los elementos por encima de la

diagonal son ceros).

98
Martn A. Daz Viera

Es bueno hacer notar que usualmente el vector se toma como realizaciones de variables

aleatorias con distribucin gaussiana y por lo tanto esto implica que Z S es una realizacin

de una distribucin gaussiana multivariada, aunque se podra tomar en calidad de


realizaciones de variables aleatorias no correlacionadas con media cero y varianza uno de
cualquier distribucin de probabilidad conjunta.

En el caso estacionario los componentes de la matriz de covarianza son:


Cij = C ( xi , x j ) = Z2 ij (6.23)

Mientras que para funciones intrnsecas se usa como alternativa equivalente:


Cij = ( x 0 xi ) + ( x 0 x j ) ij (6.24)
donde x 0 es un punto arbitrario pero comn a todos los Cij .

Para que la simulacin sea condicional basta con tomar al vector de valores esperados m
*
igual a la estimacin por kriging Z y a C como la matriz de covarianza de dicha

estimacin, resultando:
Z SC = Z + M
*
(6.25)

Este mtodo clsico fue introducido en aplicaciones geoestadsticas por Davis (1987), y es
aplicable hasta lmite que sea factible la descomposicin de Cholesky, es decir, hasta unos
cuanto cientos de puntos simulados.

6.9 Mtodo espectral

Los mtodos espectrales hacen uso de la representacin espectral de la funcin de


autocovarianza. Existen diversas variantes. Una se basa en aproximar la funcin aleatoria
mediante serie de cosenos en los que la frecuencia se muestrea aleatoriamente a partir de la
funcin de densidad espectral. Otra se considera como una integracin numrica en la que
se ponderan las amplitudes y se distribuyen uniformemente las frecuencias. A continuacin
veremos con algn detalle el primer enfoque.

99
Martn A. Daz Viera

Supongamos que tenemos una funcin aleatoria Z ( x ) en una dimensin y estacionaria de

segundo orden con:


i.) valor esperado nulo
E Z ( x ) = 0; x (6.26)

ii.) funcin de covarianzas C ( h ) y por lo tanto la varianza existe, es finita y no

depende de x , es decir
2 = C (0) (6.27)

Ha sido demostrado (Bochner, 1955) que cualquier funcin positiva definida y simtrica
C ( h ) corresponde a la funcin de covarianzas de una funcin aleatoria Z ( x ) estacionaria

de segundo orden, ms aun C ( h ) es una funcin positiva definida si y solo si existe su

representacin espectral siguiente


+
C ( h) = cos ( h ) dF ( ) (6.28)

donde F ( ) es una funcin acotada positiva y simtrica; y a F ( ) C ( 0 ) se le llama


funcin de distribucin espectral, ya que F (i) C ( 0 ) es una funcin de distribucin de
probabilidad.
+
Cuando se cumple que dF ( ) = f ( )d , lo cual es posible si C ( h ) dh < , entonces

f ( ) C ( 0 ) est definida y se le conoce como funcin de densidad espectral ya que


+

f ( ) C ( 0 ) d = 1 por lo que f (i) C ( 0 ) es una funcin de densidad de probabilidad.

Shinozuka (1971), y Mejia y Rodrguez-Iturbe (1974) propusieron la siguiente frmula para


simular una funcin aleatoria
N
ZN ( x) (2 / N ) cos ( x + )
12
i i (6.29)
i =1

donde i , i = 1,..., N , son realizaciones independientes de una variable aleatoria con

densidad de probabilidad f (i) C ( 0 ) , independiente de i , i = 1,..., N que son realizaciones

independientes con distribucin uniforme en el intervalo [ , ] .

100
Martn A. Daz Viera

Se puede comprobar que Z N ( x ) es una funcin aleatoria, independientemente del valor de

N , que tiene valor medio cero


N +
E Z N ( x ) = ( 2 N )1 2
2 cos ( x + ) f ( ) d d = 0
i =1
(6.30)

y funcin de covarianzas C ( h )
N N
E Z N ( x + h ) Z N ( x ) = ( 2 2 / N ) E cos ( k x + k ) cos (l ( x + h ) + l )
k =1 l =1

= 2 E cos ( k x + k ) cos ( k ( x + h ) + k )
2
(6.31)
+
= cos ( h ) f ( )d = C ( h )

A medida de que se incrementa el valor de N la funcin aleatoria Z N ( x ) converge

dbilmente a una funcin aleatoria Gaussiana Z ( x ) , es decir

lim Z N ( x ) Z ( x ) ; x [ a, b ] (6.32)
N

y el proceso se hace ergdico. Por ergodicidad se entiende que cualquier realizacin de la


funcin aleatoria es representativa de esta, es decir, que las estimaciones muestrales de los
primeros momentos de la realizacin convergen a los momentos de la distribucin de
probabilidad de la funcin aleatoria.

Este mtodo se puede generalizar fcilmente para el caso de varias dimensiones cuando
Z ( x ) , para x 3
y tambin puede ser aplicado para simular procesos aleatorios

vectoriales.
Como en general se simulan funciones aleatorias Z ( x ) con valor esperado no nulo,

E Z ( x ) = m ( x ) , luego de simular el proceso estacionario con media cero se requiere

agregar a los valores simulados el valor medio esperado m ( x ) de Z ( x ) .

El mtodo espectral tiene como ventaja que permite producir simulaciones en cualquier
punto dada la funcin de covarianzas C ( h ) siempre que se pueda calcular su

101
Martn A. Daz Viera

transformacin de Fourier. Pero su desventaja principal es que requiere de un valor elevado


de N (del orden de miles) para que alcance la ergodicidad.

6.10 Mtodo de bandas rotantes

El mtodo de las bandas rotantes consiste en generar procesos unidimensionales a lo


largo de lneas distribudas uniformemente en el espacio. La simulacin en un punto
arbitrario resulta de la suma de las proyecciones de este punto sobre las lneas. Es muy
econmico puesto que slo requiere de simulaciones unidimensionales. Su dificultad
fundamental estriba en la obtencin de la funcin de covarianza unidimensional
especialmente para variables bidimensionales.

Muchos mtodos han sido propuestos para la simulacin de un proceso estocstico


estacionario en una dimensin a partir de la generacin de realizaciones de su funcin
aleatoria Z ( x ) dada su funcin de covarianzas. Sin embargo cuando se trata de extender

estos procedimientos a dos o ms dimensiones se tornan en demasiado complicados y en


general prohibitivos debido al tiempo de computo que consumen.

La originalidad del mtodo conocido como el de bandas rotantes se debe a G. Matheron,


el cual consiste en reducir el problema de obtener una simulacin en tres dimensiones a
varias simulaciones independientes en una sola dimensin a lo largo de ciertas lneas
3
rotadas en el espacio tridimensional . Por lo que este mtodo produce simulaciones n-
dimensionales a un costo de computo razonable, equivalente de hecho al costo de las
simulaciones unidimensionales.

3
Considere una lnea L1 en el espacio tridimensional y una funcin aleatoria

unidimensional, estacionaria de segundo orden Y ( xL1 ) definida sobre dicha lnea L1 , con

valor esperado E Y ( xL1 ) = 0 y funcin de covarianzas unidimensional C ( ) ( hL1 ) .


1

102
Martn A. Daz Viera

Sea xL1 la proyeccin de cualquier punto x 3


sobre la lnea L1 , entonces se define la

siguiente funcin aleatoria Z1 ( x ) en tres dimensiones como:

Z1 ( x ) Y ( xL1 ) ; x 3
(6.33)

Esta funcin aleatoria es estacionaria de segundo orden, con valor esperado cero y funcin
de covarianzas tridimensional

E Z1 ( x ) Z1 ( x + h ) = E Y ( xL1 ) Y ( xL1 + hL1 ) = C ( ) ( hL1 )


1
(6.34)
donde hL1 es la proyeccin del vector h sobre la lnea L1 .

En la prctica para producir una realizacin z1 ( x ) de la funcin aleatoria Z1 ( x ) , se

procede asignando el valor simulado y ( xL1 ) en el punto xL1 de la lnea L1 a todos los

puntos que se encuentran dentro de una banda centrada en el plano xL1 = const. ,

perpendicular a la lnea L1 . El ancho de esta banda es el paso o intervalo de separacin

xL1 entre los puntos simulados sobre la lnea L1 .


3
Si se consideran N lneas L1 ,..., LN distribuidas uniformemente en N direcciones en .

Si en cada lnea Li se genera una realizacin y ( xLi ) de una funcin aleatoria

unidimensional independiente Y ( xLi ) e isomorfa a Y ( xL1 ) , {Y ( x ) , i = 1,..., N } , entonces


Li

se puede definir de manera anloga realizaciones tridimensionales a partir de las


simulaciones unidimensionales:
zi ( x ) y ( xLi ) ; x 3
(6.35)
Y finalmente a cada punto del espacio tridimensional x 3
se le asigna el siguiente valor
a partir de las simulaciones unidimensionales
1 N
zS ( x ) =
N i =1
zi ( x ); x 3 (6.36)

Esta realizacin de la funcin aleatoria tridimensional es estacionaria de segundo orden con


valor medio cero y funcin de covarianzas:
E Z S ( x ) Z S ( x + h ) = CS ( h ) (6.37)
la cual, cuando N tiende al , tiende a la funcin de covarianzas isotrpica C ( h ) .

103
Martn A. Daz Viera

Para fines prcticos la funcin de covarianzas tridimensional C (3) ( h ) se considera

conocida y la funcin de covarianzas unidimensional C ( ) ( hL1 ) de la funcin aleatoria a ser


1

simulada en cada una de las N lneas se obtiene a partir de la primera usando la expresin

C (1) ( r ) =
d
dr
{ }
rC (3) ( r ) (6.38)

Sin embargo no existe unas expresin directa para obtener la C (1) ( h ) a partir de la funcin

de covarianzas bidimensional C (2) ( h ) .

Es uno de los mtodos mas eficientes para producir simulaciones en varias dimensiones
puesto que reduce su complejidad al orden de las simulaciones en una dimensin. Como
dificultades prcticas se le debe apuntar que requiere del conocimiento o del clculo de
C (1) ( h ) y de un algoritmo de simulacin en una dimensin que reproduzca esta funcin de

covarianzas. Usualmente se emplea el mtodo espectral.

6.11 Mtodos secuenciales

En estos mtodos un nuevo valor simulado Z S ( x ) se obtiene a partir de la funcin de

distribucin de probabilidad estimada usando los valores observacionales (reales) y los


valores previamente simulados en etapas anteriores en una vecindad del punto x .

En dependencia de cmo se estime la funcin distribucin de probabilidad, existen dos


mtodos secuenciales:

a) Secuencial Indicador: Usa el Kriging indicador para estimar la funcin distribucin


de probabilidad local. Requiere del modelo del semivariograma para cada valor de corte
zc especificado por el usuario o como alternativa mas eficiente pero menos precisa del

semivariograma obtenido para el valor corte correspondiente a la mediana zM .

104
Martn A. Daz Viera

b) Secuencial Gaussiano: Se obtiene la estimacin usando Kriging ordinario aplicado a


los datos estandarizados, es decir Y ( xi ) = ( Z ( xi ) mZ ) Z , i = 1,..., n . Se requiere del

modelo del semivariograma basado en los datos transformados y cada vez que se
obtienen los valores estimado son transformados hacia atrs a su escala original. Su
dificultad principal estriba en el grado de conocimiento que se posea de la funcin
distribucin de probabilidad, lo cual puede ser suplido en parte por la experiencia previa
sobre la naturaleza del fenmeno que se simula. Hay programas, como el de GSLIB que
permite extrapolar valores de la FDP, usando modelos potencia, hiperblico y lineal.

6.12 Mtodo Gaussiano Truncado

Consideremos un indicador o una serie de indicadores que se originan aplicando uno o ms


umbrales a una F.A. Gaussiana Y ( x ) ,

I i ( x ) = 1yi1 <Y ( x )< yi , donde = y0 < y1 < ... < ym = + (6.39)

Los umbrales yi son elegidos de manera que concuerden con las proporciones pi de los

indicadores
i
yi = G 1 p j (6.40)
j =1

Una vez que el correlograma de la F.A. Gaussiana Y ( x ) es conocido, las funciones de

covarianzas directa y la cruzada de los indicadores son conocidos. La simulacin de los


I i ( x ) se reduce a la simulacin de Y ( x ) . En aplicaciones se elige directamente ( h ) de

manera que los variogramas tericos de los indicadores deducidos a partir de las relaciones
(6.41) o (6.42) se ajusten bien a los variogramas muestrales.
( h)
1 z 2 du
C ( h; z ) = exp (6.41)
2 0 1+ u 1 u2
o

n 1 ( y ) n 1 ( y )
C yy ( h ) = g ( y ) g ( y ) (h)
n
(6.42)
n =1 n

105
Martn A. Daz Viera

donde n ( y ) = H n ( y ) n ! es el polinomio de Hermite normalizado el cual forma una

base ortonormal con respecto a la distribucin gaussiana estndar.

En efecto, estas relaciones no son invertidas fcilmente, excepto si el valor de corte es en


y = 0 . Mas an, mientras cualquier correlograma ( h ) produce un modelo vlido de

covarianza indicador mediante la aplicacin de (6.41) , no es cierto lo inverso, es decir, que


la inversin de esta relacin sea un modelo vlido de correlograma, incluso si partimos de
una covarianza indicador, ya que sta no es necesariamente la covarianza de una F.A.
Gaussiana truncada.

Examinemos la construccin de las simulaciones condicionales. Si los datos provienen


directamente de Y ( x ) , estamos en el caso estndar de la seccin 6.5, en caso contrario los

datos son de los indicadores y se procede en cuatro pasos:

1.- Anlisis estructural global de los variogramas directos y cruzados de los diferentes
indicadores, ajustando un modelo derivado a partir del correlograma ( h ) .

2.- Simulacin de Y ( x ) en los puntos muestrales condicionada en los valores del

indicador.
3.- Simulacin de toda la malla condicionada en estos valores duros simulados.
4.- Transformacin de la simulacin de Y ( x ) a la simulacin de los indicadores.

Este mtodo puede ser fcilmente adaptado a la regionalizacin de las proporciones de


diferentes indicadores y de los correspondientes umbrales. Es aplicado para la simulacin
de litofacies. Esto conduce a simulaciones de tipo difusivas, en el sentido que la facies i
est rodeada slo por facies i 1 y i + 1 . Pero el mtodo puede ser generalizado usando dos
F.A. Simuladas Gaussianas independientes o correlacionadas de manera que las facies no
sigan una a la otra en un orden fijo, el cual se conoce como mtodo de simulaciones
plurigaussianas truncadas.

106
Martn A. Daz Viera

6.13 Simulaciones Plurigaussianas Truncadas

La definicin general de una plurigaussiana truncada est basada en una particin


Di , i = 1,..., n del espacio p -dimensional, es decir, Di Dk = y Di = p
, y en un
i

vector de p gaussianas:

Y ( x ) = (Y1 ( x ) , Y2 ( x ) ,..., Yp ( x ) ) (6.43)

donde x son las coordenadas de una ubicacin en 3D.

6.14 Mtodos del tipo Recocido Simulado

El recocido simulado (simulated annealing) es un mtodo heurstico que permite la


generacin de simulaciones condicionales sujetas a restricciones complejas. Fue
introducido por Kirkpatrick (1983) como un mtodo para la solucin de problemas
combinatorios (discretos) de optimizacin. Y su nombre proviene por la analoga del
mtodo con el proceso de enfriamiento lento del metal fundido de manera que alcance un
estado de mnima energa el cual corresponde a una estructura cristalina pura
completamente ordenada del metal. Si el enfriamiento no se realiza con la lentitud
adecuada, el metal no alcanza dicho estado y degenera en una estructura amorfa o
policristalina.

El mtodo computacional inicia con una imagen aleatoria y requiere de los datos
observados y del modelo del variograma a reproducir.

Durante su ejecucin el algoritmo intenta modificar la imagen inicial de manera tal que
reproduzca el variograma y al mismo tiempo mantenga la misma distribucin de
probabilidad de los datos observados.

Esquema general del algoritmo es:

107
Martn A. Daz Viera

1) Crea imagen inicial asignando a cada nodo de las malla de simulacin valores de
manera aleatoria generados a partir de la funcin distribucin de probabilidad
(FDP) suministrada por el usuario. Cuando el nodo de la malla de simulacin
coincide con el nodo de una observacin o es cercano a ste con cierto error de
tolerancia, se le asigna el valor observado a ste. Este imagen inicial as obtenida no
tiene que reflejar ningn modelo de variograma especfico.
2) En una segunda etapa el algoritmo intenta reproducir el variograma modelo
intercambiando valores en los nodos de la malla de simulacin elegidos de manera
aleatoria. Se aceptan como permanentes los intercambios que reduzcan la diferencia
entre el variograma suministrado ( h ) y el que refleja los datos simulados * ( h ) .

Es decir, se intenta minimizar la siguiente funcin objetivo

2
* ( hi ) ( hi )
FO1 = (6.44)
i ( hi )

Para evitar caer en un mnimo local, son aceptados algunos intercambios que incrementan
el valor de la funcin objetivo, es decir la aceptacin del intercambio es probabilstica. Se
espera que para un nmero elevado de iteraciones la funcin objetivo tienda al mnimo
global y consecuentemente los valores simulados posean una estructura espacial cercana al
variograma de los datos observados.

Una alternativa a la funcin objetivo arriba propuesta puede incluir restricciones y tener la
siguiente forma:

FO2 = w1 * ( hi ) ( hi ) + w2 *j j
2 2
(6.45)
i j

donde el segundo trmino es una medida de la discrepancia de cierta propiedad, mientras


que w1 y w2 le dan un peso relativo a cada uno de los trminos.

Desde el punto de vista computacional es un mtodo muy demandante ya que requiere de


millones de iteraciones para que la simulacin refleje correctamente la estructura de la
funcin de semivarianzas.

108
Martn A. Daz Viera

109
Martn A. Daz Viera

ANEXO A: CONCEPTOS BSICOS DE ESTADSTICA

A.1 ESTADSTICA UNIVARIADA.

- Variable Aleatoria (V.A.): Es una variable Z (propiedad) que puede tomar una serie
de valores o realizaciones (zi, i=1,...,N) con un conjunto dado de probabilidad de
ocurrencia (pi, i=1,...,N)

- Variable Aleatoria Discreta: cuando el nmero de ocurrencias es finito, se conoce


como variable aleatoria discreta. Las N probabilidades de las ocurrencias deben
satisfacer las condiciones siguientes:
1.- pi 0, i = 1,..., N
N
2.- p
i =1
i =1

- Variable Aleatoria Continua: Si el nmero de ocurrencias posibles es infinito, por


ejemplo el valor de la porosidad del medio se encuentra en el intervalo [0,100%],
entonces se dice que la VA Z es continua.

- Funcin de Distribucin de Probabilidad (FDP)

1.- VA discreta, se conoce como histograma acumulativo


F ( zi ) = p [0,1]
z j zi
j (A.1)

2.- VA continua, se conoce como funcin de distribucin de probabilidad


(acumulativa) y se define como:
F ( z ) = Pr {Z z} [ 0,1] (A.2)

La FDP caracteriza completamente a la VA.

Propiedades de una FDP:

1.- F( ) = 0

106
Martn A. Daz Viera

2.- F( + ) = 1
3.- Pr{Z > z} = 1 F ( z )

4.- F ( z1 ) F ( z 2 ), z1 z 2 , es decir es una funcin no decreciente.

- Funcin de Densidad de Probabilidad (fdp).


1.- VA continua, se define como:
dF ( z )
f ( z) = (A.3)
dz
cuando esta existe.
2.- VA discreta es el histograma.

Propiedades de una fdp:

1.- f ( ) = f ( + ) = 0
+
2.- f ( z )dz = 1

z1

3.- F ( z1 ) = f ( z )dz

b
4.- Pr{a Z b} = f ( z )dz
a

5.- f(z) 0

- Percentiles o cuantiles de una distribucin F(z).

El percentil de una distribucin F(z) es el valor zp de la V.A. tal que:


F ( z p ) = p [ 0,1] (A.4)

Si existe la funcin inversa se puede expresar como:


z p = F 1 ( p) (A.5)

donde p es expresada en por ciento.

107
Martn A. Daz Viera

Algunos cuantiles de inters:

Mediana, p = 0.5 (50 %)

M = F 1 (0.5) (A.6)
Cuartiles
p=0.25 (primer cuartil o inferior)
z0.25 = F 1 (0.25) (A.7)
p=0.75 (tercer cuartil o superior)
z0.75 = F 1 (0.75) (A.8)

Rango o intervalo intercuartil (IR)


[ z0.25 , z0.75 ] (A.9)

- Valor Esperado o esperanza matemtica de una VA.

Es el valor ms probable que puede tomar la VA. Se conoce tambin como valor medio o
media.
1.- VA discreta

N
m = E [ Z ] = pi zi (A.10)
i =1

2.- VA continua
+ +
m = E [Z ] = zdF ( z ) = zf ( z )dz (A.11)

De manera anloga se puede definir el valor esperado de cualquier funcin de una VA. Por
ejemplo si tenemos la funcin ( Z ) de la VA Z, entonces su valor esperado se define

como:
1.- VA discreta
N
E ( Z ) = pi ( zi ) (A.12)
i =1

108
Martn A. Daz Viera

2.- VA continua
+ +
E ( Z ) = ( z ) dF ( z ) = ( z ) f ( z )dz (A.13)

Propiedades lineales del valor esperado:

Es un operador lineal, que cumple:

1.- Para cualquier ak constantes y Z k VAs


E ak Z k = ak E {Z k } (A.14)
k k1
2.- Para cualquier par de funciones 1 ( Z ) y 2 ( Z ) de la VA Z

E 1 ( Z ) + 2 ( Z ) = E 1 ( Z ) + E 2 ( Z ) (A.15)

- Momento de orden r de una Funcin de Distribucin de Probabilidad


+ +
mr = E Z r =

z r dF ( z ) = z r f ( z )dz

(A.16)

- Momento central de orden r de una Funcin de Distribucin de Probabilidad


+ +
r = E ( Z m ) = ( z m) dF ( z ) = ( z m ) f ( z )dz
r r r
(A.17)

- Varianza 2 de una VA (2do momento central)

Se define como el valor esperado de la desviacin cuadrtica de la VA Z respecto a su valor


medio m . Y caracteriza la dispersin de la distribucin alrededor de la media.

2 = Var [ Z ] = E ( Z m ) 0
2
(A.18)

2 = E ( Z m ) = E Z 2 2mZ + m 2
2
(A.19)
= E Z 2mE [ Z ] + m 2 = E Z 2 m 2
2

109
Martn A. Daz Viera

1.- VA discreta
N
Var [ Z ] = pi ( zi m )
2
(A.20)
i =1

2.- VA continua
+ +
Var [ Z ] = ( z m) dF ( z ) = ( z m ) f ( z )dz
2 2
(A.21)

- Desviacin Estndar

= Var [ Z ] (A.22)

- Coeficiente de variacin (dispersin relativa)


CV = / m (A.23)

- Desviacin absoluta media alrededor de la media


mAD = E Z m (A.24)

- Desviacin absoluta media alrededor de la mediana


MAD = E { Z M } (A.25)

- Signo de Simetra
cuando >0, m > M y se dice que hay asimetra positiva
Sign ( m M ) = (A.26)
cuando <0, m < M y se dice que hay asimetra negativa
Ver figura 1.

- Coeficiente de simetra (medida de la simetra)


3
1 = (A.27)
23/ 2
- Coeficiente de curtsis (medida del achatamiento)
4
2 = 3 (A.28)
22

110
Martn A. Daz Viera

Figura 1. -Diferentes tipos de distribuciones

- Estimadores muestrales

- Valor medio(media)
El promedio es un estimador insesgado del valor medio de la poblacin
N
1
m* = z =
N
z
i =1
i (A.29)

- Varianza
1 N
( 2 ) = S 2 =
*
( zi z )
2
(A.30)
N 1 i =1
-Distribucin Normal o Gaussiana. Caractersticas.

Esta distribucin est completamente caracterizada por sus dos parmetros: media m y
varianza 2 y se designa mediante N ( m, 2 ) .

La fdp normal o Gaussina est dada por

1 1 z m 2
g ( z) = exp (A.31)
2 2

111
Martn A. Daz Viera

Para el caso de la fdp estndar los parmetros son: media m = 0 y varianza 2 = 1 , es


decir N ( 0,1) , entonces

1 z2
g0 ( z ) = exp (A.32)
2 2
La correspondiente FDP no tiene una expresin analtica, pero est bien tabulada:
z
G0 ( z ) = g (u )du

0 (A.33)

y correspondientemente
z
zm
G( z) = g (u )du = G

0

(A.34)

La distribucin gaussiana es simtrica respecto a la media, es decir se cumple que:


m = M; g (m + z ) = g (m z ); G (m z ) = 1 G (m + z ); (A.35)
z1- p = 2m - z p ; p [0, 0.5] (A.36)

Una de las razones de la popularidad de la distribucin gaussiana se debe a los teoremas del
lmite central que dice:
Si n VAs Z i independientes tienen la misma FDP y media cero, entonces la variable
aleatoria
1 n
Y= Zi tiende a tener una distribucin Normal cuando n
n i =1
(A.37)

-Modelo LogNormal. Caractersticas.

Muchas distribuciones experimentales tienden a ser asimtricas , con media y medianas


diferentes, y la mayora de las variables en ciencias de la tierra toman valores no
negativos. Varias transformaciones del modelo normal han sido definidas para acomodarse
a las caractersticas de las distribuciones de los datos en ciencias de la tierra.

Una VA positiva Y se dice que tiene una distribucin lognormal si su logaritmo


X = ln (Y ) esta normalmente distribuido.

112
Martn A. Daz Viera

Y > 0 log N ( m, 2 ) , si X = ln Y N ( , 2 ) (A.38)

Tambin la distribucin Lognormal est completamente caracterizada por dos parmetros:

1.- media y varianza ( m, 2 ) parmetros aritmticos

2.- media y varianza ( , 2 ) de la transformacin logartmica X = ln (Y ) , parmetros

logartmicos.

La FDP se expresa ms fcilmente a travs de los parmetros logartmicos ( , 2 ) .

ln y
Pr {Y y} = FY ( y ) = G0 (A.39)

Y su correspondiente fdp es
1 ln y
fY ( y ) = FY' ( y ) = g0 (A.40)
y
Relacin entre los parmetros aritmticos y logartmicos:
2
m = e + 2 / 2 = ln m
2
2 (A.41)
= m e 1 2 2
2 2
= ln 1 + 2
m
La fdp lognormal tiene asimetra positiva.

Un corolario del teorema del lmite central dice:


n
El producto de VA independientes con igual fdp Y = Yi tiende a estar lognormalmente
i =1

distribuidas cuando n es grande. Usando el teorema del lmite central, tenemos que
n n
Y = Yi ln Y = ln Yi Normal cuando n (A.42)
i =1 i =1

entonces Y Lognormal, cuando n .

113
Martn A. Daz Viera

Mtodos Clsicos de Estimacin

Un estimador de un parmetro de una poblacin puede ser dado por

- Estimador Puntual: Un estimador puntual * de un parmetro de una poblacin es


un valor simple o realizacin de una variable aleatoria * , es decir los valores que
pueden tomar el estimador define una variable aleatoria con cierta distribucin de
probabilidad asociada. Ej: El valor z del estadgrafo promedio Z calculado para n
valores muestrales, es un estimador puntual del parmetro valor medio m de una
poblacin.

- Intervalo de Estimacin: Un intervalo de estimacin de un parmetro es un


intervalo de la forma a < < b , donde a y b dependen del estimador puntual * para

una muestra dada y tambin de la distribucin muestral del estadgrafo .

Def: Un estadgrafo se dice que es un estimador insesgado de un parmetro de una


poblacin si se cumple que

= E [ ] = m
m = E (A.43)

o dicho de otra manera si el valor esperado del error de la estimacin es cero

E [ ] = 0
= E
E e = E (A.44)

Def: Se considera el estimador ms eficiente a aquel que tiene la menor varianza de todos
los estimadores insesgados posibles de un parmetro de una poblacin

Ejemplo: Estimacin del valor medio (m)

Estimador puntual:

114
Martn A. Daz Viera

N
1
z=
N
z
i =1
i (A.45)

E Z = m (A.46)

Var Z = 2 / N (A.47)

Intervalo de estimacin:

Cuando N es suficientemente grande (>30) se puede considerar la distribucin muestral del


estadgrafo Z aproximadamente como normal con media mZ y desviacin estndar

Z =Z / N .

Sabemos que una VA Z S con una distribucin normal estndar se encuentra en el intervalo
[-1.96,1.96] con una probabilidad de 0.95,
Pr {1.96 < Z S < 1.96} = 0.95 (A.48)

Z mZ
donde Z S =
Z / N

Z mZ
Pr 1.96 < < 1.96 = 0.95 (A.49)
Z / N

1.96 Z 1.96 Z
Pr Z < mZ < Z + = 0.95 (A.50)
N N
1.96 Z 1.96 Z
donde Z < mZ < Z + intervalo de confianza para 95 %.
N N

Generalizando, tenemos que un intervalo de confianza para la media con una probabilidad
de (1-)100% para N>30 esta dado por
z / 2 Z z
z < mZ < z + / 2 Z (A.51)
N N
donde Pr { z / 2 < Z < z / 2 } = 1 .

115
Martn A. Daz Viera

En la prctica se sustituyen z y Z por sus valores estimados mZ* y

( Z )
*
correspondientes, resultando

z / 2 ( Z ) z / 2 ( Z )
* *

m
*
Z < mZ < m + *
Z (A.52)
N N

A.2 ESTADSTICA MULTIVARIADA.

- Funcin de distribucin de probabilidad (FDP) n-variada.

Dadas n variables aleatorias Z1 , Z 2 ,..., Z n se puede definir la funcin de distribucin de

probabilidad n-variada o conjunta de manera anloga al caso unidimensional como:

FZ1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) = Pr [ Z1 z1 , Z 2 z2 ,..., Z n zn ] (A.53)

- Funcin de distribucin de probabilidad marginal.

La distribucin de probabilidad marginal de una variable aleatoria Z i , se define como:

FZi ( zi ) = lim FZ1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) (A.54)


z1 , z2 ,..., zi 1 , zi +1 ,..., zn

Si la funcin de distribucin de probabilidad n-variada se puede expresar como el producto


de las funciones de distribucin de probabilidad marginales correspondientes, es decir,
FZ1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) = FZ1 ( z1 ) FZ2 ( z2 )" FZ n ( zn ) , entonces se dice que las variables

aleatorias son independientes.

- Funcin de densidad de probabilidad (fdp) n-variada.

Cuando existe una funcin no negativa tal que

116
Martn A. Daz Viera

z1 z2 zn

FZ1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) = " f Z1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) dz1dz2 " dzn (A.55)

se dice entonces que f Z1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) es la funcin de densidad de probabilidad n-

variada o conjunta.

Cuando las n variables aleatorias Z1 , Z 2 ,..., Z n son independientes entonces la funcin de


densidad de probabilidad conjunta se puede expresar como el producto
f Z1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) = f Z1 ( z1 ) f Z2 ( z2 )" f Zn ( zn ) , donde f Zi ( zi ) , i = 1,..., n , es la fdp de la

distribucin marginal correspondiente a la variable aleatoria Z i .

De manera anloga al caso de una variable aleatoria se pueden definir los momentos de la
funcin de distribucin n-variada. En particular, nos interesa estudiar el caso bivariado.

Hasta el momento, slo hemos considerado en nuestros anlisis y discusiones a las


variables aleatorias por separado, sin que exista ninguna interrelacin entre stas. En
muchos campos de aplicacin y en particular, en las Ciencias de la Tierra, es
frecuentemente ms importante conocer el patrn de dependencia que relaciona a una
variable aleatoria X con otra variable aleatoria Y. Esto es imprescindible si se desea estimar
el valor de X (porosidad) a partir de los valores conocidos de Y (mediciones de pozo). Por
lo que le dedicaremos especial atencin al anlisis conjunto de dos variables aleatorias,
conocido como anlisis bivariado.

Funcin de Distribucin de Probabilidad Bivariada

La distribucin conjunta de un par de variables aleatorias X y Y se caracteriza por la


Funcin de Distribucin de Probabilidad (FDP) bivariada, que se define como:

FXY ( x, y ) = Pr { X x, Y y} [ 0,1] (A.56)

117
Martn A. Daz Viera

x y

FXY ( x, y ) =

f XY (u, v)dudv (A.57)

d 2 FXY ( x, y )
donde f XY ( x, y ) = es la funcin de densidad de probabilidad (fdp)
dxdy
bivariada.

En la prctica se estima mediante la proporcin de pares de valores de X y Y que se


encuentran por debajo del umbral x, y respectivamente.

Diagrama de Dispersin (Scattergram)

El equivalente bivariado del histograma es el diagrama de dispersin o scattergram (Fig.


2), donde cada par (xi, yi) es un punto.

El grado de dependencia entre las dos variables aleatorias X y Y puede ser caracterizado
por el diagrama de dispersin alrededor de cualquier lnea de regresin.

Semivariograma

El momento de inercia del diagrama de dispersin con respecto a una lnea de 45o de
pendiente, permite caracterizar la carencia de dependencia, ver Fig. 2.

N N
1 1
[ di ] = [ x y ]
2 2
XY = i i (A.58)
N i =1 2N i =1

donde N es el nmero de pares (xi, yi).

Este momento de inercia se conoce como semivariograma. Mientras mayor sea el valor del
semivariograma ms dispersos estarn los valores en el diagrama de dispersin y menor
ser la dependencia entre las dos variables aleatorias X y Y .

118
Martn A. Daz Viera

xi yi
di

yi
( xi , yi )
45D x
xi

Figura 2: Diagrama de dispersin

Momentos de la Distribucin de Probabilidad Bivariada

Valor esperado o valor medio

Se define como:
1.- VA discreta
N M
mXY = E { XY } = pij xi y j (A.59)
i =1 j =1

2.- VA continua
+ + + +
mXY = E { XY } = xyd
2
FXY ( x, y ) = xyf XY ( x, y ) dxdy (A.60)

En la prctica se estima mediante:


N
m XY = xi yi (A.61)
i =1

El momento bivariado mXY = E { XY } es conocido como covarianza no centrada.

119
Martn A. Daz Viera

Covarianza centrada

Dadas dos variables aleatorias X y Y , se puede definir la covarianza de manera anloga a


los momentos centrales univariados, como

Cov ( X , Y ) = E {( X mX )(Y mY )}
+ + (A.62)
= ( x mX )( y mY ) f XY ( x, y ) dxdy

Se puede designar como


XY = Cov ( X , Y ) = E {( X mX )(Y mY )} = E { XY } mX mY (A.63)

Y se estima como:
N N
1 1
XY =
N
( x m )( y m ) = N x y m
i =1
i X i Y
i =1
i i X mY (A.64)

En el caso particular cuando X = Y la autocovarianza es la varianza de X

{
X2 = Var { X } = Cov { X , X } = E [ X mX ] 0
2
} (A.65)

Si la covarianza es nula, es decir Cov ( X , Y ) = 0 , se dice que las variables aleatorias X y

Y no estn correlacionadas.

Coeficiente de correlacin

Se define como:
XY Cov { X , Y }
XY = = [ 1,1] (A.66)
XY Var { X }Var {Y }

Caracteriza el grado de dependencia lineal o correlacin entre dos variables aleatorias X y


Y . Por ejemplo si Y = aX + b , entonces se cumple que:
1, para a > 0
XY = (A.67)
1, para a < 0

120
Martn A. Daz Viera

Ntese que si X y Y son independientes, entonces XY = 0 , pero lo contrario no siempre

es cierto. Es decir, si XY = 0 no implica que las VAs X y Y sean independientes, slo se

puede afirmar que no puede ser descrita su dependencia mediante un modelo lineal. Para el
caso en que X y Y posean una distribucin normal bidimensional si es cierto el recproco.

Relacin entre covarianza y variograma.

El variograma esta dado por


N
1
[ x y ]
2
2 XY = i i (A.68)
N i =1

entonces
1 N
1 N
1 N

x y m mY + ( mX mY ) (A.69)
2
2 XY = xi2 mX2 + yi2 mY2 2 i i X
N i =1 N i =1 N i =1
y por lo tanto

2 XY = X2 + Y2 2 XY + ( mX mY ) 0
2
(A.70)

Si XY XY y viceversa.

Relacin entre coeficiente de correlacin y variograma

X mX Y mY
Si tomamos las variables X y Y estandarizadas: X = y Y = , donde
X Y

mX = mY = 0, X = Y = 1 . La covarianza X Y coincide con el coeficiente de

correlacin XY

X mX Y mY
X Y = E = XY (A.71)
X Y
Aplicando la Ec. (A.70), se obtiene la relacin
X Y = 1 XY (A.72)

121
Martn A. Daz Viera

Tanto la covarianza como el coeficiente de correlacin son medidas de la dependencia


lineal entre dos variables aleatorias, mientras que el variograma es una medida de la
variabilidad (no dependencia) entre ambas.

A.3 REGRESIN LINEAL Y MNIMOS CUADRADOS

Sea Y una variable aleatoria que puede expresarse como:


Y = m+e (A.73)
donde m - es el valor esperado de Y , m = E [Y ] , y e - es el error.

En el caso de regresin lineal m puede expresarse como una combinacin lineal de p


variables aleatorias:

m = b0 + b1 X 1 + b2 X 2 + ... + bp 1 X p 1 = b X (A.74)

donde

(1, X , X1 2 ,..., X p 1 ) - es el vector de las p variables aleatorias,

( b , b , b ,..., b ) - es el vector de los p parmetros.


0 1 2 p 1

Dadas n observaciones (Y1 , Y2 ,..., Yn ) de la variable dependiente Y , correspondientes a n

experimentos, el problema que se plantea es la estimacin de los parmetros

( b , b , b ,..., b ) de manera que sea mnima la suma de los cuadrados de los errores:
0 1 2 p 1

n
Se = ei
2
(A.75)
i =1

Usando notacin matricial:


Y = (Y1 , Y2 ,..., Yn ) (A.76)

b = ( b0 , b1 , b2 ,..., bp 1 ) (A.77)

1 X 11 ... X 1 p
1 X ... X 2 p
X=
21
(A.78)
# # ... #

1 X n1 ... X np

122
Martn A. Daz Viera

El vector de errores posee esperanza matemtica nula y una matriz de covarianzas:


E [e ] = 0, (A.79)

2 Ce , (A.80)

Mnimos cuadrados ordinarios

Si los errores ei son independientes, su matriz de covarianzas puede expresarse como 2 I ,

entonces el estimador de b por mnimos cuadrados ordinarios est dado por:

( )
* T 1 T
b = X X X Y (A.81)

donde la suma de los cuadrados de los errores Se es:


T *T T *
Se = Y Y b X Xb (A.82)

Un estimador insesgado de 2 es:


1
S2 = Se (A.83)
n p
Y la matriz de covarianzas de b est dada por:

( )
T 1
Cb = 2 X X (A.84)

Mnimos cuadrados generalizados


Si los errores ei no son independientes, entonces el estimador de b est dado por:

( )
1
* T 1 T 1
b = X Ce X X Ce Y (A.85)

donde la suma de los cuadrados de los errores Se es:

(
Se = Y Xb )
* T
Ce
1
( Y Xb ) *
(A.86)

Y la matriz de covarianzas de b est dada por:

( )
1
T 1
Cb = 2 X Ce X (A.87)

Nota: Los mnimos cuadrados ponderados es un caso particular de mnimos cuadrados


generalizados cuando la matriz Ce es diagonal.

123
Martn A. Daz Viera

ANEXO B: GLOSARIO DE TRMINOS GEOESTADSTICOS

Alcance (range): Para el modelo esfrico, la distancia en la que el modelo alcanza el valor
mximo, o sill (meseta). Para los modelos gausianos y exponencial, que se aproximan a la
meseta asintticamente. Se usa el trmino alcance para designar el alcance prctico o
efectivo donde la porcin alcanza aproximadamente el 95 % del mximo. El modelo
Nugget tiene una meseta con un rango de cero; el modelo lineal usa meseta/alcance
simplemente para definir la pendiente.

Anisotropa: En Geoestadstica, es la situacin cuando el variograma exhibe un


comportamiento que vara con la direccin.

Anisotropa Geomtrica: Es el caso de anisotropa cuando los alcances del variograma


forman una elipse, donde el mayor y el menor alcance son perpendiculares y corresponden
al mayor y al menor semieje de la elipse.

Covarianza: Es una medida estadstica de la correlacin entre dos variables. En


Geoestadstica, la covarianza es usualmente tratada como la simple inversin del
variograma, calculado como la varianza total de la muestra menos el valor del variograma.
Estos valores de covarianza, as como los valores del variograma, se utilizan en las
ecuaciones de la matriz de Kriging para una mayor eficiencia de clculo.

Cuadrante de Bsqueda: La elipse de la vecindad de bsqueda puede ser dividida en


cuatro sectores de ngulos iguales, lo que pueden tener especificada un nmero mnimo y
mximo de muestras. Tambin puede especificarse un nmero limitado de sectores
consecutivos vacos. Cuando el criterio especificado no se satisface para un punto o bloque
particular, entonces no se produce el estimado por Kriging.

Deriva (drift): El valor esperado de una funcin aleatoria puede ser constante o depender de
las coordenadas de la posicin. La deriva es una caracterstica de la funcin aleatoria y no
de los datos.

124
Martn A. Daz Viera

Desviacin Estndar del Kriging: Error estndar de la estimacin calculada para el


estimado del Kriging. Por definicin, Kriging es el estimador lineal ponderado con una
serie particular de pesos los que minimizan el valor de la varianza de la estimacin.

Discretizacin : En Kriging, el proceso de aproximacin al rea de un bloque por un


arreglo finito de puntos.

Estacionaridad: Es una propiedad de la funcin aleatoria. Se dice que una funcin


aleatoria es estrictamente estacionaria si su funcin de distribucin de probabilidad es
invariante a cualquier traslacin respecto a un vector h .

Funcin Aleatoria: Puede ser vista como una coleccin de variables aleatorias que
dependen de la posicin.

Geoestadstica: Metodologa para el anlisis de datos espacialmente correlacionados. El


rasgo caracterstico es el uso de variogramas de tcnicas relacionadas para cuantificar y
modelar la correlacin espacial de la estructura. Tambin incluye diferentes tcnicas como
Kriging, la cual utiliza modelos de correlacin espacial. Los mtodos geoestadsticos son
aplicables en todas las ciencias de la Tierra. Pueden aplicarse para explorar los procesos
responsables de la variacin espacial. Tambin pueden aplicarse donde existe una
informacin completa obtenida por percepcin remota u otra fuente, para determinar un
muestreo eficiente, as como tambin para estimar el valor de propiedades en localidades no
muestreadas.

Hiptesis Intrnseca: Suposicin de que la media y la varianza de las diferencias son


estacionarias, es decir no dependen de una traslacin h de la funcin aleatoria.

Intervalo (lag): Intervalos de distancia de la clase usada para calcular el variograma.

125
Martn A. Daz Viera

Kriging de bloques: Estimacin del valor de un bloque a partir de los valores de una
muestra continua usando Kriging. El rea de un bloque es un arreglo de aproximadamente
2x2, 3x3, 4x4 puntos con centro en cada nodo de la malla especificada. Se dice que se
obtiene un valor suavizado de la estimacin.

Kriging Ordinario: Es un tipo de Kriging que asume que la media local no est
necesariamente cercana a la media de la poblacin, y que usa solamente para el estimado la
muestra para la vecindad local. Es el mtodo usado mas comnmente por su robustez.

Kriging Puntual: Estimacin del valor de un punto de los valores de la muestra cercana
usando kriging. El estimado para un punto ser casi similar al estimado por un bloque
relativamente cercano centrado en el punto, pero la desviacin estndar del kriging
calculada ser alta. Cuando el punto del Kriging coincide con el lugar de la muestra, el
estimado tendr un valor igual al de la muestra.

Kriging Simple: Variedad de kriging que asume que las medias locales son relativamente
constantes e iguales a la media de la poblacin, la que es bien conocida. La media de la
poblacin es usada como un factor en cada estimado local, con todas las muestras en la
misma vecindad. No es un mtodo muy usado.

Kriging: Mtodo de interpolacin del valor medio ponderado donde los pesos asignados a
las muestras minimizan la varianza del error, la que se calcula como una funcin del
modelo de variograma y localizaciones de las muestras relacionadas unas con las otras, y
del punto o bloque que est siendo estimado.

Madograma: Grfico de la diferencia media absoluta de pares de muestras medidas como


una funcin de la distancia y la direccin. Los madogramas no son verdaderos variogramas,
y generalmente no deben ser usados en Kriging. En caso de usarse los estimados del
Kriging tienen que ser razonables, pero las desviaciones estndar del Kriging no tendrn
significado.

126
Martn A. Daz Viera

Meseta (sill): Lmite superior de cualquier modelo de variograma acotado, al que tiende
asintticamente para grandes distancias. Para el modelo lineal, la relacin sill/rango se usa
para definir la pendiente.

Modelo Esfrico: Es una de las funciones autorizadas que es usada frecuentemente como
modelo de variograma, en combinacin con el modelo Nugget.

Modelo Exponencial: Es una de las funciones autorizadas que es usada frecuentemente


como modelo de variograma, en combinacin con el modelo Nugget.

Modelo Lineal: Es una de las funciones autorizadas que es usada frecuentemente como
modelo de variograma, en combinacin con el modelo Nugget.

Modelo Nugget: Modelo de varianza constante comnmente usado en combinacin con


uno o mas funciones cuando se ajustan modelos matemticos a variogramas
experimentales.

Modelos de variograma anidado: Aquel que es la suma de dos o mas modelos tales como
Nugget, esfrico, etc. Agregando el componente Nugget a uno de los otros modelos se
obtiene el modelo anidado mas comn, aunque muy pocas veces se usan combinaciones
muy complejas.

Octante de bsqueda: La elipse de bsqueda de vecindad en Kriging puede ser dividida en


8 sectores de ngulos iguales, los que pueden tener especificadas nmero de muestras
mnimas y mximas. Tambin puede especificarse un nmero consecutivo de sectores
vacos. Cuando no se satisface el criterio especificado, para un punto o un bloque, entonces
no se produce el estimado por Kriging.

Semi-Variograma: Es sinnimo de variograma. No hay acuerdo en la literatura


geoestadstica de cual trmino debe usarse y se usan ambos indistintamente.

127
Martn A. Daz Viera

Soporte: El trmino es usado en ambos sentidos: matemtico y fsico. Con frecuencia los
valores experimentales estn definidos en soportes puntuales o casi puntuales, en otros
casos son los valores medios ZVi ( x i ) definidos en los soportes Vi centrados en los

puntos xi , donde los soportes pueden ser todos diferentes.

Tendencia (trend): En muchas ocasiones se usa el trmino intercambiable con el de deriva


(drift). Aunque tambin se asocia con la representacin determinstica del valor medio
obtenida mediante el procedimiento de Anlisis de Superficie de Tendencia (Trend Surface
Analysis) usualmente como polinomios de las coordenadas mediante ajuste con mnimos
cuadrados.

Validacin Cruzada: Es una tcnica para probar la validez de un modelo de variograma


obtenido por Kriging de cada localizacin de la muestra con todas las otras muestras en la
vecindad de bsqueda, y comparando los estimados con los valores reales de la muestra. La
interpretacin de los resultados, sin embargo, es en ocasiones muy difcil. La existencia de
grandes diferencias entre los valores reales y estimados, pueden indicar la presencia de
outliers espaciales, o puntos que aparentemente no pertenecen a esos contornos.

Variograma No ergdico: Variograma calculado restando a la funcin de covarianzas la


varianza de la muestra. Esta aproximacin compensa los casos donde existen variogramas
direccionales, digamos, en aquellos donde los pares de datos del oeste tienen medias
diferentes de los pares del este. No ergdico; es en ocasiones un trmino oscuro que se
refiere al echo de algunas suposiciones probabilsticas relacionadas con el clculo del
variograma no son tan necesarias. Los variogramas no ergdicos pueden ser modelados y
usados en Kriging de la misma forma que los variogramas ordinarios.

Variograma relativo: El variograma en el que el valor del variograma ordinario de cada


intervalo ha sido dividido por el cuadrado de la media de los valores de la muestra usada en
el clculo del intervalo. Es en ocasiones til cuando se presenta un efecto proporcional,
cuando hay reas de varianza mayor que la varianza promedio. Cuando los modelos de

128
Martn A. Daz Viera

variogramas relativos son usados en Kriging, la desviacin estndar del Kriging resultante
representa fracciones decimales de los valores estimados.

Variograma: Grfico de la semivarianza (la mitad de la diferencia media cuadrada) como


una funcin de la distancia (y de la direccin) entre pares de valores muestrales.
Tpicamente, son examinadas todos los pares de muestras y agrupadas en clases (intervalos)
de distancia y direccin aproximadamente iguales. Los variogramas aportan un significado
de cuantificacin de la relacin observada comnmente de que las muestras cercanas entre
ellas tienden a tener valores mas similares que las muestras mas alejadas. Es la herramienta
central de la Geoestadstica, ya que da una descripcin adecuada de la escala y del patrn
de la variacin espacial dentro de una regin dada. Los procesos de kriging, optimizacin
del muestreo y los clculos de probabilidades condicionadas utilizan la informacin de la
variacin espacial obtenida de los variogramas.

Vecindad de bsqueda: Es el rea elptica centrada en un punto o bloque que est siendo
analizado por el Kriging. Solamente las muestras dentro de la elipse sern usadas para el
clculo de la estimacin por Kriging.

129
GLOSSARY OF GEOSTATISTICAL TERMS

ANISOTROPIC: This term is applied both to a random function and to it's


variogram (or covariance) when the values of the variogram
depend on both the distance and the direction. Also see
Isotropic.

ANISOTROPY: In Geostatistics, the situation where a variogram exhibits a


longer range (i.e., better correlation) in one direction than
another.

BLOCK KRIGING: Estimating the value of a block from a set of nearby sample
values using kriging. In Geo-EAS, the block area is
approximated by a 2x2, 3x3, or 4x4 array of points centered on
each specified grid node.

COVARIANCE: A statistical measure of the correlation between two


variables. In Geostatistics, covariance is usually treated as
the simple inverse of the variogram, computed as the overall
sample variance minus the variogram value. These covariance
values, rather than variogram values, are actually used in the
Geo-EAS kriging matrix equations for greater computational
efficiency.

CROSS VALIDATION: A technique for testing the validity of a variogram model by


kriging each sampled location with all of the other samples in
the search neighborhood, and comparing the estimates with the
true sample values. Interpretation of results, however, can
often be difficult. Unusually large differences between
estimated and true values may indicate the presence of
"spatial outliers", or points which do not seem to belong with
their surroundings. A method for comparing two or more
conjectured variogram (or covariance) models. The technique
depends on Jackknifing the data and on the exactness of the
kriging estimator.

DISCRETIZATION: In kriging, the process of approximating the are of a block by


a finite array of points.

DRIFT: The expected value of a random function, it may be constant


or it may depend on the coordinates of the location. In order
for a random function to be stationary, second-order
stationary or to satisfy the Intrinsic Hypothesis; the drift
must be a constant. The drift is a characteristic of a random
function and not of data

EXPONENT MODEL: A function frequently used when fitting mathematical models to


experimental variograms, often in combination with a nugget
model.

GAUSSIAN MODEL: A function frequently used when fitting mathematical models


to experimental variograms, often in combination with a
nugget model.

GEOSTATISTICS: A methodology for the analysis of spatially correlated data.


The characteristic feature is the use of variograms of related
techniques to quantify and model the spatial correlation

1
structure. Also includes the various techniques such as
kriging, which utilize spatial correlation model.

INTRINSIC HYPOTHESIS: A weak form of stationarity for a random function


sufficient for deriving the kriging equations corresponding
to the (Ordinary) kriging estimator. See (i) and (ii).

INVERTED COVARIANCE VARIOGRAM: A variogram computed by subtracting lag


covariances from the sample variance. This approach
compensates for cases where in directional variograms, the
mean of the, say, west members of the sample pairs is not the
same as the mean of the east members. InvCov is a rather
obscure term referring to the fact that some probabilistic
assumptions underlying the variogram computation are no
longer necessary. Inverted Covariance variograms may be
modeled and used in kriging in the same way as ordinary
variograms.

ISOTROPIC: A term applied both to a random function and to its


variogram. See anisotropic which is the complementary
property.

KRIGING: A weighted-moving-average interpolation method where the set


of weights assigned to samples minimizes the estimation
variance, which is computed as a function of the variogram
model and locations of the samples relative to each other, and
to the point or block being estimated.

KRIGING EQUATIONS: A set of linear equations whose solution includes the


values of the weights in the kriging estimator.

KRIGING STANDARD DEVIATION: The standard error of estimation computed for a


kriged estimate. By definition, kriging is the weighted linear
estimate with a particular set of weights which minimizes the
computed estimation variance (standard error squared). The
relationship of the kriging standard deviation to the actual
error of estimation is very dependent on the variogram model
used and the validity of the underlying assumptions (kriging
standard deviations should be interpreted with caution).

KRIGING VARIANCE: The minimized value of the estimation variance, i.e., the
variance of the error of estimation. This variance is not
data dependent but rather is determined by the variogram and
the sample location pattern as well as the location of the
point to be estimated relative to the sample locations.

LAG: A distance class interval used for variogram computation.

LINEAR MODEL: A function frequently used when fitting mathematical models to


experimental variograms, often in combination with a nugget
model.

MADOGRAM: A plot of mean absolute difference of paired sample


measurements as a function of distance and direction.
Madograms are not true variograms, and generally should not be
used in kriging. If used, the kriged estimates might be

2
"reasonable", but the kriging standard deviations will be
meaningless.

NESTED VARIOGRAM MODEL: A model which is the sum of two or more component
models such as nugget, spherical, etc. Adding a nugget
component to one of the other models is the most common nested
model, but not more complex combinations are occasionally
used.

NON-ERGODIC VARIOGRAM: A variogram computed by subtracting lag covariance from


the sample variance. This approach compensates for cases where
in directional variograms, the mean of the, say, west members
of the sample pairs is not the same as the mean of the east
members. "Non-ergodic" is a rather obscure term referring to
the fact that some probabilistic assumptions underlying the
variogram computation are no longer necessary. Non-ergodic
variograms may be modeled and used in kriging in the same way
as ordinary variograms.

NUGGET: The variogram may exhibit an apparent discontinuity at the


origin. The magnitude of the discontinuity is called the
nugget.

NUGGET MODEL: A constant variance model most often used in combination with
one or more other functions when fitting mathematical models
to experimental variograms.

OCTANT SEARCH: In Geo-EAS, the kriging search neighborhood ellipse may be


divided into eight equal-angle sectors, which may have minimum
and maximum numbers of samples specified. A limit on the
number of consecutive empty sectors may also be specified.
When the specified criteria are not satisfied for a particular
point or block then the kriged estimate is not produced.

ORDINARY KRIGING: A variety of kriging which assumes that local means are not
necessarily closely related to the population mean, and which
therefore uses only the samples in the local neighborhood for
the estimate. Ordinary kriging is the most commonly used
method for environmental situations.

POINT KRIGING: Estimating the value of a point from a set of nearby sample
values using kriging. The kriged estimate for a point will
usually be quite similar to the kriged estimate for a
relatively small block centered on the point, but the computed
kriging standard deviation will be higher. When a kriged point
happens to coincide with a sample location, the kriged
estimate will equal the sample value.

POSITIVE DEFINITE: A term applied both to matrices and to functions, (Auto)


covariance functions must be positive definite whereas the
negative of variograms must be conditionally positive
definite. Conditional positive definiteness is a weaker
condition.

QUADRANT SEARCH: In Geo-EAS, the kriging search neighborhood ellipse may be


divided into four equal-angle sectors, which may have minimum
and maximum numbers of samples specified. A limit on the
number of consecutive empty sectors may also be specified.
3
When the specified criteria are not satisfied for a particular
point or block then the kriged estimate is not produced.

RANDOM FUNCTION: A random function may be seen in two different forms; it may
be thought of as a collection of dependent random variables
with one for each possible sample location. Alternatively it
may be thought of as a "random variable" whose values are
functions rather than numbers.

RANGE(of a variogram): The distance at which the variogram becomes a


constant. The Power model does not have a (finite) range. The
Exponential and Gaussian models have only an apparent range.
For a spherical model, the distance at which the model reaches
its maximum value, or sill. For the exponential and gaussian
models, which approach the sill asymptotically, Geo-EAS uses
range to mean the "practical", or "effective" range, where the
function reaches approximately 95% of the maximum. The nugget
model effectively has a sill with a range of zero; the linear
model uses "sill/range" merely to define the slope.

RELATIVE VARIOGRAM: A variogram in which the ordinary variogram value of each


lag has been divided by the square of the mean of the sample
values used in computing the lag. This is sometimes useful
when a "proportional effect" is present; i.e., when areas of
higher than average variance. When relative variogram models
are used in kriging, the resulting kriging standard deviations
represent decimal fractions of the estimated values.

SEARCH NEIGHBORHOOD: In Geo-EAS, an elliptical area centered on a point or


block being kriged. Only samples within the ellipse will be
used for kriging. When the next point is kriged, the ellipse
will be re-centered, and a different(perhaps) set of samples
will be used.

SEMI-VARIOGRAM: Identical to the term "variogram" as defined in Geo-EAS. There


is disagreement in the geostatistical literature as to which
term should be used. Geo-EAS uses "variogram" for simplicity.

SILL(of a variogram): The value of the variogram for distances beyond the
range of the variogram. The Power model does not have a sill.
The upper limit of any variogram model which has such a limit,
i.e., which tends to "level off" at large distances. In
Geo-EAS, the spherical, gaussian, exponential, and nugget
models have sills. For the linear model, "sill/range" is used
merely to define the slope.

SIMPLE KRIGING: A variety of kriging which assumes that local means are
relatively constant and equal to the population mean, which is
well-known. The population mean is used as a factor in each
local estimate, along with the samples in the local
neighborhood. This is not usually the most appropriate method
for environmental situations.

SPATIAL CORRELATION: Used both as a generic term to denote that data at two
locations is correlated in some sense as a function of their
locations and also to denote the value of a spatial structure
4
function such as a variogram or (auto)covariance for a pair
of locations.

SPHERICAL MODEL: A function frequently used when fitting mathematical models to


experimental variograms, often in combination with a nugget
model.

STATIONARITY: Several different forms of stationarity are utilized in


geostatistics. Stationarity, in one of its forms, is a
property of a random function rather than of a data set. It
expresses the property that certain joint distributions are
translation invariant or that certain moments of the random
function are translation invariant. See second order
stationarity and the Intrinsic hypothesis.

SUPPORT: The term is used in both a mathematical and in a physical


sense. Many, if not most variables of interest in
geostatistics, such as the concentrations of chemical
elements or compounds only have values at "points" in an
idealized sense although the random function treats them in
this manner. The data values are usually associated with a
physical sample having a length, area or volume; the
concentration then represents an average concentration over
this length, area or volume. This length, area or volume is
called the support. Although it is common to report
laboratory analyses in such a way as to not reflect the
original support, non-point support has a significant effect
on the variogram modeling process and there is a significant
difference in estimating the average value over a large
volume and in estimating the average value over a small
volume. The kriging estimator and equations allow this to be
incorporated.

TREND: While sometimes used interchangeably with the term "drift",


in geostatistics the two are considered separate. The term is
usually reserved to denote the deterministic representation
obtained by the use of Trend Surface Analysis, i.e, a
functional representation for spatially located data (usually
taken as a polynomial in the position coordinates). The
"trend" is obtained by a least squares fit to the data. As an
estimator to the mean of a random function it is sub-optimal.
If the residuals from trend surface analysis are used to
model the variogram, a biased variogram estimator results.

VARIOGRAM: A plot of the variance (one-half the mean squared difference)


of paired sample measurements as a function of the distance
(and optionally of the direction) between samples. Typically,
all possible sample pairs are examined, and grouped into
classes (lags) of approximately equal distance and direction.
Variograms provide a means of quantifying the commonly
observed relationship that samples close together will tend to
have more similar values than samples far apart.

5
Martn A. Daz Viera

BIBLIOGRAFA

1. Akaike, H., 1974, A new look at statistical model identification, IEEE


Transactions on Automatic Control, AC-19, 716-722.
2. Akaike, H., 1977, An entropy maximization principle, Applications of Statistics,
P.R. Krishnaiah, ed., North Holland, Amsterdam.
3. Armstrong, M. y P. Delfiner, 1980, Towards a more robust variogram: case
study on coal, Note n-671, CGMM, Fontainebleau, Francia.
4. Armstrong, M., 1984, Problems with Universal Kriging, Math. Geol., 16(1),
101-108.
5. Clark I. and W. V. Harper , 2000, Practical Geostatistics 2000.
6. Cressie, N. y J. Hawkins, 1980, Robust estimation of the variogram, J. Math.
Geol., 12(2), 115-126.
7. Cressie, N., 1985, Fitting variogram models using weighted least squares, J.
Math. Geol., 17, 693-702.
8. David M., 1977, Geostatistical Ore Estimation, Elsevier, 264 pp.
9. David M., 1988, Handbook Of Applied Advanced Geostatistical Ore Reserve
Estimation.
10. David, M., 1976, The Practice of Kriging, Avanced Geostatistics in the Mining
Industry, M. Guarascio et al., eds. Dordrecht, Holland, 31-48.
11. Daz-Viera M. y R. Barandela, 1994, GEOESTAD: Un sistema de
computacin para el desarrollo de aplicaciones geoestadsticas, Resmenes
del II Taller Iberolatinoamericano Informtica y Geociencias, GEOINFO94,
C. Habana.
12. Geostatistics for the Next Century, Proceedings edited by Roussos
Dimitrakopoulos December 1993.
13. Hoeksema, R. J. y P. K. Kitanidis, 1985, Analysis of the spatial structure of
Propierties of selected aquifers, Water Resour. Res., 563-572.
14. Hohn M. E., 1998, Geostatistics and Petroleum Geology, Second Edition,
Kluwer Academic Publishers, 235 pp.

130
Martn A. Daz Viera

15. Isaaks, E. H. and R. M. Srivastava, 1989, An Introduction to Applied


Geostatistics, Oxford Unv. Press, pp. 561.
16. Journel, A. G. y Ch. J. Huijbregts, 1978, Mining Geostatistics, Academic
Press, New York, 590 pp.
17. Journel, A. G., 1986, Geostatistics, Models and Tools for the Earth Sciences,
Short Course in Geology: Vol. 8, American Geophysical Union, 40 pp.
18. Journel, A. G., 1989, Fundamentals of Geostatistics in Five Lessons, Math.
Geol. 18(1), 119-140.
19. Kitanidis, P. K., 1997, Introduction to Geostatistics: Applications in
Hydrogeology, Cambridge University Press, 249 pp.
20. Omre, H., 1984, The variogram and its estimation, Geostatistics for Natural
Resources Characterization, Verly et al. (Eds.), NATO ASI Series, Reidel,
Hingham, Mass., Vol. 1, 107-125.
21. Samper, F.J. y J. Carrera, 1990, Geoestadstica, aplicaciones a la
hidrogeologa subterrnea, Centro Internacional de Mtodos Numricos en
Ingeniera, Barcelona, 484 pp.

131

También podría gustarte