Está en la página 1de 31

CAPITULO IV

ESTUDIO GEOESTADÍSTICO DEL YACIMIENTO APLICANDO


KRIGING ORDINARIO

Introducción

El término “geoestadística” fue inventando por Georges Matheron en 1962. El prefijo “geo”
se refiere al dominio de las ciencias de la tierra, que ha sido históricamente aquel donde
la geoestadística se ha desarrollado. Los campos de aplicación actuales alcanzan
dominios más variados, como la evaluación de recursos naturales (mineros, petrolíferos,
forestales, etc.), la topografía, la meteorología, la oceanografía, la polución ambiental, la
geofísica, la agronomía o el análisis de imágenes, por nombrar algunas.

El término “estadística” se refiere al uso de métodos probabilísticos. La originalidad de la


geoestadística con respecto a la estadística clásica radica en que la primera toma en
cuenta la dependencia entre las observaciones, considerando que aquellas están
ubicadas en el espacio. Sin embargo, no se debe pensar que los métodos geoestadísticos
son exclusivamente probabilísticos: existe una rama, conocida bajo el nombre de
“geoestadística transitiva”, que no requiere los conceptos de los procesos aleatorios.
Nociones básicas de geoestadística.

Concepto de variable regionalizada.

La geoestadística se define como el estudio de fenómenos regionalizados, es decir,


fenómenos que se extienden en el espacio y que presentan una “organización” o
“estructura”. Por “espacio”, entenderemos en general el espacio geográfico, pero puede
también tratarse del eje temporal o de espacios más abstractos.

El objeto sobre el cual trabajaremos no será el fenómeno regionalizado propiamente tal,


que es una realidad física, sino una descripción matemática de esta realidad, a saber, una
función numérica llamada variable regionalizada o regionalización, que se supone
representa y mide correctamente este fenómeno.

Por ejemplo, en geoestadística minera, variables como ley, densidad, potencia,


acumulación, granulometría, recuperación metalúrgica, describen un fenómeno de
mineralización; la concentración en la atmósfera de un elemento contaminante, la altitud
topográfica de un punto, la temperatura al nivel del suelo, la densidad en peces en una
zona oceánica, la conductividad medida sobre una muestra de tierra también son
variables regionalizadas.

Desde un punto de vista matemático, una variable regionalizada es una función


determinista, denota tradicionalmente z. En general, esta función presenta dos aspectos
complementarios: por una parte, tiene una “estructura” espacial (zonas de altos valores y
zonas de bajos valores), pero por otro lado, varía irregularmente y escapa a toda
representación simple. Lo propio de los métodos geoestadísticos consistirá en definir
herramientas sintéticas que permitirán resumir las principales características de la
regionalización.

Dado que un fenómeno regionalizado no posee nunca una extensión infinita, no


estudiaremos la variable regionalizada, más que al interior de un dominio limitado D
llamado campo de la variable. Este campo D puede representar una zona natural, fuera
de la cual z no está definida; puede tratarse también de un dominio particular, donde la
regionalización interesa, por ejemplo, los sitios donde es no nula o superior a un límite de
detección.
Noción de soporte.

Una variable regionalizada puede definirse, no sólo en un punto, sino que también en una
superficie o en un volumen. La superficie o el volumen de base sobre el cual se considera
la variable regionalizada se denomina soporte. En general, el soporte de las muestras
medidas es (casi) puntual, mientras que el que interesa en práctica a menudo es más
voluminoso (por ejemplo, las unidades selectivas de explotación en evaluación minera).
Esta noción es importante debido a la dependencia que existe entre el tamaño del soporte
y la distribución estadística de las observaciones: los soportes no puntuales presentan
una menor cantidad de valores extremos y una mayor de valores intermedios que los
soportes puntuales. Así, la distribución de los valores, y en especial su varianza
estadística, depende del soporte sobre el cual está definida la variable regionalizada.

Al cambiar el soporte (por ejemplo, al pasar de valores casi puntuales a valores promedio
en un “bloque”), se obtiene una nueva variable regionalizada, ligada a la variable inicial,
pero que posee características estructurales diferentes. El cambio de soporte se inscribe
dentro de la teoría más general de la regularización. Esta operación consiste en calcular
una convolución de la variable regionalizada por una función de ponderación, cuyo peso
total en general es unitario; la variable que resulta es más regular que aquella de partida,
de donde saca su nombre de regularizada.

En los problemas de cambio de soporte, es deseable que la variable regionalizada


estudiada sea aditiva, es decir, que su valor en la unión de varios dominios sea igual a la
suma o la medida de sus valores sobre cada uno de ellos. Esta restricción es necesaria
para que el cálculo del valor promedio sobre un soporte más grande que el de las
mediciones, tenga un sentido físico. En caso contrario, deberemos restringirnos a estudiar
soportes iguales a los de las muestras: un cambio de soporte estará, si no prohibido, al
menos fuertemente desacertado.
Los principios directores.

Normalmente, no se puede acceder a la variable regionalizada en forma exhaustiva, pues


ésta solo se conoce en ciertos sitios de muestreo. Para resolver el problema que se
plantea, se dispone, en general, solamente de los valores muestreados y su posición, y a
veces de información adicional – cualitativa o cuantitativa – acerca del fenómeno. El
primer principio que debe regir el estudio geoestadístico es el respeto de los datos, es
decir, la conformidad de las manipulaciones y de las hipótesis subyacentes con las
observaciones. Este principio no impide tener una postura crítica en cuanto la forma de
muestrear (disposición y representatividad de las observaciones) y a la exactitud de las
mediciones (valores aberrantes).

Para aprovechar la información disponible, más allá de un simple reporte de los datos,
será necesario construir modelos. Pero siempre debe tenerse presente que un modelo
nunca describe el fenómeno en su totalidad, sin simplificación, ni distorsión. El principio
del realismo consiste en encontrar un modelo que entrega una descripción adecuada del
fenómeno, ni demasiado simplificada, ni demasiado deformada. Señalemos desde ahora
la importancia de la escala de trabajo, las características estructurales de una misma
regionalización (regularidad, homogeneidad espacial…) dependen en una gran parte de la
escala de observación, de modo que un modelo puede ser adecuado a cierta escala y
resultar inaceptable a escalas más grandes o más pequeñas.
Los problemas de estimación.

La estimación constituye un objetivo importante de la geoestadística. Consiste en evaluar,


de la manera más precisa y acertada posible, una magnitud que no ha sido medida, a
partir de los valores muestreados en todo o parte del campo. Podemos dar como un
ejemplo conocido de estimador la media aritmética, que da pesos iguales a todos los
valores observados. Un carácter específico de los métodos geoestadísticos será, no sólo
construir estimadores, sino también proporcionar una medida de la precisión de la
estimación por medio de herramientas probabilísticas.

Distinguimos dos tipos de estimaciones: las estimaciones globales y las estimaciones


locales.

La estimación global considera el campo D completo, que se desea caracterizar por un


valor único (a saber, la media o la suma de la variable regionalizada en estudio). Es poco
común que una estimación global sea suficiente; frecuentemente, es necesario
completarla con estimaciones locales. Por ejemplo, en un estudio de contaminación, no
basta con evaluar la contaminación promedio en toda la zona, sino que es necesario
distinguir los sectores fuertemente contaminados de aquellos que no lo están.

Las estimaciones locales, por el contrario, se concentran en los diferentes sectores de la


zona de estudio. En general, buscan evaluar, ya sea el valor en un sitio que no ha sido
muestreado, o el valor promedio de un “bloque” (superficie o volumen), por medio de una
combinación lineal ponderada de valores medidos en los puntos de muestreo. Deben
considerar la distancia entre el sector a estimar y los sitios de observaciones: los sitios
cercanos tendrán, intuitivamente, mayor peso que los más alejados. La determinación de
los pesos deberá depender además de las características estructurales de la variable
regionalizada, en especial de su grado de regularidad, y de la disposición espacial de las
mismas muestras: en efecto, observaciones agrupadas suelen tener valores parecidos,
constituyéndose en información redundante. Convendrá tomar en cuenta estos efectos al
momento de construir la estimación y cuantificar su precisión.
Los problemas de estimación no son los únicos problemas a los que responde la
geoestadística. El análisis de la dependencia espacial de los datos cuantificará las
“correlaciones” o redundancias de la información entre los valores medidos en sitios
diferentes y determinará el tamaño de la “zona de influencia” de una observación. La
mayor o menor continuidad y regularidad espacial de la variable regionalizada será
revelada por herramientas de fácil interpretación. El estudio en diferentes direcciones del
espacio permitirá detectar posibles anisotropías, indicando que la regionalización está
más intensamente estructurada en algunas direcciones que en otras. Será eventualmente
posible interpretar el fenómeno regionalizado, por ejemplo, poniendo en evidencia los
diversos procesos que generaron el fenómeno estudiado a diferentes escalas de tiempo o
de espacio.

Finalmente, un tema dejado de lado en este documento es la construcción de modelos


numéricos o “simulaciones” que reproducen la estructuración espacial de los datos y
permiten estudiar la incertidumbre asociada a una magnitud desconocida.

Para describir y “entender” un fenómeno regionalizado, es necesario elaborar una


representación matemática o modelo. Una primera solución consiste en utilizar un modelo
determinista. En general, este enfoque conduce a una evaluación precisa de los valores
tomados por la regionalización a partir de un número limitado de observaciones, pero
requiere en contrapartida un conocimiento detallado de la génesis del fenómeno y de las
leyes físicas o matemáticas que rigen la evolución de la variable regionalizada. Entre otros
dominios de aplicación, citemos:

 La meteorología: previsión climática a corto plazo;


 La geofísica: determinación de la intensidad y la orientación del campo
gravitacional y del campo magnético terrestre en el espacio y el tiempo;
 La teoría de la señal: reconstitución de una señal continua a partir de un muestreo
discreto, con ayuda de propiedades espectrales.
No obstante, en general los fenómenos regionalizados en estudio son
extremadamente complejos, su comprensión puede ser tan parcial que un
modelamiento en un marco determinista es imposible o ilusorio. Ejemplos típicos
son la evaluación minera, la exploración petrolífera, la caracterización de una zona
contaminada, la previsión meteorológica de largo plazo, o la estimación de los
recursos forestales de una región. Estamos entonces obligados a renunciar a una
descripción determinista del fenómeno y recurrir a un modelo probabilístico. Este
proceder resulta operatorio, ya que permite formalizar tanto nuestros
conocimientos como nuestras incertidumbres en cuanto al fenómeno
regionalizado.

Concepto de función aleatoria.

Al principio de este documento hemos presentado la noción de variable


regionalizada. Se trata simplemente de una función definida en el espacio
geográfico y que representa numéricamente el fenómeno regionalizado estudiado.
Una variable regionalizada posee las siguientes características, contrarias en
apariencia:

1) Localmente, a menudo es muy irregular y no puede ser representada por una


función matemática determinista;
2) Globalmente, presenta cierta organización o “estructura” en el espacio.
Momento de primer orden (esperanza matemática).

En general, la esperanza de una función aleatoria Z depende del punto x considerado; se


denota usualmente como

Posibilidades de realizar la inferencia estadística: las hipótesis de


estacionaridad.

Para poner en marcha el formalismo probabilístico, es necesario poder


determinar, por lo menos; parcialmente, la ley espacial de la función aleatoria
Z(x) a partir de los datos disponibles sobre la variable regionalizada Z(x). Esta
etapa se conoce bajo el nombre de inferencia estadística.
Dos razones impiden poder realizar la inferencia estadística en su forma más
general: por una parte, sólo se dispone de una única realización de la función
aleatoria (a saber, la variable regionalizada) y por otra, esta realización solo se
conoce de manera fragmentaria, en algunos puntos de muestreo. Sin embargo,
esta segunda restricción no es tan problemática como la primera, la cuestión
de la inferencia seguiría existiendo si conociéramos exhaustivamente la
realidad. Para poder evaluarlos, haría falta números realizaciones de la función
aleatoria, pero éstas son puramente teóricas y no existen en la realidad.

Para salir de este problema, son necesarias algunas restricciones. Se hace


uso de la noción de; estacionaridad, que describe de alguna manera, una
homogeneidad espacial de la regionalización la idea es permitir la inferencia
estadística, reemplazando la repetición sobre las realizaciones de la función
aleatoria (inaccesibles) por una repetición en el espacio: los valores que se
encuentran en las diferentes regiones del campo presentan las mismas
características y pueden considerarse como distintas realizaciones del mismo
proceso aleatorio.
Del punto de vista matemático, las hipótesis de estacionaridad consiste en
suponer que todo o parte de la ley espacial de la función aleatoria es invariante
por traslación, es decir, que las propiedades probabilísticas de un conjunto de
valores no dependen de la posición absoluta de los sitios asociados, sino sólo
de sus separaciones. Más precisamente, podemos definir varios tipos de
estacionaridad.

Estacionaridad estricta.

La estacionaridad estricta corresponde a la invariancia por traslación de la ley


espacial ente de la función aleatoria, o sea, en términos matemáticos:
Análisis variográfico y ajuste de un modelo a un variograma
experimental.

El variograma no puede utilizarse directamente. Por una parte, solo está


definido para ciertas distancias y es entonces “incompleto”. Por otra parte no
hay ninguna razón para que sea de tipo negativo condicional, sin esta
propiedad, las varianzas de las combinaciones lineales de Z(x) tienen la
posibilidad de ser negativas. La idea es buscar un modelo teórico de
variograma que sea parecido al variograma experimental. Esta etapa de
modelamiento comúnmente llamada “análisis estructural” o “análisis
variográfico”, es una fase esencial en el estudio geoestadístico, ya que un mal
modelamiento puede entregar resultados erróneos. El análisis estructural o
estudio variográfico está compuesto por:

 El cálculo del semivariograma experimental.


 El ajuste a este de un modelo teórico conocido.

El cálculo del semivariograma experimental es la herramienta geoestadística


más importante en la determinación de las características de variabilidad y
correlación espacial del fenómeno estudiado, es decir, tener conocimiento de
cómo la variable cambia de una localización a otra representando el útil más
importante que dispone el geoestadístico para el análisis del fenómeno
mineralizado o de la variable de distribución espacial en estudio. Este análisis
tiene como condicionantes: la distribución estadística, la existencia de valores
aberrantes o anómalos, la presencia de zonas homogéneas o posibles
zonaciones en la distribución de las leyes.

Puede ser calculado inicialmente el semivariograma medio, global u


“omnidireccional”, proporcionando una idea inicial de la variabilidad espacial de
los datos, siendo el más idóneo para representar u obtener una estructura
clara y definida. Posteriormente deben ser calculados los semivariogramas en
diferentes direcciones, puede ser calculado en 4 direcciones separadas en 45°
con tolerancia angular de 22.5°, comenzando por 0° hasta encontrar la
dirección de máxima o mínima variabilidad, pueden ser calculados también,
más específicamente en 8 direcciones separadas por 22.5°. Una forma rápida
y práctica de visualizar la existencia de anisotropía es mediante el cálculo del
“Mapa de Variogramas”, el cual además permitirá obtener la dirección inicial
aproximada para el cálculo de los semivariogramas direccionales, permitiendo
un análisis adecuado de anisotropía. Posteriormente, dependiendo de la
continuidad espacial, es suficiente sólo calcular dos semivariogramas
separados 90°.
Validación cruzada.

Existe la posibilidad de verificar la adecuación entre los datos y el modelo


estructural adoptado, y al mismo tiempo de comparar la calidad de diferentes
modelos posibles, utilizando la técnica de la validación cruzada. Se supone
que se ha ajustado el variograma experimental a un esquema teórico cuyos
parámetros han sido determinados: alcance, meseta, anisotropía, etc. El
principio de la validación cruzada es estimar sucesivamente cada observación
con el objeto de ratificar el modelo escogido. Se puede calcular entonces el
error de estimación (diferencia entre el valor estimado y el valor real) en cada
punto donde hay un dato y comprarlo con la desviación estándar de la
estimación, dada por el kriging y que supuestamente cuantifica la precisión de
la estimación. Este procedimiento permite someter el modelo teórico del
variograma a prueba y detectar los datos para los cuales el modelo es
inapropiado, a saber, aquellos que habrían sido mal estimados. También es útil
para definir adecuadamente la búsqueda de los datos que se usa en la
estimación local.

La validación cruzada es presentada usualmente bajo la forma de test gráficos,


en especial:

 La nube de correlación entre los valores medidos y los valores


estimados.
 El histograma de los errores estandarizados.
 La nube de correlación entre los errores estandarizados y los valores
estimados.
 El mapa de ubicación de los datos, donde se localiza los valores “mal”
estimados.

Un modelo de variograma será mejor cuando el histograma de los errores


estandarizados sea apretado y centrado en 0, y cuando la nube de
correlación entre los valores medidos y estimados sea cercana a la primera
bisectriz.

Se puede también procurar satisfacer lo mejor posible los siguientes


criterios estadísticos.

 La media de los errores y la de los errores estandarizados miden el


sesgo del estimador, y deben ser cercanas a cero. De hecho, este
criterio resulta secundario con respecto al modelamiento del
variograma, pues veremos que, por construcción, los valores
obtenidos por kriging son insesgados, independientemente de la
elección del variograma. Así, cualquiera sea el modelo utilizado, la
media de los errores tenderá hacia cero.
 La media de los errores cuadráticos, que mide la precisión del
estimador, debe ser mínima. En lugar de calcular una media
aritmética, se puede eventualmente calcular una media ponderada,
que atribuye un peso bajo a los datos agrupados, y uno elevado a
los datos aislados.
 La media de los errores cuadráticos estandarizados debe ser
cercana a 1.
 El coeficiente de correlación entre los valores estimados y los
medidos debe ser lo más cercano posible a 1.
 El número de datos no robustos (Mal estimados) debe ser el menor
posible para fijar las ideas. Este número se considera satisfactorio si
representa menos del 5% del total de los datos.
 Estos criterios permiten comparar la calidad de diferentes ajustes
posibles. Sin embargo, es evidente que ningún modelo podrá
satisfacer simultáneamente todos estos criterios. Al mejorar un
criterio, se corre el riesgo de emporar otro.

Análisis de anisotropía.

Conviene aquí realizar un análisis sobre el comportamiento de la variabilidad del atributo


en estudio. Se conoce que el semivariograma describe las características de continuidad
espacial de la variable regionalizada en una dirección, pero este comportamiento puede
variar según la dirección que se analice. Se exige por este motivo un análisis del
comportamiento de la continuidad en distintas direcciones, el análisis de anisotropía.
Cuando el semivariograma calculado en diferentes direcciones (norte-sur, este-oeste, y en
direcciones intermedias de 45° o de 22.5°, con tolerancia de 22.5°), muestra similar
comportamiento, se dice que el fenómeno es isotrópico, cuando muestran diferentes
comportamientos es anisotrópico. Los tipos de anisotropías más comunes son la
geométrica y la zonal.
El kriging.

Contrariamente a la estimación global, la estimación local sólo


concierne un sector del campo estudiado y, en general, utiliza un
número limitado de los datos disponibles. El kriging (bautizado así
en honor de uno de los precursores de la geoestadística, Daniel
Krige), método que permite estimar el valor de un punto o de un
bloque a partir de los valores observados en los puntos
circundantes, tomando en cuenta su configuración geométrica y la
estructura espacial de la regionalización.

El kriging se apoya en la interpretación de la variable regionalizada


como una realización de una función aleatoria, de la cual se tiene
un modelo de covarianza o de variograma. Se trata de buscar, entre
los estimadores formados por las combinaciones lineales
ponderadas de los datos, aquel que presente las “mejores”
propiedades (en este caso, ausencia de sesgo y varianza del error
mínima, que constituye el criterio de precisión escogido).

El kriging presenta varias ventajas sobre las técnicas de


interpolación deterministas (método del inverso de las distancia,
splines, interpolación por el más cercano vecino, regresión
polinomial…). Por una parte, entrega una estimación precisa e
insesgada de la magnitud buscada, que toma en cuenta no sólo las
informaciones de naturaleza geométrica (número y configuración de
los sitios con datos), sino también las informaciones estructurales
contenidas en el modelo variográfico. Por otra parte, permite
apreciar cuantitativamente la precisión de la estimación, con ayuda
de una varianza de estimación, lo que no es posible sin recurrir a un
modelo estocástico. Señalemos en este punto, que no hay que
confundir esta varianza con un intervalo de confianza de la
estimación, de la cual estamos acostumbrados a referirnos.
Las cuatro etapas del kriging.

La resolución de un problema de estimación local por kriging siempre se articula en torno


a las mismas cuatro etapas. Las diferentes variantes que se encuentra sólo radican en las
hipótesis hechas sobre la función aleatoria que representa el fenómeno regionalizado
(estacionaridad de orden dos con media conocida o no, o hipótesis intrínseca).

El problema es el siguiente, se desea estimar un valor ε0 que es una función lineal de la


variable regionalizada estudiada Z(x), por ejemplo:

La cantidad sobre la cual descansa el kriging no es la estimación misma (denotada ε0*),


sino mas bien el error de estimación ε0*- ε0 diferencia entre la estimación y la cantidad a
estimar. Este error, que es una variable aleatoria en el modelo probabilístico, deberá
someterse a ciertas restricciones que se describen a continuación.
 Restricción de linealidad

El error del kriging en un sitio dado, tiene que sr una combinación lineal ponderada de la
función aleatoria Z estudiada. Esta restricción se debe a la decisión de considerar
solamente los dos primeros momentos de las leyes de probabilidad (esperanza y
varianza), que sólo se puede calcula sobre las combinaciones lineales de Z. La
construcción de estimadores más sofisticados requeriría la especificación de la ley
espacial de Z más allá de sus dos primeros momentos; los métodos de geoestadística no
lineal permiten elaborar tales estimadores (kriging disyuntivo, kriging Log normal,
esperanza condicional).

Siendo ya la cantidad a estimar una función lineal de Z(x), la restricción de linealidad


queda satisfecha escribiendo el estimador como una combinación lineal ponderada de los
valores medidos:

Donde los son los puntos muestreados utilizados para la estimación y


donde los ponderadores LAMBDAalfa son las incógnitas del problema de kriging. Estos
ponderadores dependerán a la vez de la estructura espacial de la regionalización y de la
configuración del kriging, es decir, de la configuración geométrica formada por los puntos
de medición y el sitio a estimar.
 Restricción de autorización.

Una vez dado el error de estimación (combinación lineal ponderada de la función


aleatoria), es necesario poder calcular su esperanza y su varianza. En el ámbito
estacionario de orden dos, no hay una restricción efectiva de autorización pues todas las
combinaciones lineales admiten esperanza y varianza. Por el contrario, bajo la hipótesis
intrínseca, una combinación lineal ponderada está autorizada si y sólo si la suma de sus
ponderadores es nula, a falta de lo cual las expresiones que escribiremos en las etapas
siguientes no tendrán sentido.

 Restricción de insesgo.

Esta etapa consiste en expresar que el error de estimación es de esperanza nula, es


decir:

Sólo se puede escribir esta fórmula si la restricción anterior ha sido satisfecha, lo que
asegura la existencia de la esperanza del error. Se puede interpretar esta restricción de
insesgo reemplazando la esperanza matemática por una media espacial, o sea cuando se
calcula sobre numerosas configuraciones de kriging idénticas, repartidas en todo el
campo, la media de los errores de estimación cometidos se acerca a cero. La ausencia de
sesgo no garantiza que los errores sean bajos, sino sólo que su media global es
aproximadamente nula.
 Restricción de optimalidad.

Al superar las etapas precedentes, el estimador está sometido a una o varias restricciones
pero no está totalmente especificado. La última etapa consiste en encontrar los
ponderadores que minimizan la varianza del error de estimación.

En términos intuitivos, la restricción de optimalidad significa que cuando se calcula sobre


numerosas configuraciones de kriging idénticas, repartidas en todo el campo, la varianza
estadística de los errores de estimación cometidos es la más baja posible. El criterio de
precisión de la estimación por kriging corresponde por lo tanto a la minimización del error
cuadrático promedio.

El kriging se articula en torno a cuatro etapas jerarquizadas:

1. La condición de autorización presupone la de linealidad.


2. La condición de insesgo sólo se puede escribir si el error de estimación satisface
la condición de autorización.
3. La condición de optimización concierne las combinaciones lineales que cumplen
las restricciones de autorización e insesgo.

 Elección de la vecindad del kriging.

Contrariamente a los problemas globales, los problemas de estimación local no involucran


la totalidad del campo, ni utiliza, en general, todos los datos disponibles. Se define la
vecindad de kriging, como el dominio del espacio que contiene el soporte de la magnitud a
estimar y los datos utilizados en la estimación. El usuario puede considerar varias
posibilidades.
 Vecindad única.

Se puede decidir efectuar el kriging en un punto o en un bloque cualquiera, conservando


todos los datos. Se habla entonces, de kriging en una vecindad única. En este caso, los
datos muy alejados intervendrán en la estimación. Sin embargo, salvo excepciones su
influencia será posiblemente muy baja (intuitivamente, un sitio alejado no aporta
demasiada información al punto o bloque a estimar, y se verá afectado por un peso de
kriging bajo).

Un kriging en una vecindad única no se adapta bien cuando la hipótesis estacionaria o


intrínseca no se verifica más que localmente (casi-estacionaridad). De igual forma,
cuando los datos son muy numerosos, es inútil conservarlos todos para una estimación
local, puesto que se corre el riesgo en aumentar notablemente los tiempos de cálculo. Es
entonces necesario reducir el tamaño de la vecindad de kriging.

 Vecindad móvil.

El kriging se realiza en una vecindad móvil cuando sólo utiliza los puntos con datos
“cercanos” al sitio a estimar. En general, no nos limitamos a una sola estimación local,
sino que buscamos estimaciones en los nodos de una grilla regular que cubre la zona
estudiada. Falta definir el tamaño y forma de la vecindad, que se centra en el punto o
el bloque a estimar y que se desplaza a través del campo, a medida que se realiza las
estimaciones (de donde viene el adjetivo móvil).
 Tamaño de la vecindad.

La hipótesis estacionaria o intrínseca debe ser admisible a la escala de la vecindad


escogida. Además, veremos que, en las ecuaciones del kriging, la covarianza (o el
variograma) sólo interviene para distancias inferiores al diámetro de la zona de donde
se toma la información que sirve a la estimación. Así, si el modelo variográfico es poco
confiable para grandes distancias, es preferible trabajar con una vecindad móvil de
tamaño moderado.

Por otra parte, si se elige una vecindad demasiado pequeña, que contiene pocos
daos, la estimación será poco precisa y sensible a los valores de estos datos; el mapa
de kriging corre el riesgo de presentar artefactos (problemas de “continuidad” cuando
se pasa de un punto a otro y cambian los datos utilizados).

El tamaño de la vecindad debe entonces permitir un equilibrio entre estos factores


(precisión y continuidad de las estimaciones v/s tiempos de cálculo, casi-
estacionaridad y fiabilidad del variograma). Veremos posteriormente otro factor – la
minimización del sesgo condicional- que puede intervenir en la elección del tamaño de
la vecindad. Un criterio objetivo de decisión es la validación cruzada, que prueba
varios tamaños de vecindad y se elige aquel que entregue los resultados más
satisfactorios.

Es necesario mencionar que no hay justificación particular para limitar el tamaño de la


vecindad al alcance del modelo variográfico, bajo el pretexto que los datos localizados
más allá de este alcance no tienen correlación con el sitio a estimar. De hecho, en la
mayoría de los casos, estos datos intervienen indirectamente en la estimación y
mejoran su precisión, a veces de manera no despreciable. El factor a considerar en la
elección del amaño de la vecindad es la densidad del muestreo más que el alcance
del variograma o de la covarianza.
 Forma de la vecindad.

La forma de la vecindad debe, en la medida de lo posible, a tomar en cuenta la


anisotropía de la variable, revelada por el análisis variográfico. Así, en el caso de una
anisotropía geométrica, se considerará una vecindad en forma de elipse (o elipsoide)
cuyas características –orientación y excentricidad- sean idénticas a las de la elipse
(elipsoide) de anisotropía. A menudo, también, se divide esta elipse en varios sectores
(generalmente, en cuadrantes u octantes), en cada uno de los cuales se trata de
buscar un número fijo de datos, con el fin de repartir de mejor manera en torno al
punto o al bloque que se quiere estimar, la información que se va a conservar.

La figura…….
El kriging puntual.

Nos interesaremos por el caso corriente del kriging puntual, es decir, que la cantidad a
estimar otra que el valor puntual desconocido Z(x0) en un punto no muestreado X0
(también puede hacerse en un punto ya muestreado). En general, el kriging puntual es
efectuado no sólo en un punto sino que en todos los nodos de una grilla regular que
cubre la zona de interés.

El kriging de media conocida (kriging simple).

Se supone que z es la realización de una función aleatoria Z estacionaria de segundo


orden tal que:

Donde ………..
 Linealidad.

Como se pudo observar anteriormente, la restricción de linealidad queda satisfecha


escribiendo el estimador como una combinación lineal ponderada de los valores
medidos, y debe respetar la ecuación………

 Autorización.

Bajo la hipótesis de estacionaridad de toda combinación lineal está autorizada. La


restricción de autorización se cumple automáticamente.

 Insesgo.

También se verifica, pues como m = 0 , se tiene inmediatamente que:

…………..

 Optimalidad.

Falta minimizar la varianza del error de estimación, que se desarrolla de la siguiente


forma, con la ayuda de la función de covarianza C:

..
El kriging ordinario (media desconocida).

En las aplicaciones prácticas, es poco frecuente que se conozca con certeza el valor
de la media. Conviene por esta razón, extender el kriging al caso en que dicha media
es desconocida. Al igual que antes, se supone que, a la escala de la vecindad de
kriging, la regionalización es una realización de una función aleatoria Z estacionaria de
orden dos, con esperanza m constante y con una función de covarianza C. Pero esta
vez, se supone que m es desconocida. Las cuatro etapas del kriging ordinario son:

 Linealidad.

Al igual que el caso anterior, el kriging ordinario debe cumplir con la linealidad descrita
por la ecuación…

 Autorización.

No existe una restricción efectiva en el marco estacionario.

 Insesgo.

La esperanza del error de estimación vale:


Observaciones acerca del sistema de kriging.

El sistema y la varianza de kriging toman en cuenta:

1. Las distancias entre el punto a estimar y los sitios de observación, por medio de
los términos C(Xa-X0) o Y(Xa-X0)
2. La configuración geométrica de los puntos de observación, y la posible
redundancia de la información que contienen, por medio de los términos C(Xa-X0)
o Y(Xa-X0).
3. La estructura espacial de la regionalización descrita por la función de covarianza C
o el variograma Y.

En general, el peso atribuido a un sitio de observación es mayor cuando este sitio


se acerca al punto a estimar. Pero fenómenos más complejos pueden perturbar
esta constatación “intuitiva”:

 Existencia de un fuerte efecto pepita: que tiende a dar el mismo peso a todos
los puntos de observación (como hay ausencia de estructura espacial, un sitio
próximo aporta tanta información como uno lejano) Por lo tanto vemos que a la
proximidad geográfica se agrega otro factor: la regularidad de la variable
regionalizada.
 Presencia de una anisotropía: en este caso, existe una o varias direcciones del
espacio donde el fenómeno está menos estructurado, es decir, donde la
correlación es menor. Así, un dato cercano en esta dirección puede aportar
“menos información” que un dato más alejado en otra, y tener de esta forma un
peso de kriging menor.
 Redundancias entre datos: cuando varios datos están “agrupados” y cercanos
unos a otros, se vuelven redundantes; su peso acumulado será casi el mismo que
el peso que recibiría un solo dato en lugar del grupo. En otros términos, el kriging
corrige efectos debidos a las irregularidades del muestreo y no sobrepondera los
datos agrupados en perjuicio de los datos aislados.
 Efecto pantalla: puede ocurrir que un sitio de observación haga pantalla a otro
respecto al punto a estimar. El punto “cubierto”, aunque cercano al sitio a estimar,
puede tener entonces un peso bajo, incluso nulo (pantalla total). La estimación
casi ignora el valor observado en el punto cubierto. Cuando este efecto es
indeseable, se puede atenuar, introduciendo en el modelo una constante pepítica.
Otra solución consiste en agrupar los dos sitios y afectarlos por el mismo peso,
con el costo de una pérdida de precisión.
 Efecto pantalla inversa: en kriging ordinario puede ocurrir que sitios alejados
tengan pesos mayores que sitios cercanos. Digamos simplemente que los sitios
alejados son valorados, pues participan en la estimación de la media de la
variable, la que interviene indirectamente en la estimación del valor desconocido.
 Efecto de relevo: la presencia de un punto con información cercano al sitio a
estimar permite a un dato “lejano”, o sea, ubicado a una distancia superior al
alcance práctico del modelo variográfico, tener un peso no despreciable en la
estimación, mientras que en ausencia del punto próximo, su peso habría sido nulo
(kriging simple) o muy bajo (kriging ordinario).
 Los ponderadores y la varianza de estimación: no dependen de los valores
tomados por los datos, sino solamente de la configuración de kriging y del modelo
variográfico. Por lo tanto, conociendo el modelo, se puede prever la precisión de la
estimación a partir de una configuración fija de los sitios con datos. Esta propiedad
no obstante es una limitación de la geoestadística lineal, como contrapartida a la
simplicidad del modelo; intuitivamente, la precisión de una estimación es menor en
las zonas más “erráticas” (a menudo, corresponden a las zonas de altos valores)
que en aquellas de baja variabilidad.
 La matriz del primer miembro del sistema de kriging: sólo depende de la
posición relativa de los puntos de observación. Por consiguiente, cuando varias
estimaciones utilizan configuraciones de sitios idénticas, basta con invertir esta
matriz una sola vez. Esto ocurre cuando se trabaja en una vecindad única, o en
una vecindad móvil con datos ubicados sobe una grilla regular.
 Multiplicar la función de covarianza o el variograma por una constante k>0:
esto no cambia la estimación, los ponderadores obtenidos son los mismos. Por el
contrario, la varianza de estimación está modificada y multiplicada por k.
 La mayoría de los modelos variográficos permiten encontrar ponderadores
negativos o mayores que 1, incluso si existe una condición que la suma de los
pesos del kriging valga 1 (kriging ordinario). La ventaja de este proceder es que
puede entregar estimaciones que salen de los límites dados por los valores
observados, es decir, más grandes que el mayor valor medido o más bajas que el
menor. Por el contrario, las técnicas de interpolación por combinaciones lineales
ponderadas que imponen pesos comprendidos entre 0 y 1 entregan estimaciones
que siempre están entre el mínimo y el máximo valor observado. Ahora bien, en la
mayoría de los casos, no hay razón para que los valores medidos alcancen los
valores extremos potenciales de la zona, por lo que resulta interesante tener pesos
que salgan del intervalo [0,1]. Como contrapartida, en el caso en que la variable
es, por ejemplo, siempre positiva, existe el riesgo de encontrar estimaciones
negativas. Este riesgo es aún más importante cuando la variable presenta una
distribución fuertemente asimétrica un peso negativo, incluso si es bajo, que
pondera a un valor alto puede conducir a una estimación negativa si los otros
valores de los datos no son muy altos.
Análisis de anisotropía y estudio variográfico par el cobre total, soluble e
insoluble.

Estudio de la dirección de anisotropía.

Este estudio consiste en definir las orientaciones de anisotropía, la dirección de la


anisotropía puede sr determinada de manera más precisa utilizando un mapa
variográfico, este mapa busca específicamente definir las características de
continuidad espacial de la variable regionalizada en una dirección, es importante
mencionar que este comportamiento puede variar según la trayectoria que se analice,
se decidió hacer un único análisis, es decir, no se consideraron las unidades
geológicas, solamente se tomaron en cuenta los datos provenientes de lo sondajes,
con estas consideraciones se encuntra una
anisotropía……………………………………….
CAPITULO V

ESTUDIO GEOESTADISTICO MULTIVARIABLE DEL

YACIMIENTO APLICANDO COKRIGING

Introducción.

Es frecuente que varias variables regionalizadas se refieran a un fenómeno único y


sean el objeto de un mismo estudio geoestadístico: a modo de ejemplo, citemos la
evaluación de los recursos mineros en un yacimiento polimetálico, el análisis de las
concentraciones de distintos elementos contaminantes, o aquel de parámetros
podológicos medidos sobre muestras de suelo. Se tendrá interés en realizar un
estudio conjunto de todas las variables regionalizadas, de manera de tomar en cuenta
los vínculos entre ellas y la información aportada por las variables auxiliares sobre la
variable de interés.

En el marco del estudio exploratorio de los datos, los métodos de análisis de datos
como el análisis de componentes principales, permiten completar útilmente el enfoque
geoestadístico. Sin embargo, estas técnicas no toman en cuenta la posición espacial
de las observaciones, de donde resultan interesantes los métodos geoestadísticos.

Desde el punto de vista teórico, la extensión de la geoestadística lineal al caso


multivariable no plantea problemas insolubles. Las dificultades no están ni en los
conceptos, ni en los métodos matemáticos, sino que más bien en las notaciones, más
complejas. Para evitar una proliferación de índices, será necesario adoptar a menudo
la escritura vectorial o matricial.

Se llama corregionalización al conjunto de variables regionalizadas (Zi, i = 1,…., N);


éstas están definidas sobre un mismo dominio acotado de Rd, llamado campo de la
corregionalización y denotado D. Se habla de homotopía o de isotopía, cuando todas
las variables son medidas en todos los puntos de muestreo, de heterotopía total,
cuando son medidas sobre conjuntos de puntos disjuntos, de heterotopía parcial,
cuando sólo una parte de los puntos de medición son comunes a todas las variables
(a menudo, ocurre que el conjunto de puntos de medición de una variable está incluido
en el de otras). Finalmente, las funciones aleatorias asociadas a las variables
regionalizadas se denotarán con letras mayúsculas, a saber (Zi,i = 1,….,N).

Herramientas estructurales.

Consideremos una corregionalización (Zi,i = 1,….,N), interpretada como una


realización de un proceso multivariable (Zi,i = 1,….,N). Se definirá, tal como el caso
monovariable, herramientas variográficas (funciones de covarianza y variograma)
destinadas a analizar la estructura espacial conjunta de las variables.
Con el fin de permitir la inferencia estadística, hipótesis de estacionaridad y de
hergocidad, para ello se considerará dos tipos de estacionaridad: la estacionaridad de
los dos primeros momentos de las variables en estudio (estacionaridad de segundo
orden conjunta) y la estacionaridad de los dos primeros momentos de los crecimientos
de las variables (hipótesis intrínseca conjunta).
El cokriging.

El objetivo del cokriging, es estimar el valor de una variable en un sitio o bloque, a


partir no solo de las mediciones de esta, sino también de las de una o varias variables
adicionales observadas en sitios circundantes. La estimación tomará en cuenta la
configuración geométrica de las muestras y del sitio a estimar, así como la estructura
espacial conjunta de todas las variables regionalizadas, modeladas por las
covarianzas o los variogramas simples y cruzados.

Esta técnica de estimación se trata de una extensión del kriging al caso multivariable,
la estimación por cokriging es una combinación lineal ponderada de los datos, sin
sesgo y con varianza del error mínima. Aunque necesita una mayor cantidad de
cálculos que el kriging, el cokriging es preferible a este. En efecto, la información
aportada por las variables secundarias mejora la precisión de la estimación de la
variable de interés; esta propiedad puede ser decisiva cuando es más fácil o menos
costoso medir variables secundarias que la variable de interés. Por otra parte, la
estimación por cokriging da más coherencia a lo resultados, que los obtenidos por
kriging, pues integra las relaciones espaciales entre las variables.

Cokriging ordinario estacionario.

Si queremos estimar una variable de interés Zio (con io ϵ [1,N]) en un punto X0 con la
ayuda de las observaciones sobre las variables Zi,i = 1,….,N. La estimación es una
combinación lineal de los valores de todas las variables, que se puede escribir bajo la
forma:

Donde …………. Son los puntos de medición de variable Zi, circundantes a X0. Su
número depende del índice de la variable, con el fin de tomar en cuenta el caso en
que las variables no son conocidas en los mismos sitios (heterotopía). La puesta en
marcha del cokriging es idéntica a la del kriging ordinario. Se supone que las variables
regionalizadas Zi son realizaciones de funciones aleatorias …… . Conjuntamente
estacionarias de orden dos, de medias mi desconocidas y de funciones de
covarianzas simples y cruzadas Cij(h). En este modelo el estimador pasa a ser una
variable aleatoria. La restricción de autorización se cumple siempre, pues estamos en
el marco estacionario de orden dos (toda combinación lineal tiene una esperanza y
varianza finita), los ponderadores del kriging deben elegirse de tal manera que
satisfaga las siguientes condiciones:

 La estimación del error debe ser insesgada.


 La varianza del error debe ser mínima (criterio de optimalidad).

La esperanza del error de estimación se expresa como:

…………………

También podría gustarte