Está en la página 1de 46

1.

Intro a la evaluación de Yacimientos


Geoestadística  Conjunto de herramientas y técnicas que sirven para analizar y
predecir los valores de una variable que se muestra distribuida en el espacio
o en el tiempo de una forma continua. Se trabaja a través de software. Sus
técnicas fueron establecidas en 1900.
Toma en cuenta la ubicación de los datos en el espacio.
Se basa en la teoría de probabilidades (de 1600 y de la era moderna).

La geoestadística y el modelamiento de recursos se asocian con el fin de mejorar


el negocio minero, de modo que, bajan el nivel de incertidumbre gracias a un
modelo predictivo. Que se basa en la geología y en la relación espacial de los
datos de terreno. Es ideal trabajar con las normativas o leyes estandarizadas.
La idea de aplicar lo anterior es que el trabajo sea Auditable, vale decir, que
cuando una persona chequee nuestro trabajo al trabajar con nuestros datos (base
de datos), pueda realizar el paso a paso que nosotros hicimos y obtener
resultados iguales o muy similares.
Normas Internacionales: CRIRSCO
Agrupación de representantes que son responsables del desarrollo de códigos y
directrices sobre minerales en Australia, Brasil, Canadá, Chile, Europa, Kazajstán,
Mongolia, Rusia, Sudáfrica y USA. Permiten generar un lenguaje común (ejemplo
diagrama de McKelvey: relación entre recurso mineral, valor económico y certeza
geológica) y otorgan confiabilidad a un proyecto. Representan el 80% del capital
cotizado de la industria minera. Las normas deben:
- Carácter de ley o fuerza de ley
- Regula el actuar de las empresas públicas y privadas
- Regula el actuar de los profesionales
- Regula la manera en la cual la info. debe ser presentada.
1.2 Introducción al Muestreo:
En primer lugar, es importante realizar la distinción entre Recurso y Reserva:
- Recurso: Elemento geológico, sin un valor de extracción claro.
- Reserva: Elemento de valor económico, son recursos ya medidos,
probados y probables de entregar “incoming”.
Lo ideal es que el muestreo ocurra 0.6 – 1 m más allá de la estructura, que sea
en el ancho máximo y perpendicular al largo.
Tipos de muestreo:
Puede ocurrir en la Etapa de exploraciones (en el afloramiento) o la Etapa de
producción (mina/planta) (para ideas preconcebidas).
Tipos de muestreo exploratorio:
- Muestreo Definido (orientado): Toma fragmentos de roca para obtener una
idea de las concentraciones de interés exploratorio, que puede ser
representado por un punto en el espacio. Es un punto que uno “conoce” o bien
lo “define”.
- Muestreo Sistemático: Se utilizan para exploración en etapas tempranas, con
el fin de delimitar las zonas de mineralización económica. Pueden ser mallas
geoquímicas, de quebradas o ríos, biogeoquímica, etc.
Muestreo por tronadura:
 Es un “mini-sondaje”. Durante el muestreo puede ser necesario añadir agua
para no perder finos (pues puede haber concentración mineral en ellos).
Muestreo por Sondajes:
 Sondaje aire reverso RC: Consiste en perforar con un martillo o un tricono,
utilizando barras con tubo interior que sirve para la extracción, se necesita gran
cantidad de muestra para la representatividad, porque es de detrito. Es ideal
para cuando ya se tiene cierta certeza o noción de un yacimiento. Ventajas:
rápido, barato, menor nivel de contaminación, permite mayor precisión y
exactitud que DTH. Puede ser impreciso para determinar parámetros
geológicos. [sistemático]
 Sondaje de Diamantina DDH: Consiste en perforar con una corona
diamantada, con mayor nivel de rotación y pulldown, para así extraer un
testigo. Es ideal para estudiar el detalle de relaciones de contacto. Ventajas:
alta precisión y exactitud, no contamina, precisión en determinar parámetros
geológicos. Es más lento y mucho más caro. [definido]
El muestreo de exploración, aporta datos como la información geotectónica de un
sondaje RQD.
Teoría del muestreo:
Introducida por Pierre Gy y extendida por Pitard y Francois. Permite cuantificar la
magnitud de error que se comete en las etapas de un protocolo de muestreo.
También da recomendaciones respecto a procedimientos utilizados en la toma y
preparación de muestras.
Principal hipótesis: La ley de muestra es correcta y se puede usar como cierta,
sin incertidumbre (realidad: muestra es pequeña en relación al conjunto
muestreado, por tanto, conlleva un error asociado).
El objetivo es lograr una estimación lo mas cercana a la realidad posible.
El error que se comete en el muestreo proviene de:
 Propiedades intrínsecas del material: Es importante considerar:
o Tamaño de fragmentos (da): Tamaño promedio en un incremento alfa.
o Tamaño nominal de fragmentos (d): Tamaño máximo de fragmentos
en un lote, se define como malla que retiene no mas del 5% del
material de sobre tamaño.
 Toma y preparación de muestra
Elementos importantes dentro del muestreo
- Lote: Conjunto de material con composición a estimar.
- Incremento: Grupo de partículas extraído del lote en una operación.
- Muestra: Colección de varios incrementos.
- Espécimen: Parte de un lote, obtenido sin reglas de delimitación y extracción
correctas.
- Componente: Constituyente de un lote que puede ser cuantificado por análisis.
- Componente crítico: Indica el contenido mínimo que necesito para realizar una
estimación (=peso componente critico lote/ peso de todos los componentes
lote)
- Selección probabilística: selección fundada en la noción de selección
probabilística que incluye la intervención de un elemento aleatorio. Es correcta
cuando hay equiprobabilidad.
- Heterogeneidad: No todos lo elementos son idénticos.
- Constitución de heterogeneidad (CH): Diferencias entre composición de cada
fragmento del lote.
- Distribución de heterogeneidad (DH): Diferencias de un grupo a otro en el lote.
De modo que el PROTOCOLO DE MUESTREO, busca minimizar el error que se
pueda generar al momento de realizar un muestreo.
Los errores que puede generar el muestreo son bien accidentales o sistemáticos.
Algunos de los errores más importantes:
- ERROR FUNDAMENTAL, FE: Error mínimo posible del muestro, si selecciono
cada fragmento o partícula aleatoriamente, una la vez. Ocurre cuando los la
selección de los incrementos que componen la muestra es correcto. La
heterogeneidad de constitución es la responsable del error.
- ERROR DE AGRUPAMIENTO Y SEGREGACIÓN, GE: Error adicional, dado
que en la practica no se colectan las muestras una a una aleatoriamente. La
heterogeneidad de distribución es la responsable del error. Prevenirlo con:
optimizando peso muestra, aumentando numero de incremento por muestra,
homogenizar material antes de tomar incrementos.
- ERROR DE DELIMITACIÓN DEL INCREMENTO, DE: Error dado por las
desviaciones de un modulo isótropo de observación, que asegure una
probabilidad constante de muestreo en todas direcciones.
- ERROR DE EXTRACCIÓN DEL INCREMENTO, EE: Error dado cuando el
centro de gravedad de la partícula no está dentro del volumen teórico de
delimitación, por tanto, que pertenece al rechazo.
Rechazo grueso: es lo “extra” que se guarda, lo que no va al lab. Puede ser el
duplicado de la muestra.
Duplicado de terreno: Se toma en terreno, por ej del sondaje, corto la mitad, una
la guardo, la otra se va a lab.
Duplicado analítico: La muestra que llega a lab se pulveriza toda, separo la mitad
y una la uso para estudio, la otra se guarda.
Los duplicados deben realizarse porque si el auditor quiere venir a comprobar
resultados y realizar el análisis en su laboratorio, debería poder obtener los
mismos resultados.
Selección precisa: media del error cercana a cero o varianza de error es pequeña.
Heterogeneidad:
- Constitución de heterogeneidad, CHL: Considera número de fragmentos,
contenido de fragmentos, contenido del lote y las masas
- Heterogeneidad intrínseca, IHL: Considera lo mismo que lo anterior, salvo por
el número de fragmentos, que es reemplazado por la masa.
o Considerar separar el lote según tamaño y densidad.
o X  factor relacionado con la forma = f g d^3
 f es el factor de forma, relaciona la forma de una partícula y un cubo de
dimensiones del tamaño nominal de fragmento.
 g es el factor granulométrico, que toma el volumen promedio de fracciones
y el volumen de fracción nominal
 d es el tamaño de fragmento
o Y  Factor relacionado con la mineralización = c l
 c es el factor mineralógico, toma la densidad y la ley del lote
 l es el factor de liberación, toma valor entre 0 y 1
o IHL = X*Y = c l f g d^3
Luego el error fundamental de muestreo se escribe como
la varianza del error de muestreo, dado que la media del
error fundamental se considera despreciable:
Cuando la masa del lote es mucho mayor que la masa de la
muestra, puede escribirse de la siguiente manera:
Que, resumiendo, finalmente para determinar el error
fundamental de muestreo, solo se necesita la masa de la
muestra y determinar la cste de muestreo, así:
2. QA Y QC: Quality Assurance & Quality Control
Todo comienza con el geolog@ estudiando donde va a trabajar, luego toma
muestras y las envía al laboratorio, luego de ahí surge una base de datos que se
transforma en un “sistema de gestión de datos”.
En este sistema se integra el aseguramiento y el control de calidad de todos los
procesos.
QA, se encuentra orientado al cómo se llevan a cabo los procesos, como es la
planificación y la sistemática para generar confianza en el producto o servicio.
También puede verse reflejado en el muestreo, llevando a cabo buenas prácticas
que puedan asegurar estándares preestablecidos, como puede ser por ejemplo el
adecuado registro datos (mapeo, toma muestra), procedimientos de seguridad,
etc.

QC, se encuentra orientado a la calidad del producto final, a cuáles son las
técnicas y actividades realizadas para cumplir requisitos de calidad. En el
muestreo puede verse reflejado en la elección de laboratorios, el almacenamiento
de duplicados y su eventual análisis, el orden adecuado de muestras en una
planilla, etc que pueden ser útiles para controlar el procedimiento.

La integridad de los datos, entonces hace referencia a la corrección y


complementación de los datos en una base de datos, desde el punto de vista
informático. Diversos softwares, con rutinas de auditabilidad, seguridad y
trazabilidad de la información, permiten llevar ello a cabo, como Acquire, IoGlobal,
etc.
La consistencia de los datos, por otro lado, debe ser geológicamente coherente y
responsable, por lo que es importante detectar fallas de definiciones o
apreciaciones. En pocas palabras, se refiere a la validez de la información
respecto a la definición de cada campo y a la validez respecto de la información.
Así es importante la integración QA/QC para poder reducir y conocer las
magnitudes de los errores en la base de datos con el fin de mejorar la calidad del
muestreo. Teniendo en consideración que se deben integrar conceptos
geológicos, asegurarse de que se usan métodos y procedimientos precisos y
exactos, intentando no replicar procedimientos que hayan funcionado en una
operación, para otra.

Así sus objetivos son asegurar la representatividad de las muestras, cuantificar


exactitud y precisión de resultados.
Controles para el estudio:
- Duplicados  Deben ser indistinguibles para el laboratorio.
- Blancos  Muestra que tiene valor 0 ley. Por tanto, no contiene el elemento de
interés, ideal que tenga aspecto similar a las muestras.
- Estándar  Muestra de ley conocida, comprada que sirve para ciertos tipos de
yacimiento con los que trabajo. Ideal que tenga aspecto similar a las muestras.
Muestras estándar:
- De mi yacimiento  Poseen características mineralógicas iguales al depósito,
misma apariencia que el depósito y son más baratas. Lo malo es que toman
tiempo, se usa round Robin (Aplicación circular. Round-Robin es un algoritmo
de planificación de procesos simple de implementar, dentro de un sistema
operativo se asigna a cada proceso una porción de tiempo equitativa y
ordenada, tratando a todos los procesos con la misma prioridad).
- Compradas  Son de fácil y rápido acceso en general. Lo malo es que puede
ocurrir que no hay en el mercado la que necesito y son caras.
Definiciones:
 QA: procedimientos o buenas prácticas para la toma, registro, mapeo y
preparación de muestras, procedimientos de seguridad y otros que aseguren
estándares preestablecidos de precisión y exactitud
 QC: procedimientos tales como elección de laboratorio, análisis de duplicados,
duplicados de terreno, blancos, estándares, control granulométrico, etc., que
permiten controlar que los estándares en los procedimientos se mantienen en
el tiempo.
 EXACTITUD: Mide cuan cercano es una medición respecto del valor verdadero
(suele ser desconocido), se usan muestras estándares y se aplican estándares.
 PRECISION: Mide la reproducibilidad de una medición (dispersión) en torno al
valor medio (no necesariamente el verdadero). Duplicados. Se mide utilizando
dos desviaciones estándar de la distribución de valores, relativo a la media.
 SESGO: Es el error con respecto al valor verdadero, proporciona el valor y es
constante.
 Límite de detección: Valor al cual la precisión llega al 100%, donde la desviación
estándar es menor a la media.
2.2 Protocolo de muestreo
El programa de control de calidad, para el protocolo de error fundamental, consiste en:
 Tomar duplicados (5% = 1 de cada 20 muestras) en cada etapa de reducción
de masa del protocolo (controla la precisión)
 Introducir 5% de blancos al inicio con el fin de evitar la contaminación del
equipo.
 Preparar e introducir muestras estándar en cada “batch” enviado a análisis
químico para controlar exactitud.
 Hacer controles periódicos de granulometría en cada etapa de conminución.
2.3 Graficas comunes de error/concentración
Modelo de Thompson y Howarth, mostraron que en estudios geoquímicos los
errores cambian con la concentración del elemento de interés. De modo que
sugieren un modelo lineal, que solo considera errores aleatorios (precisión) y no
sistemáticos (sesgo).

Su método puede aplicarse a la misma variable medida en duplicados, en el


mismo laboratorio. Puede ser adaptado para usar múltiples re-muestreos, en lugar
de solo duplicados. Para ello se requiere un mínimo de 50 pares. No se aplica a
datos pareados de distintos lab, ni distintos tipos de muestras.
Plantean: sc = s0 + k * c
Donde sc es error de concentración 0, k cste y c la concentración.
Así pueden calcular la precisión como PC = 200* sc/c
***extra*** Variograma discontinuo: efecto pepa. corresponde a una variable
regionalizada más errática, es decir, con discontinuidades en la distribución
espacial de sus valores. La desemejanza entre dos datos muy cercanos no es
despreciable: los valores medidos varían a una escala muy pequeña y su
continuidad no es perceptible.
3. Estudio de datos espaciales
Para poder estudiar mis datos es necesario que los despliegues de distintas
formas. Además, debo comprender la diferencia entre mis poblaciones
estadísticas y mis poblaciones geológicas.
Sería ideal seleccionar poblaciones geológicas, para así poder realizar una
decisión respecto a la estacionaridad.
Estacionaridad  TODOS los datos dentro de una unidad geológica pertenecen
a la misma población y sus estadísticas permanecen constantes.
También es importante que me asegure de la calidad de los datos que voy a
trabajar, de resumir parte de la información y familiarizarse con los datos y
geología de ellos.
3.1 Estadísticas básicas:
Cuantiles: Valores variables que corresponden a una frecuencia acumulada
según el cuartil: 1° = 0.25, 2° = 0.5 = mediana, 3° = 0.75.
Medidas de posición: Media, Mediana, Moda, Mínimo, Máximo, Rango, Deciles,
percentiles y cuartiles.
Medidas de dispersión: Varianza, Desviación estándar, Rango intercuartil (Q3-Q1)
y coeficiente de variación.
Gráficas:
 Histograma: Despliega la frecuencia de ocurrencia de datos (acumulado:
despliega la frecuencia acumulada bajo un valor de corte que define una clase).
Registra el número de muestras en cada clase (de ancho constante y definidas
según cantidad de muestras). Entrega estadísticas muestrales. Es importante
desplegar un rango importante de datos, con estadísticas con un numero
razonable de decimales.
 Distribución normal
 Distribución lognormal: Los logaritmos de los datos están distribuidos como una
normal. Favorable para enfoques teóricos de estimación.
 Grafica probabilidad: Utilizada para verificar modelos de distribución (Recta:
normal, logarítmica: lognormal), para detectar valores extremos y anómalos (no
pertenecen a la población, alteran mucho las eda), y para chequear presencia
de dos poblaciones. Los valores extremos pueden: Declararse erróneos y
eliminar, clasificarlos como otra población, bajarlos a máximo razonable, etc.
 Gráfica dispersión: Permite un análisis bivariable, donde pares se encuentran
co-localizados. Los pares permiten establecer un coeficiente de correlación
(medida de la dependencia lineal de dos variables). Si dos variables son
independientes, tienen correlación 0, pero no así a la inversa.
 QQ-plot: Para comparar dos distribuciones, solo con el fin de saber si las
distribuciones se parecen. Se comparan graficando según un mismo cuartil en
cada distribución, ejemplo comparando en ambas según cuartil 3. Si los puntos
se alinean a los 45° son iguales. Si se desplazan de los 45°, tienen misma
forma, pero distinta media. Si hay línea, pero no a los 45° las varianzas difieren.
Si no hay linealidad, los histogramas son distintos.
3.2 Desagrupamiento
La idea de aplicarlo es reproducir (obtener) una distribución representativa de una
zona analizada y determinar su ley media. Así la idea es cambiar las frecuencias
de muestras en función de representatividad (más muestras, informan menos;
menos muestras, informan más).
Notar que solo aplican para corregir la distribución, puesto que se ponderan
frecuencias de muestra y no cambian los valores de ellas.
Las técnicas ponderan la frecuencia de aparición en el histograma en función de
la existencia de clusters, con el fin de corregir el muestreo preferencial.
Algunos de los métodos usados son:
 Método de celdas  cambio en la media según la deriva en los datos, usando
el tamaño que se deduce de la malla de sondaje.
 Método de polígonos  Se pondera el valor de cada muestra por el volumen
de influencia. Requiere conocer los limites del dominio, pero es fácil de
aproximar numéricamente, puede dar buenos resultados.
 Pesos de kriging ordinario.
Cluster: es una agrupación de datos en un punto de alta ley. De modo que cerca
del punto hay muchos mas datos que en puntos de baja ley. Estos cluster existen
por la intención de delimitar zonas de alta ley.
3.3 Unidades Geológicas
Para definirlas se requiere que la variable de estudio tenga comportamiento
homogéneo, por lo que se debe aplicar la estacionaridad e incorporar derivas.
Puede ser muy útil para estimar leyes y definir unidades de estimación.
La idea es combinar los datos con características geológicas relevantes, y que el
número de datos para la inferencia sean especialmente consistentes.
Por otro lado, los modelos geológicos pueden realizarse en base a la litología,
alteraciones o mineralización.
3.4 Análisis estadístico
Con ellos se quiere acceder a parámetros de la población subyacente. Requiere
de la inferencia, para obtener parámetros de una población, a partir de una
muestra. Para ello debo considerar si es representativa la muestra y si tiene datos
suficientes.
3.5 Compositacón
Los compósitos corresponden a un volumen regularizado de muestra, ósea que,
se define un tamaño sobre el cual se promediarán muestras para obtener
compósitos de un tamaño regular (muestras con mismas longitudes). Ello es
necesario ya que muchas muestras de distintos tamaños generan impacto
estadístico en el estudio.
La ley media del compósito se calcula como el promedio ponderado por el largo
de las muestras que caen dentro del volumen definido del compósito.
A menudo el soporte a utilizar para la estimación corresponde a la altura de banco
(o altura del bloque a estimar), por lo que es bueno compositor.
Cuanto mayor es el tamaño del soporte al cual se está regularizando, menor es la
varianza de la distribución, puesto que se están reemplazando valores puntuales
por promedios.
3.6 Análisis visual (cualitativo)
Para validar las campañas de sondajes, deben seleccionarse varios pares de
sondajes cercanos y aproximadamente paralelos, y se debe verificar que
cualitativamente las leyes tengan las mismas tendencias.
4. Variables aleatorias
4.1 Estacionaridad
Primero debo definir un dominio geológico según lo observado, y a partir de ello
puedo definir un dominio estacionario (que está condicionado a estas variables
geológicas y variables económicas).
Al determinar dominios estacionarios, se realiza la “decisión de estacionaridad”, y
debe ser respaldado por un análisis estadístico. Además, para que sea
estacionario debe demostrarse estacionaridad de segundo orden y estacionaridad
intrínseca.
Así el dominio estacionario, representa controles de la mineralización basado en
la combinación de variables geológicas. Se suele tratar como un subconjunto
geológico.
“DATOS MÁS CERCANOS TIENEN MAYORES POSIBILIDADES DE SER
SIMILARES, QUE EN EL CASO DE DOS ALEJADOS”
4.2 Anisotropía
Propiedades que difieren de la dirección de medición (Morris, 1975).
Existen tres direcciones ortogonales (ejes) que permiten definir un elipsoide,
cuyas dimensiones se definen por un usuario. ¿Ella representa la dispersión de la
anisotropía?
La anisotropía en la elipse se puede medir/determinar en 2d en los planos de los
ejes principales o en 3d donde se considera la totalidad de datos dentro de la
elipse.
De modo que puede definirse una correlación espacial, que se representa como
la variabilidad espacial de esta elipse, y como un variograma, que responde a la
correlación espacial de los datos.
Finalmente pude determinarse con mapas variográficos 2D y 3D, o a partir de
concentraciones y variogramas
4.3 Variable y función aleatoria
Una variable aleatoria (VA) o estocástica, es aquella cuyos valores se obtienen
de mediciones de algún tipo de experimento aleatorio. Es una función que asigna
eventos a números reales y puede tomarse como una cantidad cuyo valor no es
fijo pero que puede tomar diferentes valores (reales, aleatorios, lógicos o
funciones).
Sus posibles valores pueden representar:
- Posibles resultados de un experimento no realizado.
- Posibles Valores de una cantidad cuyo valor, actualmente es incierto como
resultado de una medición incompleta y/o imprecisa
- Una distribución de probabilidad (describe la probabilidad de que se den
diferentes resultados)
Procesos estocásticos estacionarios: Es aquel cuya distribución de probabilidad
en un instante o posición fija, es la misma para todos los instantes de tiempos o
posiciones. De modo que parámetros como media y varianza existen y no varían
en el tiempo ni en posición. En resumen, proceso en que se asume no va a cambie
en el tiempo y es de muestras fijas. Ej: procesos geológicos.
Procesos estocásticos no estacionarios: No se pueden predecir y no hay
parámetros constantes. Ej: índices de precios, precios de comódities, índices de
bolsas, etc.
5. Modelamiento de la continuidad espacial
La correlación o continuidad espacial en geoestadística es aquella que asume
que las muestras están correlacionadas. Ella es la que me interesa encontrar
para mi yacimiento. La calculo a partir de las mediciones hechas en el espacio.
Esa correlación puede estudiarse con gráficas de dispersión o mediante valores
numéricos (Función de correlación, función de covarianza, ecuación de semi
variograma [variograma]).
El objetivo de su estudio es describir y modelar la estructuración/continuidad
espacial de la regionalización.
La idea básica entonces consiste en encontrar una relación entre pares de datos
separados por una cierta distancia h, y se repite ese estudio entre todos los
puntos de separación h.
5.1 Variogramas
Es una herramienta geoestadística que permite la cuantificación de parámetros
geológicos y expresa la correlación espacial entre valores muestreados. (“media
de los cuadrados de las diferencias entre pares de muestras separados por una
distancia”). Un Variograma es un promedio, este promedio es bueno cuando el
número de parejas es grande. A medida de [h, lag] crece, N’ (total datos)
decrece.
La esperanza es momento de primer orden. Varianza, covarianza, variograma y
correlograma son momentos de segundo orden.
Ley espacial  estacionaridad: con el fin de hacer inferencia estadística,
asumiremos que la variable es espacialmente homogénea (invariante por
traslación)
El variograma simple se estima a partir de un conjunto de datos, reemplazando la
esperanza por una media sobre los pares de separación h.
Para un variograma experimental, necesito conocer:
- Azimut (angulo respecto del norte y la elevación de un punto en el espacio)
- Tolerancia en el acimut
- Ancho de banda horizontal
- Inclinación
- Tolerancia en la inclinación
- Ancho de banda vertical
- Distancias (múltiplos de una distancia elemental = paso)
- Número de pasos
Los componentes de un variograma pueden indicar: Comportamiento en el origen
(¿efecto pepita?), comportamiento a distancias grandes (¿alcance?) y
comportamiento direccional (¿anisotropía?)
La continuidad espacial buscada se refleja en la tasa de crecimiento de la varianza
(Y) respecto de los aumentos de la distancia de muestreo (h, lag)
El alcance puede permitir determinar el distanciamiento optimo del muestreo, de
modo que su influencia tenga el solapamiento adecuado.
La anisotropía se refleja en el variograma a través de los distintos alcances y
mesetas que aparecen, según la dirección de apareamiento de datos.
El variograma simple se modela como la sumatoria de modelos elementales
(anidados), que reflejan distintas escalas de variación según el alcance de cada
modelo anidado. Los modelos anidados pueden ser isótropos o anisótropos.
En la práctica, dos tipos de anisotropía se manejan: anisotropía geométrica [definida por una elipse (2D)
o elipsoide (3D) de los alcances], anisotropía zonal [uno o dos ejes de la elipse/elipsoide se vuelve muy
grande (infinito)]

Los modelos de variogramas son curvas, generadas a partir de una función que
se ajusta a los datos y permiten conocer la distribución de puntos en el espacio.
Ellos deben ser consistentes en las distintas direcciones (tener el mismo efecto
pepita y el mismo número y tipo de estructuras anidadas), para ello puedo:
- Tomar un único (el más bajo) efecto pepita isótropo
- Escoger el mismo número de estructuras anidadas para todas las
direcciones, basado en la dirección más compleja
- Asegurar que el mismo parámetro de meseta se use para todas las
estructuras anidadas en todas las direcciones
- Permitir un alcance diferente en cada dirección
- Modelar una anisotropía zonal definiendo un alcance muy grande en una o
más de las direcciones principales
El modelo de usa para krigear (hacer una regresión), con el fin de ajustar el
variograma lo más posible a una función matemática. Mientras mas se parezca a
una, más estables se dicen ser los datos.
Formas de variograma:
[sill, punto que corresponde con la curva del cambio de dirección. s: rango]
Efecto pepita puro: Representa fenómeno completamente aleatorio, sin
correlación espacial. Sin importar la cercanía de valores de las variables, nunca
se correlacionan.
Modelo esférico: comportamiento lineal en el origen, representa fenómenos
continuos, pero no diferenciables. Función por tramos.

Modelo exponencial: comportamiento lineal en el origen, representa fenómenos


continuos, pero no diferenciables. Función exponencial. El rango es igual al sill.

Modelo Gaussiano: Comportamiento cuadrático en el origen. Representa


fenómenos continuos infinitamente diferenciables (sumamente continuos).
5. Modelamiento de la continuidad espacial (+completo)
La correlación o continuidad espacial en geoestadística es aquella que asume que
las muestras están correlacionadas y hallar aquella correlación es el interés en un
yacimiento. Se calcula a partir de las mediciones hechas en el espacio, por lo que
su ubicación en el mismo es de suma importancia (la distribución de las muestras
tiene gran importancia).
Aparece el concepto de estacionaridad, de modo que datos más cercanos
tienen más probabilidad de ser similares entre sí que los más alejados.
Esa correlación puede estudiarse con gráficas de dispersión (diagramas) o
mediante valores numéricos (Función de correlación [correlograma], función de
covarianza, ecuación de semi variograma [variograma]).
El objetivo de la correlación es describir y modelar la estructuración/continuidad
espacial de la regionalización.
La idea básica entonces consiste en encontrar una relación entre pares de datos
separados por una cierta distancia h, y se repite ese estudio entre todos los puntos
de separación h.
5.1 Variogramas
A grandes rasgos, describe la continuidad espacial de variables.
Es una herramienta geoestadística que permite la cuantificación de parámetros
geológicos y expresa la correlación espacial entre valores muestreados a cierta
distancia h y en todas direcciones. De esa distancia
(“media de los cuadrados de las diferencias entre pares de muestras separados por una distancia”).

Un Variograma es un promedio, este promedio es bueno cuando el número de


parejas es grande. A medida que [h o lag] crecen, N° de total datos decrece.
Posee una variable única con una componente en su distribución espacial, que
está dada por la dirección (lag?), la tolerancia angular (azimut) y la tolerancia
cartesiana (x e y) de aquella busqueda.
- La esperanza es momento de primer orden.
- Varianza, covarianza, variograma y correlograma son momentos de
segundo orden.
Ley espacial  estacionaridad: Con el fin de hacer inferencia estadística,
asumiremos que la variable es espacialmente homogénea (invariante por
traslación)
El variograma simple se estima por inferencia a partir de un conjunto de datos,
reemplazando la esperanza por una media sobre los pares de datos con una
separación h (como vector).

Para calcular un variograma experimental, necesito conocer sus parámetros:


- Azimut (angulo respecto del norte y la elevación de
un punto en el espacio, dirección de la búsqueda)
[ej rumbo 135°]
- Tolerancia en el acimut (delta azimut) [+- 5°]
- Ancho de banda horizontal
- Inclinación (angulo)
- Tolerancia en la inclinación
- Ancho de banda vertical
- Distancias (múltiplos de una distancia elemental =
paso) (lag distance: delta h, pares de datos a cierta
distancia que dice cada cuanto me muevo y cada
cuanto analiza)
- Número de pasos (lag tolerance: indica muestras que se toman hacia adelante
o hacia atrás, como 20 m adelante 20 m atras)

Los componentes de un variograma pueden indicar:


- Comportamiento en el origen (¿hay efecto pepita?)
- Comportamiento a distancias grandes (¿Cuál es el alcance?)
- Comportamiento direccional (¿hay anisotropía?)
La continuidad espacial buscada se refleja en la tasa de crecimiento de la varianza
(ϒ) respecto de los aumentos de la distancia de muestreo (h, lag)
Cuando los datos alcanzan un comportamiento continuo, el variograma llega una
meseta y se dice que los datos ya no se correlacionan espacialmente
El alcance puede permitir determinar el distanciamiento optimo del muestreo, de
modo que su influencia tenga el solapamiento adecuado (foto distintos tipos
solapamiento y relación con la covarianza).
La anisotropía se refleja en el variograma por medio de los distintos alcances y
mesetas que aparecen en función de la dirección de apareamiento de datos.
El variograma simple se modela como la sumatoria de modelos elementales
(anidados), que reflejan distintas escalas de variación según el alcance de cada
modelo anidado. Los modelos anidados pueden ser isótropos (diagrama en
distintas direcciones se comporta de la misma forma) o anisótropos.
En la práctica, dos tipos de anisotropía se manejan: anisotropía geométrica [definida por una elipse (2D)
o elipsoide (3D) de los alcances], anisotropía zonal [uno o dos ejes de la elipse/elipsoide se vuelve muy
grande (infinito)]

Los modelos de variogramas son curvas, generadas a partir de una función que
se ajusta a los datos y permiten conocer la distribución de puntos en el espacio.
Reglas de ajuste simple: Ellos deben ser consistentes en las distintas direcciones
(tener el mismo efecto pepita y el mismo número y tipo de estructuras anidadas),
debiéndose definir una dirección principal y un downhole, para ello puedo:
- Asegurar alcances y direcciones con geología en terreno y estadísticas
previas
- Tomar un único efecto pepita isótropo (el más bajo)
- Escoger el mismo número de estructuras anidadas para todas las
direcciones, basado en la dirección más compleja
- Asegurar que el mismo parámetro de meseta se use para todas las
estructuras anidadas en todas las direcciones
- Permitir un alcance diferente en cada dirección
- Modelar una anisotropía zonal definiendo un alcance muy grande en una o
más de las direcciones principales
El modelo se usa para krigear (hacer una regresión), con el fin de ajustar el
variograma lo más posible a una función matemática. Mientras más se parezca a
una, más estables se dicen ser los datos. De modo que el kriging sigue la dirección
y los alcances del variograma para asi definir valores en zonas donde no existen
valores concretos o simplemente no existe información.
Cuando el modelado de variograma es más estable, se puede decir que hay una
mejor distribución de los datos, mientras que si el variograma es más errático o
ruidoso se puede decir que los datos en realidad no están tan correlacionados o
bien tiene una distribución aleatoria/no continua.
Formas de variograma:
[sill: a, punto que corresponde con la curva del cambio de dirección rango][rango:
s]
Efecto pepita puro: Representa fenómeno
completamente aleatorio, sin correlación
espacial. Sin importar la cercanía de valores de
las variables, nunca se correlacionan, por ello el
modelo alcanza su meseta inmediatamente.
(Variable regionalizada discontinua)

Modelo esférico: comportamiento lineal en el origen, representa fenómenos


continuos, pero no diferenciables (Describe una variable regionalizada continua).
Función por tramos donde se alcanza la meseta para un valor h >= a.

Modelo exponencial: comportamiento lineal en el origen, representa fenómenos


continuos, pero no diferenciables. Función exponencial donde se alcanza la
meseta de forma asintótica para |h| = a. El rango es igual al sill.
Modelo Gaussiano: Comportamiento cuadrático en el origen. Representa
fenómenos continuos infinitamente diferenciables (sumamente continuos). Suelen
representar yacimientos con leyes muy homogéneas.
6. Estimación de Recursos
La estimación se hace necesaria ya que el muestreo es parcial, por lo que es
necesario estimar valores de leyes en puntos sin muestras. También es necesaria
cuando queremos estimar la ley de bloques de diferentes dimensiones a la
muestra (cambio de soporte).
Se definirán estimadores con las siguientes características:
- Lineales (valor estimado es combinación lineal de datos existentes)
- Insesgados (el estimador tiende a entregar el valor correcto sin sesgo sistemático)
- Óptimos (el estimador será preciso y minimizará la varianza del error de estimación)
6.1 Estimadores Lineales Ponderados
Para estimar el valor de un atributo desconocido en cierta
posición se toma pueden realizar ponderaciones que toman
en consideración la posición a estimar (u), la estimación en
ella (Z*(u)), los valores de los datos (Z(ui)) y los ponderadores
(ʎi).
Para asignar ponderadores se debe considerar lo siguiente:
 Cercanía a la posición que se está estimando
 Redundancia entre valores de datos
 Continuidad anisótropa (dirección preferencial)
 Magnitud de la continuidad/variabilidad
Si se asignan todos los Si se asignan los ponderadores
ponderadores a los datos más de manera inversamente
cercanos, se tiene un estimador proporcional a la distancia de la
de tipo poligonal (o vecino más posición a estimar, se tiene un
cercano), donde el valor de cierto estimador de tipo inverso de la
punto corresponde al de la distancia.
muestra más cercana.

Si se usa el variograma se tiene un estimador de tipo kriging.


6.2 Kriging
El Kriging es el mejor estimador lineal insesgado (en sentido de error de
mínimos cuadrados para modelo de covarianza/varianza) y corresponde a una
colección de técnicas generalizadas de regresión lineal para minimizar
una varianza de estimación definida de un modelo a priori de
covarianza. Toma en consideración la geometría del volumen a estimar,
la distancia de la información, la configuración de los datos y la
continuidad estructural de la variable considerada.
El estimador verifica las siguientes propiedades:
- Interpolación exacta (devuelve el valor medido en cada sitio con
dato)
- Insesgo (el error de estimación tiene una esperanza nula)
- Precisión (el error de estimación tiene una varianza mínima)
- Suavizamiento (alisamiento) (la dispersión de los valores
estimados es menor que la dispersión de los valores verdaderos)
- La varianza de kriging no depende de los valores de los datos,
sino que solamente de su posición en el espacio y del modelo de
variograma (no mide todas las fuentes de incertidumbre)
De modo que:

El variograma se define como:

La covarianza se define como:


La relación entre variograma y
covarianza se define como:

La varianza del Kriging puede calcularse antes de tener información,


solo conociendo el variograma. Así pueden definirse grillas optimas para
exploración y grillas para categorización de recursos.
El Kriging presenta un efecto suavizante ya que localmente es preciso
y suave. Por ello es apropiado para visualizar derivas, pero inapropiado
para evaluar procesos donde los valores extremos son importantes. Ello
porque la varianza de los valores estimados es MUY baja.
Considerando la definición de la varianza en el caso para el Kriging
simple (explicado más adelante):

σ2 es la varianza completa y σ2sk(u) es la varianza de los valores


estimados, de modo que:
o σ2sk(u) = 0 en la posición de los datos  No hay
suavizamiento
o σ2sk(u) = σ2 en una posición lejana a los datos  El
suavizamiento es total
Luego las variaciones espaciales de σ2sk(u) dependen del
variograma y el espaciamiento de los datos. Este efecto suavizador
de puede predecir.
Algunos tipos de Kriging:
 Kriging Simple: media conocida m
 Kriging Ordinario: media desconocida
 Kriging con un modelo de deriva: media conocida en cada posición m(u)
 Kriging con una deriva externa: el modelo de deriva escalado a partir de una variable
secundaria m(u)=a0+a1y(u)
 Kriging no lineal: Log normal, MG, Kriging de rangos, KI, KD, …
 Kriging de Indicadores: KIS, KIO, KIM, …
 Kriging de Probabilidades: Usa indicadores y orden de los datos

Kriging Simple (KS)


El kriging simple permite obtener los ponderadores óptimos ʎ i que
minimizan la varianza del error, a partir de un sistema de ecuaciones
con n ponderadores desconocidos, en el cual se deriva parcialmente
respecto a los ponderadores y aquello se iguala a cero.
Si la matriz de covarianza es positiva, solo existe una única solución al
sistema de ecuaciones (por ello para modelar el variograma se usan modelos lícitos).

El estimador asume la media como constante y conocida.


Si bien el estimador es insesgado, minimiza la varianza de estimación,
es un interpolador exacto y permite estimar el valor sobre un bloque, no
se usa en la práctica para estimar. Mas bien es usado como la base
para métodos de simulación.
La simulación reproduce el histograma y respeta la variabilidad espacial
del variograma, ella permite determinar la incertidumbre con
realizaciones alternativas y así, obtener la “varianza perdida” para
corregir la varianza y obtener un variograma correcto.
Kriging Ordinario
El sistema de Kriging Ordinario también permite determinar los
ponderadores óptimos a partir de un sistema de ecuaciones, sin
embargo, en este caso la media es desconocida y por ello se requiere
imponer una condición de insesgo (error de estimación tiene una esperanza nula).
Lo que se realiza en este caso para minimizar la varianza es que la
suma de los ponderadores sea igual a 1.

(en términos de variograma)

6.4Kriging de bloques
El Kriging (simple u ordinario) puede ser extendido a la estimación
directa del valor promedio en un bloque (izq), para ello solo hay que
reemplazar la covarianza punto-punto C(ui-u) (der, izq) por la covarianza
punto-bloque C(ui-xk) (der,der).
6.5Efectos sobre los Ponderadores
 Efecto distancia: Caso base y efecto del aumento en la distancia sobre los
ponderadores

 Efecto Pantalla y Anisotropía: Efecto pantalla y de la anisotropía


(Anisotropía Geom. 4 x 1) sobre los ponderadores

 Efecto de Declusterización y Distancia: Efecto de declusterización y


declus. + distancia sobre los ponderadores

 Cambio en efecto pepita: Efecto sobre los ponderadores de un cambio en el


efecto pepita del modelo variográfico
6.6 Validaciones Cruzadas
 Parámetros de Kriging.
 Criterios:
o Media compósitos = Media puntos estimados (sesgo global)
o Medias condicionales (sesgo condicional)
o Varianza (estimado‐real) baja
o Distribución de errores estandarizados (debe estar centrada
en 0)
 Elección del mejor plan de Kriging
6.7 Plan de Kriging
¿Cuáles son los datos a utilizar en la estimación?
Vecindad móvil: se usa sólo los datos cercanos al sitio (bloque) a
estimar:
- En general, se toma una vecindad en forma de elipse (2D) o
elipsoide (3D), orientado según la anisotropía observada en el
variograma.
- Se suele dividir la vecindad en octantes en 3D y buscar datos en
cada sector
- Los radios de la elipse (elipsoide) no necesariamente
corresponden a los alcances del variograma, sino que se definen
de manera de poder encontrar suficientes datos para hacer la
estimación
6.8 Validación del Kriging
Para poder validar los parámetros del Kriging pueden usarse los
métodos de:
- Validación cruzada: Se estima sucesivamente cada dato
considerando solo los datos restantes.
- Jack-knife: Se divide la muestra inicial en dos y se estima una
parte a partir de la otra.
Luego de seleccionar el método, se hace un estudio estadístico de los
errores cometidos para saber si el Kriging tuvo buena precisión, poco
sesgo condicional, etc (satisfactorio)
También existen ciertos a tener en consideración para la validación:
 Que el estimador no tenga sesgo (medias de errores y de errores
estandarizados cercanas a cero)
 Que el estimador sea preciso (varianza de errores lo más baja posible)
 Que el variograma cuantifique adecuadamente la incertidumbre
(varianza de errores estandarizados cercano a uno)
 Que existe un insesgo condicional (La nube de dispersión entre valores
reales y estimados [regresión] debe acercarse a la diagonal)

Histogramas de errores cometidos:


Las medias de los errores son casi nulas y por ello hay insesgo. En los diagramas
la mayor precisión se alcanza en planes 2 y 3.

Nubes de correlación entre leyes reales y estimadas:


El insesgo condicional y la dispersión de la nube son mínimos en los planes 2 y 3
7. Categorización de Recursos
Para clasificar recursos y reservas, los códigos internacionales sugieren
que se incluya la cuantificación de incertidumbre. De modo que hay una
serie de código cuyo fin es definir el grado de confianza en la estimación
de la cantidad y calidad del recurso, ellos son:
- Circular 531 USGS (1980)
- CIM Guidelines (1996)
- JORC Code (1999)
- SAMREC Code (2000)
- NI 43-101 – CSA (2001)
- Código Chileno (2003)

Otras técnicas subjetivas utilizadas para clasificar son:


- El grado de continuidad geológica de la mineralización a juicio del experto
- Cantidad de información disponible
- Configuración geométrica de la información
- Grado de continuidad espacial de las leyes

Para cuantificar la incertidumbre se pueden usar criterios geológicos


(Continuidad geológica de depósito), criterios geométricos (Disposición espacial de
datos, densidad de sondajes y radios de búsqueda) o criterios geoestadísticos
(Continuidad espacial de leyes [anisotropía y efecto pepita], abundancia y redundancia de
datos).

Un recurso mineral posee un interés económico intrínseco cuyas


características son definidas via conocimiento geológico, este recurso
puede ser medido (Mayor nivel de confianza geológica), indicado o inferido
(Menor nivel de confianza geológica).

- Recurso mineral medido: Parte de un recurso para el cual puede


estimarse tonelaje, densidad, forma, características físicas, ley y contenido
de mineral con alto nivel de confianza. Se basa en la exploración detallada e
información confiable sobre muestreo y pruebas obtenidas mediante técnicas
apropiadas en lugares adecuados, que están lo suficientemente espaciados
(cierta cercania) para confirmar continuidad geológica y/o de la ley. “Aquellos
cuya ley está en el intervalo definido por +/‐15% del valor estimado, 80% del
tiempo, para una producción mensual”

- Recurso mineral indicado: Parte de un recurso para el cual puede


estimarse tonelaje, densidad, forma, características físicas, ley y contenido
mineral con un nivel razonable de confianza. Se basa en información sobre
exploración, muestreo y pruebas reunidas mediante técnicas apropiadas en
ubicaciones medianamente apropiadas, las cuales suelen estar demasiado
espaciadas o su espaciamiento es inapropiado para confirmar la continuidad
geológica y/o de ley, pero está espaciada con suficiente cercanía para que
se pueda suponer continuidad. “Aquellos cuya ley está en el intervalo definido
por +/‐15% del valor estimado, 80% del tiempo, para una producción
trimestral”

- Recurso mineral inferido: Parte de un recurso en el cual se estima


tonelaje, ley y contenido de mineral con un bajo nivel de confianza y con
cierto grado de certidumbre. Es inferido a partir de evidencia geológica y se
asume, pero no se certifica la continuidad geológica ni de la ley. Se basa en
información inferida y limitada basada en localización de estructuras. “Todos
los otros bloques razonablemente estimados”

Luego los recursos que han sido o bien indicados o medidos, pueden
pasar a ser reservas mineras, ellas son económicamente explotables y
consideran materiales para dilución y pérdidas por factores de
extracción metalúrgicos, económicos, de mercados, legales,
ambientales, sociales y gubernamentales. Las reservas pueden ser
probadas (Mayor nivel de confianza financiera) o probables (Menor nivel de confianza
financiera).

- Reserva minera probada: Parte económicamente explotable de un


Recurso Mineral Medido. Incluye los materiales de dilución y tolerancias por
posibles pérdidas al explotar el material. Ha sido evaluado apropiadamente
con estudios de factibilidad e incluye la consideración de modificaciones por
factores asumidos de minería, metalurgia, económicos, de mercados,
legales, ambientales, sociales y gubernamentales; Las evaluaciones
demuestran que la extracción podría justificarse razonablemente.

- Reserva minera probable: Parte económicamente explotable de un


Recurso Mineral Indicado (Podría ser también R.M Medido). Incluye los
materiales de dilución y tolerancias por posibles pérdidas al explotar el
mineral. Ha sido evaluado apropiadamente con estudios de factibilidad e
incluye la consideración de modificaciones por factores asumidos de minería,
metalurgia, económicos, de mercados, legales, ambientales, sociales y
gubernamentales; Las evaluaciones demuestran que la extracción podría
justificarse razonablemente.
Para categorizar los recursos y reservas se deben seguir una serie de
pasos:
1. Estudio exploratorio de datos: Aquí se corrobora la interpretación geológica
y se verifica la continuidad geológica y de las leyes.
2. Análisis de continuidad espacial: Aquí se busca si existe un efecto
proporcional y se busca validar una hipótesis para transformación.
3. Estimación y simulación: Aquí se mide el error provocado por los pasos
anteriores.

7.1 Simulación
Por su parte la simulación consiste en construir una variable ficticia que
reproduce la continuidad/variabilidad espacial de una variable
regionalizada. La construccion de la variable ficticia se basa en que ésta
se interpreta como una realización de una función aleatoria, a partir de
la cual se generan otras realizaciones. La “ventaja” de aquello es que
estas realizaciones tienen misma variabilidad espacial que la variable
regionalizada real, por ello mismo histograma y variograma. Así la
simulación responde a operaciones con un valor similar al de la variable
real.
Una simulación tiene las siguientes propiedades:
- Posee una interpolación exacta siempre y cuando sea una
simulación condicional (que toma como restricción adicional los
valores de los datos, de modo que los interpola).
- Insesgo: La función de la variable generalizada puede ser
estimada sin sesgo (error de esperanza nulo).
- No suaviza: Ya que la dispersión de los valores simulados y los
valores verdaderos es la misma.
- No es precisa: Ya que el error entre valor real y valor simulado no
tiene una varianza mínima. Esto trata de compensarse usando un
gran conjunto de simulaciones que representan un escenario
plausible.
Se hace necesario recurrir a las simulaciones cuando:
 Hay problemas de estimación: Se resuelve al promediar
escenarios o al calcular la frecuencia de ocurrencia de un evento
(probabilidad ocurrencia)
 Es necesario medir la incertidumbre: Se mide al definir intervalos
de probabilidad para valores desconocidos de la variable
regionalizada, a partir de variaciones entre escenarios.
 Se necesita analizar el riesgo: Significa que se plantean diversos
escenarios (optimo, intermedio y pesimista) para poder analizar el
impacto en cada resultado y poder tomar una decisión.
7.2 Estimación versus simulación
El valor estimado puede obtenerse mediante el estimador de Kriging
(estimación) o bien a partir de la simulación que entrega una media de
valores simulados.
La medida del error puede obtenerse a partir de la varianza del Kriging
(estimación) o bien mediante la varianza condicional de una simulación.
El efecto proporcional en la estimación puede observarse como una
varianza independiente de medias locales, mientras que en la
simulación se observa como una varianza que depende de medias
locales via transformación.
Para la clasificación se tiene que:
Estimación Simulación
Favorece leyes
Varianza de corte Igual trato a todos Varianza de corte
bajas
Varianza relativa de Favorece leyes Varianza relativa de
Igual trato a todos
corte altas corte
Varianza sobre
Planes de Kriging Mixto periodos de Mixto
producción

Algunas discusiones y conclusiones:


 La subjetividad de las metodologías es un problema.
 El código JORC ha impuesto la necesidad de cuantificar la
incertidumbre en la estimación.
 Las técnicas geoestadísticas pueden ser usadas, sin embargo,
hay que tener cuidado de que la metodología no
perjudique/favorezca el proyecto.
 Estandarizar la categorización es complejo ya que tanto la
geología como la configuración del muestreo presentan amplia
diversidad.
 Es importante definir estándares y facilitar la transición de criterios
utilizados a los criterios reconocidos por los códigos.
Generalidades previas al tema 8:
La geoestadística se utiliza en varias etapas del proceso minero, tales
como:
- Explotación in situ: Permite saber donde hay que perforar, a que
distancia se debe perforar, que malla permite generar recursos
utilizables.
- Perforación de desarrollo: Para saber donde generar reservas,
que malla se necesita para generar recursos medidos, cual es la
mezcla de unidades/materiales óptimos para la planta de
producción.
- Pozos de producción: Permite generar un modelo para control de
leyes y planificación de corto plazo, visualizar pérdidas por malas
decisiones.
Incertidumbre: Siempre existe y ningún modelo numérico logrará
reproducir la realidad sin error. La incertidumbre existe debido a la falta
de conocimiento producto del muestreo o por la representatividad de los
datos. La incertidumbre no es propia del depósito, es por las mediciones
realizadas.
Suavizamiento: Es provocado por los métodos de estimación ya que
realizan una regresión hacia la media. En el suavizamiento, los valores
extremos juegan un gran efecto en la respuesta, permitiendo conocer
reservas recuperables o cantidad de fino disponible.
8. Principios de simulación (conceptos básicos)
Simulación o modelo numérico, consiste en construir una variable
regionalizada que se “parece” a la variable que se estudia, de modo que
reproduce su continuidad espacial y coincide con los valores medidos
en los sitios con datos. Las técnicas de simulación se apoyan en la
interpretación de una variable regionalizada como una realización de
una función aleatoria en el modelamiento de su distribución espacial.
La simulación es utilizada debido a que no es posible estudiar/conocer
exhaustivamente a la variable real, ya sea porque no hay tiempo ni
presupuesto, o bien por causas naturales que impiden la exploración.
Las técnicas de simulación permiten:
i. Generar escenarios posibles de la distribución espacial de leyes de
bloques  varios escenarios, cuantifica incertidumbre
ii. Procesar cada realización como si fuera la realidad
iii. Aplicar una ley de corte para calcular reservas recuperables
iv. Evaluar variabilidad bloque a bloque – continuidad de lastre y
mineral
En el modelamiento numérico solo existe una única distribución
verdadera de las propiedades de cada depósito, este permite manejar
la ignorancia respecto a la incógnita de lo procesos físicos y químicos
que pudieron generar las condiciones actuales del depósito.
Un Fenómeno Regionalizado es aquel que se desarrolla en el espacio
y corresponde a un conjunto de fenómenos físicos y químicos que
producen una mineralización o bien al transporte de partículas que
generan depositación de un contaminante en un sitio.
Una Variable Regionalizada corresponde al valor de alguna de las
características del fenómeno regionalizado, tales como la profundidad
de un estrato, la potencia de una veta, la ley de arsénico en un punto,
la densidad de un bloque, la concentración de plomo sobre un área, etc.
Se denota como z(u) al valor de la variable z en el punto u del espacio.
8.1 Construcción de un modelo numérico
1. Determinar la extensión del modelo y el tamaño de la celda del
modelo geológico.
2. Definir transformación de coordenadas, de ser necesario.
3. Definir el número de unidades de estimación, los datos y la
correlación espacial.
4. Generar modelo 3‐D de la distribución de unidades de estimación
(estocástico o determinístico).
5. Generar modelo de leyes 3‐D (estocástico o determinístico) para
cada unidad de estimación.
6. Combinar y transformar de vuelta a coordenadas reales.
7. Verificar el modelo.
Razones para construir un modelo numérico:
- El Kriging permite estimar la ley de bloques.
- Los valores estimados son mas suaves que los valores reales
(tienen menor varianza).
- La varianza se puede manejar, ajustando numero de datos
utilizados en el Kriging con el fin de reducir el suavizamiento,
generando sesgo condicional.
- Utilizar un gran numero de datos al estimar reduce el sesgo
condicional, pero aumenta el suavizamiento.
- Es imposible estimar correctamente el tonelaje y la ley.
8.2 Estimación y simulación
Es de interés conocer la incertidumbre de la respuesta de una función
de transferencia, así sería posible llevar una serie de datos reales en
3D a un resultado en 1D. (series de tiempo de extracción del modelo
espacial)
Los planes que estén basados en suposiciones promedio al final estarán
errados en promedio.
Algunos algoritmos/tipos/métodos de estimación utilizador para la
simulación:
- Método matricial (Descomposición LU): poco usada debido a
las restricciones de tamaño (debe resolverse una matriz de N x N
donde N podría corresponder a millones). LUSIM
- Bandas Rotantes: simula la variable en líneas (1‐D) y combina
los valores simulados (3‐D). Poco usada (principalmente por
franceses) y requiere condicionar a datos locales.
- Fractales: simulación no condicional rápida que requiere procesar
a posteriori para respetar los datos locales.
- Espectral: Los métodos que usan FFTs pueden ser rápidos…
pero no son intuitivos y tienen limitaciones con respecto al tamaño
de la grilla y datos condicionantes.
- Annealing: Basado en convergencia de una función objetivo a
cero. Extremadamente flexible (y potencialmente muy lento), no
tiene una base teórica. SASIM
- Simulación Secuencial: ampliamente usada y recomendada
para simulación condicional. SGSIM, SISIM
8.3 Principios de simulación
La idea de una simulación es agregar al mapa de Kriging la variabilidad
perdida, de modo que, al valor que fue estimado por KS se le agrega un
residuo de media cero y varianza igual a la varianza del KS. Ello permite
que la relación entre un dato y un valor simulado sea correcta ya que
reproduce la variabilidad espacial.

Cabe destacar que, con la simulación, la covarianza no cambia, ya que


R(u) es independiente de los datos:

Donde:

Modelo Gaussiano para simular leyes (Simulación)


Modelo sencillo, donde la distribución espacial queda caracterizada por
la covarianza o por el variograma (equivalentes).
En el modelo de funciones aleatorias gaussianas, las distribuciones
conjuntas de variables son multi-gaussianas.
La densidad de probabilidad para cualquier conjunto (u1, …un) de sitios
en el espacio se escribe como:

Donde: y = (y1, …yn) es un vector de reales; C es la matriz de


varianza-covarianza de variables aleatorias en los sitios (u1, …un)
La serie de pasos o etapas a llevar a cabo para esta simulación es:
Etapa 1: Desagrupar los datos para tener un histograma representativo,
mediante el método de celdas o el método de polígonos de influencia.
Etapa 2: Transformar los datos a valores Gaussianos N(0,1)
Ejemplo: Transformación cuantil a cuantil de la distribución desagrupada de los
datos (izquierda) hacia una distribución Gaussiana N(0,1) (derecha)

Etapa 3: Análisis variográfico de los datos Gaussianos


Etapa 4: Simulación secuencial
- Para ello hay que definir una secuencia aleatoria para los sitios a
simular.
- Para cada sitio se debe realizar Kriging a partir de los datos
gaussianos y de los valores gaussianos previamente simulados,
además se debe simular un valor gaussiano de media igual al
valor estimado por Kriging y varianza igual a la varianza del
Kriging.
- Se debe repetir el procedimiento para así obtener otras
realizaciones.
Implementación en la práctica:
- En la práctica se usa una vecindad móvil, se restringen los valores
condicionales (datos iniciales + valores previamente simulados) a
los más cercanos del sitio a simular.
- Aleatorización del orden de los sitios a simular, para evitar
artefactos.
- Grillas múltiples: simular en una malla amplia, luego refinar.
- Clásicamente, se usa Kriging simple, puesto que los datos
Gaussianos tienen media conocida (= 0). Se puede también
relajar la hipótesis de media conocida y usar Kriging ordinario 
Verificar reproducción de histograma y variogramas…

Noción de fluctuación estadística:


Variogramas de los valores simulados vs
variograma teórico (100 realizaciones)

Etapa 5: Transformación de vuelta


Una vez obtenidas las realizaciones Gaussianas, se aplica la
transformación inversa de la etapa 2, de modo de obtener valores
simulados de la variable original (ley)
Etapa 6: Procesamiento de las realizaciones
Ejemplo: Tipo rocas, simuladas en una malla de 10m × 10m (100
realizaciones)

Rebloquear a unidades de selección minera


(10m × 10m × 12m): Para cada bloque y cada
realización, se calcula el promedio aritmético de
las leyes simuladas en este bloque.

Evaluación de las leyes de bloques y de su incertidumbre:


- El promedio de las realizaciones es parecido al Kriging
- La varianza de las realizaciones es distinta a la de
Kriging; en particular, incorpora el efecto proporcional

Evaluación de recursos recuperables sobre una ley de corte de 0.5%Cu:


- Cálculo de tonelajes, leyes medias sobre una
ley de corte.
- Estos mapas no pueden ser obtenidos por
Kriging, debido al suavizamiento de éste.
Método de Bandas Rotantes para simular leyes (Simulación)
La idea de este método es simular un modelo multidimensional a partir
de simulaciones unidimensionales. Se simula en líneas que se
distribuyen en distintas direcciones en el espacio, de modo que los
valores simulados en 3D están compuestos por las proyecciones de los
valores simulados en 1D (líneas).

Y(x) = Y(1)(< x | u >)


 Y(1) es una función aleatoria unidimensional
 u es un vector del espacio Rd
 < x | u > es la proyección del sitio x en la recta orientada por u

Hay relación entre las covarianzas en 1 y d dimensiones. De modo que


si C1 es la covarianza de Y(1) y Cd la covarianza de Y(x):
Cd(h) = C1(< h | u >)
Aquella covarianza se vuelve isótropa si se sortea la dirección de u al
azar, o sea, se reemplaza el vector determinístico u por un vector
aleatorio U:
Cd(h) = E{C1(< h | u >)}
La aplicación C1  Cd es biyectiva, de modo que se puede simular un
proceso multidimensional de covarianza Cd con ayuda de un proceso
unidimensional de covarianza C1 y una dirección aleatoria, gracias a la
fórmula anterior.
Luego para pasar de 1D (R) a 3D (R3) se establece una relación sencilla
entre C1 y C3:
Luego para pasar de 1D (R) a 2D (R2) se establece una relación entre
C1 y C2 que es más compleja:

Cabe destacar que de preferencia se suele tomar una sección (2D) de


una simulación 3D.
Este método genera realizaciones multigaussianas e isótropas:
- Calcular la covarianza C1 asociada a Cd, para i = 1 … N:
o Simular Yi (1), función aleatoria unidimensional de covarianza C1
o Simular una dirección ui uniforme o “regular” en Rd
- Calcular:

8.4 Condicionamiento
La simulación se dice condicional cuando restituye los valores de los
datos en los sitios de muestreo, hay dos métodos que permiten obtener
directamente simulaciones condicionales:
- Método secuencial
- Método de descomposición matricial
Para todos los otros métodos, se generan simulaciones no
condicionales, luego se aplica un kriging para condicionarlas a un
conjunto de datos.
La simulación condicional se obtiene al plantear:

 YKS(x) es el Kriging simple a partir de los datos condicionantes


 YS(x) es una simulación no condicional en el sitio x
 YS KS(x) es el Kriging simple de la simulación no condicional a partir de sus
valores en los sitios de muestreo

El método es válido cuando se simula una función aleatoria


multigaussiana. En la práctica basta con realizar un solo Kriging:

Lejos de los datos, el condicionamiento es inactivo: la simulación


condicional coincide con la simulación no condicional.
8.5 Simulación en la práctica
Análisis exploratorio de los datos
- ¿Todos los datos están correctos?
- ¿Las poblaciones están bien definidas?
- ¿Se consideran poblaciones espacialmente homogéneas y
estacionarias?
Determinación de estadísticas representativas (distribución)
- Desagrupamiento de datos
- Suavizamiento del histograma para disminuir el efecto de sesgo
espacial y outliers
Transformación de acuerdo a la distribución representativa
- Z  Y ~ N(0,1)
- Para cada valor de Z existe un único valor de Y (y viceversa)
Variografía de distribución transformada
- El resultado de la variografía es un modelo 3D para cada unidad
geológica. Eventualmente, se puede considerar la relación entre
varias variables.
Definición del método de simulación:
- Tiempo disponible
- Software disponible
- Experiencia
Chequeo de la hipótesis de trabajo
Simulación: generación de múltiples modelos numéricos
Post‐proceso de las realizaciones
- ¿Qué hacemos ahora con este montón de números que hemos
generado?
Ejemplos de utilidad en la simulación
- Simulación para determinar la
incertidumbre en la ley media
esperada por año.
- También se puede utilizar para
chequear los resultados de un
ejercicio de estimación.
- Mina subterránea: se considera la
ley media de cada caserón a
explotar según una secuencia
definida.

- Simulación para determinar la incertidumbre en el beneficio

- Simulaciones para determinar la incertidumbre en la geometría del


pit final…

- Simulaciones para determinar si discrepancias entre mina y planta


son relevantes
- Simulaciones de leyes para optimización de caserones

- Simulaciones para categorización de recursos y


reservas:
o Generar múltiples modelos de leyes.
o Se consideran recursos medidos aquellos donde
existe una probabilidad mayor a 90% de que la ley de
la producción mensual esté dentro de ±15% del valor
estimado
o Se consideran recursos indicados aquellos donde
existe una probabilidad mayor a 90% de que la ley de
la producción trimestral esté dentro de ±15% del valor
estimado
o Se consideran recursos inferidos aquellos donde existe una
probabilidad mayor a 90% de que la ley de la producción anual
esté dentro de ±15% del valor estimado

Algunas conclusiones:
- No se puede alcanzar la clasificación óptima incluso utilizando
muestras sin errores.
- Siempre el mejor estimador se logró con kriging.
- La simulación geoestadística puede mejorar estos resultados.
- Las pérdidas debido a errores de muestreo con respecto a la
clasificación óptima son mayores cuando el depósito es más
continuo.
- Las pérdidas en las que incurren las compañías mineras en la
planificación a corto plazo debido a un muestreo deficiente de
pozos de tronadura son “invisibles”. Ellas alcanzan varios millones
de dólares por año.

También podría gustarte