Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Libro Geoestadistica Ambito Ciencias Tierra Ediciones Utem PDF
Libro Geoestadistica Ambito Ciencias Tierra Ediciones Utem PDF
EN EL ÁMBITO DE
LAS CIENCIAS DE
LA TIERRA
Análisis y discusión acerca
de los principales métodos de
análisis y estimación
prólogo 08 capítulo 02 53
presentación 10 análisis estructural
introducción 14 2.1. conceptos básicos de estadística 54
datos medioambientales 15 espacial
la geoestadística 16 2.1.1. Autocorrelación espacial/temporal 55
tipos de datos y software 19 2.1.2. Variable regionalizada 55
resumen 20 2.1.3. Soporte 56
2.1.4. Escala 57
capítulo 01 23 2.1.5. Diseño de un muestreo 59
análisis preliminar o exploratorio 2.2. funciones estructurales 61
1.1. herramientas estadísticas 24 2.2.1. Noción de correlación 63
exploratorias espacial-temporal
1.1.1. Definiciones estadísticas básicas 25 2.2.2. Covarianza espacial 65
1.1.2. Visualización de datos 27 2.2.3. Variograma experimental 70
1.1.2.1. Datos univariados 28 2.2.3.1. Cálculo del variograma 73
1.1.2.2. Diagrama de dispersión 30 experimental
tridimensional 2.3. variograma teórico 78
1.1.2.3. Datos multivariados 31 2.3.1. Características del variograma 79
1.2. distribución experimental 32 teórico
de los datos 2.3.2. Modelamiento del variograma 83
1.2.1. Histograma 32 experimental
1.2.1.1. Tabla e histograma 33 2.3.2.1. Modelos elementales 84
acumulativo 2.3.2.2. Evaluación del modelo 85
1.2.3. Resumen estadístico 34 ajustado
1.2.3.1. Medidas de ubicación o 34 2.3.2.3. Modelos complejos, 85
centralidad anidados
1.2.3.2. Medidas de dispersión o 36 2.4. análisis de anisotropía 87
diseminación 2.4.1. Modelos anisotrópicos 89
1.2.3.3. Medidas de forma 38 2.5. índices adicionales de continuidad 90
1.2.4. Diagrama de caja 40 espacial-temporal
1.2.5. Distribución de probabilidad 42 2.6. índices en el caso de la 93
normal geoestadística multivariable
1.3. ejemplos de análisis e interpretación 44 2.7. resumen 95
de un histograma
1.4. resumen 50
capítulo 03 97 capítulo 05 139
estimación y bases teóricas de la comentarios generales
geoestadística 5.1. análisis exploratorio 140
3.1. clasificación de los métodos de 100 5.1.1. Efecto proporcional 140
interpolación 5.2. análisis estructural 144
3.1.1. Métodos globales 100 5.2.1. Comentarios 144
3.1.2. Métodos locales 102 5.2.2. Modelo isotrópico versus modelo 145
3.1.2.1. Estimadores lineales 104 anisotrópico
ponderados 5.3. estimación 147
3.2. bases teóricas de geoestadística 105 5.3.1. Cálculo de los ponderadores 147
3.2.1. Hipótesis de Matheron 106 (pesos)
3.3. resumen 109 5.3.1.1. Redundancia de datos 148
5.3.1.2. Efecto pantalla 150
capítulo 04 111
estimación local: kriging listado de figuras 156
4.1. tipos de kriging 112 referencias bibliográficas 164
4.2. características de los métodos 114
kriging
4.3. kriging simple 118
4.4. kriging ordinario 119
4.5. kriging en bloques 121
4.6. kriging universal 124
4.7. kriging no lineal 127
4.7.1. Kriging log normal 128
4.7.2. Kriging indicador 129
4.8. kriging multivariable 134
PRÓLOGO Si pensamos en la década de 1980, probablemente el término geoes-
tadística solo le resultaba familiar a quienes tuvieran directa relación
con la industria minera y, específicamente, con los profesionales que
tenían en sus manos la labor de estimar los recursos y reservas de yaci-
mientos mineros; y es que, en un país como Chile, caracterizado por su
riqueza mineral y su enorme tradición minera, la geoestadística como
disciplina cobró especial fuerza en este ámbito. Pensemos que solo en
la década de 1960 la geoestadística alcanzó su consolidación como la
conocemos hoy, fue entonces cuando los aportes de George Matheron
y Daniel Krige, entre otros, dieron forma a esta maravillosa disciplina.
Desde entonces el trabajo de otros investigadores, sumado al desarro-
llo tecnológico en las áreas del so!ware y el hardware, han permitido el
desarrollo constante de esta disciplina.
Desde su inicio, la labor docente de este Diplomado ha estado en manos del Dr. Alfonso Condal,
quien posee una destacada trayectoria en el ámbito de la geoestadística, especialmente en su
aplicación a las ciencias de la Tierra en general. El Dr. Condal, quien reside y realiza su labor
académica en Canadá, ha asumido este desafío y se ha comprometido con el desarrollo de este
programa, y desde el año 2010 ininterrumpidamente ha dejado un espacio de su tiempo para
A la labor de la Dra. González y del Dr. Condal, se ha sumado el aporte del profesor Adrián Mor-
gado, quien, por su formación y experiencia profesional en la disciplina, ha apoyado la labor do-
cente del profesor Condal como profesor asistente, para él día de hoy asumir la responsabilidad
de dictar el primer curso del programa.
El trabajo de este equipo de académicos ha ido más allá del ámbito de la geoestadística: ha
comenzado un programa de Diplomado en Geomática y un curso específico de análisis Multi-
variable.
Vaya para usted, querido lector, un saludo cordial, alentándolo a profundizar su desarrollo en
esta apasionante disciplina. Como autoridad de nuestra querida UTEM, siento en la publicación
de este libro un hito relevante en el compromiso adquirido por nuestra Universidad con el fo-
mento de la geoestadística en el ámbito de las ciencias, y no solo en las de la Tierra.
9
PRESENTACIÓN El nacimiento de la Era Espacial, con el lanzamiento del primer satélite
artificial en octubre 1957 (Sputnik 1), fue el inicio de una época extraor-
dinaria, a partir de la cual tanto nuevos métodos de adquisición como
nuevas técnicas de análisis de datos fueron desarrollados (geomática).
El uso, por ejemplo, del Sistema de Posicionamiento Global (GPS), la
Percepción Remota (PR) y los Sistemas de Información Geográfica (SIG)
ha revolucionado en los últimos 50 años el estudio del planeta Tierra.
El GPS ha proporcionado un método de georreferenciación muy eficaz,
rápido y relativamente de bajo costo; la disponibilidad de los SIG ha
permitido superponer y comparar datos digitales georreferenciados de
fuentes heterogéneas y la PR ha proporcionado una visión sinóptica
multiespectral de la superficie terrestre. El desarrollo de estas técni-
cas geomáticas ha permitido la observación de cambios en ambientes
terrestres, acuáticos y atmosféricos a múltiples escalas espacio-tem-
porales y desde la región visible a la de microondas del espectro elec-
tromagnético. Paralelo a estos avances tecnológicos se han producido
importantes avances teóricos en respuesta a i) la necesidad de analizar
la gran cantidad de datos generados por la PR, y ii) las dificultades en-
contradas por los métodos estadísticos tradicionales en el análisis de
datos, que presentan una correlación tanto espacial como temporal
(por ejemplo, datos medio-ambientales).
Krige (1952) y Matheron (1963) fueron los primeros investigadores en proponer un método de
análisis que respetara las propiedades de datos georreferenciados y otros datos correlaciona-
dos (por ejemplo, la existencia de una autocorrelación tanto espacial como temporal). De ahí,
entonces, el rápido crecimiento en la valorización de estos importantes métodos de análisis de
datos medio-ambientales, en los últimos 30 a 40 años; teniendo como resultado el desarrollo
de una Estadística Ambiental, donde la Geoestadística juega un rol muy importante.
El perfil profesional de los asistentes a estos cursos ha sido multidisciplinario, de distintos lu-
gares y organizaciones, pero con dos puntos en común: i) un interés en el estudio de nuestro
planeta desde la problemática ambiental general a lo particular, y ii) un interés en cursos cortos
de capacitación o actualización, donde se puedan adquirir nuevas ideas y herramientas en el
campo del análisis de datos ambientales.
Los cursos han sido diseñados para que los asistentes complementen con ejercicios de auto-
estudio su formación al finalizar cada uno de estos cursos; por lo tanto, los tres cursos se los
ha ofrecido de una manera muy concentrada; diseñados en módulos de cinco días (ocho horas
diarias), incluyendo lecciones teóricas, formación en el uso de so!ware apropiados y ejercicios
de desarrollo autónomo supervisado. El objetivo ha sido de ofrecer un curso teórico-práctico,
adaptando el curso a los asistentes. Consecuentemente, se ha mantenido en los cursos una
cierta flexibilidad en lo referente al uso de so!ware y datos; cuando es posible, cada participante
utiliza su propio so<ware y sus propios datos entendiendo con esto que la fortaleza está en los
conocimientos adquiridos y no en la herramienta (so!ware).
Este libro es un volumen compilatorio de las notas de los cursos de niveles 1 y 2, proporcionando
una base sólida en los métodos básicos de geoestadística y también como un puente a técnicas
más avanzadas. Ejemplos presentados en cada capítulo y al final del libro ayudan a reforzar una
comprensión clara de los temas discutidos. Los profesionales interesados en el estudio de la
Tierra tienen tendencia a tomar un punto de vista pragmático referente al análisis de sus datos,
estando más interesados en comprender bien el potencial de un método que las bases teóricas
del método mismo.
De manera similar a los cursos, la orientación dada a este libro ha sido también teórica-práctica.
Esperamos que el lector esté mínimamente familiarizado con las técnicas estadísticas clásicas,
como también cuente con nociones acerca del uso de Sistemas de Información Geográfica y
11
posea un mínimo de conocimientos en el tratamiento y análisis de imágenes aeroespaciales en
el campo del medioambiente.
El libro se estructura en cinco capítulos, siguiendo el orden en que un profesional y/o un in-
vestigador abordaría una investigación. La primera etapa está orientada al análisis estadístico
exploratorio de los datos (verificación de los datos, resumen estadístico y visualización gráfica),
seguido de un análisis estructural (cálculo de correlogramas, cálculo y ajuste de variogramas,
determinación del grado de anisotropía presente en los datos). Luego, en los capítulos 3 y 4,
discutimos los problemas de estimación en el contexto de estudios medio-ambientales. En este
contexto, los problemas son casi siempre de estimación en una o dos dimensiones y de mapeo.
En raras ocasiones la problemática se extiende a tres dimensiones; por lo tanto, la tercera di-
mensión solo será mencionada en este libro a modo de introducción a niveles más avanzados.
En cada capítulo se presentan ejemplos ilustrando las ideas discutidas en ese apartado. El úl-
timo capítulo del libro presenta comentarios generales y ejemplos relacionados con los temas
discutidos en los capítulos previos. Los datos utilizados en estos ejemplos provienen tanto de
nuestros proyectos de investigación como de contribuciones de nuestros colaboradores.
Los autores desean agradecer a todos los asistentes a los cursos ofrecidos en la UTEM desde
el año 2010, por sus excelentes preguntas y comentarios. El libro también se ha beneficiado de
los comentarios y críticas de varios profesionales que han leído todo o partes de este; especial-
mente, los autores desean agradecer a Christian Espinoza Alvarado, Investigador del Instituto
de Fomento Pesquero, División de Investigación en Acuicultura, Puerto Mon=, por su valioso
aporte; sus comentarios permitieron mejorar tanto el contenido como la presentación de este
documento. Entre los organizadores de estos cursos y responsables de la publicación del do-
cumento, se reconoce el soporte otorgado por el Vicerrector, Mario Torres Alcayaga, y la ayuda
editorial del grupo de publicación de la UTEM, como también la administración del Departa-
mento de Cartografía, de la Facultad de Humanidades y Tecnologías de la Comunicación Social
y de la Dirección de Capacitación de la UTEM.
Este último punto es realmente importante. La base teórica de la estadística clásica presupo-
ne variables aleatorias independientes e idénticamente distribuidas, pero variables terrestres
poseen una cierta autocorrelación, lo que implica que no deberían ser modeladas como esta-
dísticamente independientes. Por lo tanto, modelos estadísticos que implican una dependencia
estadística (autocorrelación entre las observaciones) son modelos más reales, más útiles que
los que asumen variables aleatorias independientes e idénticamente distribuidas. Esta auto-
correlación posee una propiedad bien específica; en general disminuye con el aumento de la
distancia (espacial o temporal) entre los datos. A esto habrá que agregar que, a diferencia de
los datos temporales, en los datos espaciales la dependencia estadística está presente en todas
las direcciones.
15
Otra característica de los datos ambientales es que tienen componentes espaciales y tempo-
rales, así como valores medidos. La estadística clásica considera generalmente solo el valor nu-
mérico de la variable; la información espacial-temporal (ubicación de los datos) no es necesario
especificarla; situación totalmente contraria a la de la Geoestadística, donde es absolutamente
necesario definir la ubicación espacial-temporal del valor medido.
Datos de interés podrán ser medidas obtenidas en el terreno o por medio de imágenes aeroes-
paciales, podrán ser valores válidos local o regionalmente. La variable de interés podrá ser con-
tinua (temperatura) o discreta (número de casos de fiebre en un municipio), válida tanto en una
dimensión (series de tiempo), dos dimensiones (mapas), tres dimensiones (volumen), o volumen
y tiempo (datos en una cuarta dimensión). Se conocerá, por lo tanto, su ubicación geográfica,
su altitud, el tiempo de adquisición y su soporte espacio-temporal (las medidas obtenidas son
válidas solo para un volumen o área pequeña). Finalmente, los valores de interés poseerán una
cierta estructura espacial-temporal y una isotropía o anisotropía espacial que quedará por de-
terminar. Esta estructura de correlación se la deberá evaluar y utilizar para aumentar la exacti-
tud del modelamiento y la estimación de la variable de interés.
La estadística clásica no fue desarrollada para el análisis e interpretación de datos con estas
características, pues no utiliza ni la información de continuidad espacial (temporal) ni la infor-
mación referente al grado de anisotropía presente en las variables de interés. En otras palabras,
las características de los datos ambientales son tales que no respetan en general las condiciones
de uso de la estadística clásica. Dicho esto, debe quedar bien claro que no se está sugiriendo
que el uso de la estadística clásica en estudios de nuestro planeta sea totalmente obsoleto. No,
su uso continuará de ser necesario, primero como primera etapa de todo análisis geoestadístico
–el análisis preliminar– y, segundo, en casos bien específicos como, por ejemplo, en estudios
de datos provenientes de censos donde a la información se la agrupa por espacio geográfico
(localidad, comuna, etc.). Siempre existirá la necesidad de analizar datos estadísticamente, aun
cuando para modelarlos se deberá utilizar la geoestadística. Existe, entonces, la necesidad de
una metodología estadística apropiada para los datos georreferenciados. Su base deberá ser
la estadística clásica, pero tomando en consideración las propiedades intrínsecas de estas va-
riables. De ahí el desarrollo en los últimos 30 a 40 años de una estadística ambiental, donde la
geoestadística juega un rol preponderante.
La geoestadística
La palabra geoestadística implica dos ideas bien precisas: i) geo: el campo de estudio, las ciencias
de la Tierra, el medio-ambiente, y ii) estadística: el uso de métodos probabilísticos. Su origen
se lo encuentra en la industria minera (Krige, 1952 y Matheron, 1962); específicamente, su na-
cimiento estuvo relacionado con la estadística aplicada a la geología, fundamentalmente a la
estimación de recursos minerales y al análisis de observaciones de terreno. Desde fines de la
Hoy se la podría definir como “Una rama de la estadística que se especializa en el análisis e in-
terpretación de datos espacialmente (y temporalmente) referenciados y que se la utiliza cada
vez más en combinación con fuentes de datos geomáticos (PR y SIG). Desde un punto de vista
medioambiental es importante comprender que dado un conjunto de datos, localizados en es-
pacio o tiempo, el uso de técnicas geoestadísticas significa responder a tres preguntas básicas:
1. ¿Cuál será la mejor manera de caracterizar, modelar la correlación espacial-temporal presente
en los datos?, 2. ¿Cuál será el mejor método para estimar valores de la variable de interés en
sitios sin medición de la variable que interesa, o sea sitios no visitados durante el muestreo?, y
3. ¿De qué manera se pueden producir datos sintéticos que sean compatibles con las medidas
disponibles y la estructura espacial-temporal observada? La respuesta a la primera pregunta se
la obtiene efectuando un análisis estructural de los datos. Respuestas a la segunda y tercera pre-
gunta dependen de la respuesta obtenida para la primera; específicamente, la segunda pregunta
busca un método óptimo de estimación sobre la base de la respuesta obtenida en el análisis
estructural de los datos (por ejemplo, alguna de las posibilidades ofrecidas por el método Kri-
ging); y la tercera pregunta busca a producir datos sintéticos de la variable de interés, tales que
respeten las estadísticas observadas (la media y la varianza de los datos), como también valores
específicos de ellos (valores extremos) en los lugares visitados durante el muestreo (simulación
condicionada). La búsqueda de respuestas a las tres preguntas formuladas explica el hecho de
que todo trabajo geoestadístico se lleva a cabo en tres etapas, a saber:
Se estudian los datos muestrales, se obtienen las estadísticas básicas, se comprueba la consis-
tencia de los datos, eliminándose los datos erróneos e identificándose las distribuciones de las
que provienen. Esta exploración inicial de los datos tiene también como objetivo principal de
determinar el grado de correlación entre los datos.
17
análisis estructural
estimación o simulación
Estimación y simulación condicionada permiten estimar variables que varían de una manera no
sistemática y a diferentes escalas; estos dos métodos permiten también estimar la probabilidad
de que una variable exceda un cierto valor, un umbral dado inicialmente como input al algorit-
mo (posibilidad que en algunas aplicaciones es tan importante o más que el cálculo de valores
interpolados en lugares no visitados durante el proceso de adquisición de los datos).
El análisis geoestadístico no existe sin datos. Estos pueden estar expresados en formatos raster
o vectorial y pueden contener una variable, V (temperatura, una foto aérea) o dos o más varia-
bles, V, U, …(datos multivariables, imágenes satelitales multibanda). La fuente de estos datos
puede ser una información dura (medidas de terreno, digitalización de documentos o imágenes
provenientes de fotogrametría o percepción remota), o información suave o adicional (datos
GPS, mapas temáticos, o grado de variación, de normalidad en los datos).
19
Resumen
Se puede decir que, como corolario a la gran importancia que ha tomado la problemática
medioambiental a nivel mundial en las últimas décadas, se ha desarrollado una estadística am-
biental, donde los métodos geoestadísticos juegan un rol preponderante. En referencia al uso de
la estadística o geoestadística como método de análisis, la gran diferencia entre la estadística
clásica y la geoestadística es que esta última considera para efectuar una predicción: i) el nivel
de autocorrelación existente a ciertas escalas en los datos, ii) la predicción es local, basada en
un modelo espacial (temporal) de la autocorrelación entre los datos, y iii) se basa en la hipótesis
de un modelo aleatorio para la distribución de los datos.
El lector encontrará también en cada capítulo algunos ejemplos simples que buscan ilustrar los
conceptos desarrollados en el cuerpo del libro, como también ejemplos específicos para expli-
car casos especiales. También se han incluido algunas preguntas que el lector debe hacerse al
enfrentarse con sus datos en el contexto de una investigación. Para lograr estos objetivos, se ha
tomado la libertad de usar un lenguaje coloquial, incluir ilustraciones, fotografías y esquemas,
muchas veces dejando de lado la rigurosidad técnica para privilegiar un acercamiento amistoso
a esta fascinante disciplina.
• Letra mayúscula Z para una variable aleatoria; letra minúscula z para una muestra o reali-
zación de la variable aleatoria.
• Z(x): una variable aleatoria Z a la ubicación x, donde x es el vector {x₁, x₂, x₃}
• Letra minúscula para un vector y letra mayúscula para una matriz.
Análisis
preliminar o
exploratorio
23
Esta es la primera etapa de todo análisis geoestadístico. ¿Qué se espera de este análisis? En
palabras simples, en esta etapa se trabaja solo con herramientas estadísticas; es decir, la lo-
calización espacial de los datos que aborda la geoestadística no es considerada en este punto.
Dado entonces un conjunto de datos, un análisis geoestadístico de ellos requiere utilizar como
herramienta de análisis en primer lugar la estadística clásica. Interesan principalmente proce-
dimientos estadísticos útiles para el análisis espacial y temporal tanto de datos in situ (medidas
de terreno) como de imágenes (percepción remota) y fotos aéreas. Por esta razón, se presentará
en este capítulo un resumen de los conceptos estadísticos necesarios, tanto para efectuar un
análisis preliminar de los datos de interés como también para comprender las bases teóricas de
la geoestadística. Se presentan, como aplicación de estos conceptos, las estadísticas básicas
del índice de vejez en la región Metropolitana; índice derivado de información disponible en el
Censo (2002) para dos grupos etarios: menores de 15 años y mayores de 60 años.
Muestra: no es posible medir u observar cada miembro de una población; por lo tanto, se consi-
dera un subconjunto de la población tal que refleje, en lo posible, las características esenciales
de la población de la cual se obtuvo la información. Se la utiliza para inferir las características
de la población.
Individuos o casos: en estadística es común referirse a los ítems sobre los cuales la información
se ha sido obtenido como individuos o casos. Cada individuo posee propiedades, atributos que
le son característicos y que varían de un individuo a otro.
Datos: un sustantivo plural que significa un cuerpo de información en forma numérica; por ejem-
plo, valores de una variable describiendo un evento en particular. La estadística clásica asume
que los datos que se analizarán son independientes; o sea, la ocurrencia de uno no afecta la
ocurrencia del otro; es decir, la ocurrencia de uno no provee información acerca del siguiente
evento. En aplicaciones medio-ambientales, se consideran generalmente tres tipos diferentes
de datos (los que pueden ser independientes o no):
• Datos en los que el muestreo se lo realizó en relación con algún contexto geográfico u otro
tipo de contexto espacial. Estos son usualmente datos bidimensionales. Por ejemplo, mapas
(geológicos, temperatura, clorofila, etc.).
Variable: el atributo, el evento o propiedad de interés. Una variable está relacionada con una
propiedad de la Tierra. Estos datos se obtienen por cada unidad de muestreo. Este último puede
ser un individuo, una entidad (un lago) o un elemento definido (un m²).
25
Nivel de medida de una variable:
• Nominal (categórica o discreta): escala utilizada con datos que difieren en cualidad más que
en cantidad. Datos donde los valores se clasifican según un atributo. Por ejemplo, diferentes
tipos de rocas.
• Ordinal: esta escala asigna las variables a grupos, permitiendo indicar un orden relativo de
ellas; o sea, se asignan las variables a diferentes rangos. Este ordenamiento no implica que
la diferencia cuantitativa entre dos elementos de la escala se mantenga, solo pueden ser
ordenados. Las operaciones matemáticas posibles son: contabilizar los elementos, igualdad
y desigualdad, y mayor que o menor que.
• De intervalo: como su nombre lo indica, esta escala se aplica a variables en las que es posible
crear intervalos. El primer paso es establecer la amplitud del rango y fijar un origen. En esta
escala el punto cero es arbitrario y no significa ausencia de valor. El ejemplo típico de esta
escala es el uso de las escalas Celsius y Fahrenheit para medir la temperatura.
• De razón: esta scala se usa con variables cuyos valores numéricos indican realmente la
cantidad que se mide, presentan intervalos iguales y el cero significa ausencia de la carac-
terística.
• Aleatoria: una función que asigna al azar un número real a cada elemento del espacio mues-
tral.
• Cualitativa: una variable expresando una característica, una cualidad. Toma, por lo tanto,
valores no numéricos; sin embargo, sí pueden ser ordinales (por ejemplo, bajo, medio o alto).
• Cuantitativa: una variable que toma valores numéricos y que puede ser discreta o continua.
• Discreta: una variable que asume valores que se pueden contar –por ejemplo, el número de
días de lluvia continua durante el mes de marzo–. Su representación es mediante números
enteros, utilizando una escala nominal.
• Continua: una variable que asume cualquier valor entre dos límites en una escala continua.
Puede utilizar cualquiera de las escalas ya presentadas, con excepción de la escala nominal.
Su representación es por medio de números reales –por ejemplo, el contenido de nitrato
o la temperatura.
• Si se mide una variable por unidad de muestreo, el conjunto de datos se lo denomina uni-
variado.
• Los datos que contienen tres o más variables medidas en la misma unidad de muestreo son
designados como datos multivariados.
Muestra aleatoria: cada miembro de la población tiene la misma probabilidad de ser seleccio-
nado.
Valor atípico: una observación que es numéricamente distante del resto de la muestra de los
datos.
Global/Local: un análisis global describe un patrón general medido sobre toda la extensión de
los datos. Un análisis local asocia una medida o un patrón espacial solo a ubicaciones precisas
o subregiones del área estudiada.
Banda espectral: instrumentos de percepción remota son capaces de adquirir datos en múlti-
ples capas o bandas. Cada capa registra un rango particular de longitudes de ondas. Por ejemplo,
sensores hiperespectrales adquieren datos en docenas a cientos de bandas, mientras que el
primer satélite Landsat, puesto en órbita en 1972, disponía solo de cuatro bandas espectrales
en el visible e infrarrojo cercano.
27
visualización se puede efectuar en blanco y negro o en color: blanco y negro para permitir la vi-
sualización de datos unidimensionales (serie de datos en función de distancia o tiempo o una de
las bandas de una imagen aeroespacial); y color para permitir la visualización datos tridimensio-
nales (por ejemplo, tres bandas de una imagen aeroespacial). Un sistema de representación en
color requiere tres componentes (por ejemplo, tres bandas satelitales), cada una de ellas siendo
asignada a uno de los tres colores primarios del sistema aditivo de la luz (rojo, verde y azul); este
sistema recibe el nombre de sistema RGB (RGB por rojo, verde y azul en inglés) y se lo utiliza para
la representación en color de datos raster, imágenes. Si las imágenes provienen de una cámara
fotográfica en color, estas bandas corresponden a los colores percibidos por el sistema visual
humano y se lo denomina por lo tanto un color “verdadero”. En el caso tanto de datos como de
imágenes con más de tres variables o bandas, cualquier banda puede ser asignada a cualquiera
de los tres colores primarios, pero solo tres bandas pueden ser visualizadas simultáneamente.
A estas combinaciones de datos en color se las denomina “falso color”, debido a que estas
composiciones de colores no representan colores naturales.
1. Un mapa presentando las medidas del Índice de Vejez en sus respectivas posiciones geográ-
ficas (Figura 1.1.). En este caso, estas posiciones están expresadas en coordenadas UTM con
la distribución de los valores del Índice de Vejez (IV) presentadas en cuartiles; es decir, los
datos ordenados divididos en cuatro partes iguales (Q1 que representa el 25% de los datos,
luego el Q2 que representa los datos siguientes hasta el 50% de los datos, el Q3 al 75% y Q4
al 100%), en los cuartiles el Q2 coincidirá con la mediana (los cuartiles son un tipo de cuan-
til en que el orden está definido en 0.25, 0.5 y 0.75, recordar que los cuantiles son puntos
tomados a espacios regulares de la distribución de la variable). Se nota que las ubicaciones
de las observaciones están irregularmente espaciadas. El mapa de las observaciones sirve
además para identificar posibles tendencias y valores atípicos.
2. Un gráfico presentando los valores diarios de temperatura media en una misma ubicación
geográfica (Figura 1.2.). En este caso, el periodo de observación es de un año.
Se presentan, finalmente, los valores obtenidos al trazar un perfil paralelo al eje X en la banda
roja de una imagen aeroespacial de la ciudad de Puerto Varas (Figura 1.3.). Esta imagen está
digitalizada a 8 bit y, por lo tanto, la escala en el eje Y es entre 0 y 255. Notar el contraste en los
valores obtenidos en tierra contra los valores obtenidos en agua.
29
Figura 1.3. a) Transecto horizontal
(línea roja) sobre la banda roja de
una imagen de la ciudad de Puerto
Varas. b) Valores digitales obtenidos.
El transecto contiene 400 valores,
expresados en una escala a 8 bit
(resolución radiométrica) (So!ware,
ENVI V4.7, ITT, 2009).
Valor digital
Índex
Índice de vejez
31
Figura 1.5. Ejemplo de producción
de una imagen color a partir de una
imagen multiespectral de n bandas
(n > 3). Se seleccionan primero tres
bandas de las n bandas disponibles.
a), b) y c) presentan las tres bandas
seleccionadas en una representación
en escala de grises. Segundo, se
proyectan estas tres bandas a través
del sistema RGB de la pantalla del
computador para obtener una
imagen en color (imagen d). En el
ejemplo se utilizó una imagen ASTER
1b, siendo la figura a la banda 3; la
figura b la banda 2 y la figura c la
banda 1. La figura d corresponde
a la combinación de bandas
321(So!ware, ENVI V4.7, ITT, 2009).
1.2.1. histograma
Un histograma es simplemente la representación gráfica de una Tabla de Frecuencias. Para su
cálculo, el rango entre los valores máximo y el mínimo es dividido en m intervalos por puntos
a₁, a₂, …, am y una medida Z pertenece al intervalo k si ak₁≤Z < ak (Figura 1.6.).
Los histogramas tienen ciertas propiedades importantes para resaltar. Por ejemplo, si el ancho
del intervalo es constante, como en el caso en la Figura 1.6b., la altura de la barra es proporcional
al número de valores incluidos en esa clase; si el ancho de la clase no es constante, el área de la
barra es proporcional al número de valores dentro de la clase, pero esta última posibilidad es
raramente utilizada. Una posible desventaja en el uso e interpretación de un histograma es el
hecho que la presentación del histograma, su forma visual depende críticamente del intervalo
de clase y el origen escogido. Por esta razón, el diagrama de caja (sección 1.2.4.) es a veces una
manera más apropiada de representación de la distribución experimental de los datos.
33
Figura 1.7. Datos de Índices de Vejez
presentados en Figura 1.1 a) Histograma
de estos datos, b) histograma
acumulativo correspondiente (So!ware,
GS⁺, Robertson, 2008).
Cada una de estas tres categorías responde a una pregunta específica y su uso e importancia
es discutido en el resto de esta sección. Con este objetivo, se supone que se estará analizando
una serie de valores Yi (i = 1, …, n).
n (1.1.)
Ecuación (1.1.) es tal que todas las observaciones tienen el mismo peso, o sea cada uno de los
datos influye de igual forma en el resultado; sin embargo, es posible también definir una media
ponderada donde cada observación puede tomar un peso diferente en el cálculo de la media
(ecuación 1.2.).
n (1.2.)
Donde ai son los pesos individuales. Al respecto, dos comentarios importantes acerca de este
índice: i) la media es muy sensible a la presencia de valores extremos, y ii) es posible que pobla-
ciones muy diferentes tuvieran la misma media.
• La mediana (M) es el valor medio de las observaciones cuando se las ha ordenado en forma
creciente en cuanto a su magnitud: Y₁ < Y₂ < …< Yn. Su cálculo se efectúa mediante la ecua-
ción (1.3.) en función de la condición que el número de observaciones, n, sea par o impar.
si n es par
Dentro de las medidas de tendencia central se consideran también otros cuatro índices.
35
• La moda es el dato más repetido, el valor de la variable con una mayor frecuencia absoluta.
Es un índice particularmente útil con variables cualitativas, siendo también sensible a la
precisión de los datos. Se entiende por un conjunto de datos amodal, datos sin moda, y por
datos multimodal, o datos con más de una moda (bimodal, trimodal…).
• Los cuantiles corresponden a valores de la variable de interés que dejan por debajo de sí
determinada cantidad de los datos. Los cuantiles pueden tomar cualquier porcentaje. Por
ejemplo, es posible definir cuatro cuartiles, diez deciles y 100 percentiles. Como ilustra-
ción, recordemos que la mediana corresponde al segundo cuartil (Q2), o al percentil 50, o
al quinto decil.
• Respecto de los índices absolutos, se comienza por definir primeramente un índice de Des-
viación (Dy) tal que:
Dy = |Yi – C | (1.4.)
Donde C es un valor central (la media o la mediana). Dy mide, por lo tanto, lo lejos que esta
cada observación del valor central C (líneas verticales indican el cálculo del valor absoluto de la
expresión entre las líneas verticales).
(1.5.)
• Los índices absolutos tal vez más utilizados son la Varianza (Var o σ²) y la Desviación Típica
o Estándar (σ). Estos índices proporcionan información acerca de la variabilidad de los datos
en relación con la media; la variabilidad es pequeña cuando los valores de los datos se agru-
pan alrededor de la media y hay una gran variabilidad cuando los datos están ampliamente
dispersos alrededor de este último índice.
(1.6.)
n
• El Rango, la diferencia entre los valores máximo y mínimo, es otra medida de la dispersión
en los datos; se lo usa comúnmente en el tratamiento digital de imágenes para expresar el
contraste de una imagen. Pero en estadística clásica el Rango intercuartílico (RIQ), definido
como la diferencia entre el tercer y el primer cuartil, es tal vez el más utilizado.
El índice RIQ es independiente del valor de la media y se lo usa principalmente para definir va-
lores atípicos presentes en un conjunto de datos. Cabe recordar que se entiende por un valor
atípico a un valor marcadamente diferente del resto de la muestra de datos. La identificación
de valores atípicos se efectúa en estadística por medio de una regla práctica tal que si el valor
de interés es mayor que 1.5 RIQ se lo define como un valor atípico, y si él es mayor que 3.0 RIQ
el valor es definido como un valor atípico extremo.
37
(1.8.)
(1.9.)
Tanto en las expresiones (1.8.) como (1.9.) σ y representan la desviación estándar y la media
de la muestra de datos, respectivamente.
3
i (1.10.)
n 3
Una distribución que es perfectamente simétrica implica que CA = 0 (Figura 1.8a). Este es un
caso hipotético, la asimetría de un conjunto de valores experimentales será en general muy
La curtosis es un índice del grado de achatamiento de la distribución que presentan los valores
en la región central de la distribución y es definida por la relación:
4
Curtosis i
(1.11.)
3
4
39
Se consideran tres casos de curtosis:
Ls = Q3 + RIC-1.5
Q3 (75%)
RIC = Q3 - Q1
Mediana (50%)
(50% de datos)
Q1 (25%)
Li = Q1 - RIC-1.5
min(x)|x ≥ Li
• Si las longitudes de los brazos fueran similares, la distribución sería aproximadamente si-
métrica.
• Si el brazo superior fuera más largo que el inferior, la distribución de los valores de la varia-
ble de interés presentaría una simetría positiva.
• Si el brazo superior fuera más pequeño que el inferior, la distribución de los valores de la
variable de interés presentaría una simetría negativa.
Como ilustración del uso del diagrama de caja, se presenta el diagrama de caja obtenido de la
variable Índice de Vejez (Figura 1.10.). Se deduce de la visualización de este diagrama de caja que
la variable Índice de Vejez incluye varios valores atípicos.
41
1.2.5. distribución de probabilidad normal
En este capítulo se han analizado diversas herramientas que ayudan a determinar qué tanto se
acerca la data a la distribución normal, sea mediante medidas de dispersión, centralidad, curto-
sis sea numéricamente o visualizando gráficas; cabe entonces preguntar ¿por qué es importante
saber si la variable se distribuye en forma normal? La respuesta a esta pregunta es simple, la
naturaleza tiende a la distribución normal. La estatura de las personas, el peso de algunas es-
pecies, varias variables astronómicas, leyes de algunos elementos, son solo algunas de una muy
larga lista de variables que se distribuyen de esta forma; por tanto, es más fácil listar casos en
que la distribución no sea normal. Esto no debe interpretarse jamás como que la distribución
normal perfecta sea lo que esperamos, sino una tendencia hacia la distribución normal. El caos
es parte esencial de nuestro universo y su influencia nos lleva siempre a que la realidad se aleje
de modelos perfectos.
Considérese un ejemplo simple: alrededor de una isla habita una especie de molusco comesti-
ble, un científico la visita cuando aún no ha llegado población humana y estudia la distribución
de la especie de molusco por peso (que está en correlación directa con la edad del ejemplar) y
descubre que su distribución es muy próxima a la distribución normal. Al volver a la isla 10 años
después descubre que habita una importante cantidad de personas en ella y ha sustentado
parte de su alimentación en el consumo de este molusco, ¿ha dejado de ser una distribución
normal? No, pero hay variaciones resultantes de la explotación de la especie y principalmente
de los ejemplares de gran tamaño. Para dimensionar el impacto que ha causado el hombre en
esta especie, el estudio de la distribución será de gran utilidad.
Para entrar entonces en los detalles, se da el nombre de Distribución Normal o de Gauss o Gaus-
siana a una distribución de probabilidades de una variable continua describiendo datos que se
agrupan en torno a un valor central. Esta distribución fue usada empíricamente por primera
vez por Abraham de Moivre en 1733 y justificada teoréticamente por Karl Gauss en 1809. Su
importancia en estadística radica en que permite modelar una gran cantidad de fenómenos,
tanto naturales como sociales. Su uso es consecuentemente muy importante y muchas pruebas
estadísticas están basados en la hipótesis de que la variable de interés respeta esta distribución
(métodos paramétricos). Estos métodos suponen, por lo tanto, que la distribución de los valores
de la variable de interés, o sea su histograma, se aproxima a la distribución Gaussiana. Visual-
mente toma la forma de una campana simétrica respecto de la media (Figura 1.11.).
La distribución normal posee una serie de propiedades importantes, que se las puede deducir
a partir de una simple visualización de la Figura 1.11.:
X [µ - σ, µ +σ ] se incluye ~ 68.2%
43
Figura 1.12. a) Histograma
de la variable Índice de
Vejez, IV; b) Histograma de la
transformación logarítmica
de IV [ln(IV + 1)] (So!ware, GS⁺,
Robertson, 2008).
Por ejemplo, se sabe que si un histograma describe la forma de campana de Gauss es porque la
variable se distribuye en forma normal. Pero, con el objetivo de clarificar este punto, conside-
remos el histograma de un set de 67 datos de una variable a (Figura 1.13.):
Data count: 67
Mean: 2.46507
Variance: 1.00675
Maximum: 4.7
Upper quartle: 3.15
Median: 2.41
Lower quartle: 1.74
Minimum: 0.35
¿Qué se observa? Hay 8 clases, los valores van desde 0.35 a 4.7, la distribución se acerca a la
normal pues el valor de la media es igual al de la mediana, la distribución es levemente asimé-
trica y positiva (CA = 0.055, valor no incluido en la Figura 1.13.). En lo relativo a la curtosis, se
podría decir que se ve un poco puntiaguda, pero esto es engañador, su coeficiente es de -0,6;
es decir, es más bien achatada (valor no incluido en la Figura 1.13.). El alto valor que presenta
la clase 4 explica esta visión errónea, pero si se consideran las demás clases, se observa que la
distribución es realmente achatada.
Ahora al hacer otra prueba, ¿qué sucede si se aumenta la cantidad de clases?, ¿será la interpre-
tación más fácil que la interpretación que ya se ha hecho de la Figura 1.13.?, ¿se mantendrá el
mismo nivel de normalidad? La Figura 1.14. presenta esta nueva situación. En este caso se ha
utilizado la misma data, pero se aumentó el número de clases a 20. La primera constatación es
que el histograma aparece muy diferente y será bastante más complejo de interpretar.
45
Figura 1.14. Los mismos
datos de la Figura 1.13.,
pero el histograma se
presenta utilizando 20 clases
(So!ware SGeMS, Remy
y otros, 2009).
Data count: 67
Mean: 2.465
Variance: 1.006
Maximum: 4.7
Upper quartle: 3.15
Median: 2.41
Lower quartle: 1.74
Minimum: 0.35
Ciertamente hay varias otras consideraciones, pero por ahora hay que dejar en la mente que
los histogramas pueden verse muy distintos cuando se aumenta significativamente el número
de clases.
¿Qué se puede decir del histograma presentado en la Figura 1.15.? El número de datos y los
valores máximo y mínimo son idénticos a los del caso anteriormente discutido. Pero, de los 67
datos, hay un y solo un dato muy alto. La media aumentó levemente y la mediana mantuvo su
valor. Lo que cambió mucho es la desviación estándar, que pasó de 1.00 en el caso anterior a
7.89 en este caso. Por otro lado, no hay valores entre 5 y 23; es decir, no se observa una cierta
continuidad que pudiera explicar un valor máximo de 24. Se observa, finalmente, que las cuatro
primeras clases muestran una distribución cercana a la normal. Situaciones como esta suceden
muy a menudo y existe la tendencia a trabajar con ellas sin cuestionarse primero acerca de su
significado. ¿Qué se puede decir de esta situación?
Data count: 67
Mean: 2.7606
Variance: 7.89905
Maximum: 24
Upper quartle: 3.15
Median: 2.41
Lower quartle: 1.74
Minimum: 0.35
• Si se elimina este valor ¿se obtiene una distribución que es más cercana a la normal?
En este caso es difícil responder en este momento, solo una recomendación general: se verá
en los próximos capítulos que la geoestadística ofrece varias posibilidades; por ejemplo, el uso
de transformaciones matemáticas o el uso de ciertos índices estructurales específicamente
desarrollados para disminuir la influencia que pudieran tener valores anómalos en el proceso
de estimación. Otro punto importante, y que será discutido en detalle en los próximos capítu-
los, es que los datos –incluyendo el valor anómalo– no satisfacen las condiciones de uso de la
geoestadística. Por lo tanto, en la mayoría de los casos similares a la situación que se está dis-
47
cutiendo, el valor anómalo no debería ser considerado para estimar y es probable que obedezca
a un error de medición, o bien a un valor que forma parte de otra población, o simplemente ser
un valor anómalo debido a la presencia de ruido en los datos. En este ejemplo, para ilustrar esta
problemática, lo que se hizo fue intencionalmente modificar un dato, cambiando un valor 2.4
del ejemplo anterior por un 24, simulando un error de digitación.
¿Qué pasa si dos poblaciones de la misma variable y presentando una distribución normal se
las muestrea como si fuera solo una? Para entender lo que se quiere decir con esta pregunta se
debe pensar en un ejemplo simple, imaginar la topografía de un lugar: en una zona hay lomas
suaves y en otra hay una escarpada montaña; como se ve la variable es la misma, la coordenada
z o cota. La montaña es una población y las lomas es otra población. Si realmente son dos po-
blaciones distintas, en el análisis preliminar se debería ver. Este es un caso muy frecuente y, si
bien hay casos particulares donde como investigadores podríamos justificar el hecho de trabajar
con toda la data junta, en la mayoría de los casos es mejor identificar las poblaciones y trabajar
con ellas en forma separada. La Figura 1.16. presenta un caso de este tipo, donde el histograma
presenta una forma bimodal (o dos campanas de Gauss). Notar que esta estructura bimodal es
independiente del número de clases (siete en la Figura 1.16a y 12 en la Figura 1.16b). En situacio-
nes como esta, lo más recomendable es verificar si las dos poblaciones están distribuidas en
forma separada en el espacio geográfico y, si es el caso, considerarlas de manera independiente.
Data count: 67
Mean: 2.77463
Variance: 1.80039
Maximum: 5.45
Upper quartle: 2.07
Median: 2.41
Lower quartle: 1.74
Minimum: 0.35
Al considerar el caso del histograma presentado en la Figura 1.17., este presenta un coeficiente
de asimetría de CA = 0.3 (una asimetría alta). ¿Qué tipo de situación física puede representar un
histograma de esta forma? Se pueden dar muchos ejemplos que explican este tipo de distribu-
ción, aquí se mencionarán dos:
• Al considerar un elemento químico que posee una distribución normal, pero los análisis
de laboratorio son solo capaces de detectarlo cuando la cantidad del elemento está casi
en el primer tercio de la curva de Gauss. En esta situación, como en el ejemplo anterior, la
curva será asimétrica; pero en este ejemplo, el responsable de la presencia de una asimetría
positiva es el límite de detección del laboratorio. Si este límite fuera tal que el sistema de
detección del laboratorio no fuera capaz de detectar las concentraciones más altas del ele-
mento químico de interés, se tendría en la situación opuesta, donde el valor medido por el
laboratorio será un valor saturado, menor que los valores más altos presentes en los datos.
En este caso, la distribución presentaría una asimetría negativa.
Data count: 67
Mean: 3.24955
Variance: 0.342386
Maximum: 4.7
Upper quartle: 3.7
Median: 3.19
Lower quartle: 2.78
Minimum: 2.31
49
Recapitulando, estos ejemplos han ilustrado el hecho de que, enfrentado a una investigación, el
investigador debe analizar con detención la variable de interés hasta asegurarse de comprender
bien su distribución espacial/temporal. De ahí que es fundamental realizar con mucha rigurosi-
dad la etapa del análisis preliminar.
1.4. Resumen
Un análisis preliminar significa efectuar una familiarización con el conjunto de datos, efectuar
una exploración inicial de los datos:
Se debe asumir, en esta etapa, la menor cantidad posible de hipótesis y las conclusiones deberán
ser tentativas y provisionales. La herramienta principal será la estadística clásica uni y multi(bi)
variada.
Desde un punto de vista práctico, es importante no olvidar que todos los índices estadísti-
cos requeridos para efectuar un análisis preliminar están disponibles en todos los programas
estadísticos, geoestadísticos, sistemas de información geográfica y programas de análisis de
imágenes en uso en el estudio de datos terrestres (medioambientales).
Análisis
estructural
53
El análisis preliminar exploratorio, discutido en el capítulo anterior, tuvo como objetivo la des-
cripción de la distribución de los datos independientemente de su ubicación; por ejemplo, un
histograma presenta la distribución de probabilidades por cada valor presente en el conjunto de
datos, pero no indica la ubicación geográfica de estos valores. Se supone, como ilustración de
esta situación, que se dispone de valores de la temperatura superficial de la masa de agua en un
lago: el histograma indicará la presencia de m posiciones en la superficie del lago que presentan
un valor de la temperatura superficial de n °C, pero no proporciona ninguna información acerca
de la estructura espaciotemporal de estas m posiciones; es decir, no indica dónde se encuentran
en el lago esos m lugares con una temperatura de n °C.
El objetivo del Análisis Estructural que se estudiará en este capítulo es obtener información
espacial que el análisis preliminar no entrega; es decir, la descripción cuantitativa de la variación
espaciotemporal de la variable de interés. En otras palabras, interesa cuantificar las fluctuacio-
nes espacio y/o temporal observadas en la variable, por medio de una función analítica, expre-
sada en un índice (existen varios índices en la literatura que serán definidos en este capítulo).
La importancia de este análisis es poder dar respuesta a la pregunta: ¿qué tan continua es la
variable en el espacio o en el tiempo? Además, se discutirán en este capítulo las etapas para
lograr un análisis estructural, siendo estas: i) cálculo de un índice experimental (por ejemplo,
un variograma) y ii) ajuste de este índice experimental a un modelo teórico conocido. Todo esto
para determinar ciertos parámetros descriptivos del índice espaciotemporal, los que posterior-
mente serán utilizados en el proceso de interpolación geoestadística. Pero, primeramente, será
necesario discutir ciertos conceptos básicos de estadística espacial.
• Características espectrales.
• Características espaciales.
• Características temporales.
• Polarización
Por lo tanto, se entiende por variable regionalizada (VR) una variable espacial o temporalmente
distribuida. Una VR representa medidas cuantitativas y/o cualitativas de diferentes caracterís-
ticas ambientales. Se las puede definir en relación con un punto (altura) o un soporte (línea, su-
perficie o volumen). Lo importante de destacar es que una VR es una variable georreferenciada
(un fenómeno regionalizado) y no posee extensión infinita. La VR solo está definida al interior
de un dominio limitado de la variable; lo que se denomina comúnmente el campo de la variable,
fuera de esta zona natural la VR no está definida. Ejemplos de VR son numerosos y pertenecen
a diferentes campos de estudios en las ciencias de la Tierra (biología, ciencias del suelo, cli-
matología, hidrología, etc.). Como ejemplos se pueden mencionar: temperatura, profundidad,
concentraciones de clorofila o contaminantes, pH, índices de vejez, índices de vegetación, etc.
55
2.1.3. soporte
El concepto de soporte está íntimamente relacionado con los conceptos de resolución espa-
cial/temporal, píxel en Percepción Remota y grano en Ecología. Se refiere simplemente al área o
volumen representado por los datos. Tomando como caso la radiación terrestre captada en un
pixel del satélite IKONOS es válida por un m²; y concentraciones de clorofila medidas en un lago
a una cierta profundidad son válidas por un volumen, digamos, de un litro. El soporte de las imá-
genes IKONOS es, por lo tanto, un m² y el soporte de la información acerca de la concentración
de clorofila es un litro. En general, se debe entender por soporte al tamaño, la geometría y la
orientación del espacio en los que se define una observación o dato. Notar que toda estructura
interna o variación al interior del soporte no es conocida y toda estimación efectuada a partir
de un conjunto de datos será válida solo a un soporte similar al soporte de los datos iniciales.
Por otro lado, la distribución estadística de los valores de una VR, en especial su varianza es-
tadística, dependerá del soporte sobre el cual está definida la VR; a esto se lo denomina el
efecto del soporte, o sea informaciones válidas a soportes diferentes no son comparables. Se
ejemplificará esta situación con un caso extremo: ¿se pueden comparar valores de tempera-
tura superficial obtenidas en la misma ubicación geográfica por medio del satélite NOAA y del
satélite IKONOS? El hecho de que los soportes respectivos sean de 1 km² y 1 m² no permite
esta comparación. Pero, eso sí, se podría efectuar un cambio de soporte. Dado un conjunto de
datos con un soporte conocido, se podría aumentar el soporte (concepto conocido en inglés
como upscaling), aplicando reglas de la teoría de regularización; y lo opuesto, una reducción del
soporte (downscaling), es también posible en ciertas circunstancias mediante la teoría de mezcla
lineal (linear mixing). En geoestadística se considera el caso particular de obtener una estimación
de una variable válida por un área o volumen más grande que el soporte de los valores iniciales.
Pero, en general, las teorías de cambio de soporte son temas para discutir en cursos de análisis
digital de datos e imágenes; no serán presentados en este libro, con excepción del Kriging de
bloques.
Se presenta, a continuación, un diseño de muestreo hipotético (Figura 2.1.), con el fin de poner
énfasis en la importancia que tienen el valor del soporte seleccionado y el diseño de muestreo
escogido en las mediciones y, por lo tanto, en las futuras estimaciones que se efectúen a par-
tir de ellas. En la Figura 2.1. es evidente que cualquier cambio en la posición y dirección de los
tres perfiles o del valor del soporte tendría como consecuencia que los valores medidos serían
diferentes. Por lo tanto, es primordial la selección de un diseño de muestreo y de un soporte
adecuado a los objetivos del proyecto. Errores que se cometan a esta etapa no podrán ser pos-
teriormente corregidos usando métodos estadísticos ni geoestadísticos.
2.1.4. escala
El concepto de escala es una de las nociones básicas tanto en Ciencias Naturales como Físicas,
pues influye y/o afecta las conclusiones obtenidas por un observador. A esto se agrega la pro-
blemática de interpolar resultados obtenidos a una escala precisa, a otros lugares, tiempos o
escalas; lo cual es un problema frecuente en estudios medioambientales y en las ciencias en
general. La noción de escala está también íntimamente ligada al concepto de soporte, que se
acaba de discutir. En la teoría del muestreo, la escala (espacial o temporal) incluye tres elemen-
tos básicos: Grano, Intervalo y Extensión (Figura 2.2.). Se entiende por Grano la unidad elemental
del muestreo. Por ejemplo, el grano sería, en series temporales, el tiempo de integración de la
señal o la resolución espacial representada por un píxel en un muestreo continuo, como una foto
aérea. El Intervalo expresa la distancia promedio entre las unidades de muestreo, corresponde a
los conceptos de paso o “lag” utilizados en el estudio de series temporales y en geoestadística.
Finalmente, la Extensión expresa la longitud espacial, la duración temporal, el área o el volumen
total implicado en el diseño de muestreo utilizado.
57
Figura 2.2. Los tres elementos
básicos del concepto de
Escala.
La Figura 2.2. ilustra el significado de estos tres conceptos básicos en el caso de una visita a te-
rreno donde el diseño de muestreo adoptado determinará la geometría exacta por percibir. En el
caso de una foto aérea o imagen satelital, la situación es un tanto diferente, pero las definiciones
dadas de estos elementos del concepto de escala siguen siendo válidas. En una imagen o foto,
los datos consisten en áreas de muestreo contiguos que cubren por completo la extensión y
donde la medición lineal del grano es igual al intervalo del muestreo (Figura 2.3.).
Otro punto importante de señalar es que los datos medioambientales contienen información
a múltiples escalas y, en general, estas escalas son más grandes, más amplias que las escalas
disponibles a partir de estudios de campo o experimentos; de ahí, la importancia del uso de
imágenes aeroespaciales. Estas últimas proporcionan una visión sinóptica imposible de obtener
solo con datos de terreno. Esta diversidad de información es de gran ayuda para los estudios
medioambientales, pero los problemas surgen a menudo cuando se requiere extrapolar a es-
calas mayores o menores que la escala original (problema de cambio de soporte discutido en la
sección previa). La pregunta es, por lo tanto, ¿cuál es la escala adecuada para los estudios am-
bientales? De manera muy general se puede decir que no existe una escala adecuada (precisa).
59
de pertenencia a cada elemento de la población. Para cualquier elemento de la población, esta
probabilidad es conocida o calculable. Esta también no puede ser nula para ningún elemento de
la población de interés. Sin entrar a discutir las técnicas de muestreo en detalle, se puede decir
que existen varias posibilidades de efectuar un muestreo probabilístico (Figura 2.4.).
Figura 2.4. Técnicas de Sistemático: muestras se las obtiene en una malla regular, en intervalos
muestreo probabilístico. regulares de tiempo de espacio.
Los diseños de muestreo presentados en Figura 2.4. no son los únicos posibles, pero sí repre-
sentan los casos más cercanos a los objetivos de este libro. Tanto las observaciones de terreno
como las imágenes aeroespaciales y fotos aéreas corresponden a uno de los tipos de muestreo
presentados en la Figura 2.4. Concretamente hay dos tipos de muestreo que interesan: i) un
modelo de muestreo aleatorio representando medidas de terreno (Figura 2.5a), y ii) un modelo
sistemático representando información aeroespacial (imagen multiespectral o foto aérea) o
medidas de terreno (Figura 2.5b). Cada tipo de muestreo posee sus ventajas y desventajas; una
discusión más profunda sobre este tema se puede encontrar en textos acerca de técnicas de
diseño de muestreo, en Burrough y McDonnell (1998).
Estas funciones permiten determinar la estructura espacial-temporal existente en los datos. Los
términos “espacial” o “temporal” se refieren comúnmente a niveles de regularidad que incluyen
agrupaciones locales de puntos y/o estructuras globales, por ejemplo. Algunas de estas estruc-
turas pueden ser identificadas visualmente, mientras que otras requieren un análisis más pro-
fundo. Las funciones estructurales son especialmente útiles en este último caso, permitiendo
también cuantificar este análisis. Pero, antes de iniciar esta discusión, se presenta una definición
que ayudará a comprender mejor los conceptos que se definirán en esta sección.
Las funciones estructurales son pertinentes a la distancia de separación entre dos observaciones;
esta distancia puede variar desde cero (valor que se compara con sí mismo) a la extensión del
diseño de muestreo utilizado. A esta distancia variable se la denomina Lag y funciones estruc-
turales, como el correlograma o el variograma, son comúnmente expresadas en relación con
este parámetro.
El grado de complejidad de una estructura espacio-temporal puede variar entre dos extremos:
homogeneidad (ausencia total de variación) y heterogeneidad (presencia de variación); o sea, se
requieren índices indicadores de la presencia (o ausencia) de organización (autocorrelación) en
los datos. Este concepto se aplica tanto a datos espaciales como a temporales. Lo importante
de retener es que se requiere una medida cuantitativa de esta presencia (o ausencia) de varia-
ción. La estadística clásica ofrece un índice de este tipo; la varianza de un conjunto de datos es
un índice del grado de homogeneidad; pero existen también varios otros índices, todos ellos
agrupados bajo el nombre de Funciones Estructurales. De todos ellos, el Correlograma y el Va-
riograma son habitualmente los más utilizados. El correlograma es un gráfico donde la distancia
(o lag) está representada en el eje X y el grado de autocorrelación en el eje Y (Figura 2.6.).
61
El cálculo del correlograma está disponible en los so!wares de estadística clásica y puede ser
univariado (I de Moran y C de Geary) o multivariado (de Mantel). Los correlogramas son muy
utilizados en estudios estadísticos y pueden ser calculados por una dirección precisa o en su
modo omnidireccional (en todas direcciones).
Su cálculo puede ser omnidireccional o válido por una dirección específica, es un gráfico calcula-
do a partir de los datos, siendo, por lo tanto, una función definida solamente a ciertas distancias
(lo que depende del diseño de muestreo seleccionado). Se denomina, por lo tanto, variograma
experimental (VE). Modelar la estructura espacial representada por el VE requiere consecuen-
temente ajustar al variograma experimental a un modelo estadístico, con el fin de disponer de
un modelo de la estructura espaciotemporal de los datos, independiente de las distancias a las
cuales el VE fue calculado. Estas etapas serán discutidas en detalle más adelante; lo importante
de comprender por ahora es que el VE permite cuantitativamente detectar patrones espacia-
les-temporales y sus respectivas organizaciones.
Este análisis es fundamental para la comprensión de los fenómenos terrestres y, una vez que la
estructura ha sido detectada, solo entonces se puede describir y utilizar en el modelamiento
Los datos medioambientales reflejan en sus valores esta propiedad básica, propiedad que se
denomina continuidad espacio-temporal e implica que valores similares de un atributo medioam-
biental están en proximidad geográfica a otros valores similares; las transiciones entre valores
son graduales. Las funciones estructurales ya mencionadas son, en este sentido, índices de
continuidad espacial-temporal. La covarianza espacial-temporal y el variograma serán las fun-
ciones estructurales en los cuales se concentrará la atención del lector.
63
Este gráfico de dispersión recibe el nombre de nube de correlación diferida y es importante en-
fatizar que muestra la diferencia entre valores de todos los posibles pares de datos cuyas po-
siciones se encuentren a una cierta distancia en una dirección particular. La situación general
se puede apreciar en la Figura 2.9b; dependiendo del grado de similitud entre Z(x) y Z(x + h), se
tendrán entonces dos casos límites: i) la línea bisectriz (a 45° en la Figura 2.9b) indicando una
similitud perfecta (Z(x) = Z(x + h)) en el cual, d = 0; y ii) situaciones donde d ≠ 0 (Z(x) ≠ Z(x + h)),
formándose una nube de puntos, como el caso límite de un círculo si la similitud entre Z(x) y Z(x
+ h) es nula. Dado que gráficos como el de la Figura 2.9. presentan información válida solamente
a una dirección bien precisa, este tipo de gráfico recibe también el nombre de nube direccional.
Los datos en Ciencias de la Tierra presentan una propiedad muy importante, la correlación
(similitud) entre dos valores de la variable de interés: esta disminuye si la distancia h entre
estas dos observaciones aumenta. Esta es una propiedad fundamental que permite cuantificar
el grado de autocorrelación espacial-temporal de un conjunto de datos. Como ilustración de
esta situación, se visualizan cuatro nubes de correlación diferida de una serie de valores de
temperaturas diarias medidas en un mismo lugar por un periodo de una semana (Figura 2.10.).
Lag 1 corresponde a diferencias de temperatura de un día, Lag 3 de tres días, Lag 5 de cinco días
y Lag 7 de siete días, respectivamente. Estos cuatro gráficos indican claramente que el grado
de correlación entre los valores diarios de temperatura disminuye al aumentar la diferencia
temporal entre las observaciones, pues es evidente que la dispersión de la nube aumenta con
la distancia temporal de separación. El análisis de las nubes de correlación diferida indica, por
lo tanto, cuán semejantes son dos muestras en función de la distancia que las separa. Es decir,
permite apreciar la correlación espacial-temporal de los valores de la variable regionalizada.
La Figura 2.10. presenta el caso de una serie temporal de datos. La posibilidad de una situación
isotrópica o anisotrópica no se discute, obviamente, pero para datos bidimensionales las nubes
direccionales son muy útiles, pues permiten detectar cambios en la estructura espacial de una
variable en función de la dirección (isotropía versus anisotropía). Cada nube direccional repre-
senta un escenario por una distancia y una dirección precisa; considerando que, en un conjunto
de datos bidimensionales, el número de nubes direccionales será considerable, se requerirán
muchas de ellas para considerar todas las posibles distancias y direcciones espaciales presentes
en los datos. El uso de las nubes de dispersión es, por lo tanto, interesante pero no práctico. Se
necesita resumir toda esta información; de ahí, la importancia del uso de funciones estructu-
rales como la covarianza, el variograma y la correlación.
(2.1.)
65
Donde E […] es el valor esperado de la expresión entre los paréntesis cuadrados, y µX, µY son las
medias de las variables X e Y respectivamente. El cálculo se efectúa por medio de la relación:
1 1
i =1 i =1 i =1 (2.2.)
Cabe destacar también que las ecuaciones (2.1.) y (2.2.) implican que la covarianza no es calcula-
ble directamente de los datos, pues requiere el conocimiento previo de la media; o sea, el valor
de la covarianza es función del valor de las medias. Esta dependencia se elimina definiendo un
coeficiente de correlación, ρXY, por medio de la relación:
CovXY
XY
= ar (X ar (Y )
(2.3.)
De esta discusión debe quedar claro que la covarianza es una medida de la variabilidad mutua de
un par de variables y que es, al mismo tiempo, una generalización a dimensiones superiores del
concepto de varianza de una variable aleatoria escalar. Otra propiedad importante del concepto
de covarianza, tal como se acaba de definir, es que se puede generalizar a cualquier dimensión.
Esta posibilidad es de gran utilidad, tanto en el análisis de datos multivariables como en estudios
utilizando imágenes aeroespaciales multibanda.
2 (2.4.)
67
Una ilustración simple en dos dimensiones de una matriz de covarianza se presenta en la Figura
2.13. En esta figura se comparan dos variables presentando distribuciones normales, por ejem-
plo, dos bandas en la región visual del espectro electromagnético de un satélite de estudios en
recursos naturales o meteorológicos. Cada una de estas dos variables posee una distribución
normal y está definida por dos parámetros, la media (µ) y la varianza (σ²).
Por lo tanto, los únicos parámetros requeridos para definir la distribución mostrada en la Figura
2.13. serán un vector de medias M y una matriz de covarianza, Σ, definidas par las expresiones
(2.5.):
1
(2.5.)
2
Otro ejemplo, esta vez mas práctico, es el caso de una imagen satelital multibanda; por ejemplo,
al considerar seis bandas de una imagen del satélite Landsat TM (Thematic Mapper). En este
caso, el vector de medias M estará compuesto de seis medias y la matriz de covarianza será
de dimensión 6x6 (Figura 2.14.). Esta figura ilustra también la ventaja de utilizar la covarianza
normalizada, o sea la correlación, en lugar de la covarianza misma. Saber que la covarianza entre
las bandas 1 y 2 de la imagen estudiada es 54.16 es equivalente a saber que la correlación entre
estas dos bandas es de 96 %, pero este segundo valor posee una interpretación física que el
primero no ofrece.
69
Donde X, Y: variables de interés, X(s): valor de dicha variable a la posición s, X (s + h): valor de
la variable en la ubicación (s + h), h: paso entre las muestras (distancias iterativas), m: media.
Notar que la covarianza espacial no es calculable directamente de los datos, pues requiere el
conocimiento previo de la media m.
1
(2.7.)
Donde Z: variable de interés, Z(si): valor de dicha variable a la posición si, Z(si + h): valor de la
variable en la ubicación (si+ h), h: paso entre las muestras (distancias iterativas), N(h): número
de pares, y 2 γ (h): valor de la función variograma para un valor h.
La idea básica es que la variación en espacio o tiempo de una variable aleatoria Z(s) puede ser
expresada por medio de diferencias entre pares de observaciones de Z(s) a posiciones X y X +
h. Notar, por lo tanto, que el variograma experimental es equivalente a graficar la semivarianza
de los datos en función de h, el paso entre las muestras. La semivarianza se la evalúa calculando
γ(h) para todos los posibles pares de puntos en el conjunto de datos y asignando cada par a
una clase h. El variograma experimental tiene, por lo tanto, el inconveniente de que el gráfico
depende de los intervalos seleccionados (como en el caso del histograma); pero es un índice
calculable directamente a partir de los datos (ecuación 2.7.), situación contraria a los otros ín-
dices estructurales que requieren para su cálculo información suplementaria (la varianza y la
covarianza, por ejemplo, demandan conocer previamente la media). Por esta y otras razones
por discutir más adelante en el texto, se prefiere, en general, utilizar el variograma en lugar de
la covarianza o del correlograma.
Desde un punto de vista más teórico, la información presentada hasta ahora en esta sección se
podría abreviar diciendo que, dada una variable regionalizada Z(x), las siguientes expresiones
para valores esperados E (…) son válidas:
(2.8.)
Se puede decir por lo tanto que la existencia de la covarianza espacial implica que la varianza
existe, es constante y no depende de h.
71
Existe, por lo tanto, una relación directa entre el variograma, la varianza, y la covarianza espacial,
si la condición de estacionaridad se cumple (ecuación 2.9.):
1 1
= 1
2 {E(Z( X+ h) – m)2 + E(Z( X ) – m)2 – 2E (Z( X+h )–m)(Z( X )–m
{
(2.9.)
1 1 { {
Considerando que la correlación es una covarianza normalizada (ecuación 2.3.), la ecuación (2.9.)
se expresa comúnmente en función de la correlación, es decir, toma la forma:
(2.10.)
La covarianza espacial y el variograma son por lo tanto equivalentes, son calculables uno a partir
del otro (ecuación 2.9.). Pero es importante considerar que la relación en la ecuación (2.10.) y el
gráfico presentado en la Figura 2.15. son solamente válidos en el caso de una situación estacio-
naria (definición que se discutirá en detalle en la sección dedicada a la teoría geoestadística).
Tres puntos son importantes de comprender por ahora: i) en geoestadística es necesario cuanti-
ficar la continuidad espacial-temporal del atributo de interés, ii) la auto-covarianza o covarianza
espacial es el índice utilizado con este fin, y iii) su cálculo se efectúa por medio de la ecuación
(2.10.); el variograma es calculable directamente de los datos originales, y la varianza, σ², es una
constante conocida.
• Datos unidimensionales (muestreo regular): un ejemplo podría ser una serie temporal de
datos o un transecto en una foto aérea en una dirección determinada. Se debe notar como
Z(si) (i = 1…N) la VR de interés tanto en la serie temporal como en el transecto; siendo el
caso de un muestreo regular, el intervalo entre las observaciones es constante (Figura 2.2.).
El uso de la ecuación 2.7. significa comparar en el primer lag (Lag 1) valores vecinos (o sea,
valores separados por una distancia igual al valor del intervalo), y en los siguientes lags
valores separados por distancias igual al valor del intervalo multiplicado por el valor del lag
(Figura 2.16.).
73
Ilustrando este caso con un ejemplo concreto. Se supone que se dispone de las siguientes ob-
servaciones espaciadas cada 100 m:
5 3 6 4 2 1 1 2 4 3 2
etc.
• Datos bidimensionales (muestreo regular): cuando los datos son bidimensionales y el mues-
treo es regular, se requiere definir la dirección en la cual aplicar la ecuación 2.7. Por ejem-
plo, en la Figura 2.17a se considera el caso de un muestreo regular donde se seleccionó
la dirección vertical para el cálculo del variograma. Se podría haber escogido obviamente
cualquiera otra dirección; es decir, es necesario en general definir tanto la longitud como la
dirección del vector h en la ecuación 2.6. Para ello se define la dirección vertical como 0° y la
rotación se efectúa en el sentido de las agujas de un reloj; consecuentemente, la dirección
horizontal corresponde a 90° (Figura 2.17b).
En general, lo deseable es tener un gran número de pares de puntos a cada distancia. Esto no es
posible en los casos de muestreos irregulares, pero el uso de regiones de tolerancia, formadas a
partir de intervalos de distancia y un ángulo de tolerancia alrededor de la dirección definida por
el vector h, permite minimizar este problema. La región de tolerancia corresponde al polígono
cfed; solamente las muestras que se encuentran al interior de este polígono serán seleccionadas
para calcular el variograma a esa distancia y dirección (Figura 2.18b).
Desde un punto de vista práctico, se puede decir que un VE se calcula para todos los posibles
pares de puntos en el conjunto de datos y se asigna cada par a una clase de intervalo h. Es-
tas asignaciones son hechas generalmente por el so!ware (pero existe la posibilidad de que
el usuario efectúe él mismo estas asignaciones). Para efectuar esta operación, los programas
geoestadísticos requieren que se definan previamente dos parámetros: i) El rango sobre el cual
el variograma será calculado, ALD (Active Lag Distance, ALD) y ii) Definir cómo los pares de pun-
tos se agruparán en clases de intervalo h, LCDI (Lag Class Distance Interval, LCDI). Cada punto en
un variograma representa la semivarianza promedio para una clase de intervalo h, y el número
75
de puntos en el variograma es función tanto del ALD como del LCDI. Por ejemplo, un ALD = 300
m con un LCDI = 15 m producirá un variograma conteniendo 20 puntos. ¿Cómo influyen estos
parámetros en el cálculo del VE? Para responder a esta pregunta consideremos un ejemplo
numérico, un transecto de 1000 m tendrá un lag (distancia) máxima de 1000 m. Un ALD de 300
m limitará el cálculo del variograma a distancias (LCDI) menores o iguales a 300 m a lo largo de
toda la longitud de 1000 m del transecto.
Dado un conjunto de datos, el so!ware define usualmente el ALD como 80% del lag máximo en
los datos. Este valor no será probablemente el ALD más apropiado para cumplir con los objetivos
científicos del proyecto bajo consideración, pero proporcionará un buen punto de partida. La
selección de un 80% viene del hecho de que los variogramas no son estadísticamente robustos
a distancias cercanas al lag máximo, debido a la disminución del número de pares de puntos a
medida que se aproxima el lag máximo. De manera general, se puede decir que el variograma
es poco estable cuando i) la distancia h considerada es grande, ii) el muestreo es muy irregular
o atípico y iii) la distribución de datos presenta un valor alto de la oblicuidad (≥ 1) y/o contiene
valores extremos.
El valor mínimo aceptado para el parámetro LCDI es la distancia mínima entre las observaciones,
mientras que el valor máximo es el lag máximo presente en los datos. El valor predeterminado
del LCDI es 10% del ALD, si este valor es menor que la distancia mínima entre las observaciones,
esta distancia mínima prevalece.
Dados los argumentos presentados hasta ahora en esta sección, debe estar claro que el cálculo
del VE de datos bidimensionales requerirá especificar la dirección en la cual el VE será calculado.
En la situación de una distribución isotrópica esta restricción obviamente no se aplica. En caso
de datos isotrópicos, es usual calcular un variograma omnidireccional; es decir, un variograma
que no depende de la dirección. Se puede interpretar como el promedio del VE en todas las
direcciones posibles. Su cálculo se efectúa escogiendo la tolerancia angular, ∆ϕ (Figura 2.18.)
tal que las direcciones (ϕ+ ∆ϕ) y (ϕ - ∆ϕ) sean opuestas y perpendiculares a la dirección ϕ .
• Imagine que usted y un grupo de amigos están sentados en torno a una fogata conversan-
do, cantando o contando historias; pero ¿por qué nos sentamos en torno a la fogata? La
respuesta es simple, alrededor del fuego no importa qué dirección consideremos siempre
recibimos el calor de la fogata; en otras palabras, la dirección no importa, solo es impor-
• Al considerar un caso más realista, la distribución de partículas disueltas en agua será iso-
trópica si el agua está en calma; pero si hay una corriente, esta arrastrará las partículas y la
distribución será anisotrópica.
• En minería es posible que existan cuerpos en los cuales un mineral está distribuido sin una
dirección predominante; pero una veta, por el contrario, es un claro ejemplo de concentra-
ción del mineral en una dirección determinada.
La anisotropía se refiere, por lo tanto, a la presencia de una tendencia direccional en los datos.
Por ejemplo, al considerear valores de elevación en la ladera de una montaña; en este caso,
los valores de elevación estarán auto-correlacionados de manera diferente en función de la
dirección considerada. Un análisis isotrópico de estos datos no será, por lo tanto, capaz de
determinar la distribución exacta de los valores de elevación. El análisis anisotrópico, por otro
lado, permitirá primero determinar si los datos tienen un componente direccional y, segundo,
identificar esta dirección. La manera óptima de evaluar el grado de anisotropía presente en un
conjunto de datos es utilizar la superficie de semivariancia anisotrópica (mapa variográfico)
disponible en la gran mayoría de los so!ware geoestadísticos (Figura 2.19.).
77
El eje mayor de la elipse de búsqueda corresponde a una dirección alineada con los valores más
bajos de semivarianza (dirección de máxima continuidad espacial o eje principal del modelo
anisotrópico de variograma de anisotropía). La Figura 2.19b ilustra la situación de un campo
básicamente isotrópico, los valores de la semivarianza son prácticamente independientes de
la dirección. Se puede apreciar un ejemplo de un mapa variográfico con una clara distribución
anisotrópica en la Figura 2.32 (página 88).
El VE, tal como fue definido en las secciones previas, es una función definida (calculada) solo a
ciertas distancias (de manera discreta) y solo a lo largo de algunas direcciones del espacio (a me-
nos de que se haya calculado el mapa variográfico). En este sentido, se puede decir que el VE es
incompleto, pues se desconoce su valor a distancias y direcciones que no fueron consideradas
en el diseño del muestreo. También hay que considerar que los valores de los cuales se obtuvo el
VE son experimentales, o sea están sujetos a imprecisiones. Por lo tanto, se podría decir que un
VE no es solo incompleto, sino también imperfecto. Lo que se requiere para remediar esta situa-
ción es obtener un modelo teórico del VE válido para toda distancia menor que la extensión del
diseño del muestreo (Figura 2.2.). Para lograr este objetivo, se ajusta simplemente una función
continua al VE. Este variograma teórico (VT) posee ciertas características que tienen relación
con el comportamiento del VE en el origen, al infinito y su comportamiento direccional. En esta
sección, por lo tanto, se presenta y discute primeramente las características (propiedades) del
VT y, en segundo lugar, se discute el modelamiento del VT, tanto en el caso isotrópico como
anisotrópico. Pero, antes de entrar en detalles, algunos comentarios de carácter general acerca
del ajuste (modelamiento) de un VT:
• Esta es una operación subjetiva. No existe un variograma teórico verdadero.
• No existe tampoco un método general. Se dispone de una serie de ajustes y hay que asegu-
rar siempre de respetar las características del VT.
X Es una función de tipo negativo condicional. Esto significa, entre otras cosas, que el
modelo que se utilizará no debe predecir varianzas negativas.
X Evaluar tanto una situación isotrópica como una anisotrópica, pero en primer lugar
considerar el caso isotrópico.
X No olvidar que existen ciertos límites matemáticos que hay que respetar. No cualquie-
ra función matemática es aceptable.
X Es posible considerar como solución una suma de modelos básicos (un variograma
anidado). Lo cual será discutido en detalle en esta sección.
79
Figura 2.20. Definición de los tres
parámetros básicos de un variograma
teórico: efecto pepita (C0), meseta (Ct) y
alcance (a). Se define también un cuarto
parámetro, la varianza estructurada,
C = Ct – C₀.
Efecto pepita (C₀): este parámetro está relacionado con el comportamiento del variograma en
el origen. En teoría, el VE calculado para h = 0, por medio de la ecuación 2.6., sería de γ(0) = 0,
pero en la práctica γ(0) ≠ 0; específicamente, γ(0) = C₀. Se interpreta esta situación como un
variograma que presenta en el origen una discontinuidad debido a dos factores: i) errores en las
observaciones (no olvidar que se trata de observaciones experimentales) y ii) dado el diseño de
muestreo adoptado, existen en los datos variaciones a escalas más pequeñas que el intervalo
de observación. Si C = 0, Ct = C₀ (Figura 2.20.); por lo tanto, se trata de un fenómeno sin
estructura espacial-temporal, un proceso aleatorio sin correlación en el espacio (ni el tiempo).
Toda información que pudiera existir en estos datos se encuentra a la escala de microestructu-
ras; por ejemplo, a una escala de un metro la variabilidad presente a escalas de milímetros no se
observará y el variograma será 100 por ciento un efecto pepita puro (Figura 2.21.).
(2.9.)
Alcance o rango (a): para valores de x ≥ a, el variograma presenta un valor constante e igual al
valor de la meseta (Figura 2.20.). Esto significa que Z(x) y Z (x + h) son valores independientes,
aleatorios; pero, si x ≤ a, los valores de Z(x) y Z (x + h) están relacionados entre sí, existe una
correlación entre ellos. En otras palabras, el valor del alcance precisa dos zonas en un variogra-
ma: i) si x ≤ a, se define una zona de correlación donde se debería utilizar la geoestadística, y ii)
si x > a, se define una zona donde la geoestadística no es aplicable y se debería, por lo tanto,
utilizar la estadística clásica (Figura 2.15.).
Se recuerda que la ecuación 2.9. y la situación presentada en la Figura 2.15. son válidas bajo la
hipótesis de que los datos originales satisfacen la condición de estacionaridad (tema que dis-
cutiremos en la sección 3.2.1.). Se menciona también que la forma del variograma presentada
en la Figura 2.20. es la forma típica, estándar que presenta un VT; pero, no es única, otras posi-
bilidades también existen y se las presenta a continuación:
81
Figura 2.22. Ilustración de un
variograma sin meseta ni alcance.
Variograma en el caso de que los datos presenten una tendencia: el variograma presenta un
comportamiento parabólico cerca del origen (forma cóncava) debido a la presencia de una ten-
dencia en los datos (Figura 2.23.).
83
2.3.2.1. modelos elementales
Figura 2.25. Modelo efecto pepita puro.
a) Variograma teórico, b) fórmula de
cálculo. Ct es un valor constante e igual
al valor de la meseta.
Este modelo se aplica en caso de un conjunto de datos con una correlación de valor cero; las
observaciones (muestras) son totalmente independientes:
• El valor de r².
• Además de estos tres índices se plantea la capacidad de efectuar una validación cruzada.
El RSS y el r² proporcionan un índice de la calidad del ajuste efectuado a los valores del VE, pero
el RSS es más robusto que el r² y, por lo tanto, se lo prefiere para juzgar el efecto de cambios
en los parámetros del modelo. El parámetro C / (C₀ + C) proporciona el grado de estructura
85
espacial (temporal) explicada por el modelo; es decir, es una medida de la proporción de la va-
rianza total presente en los datos (C₀ + C), que es explicada por la varianza estructurada C.
Si C₀ = 0, la proporción C / (C₀ + C) toma entonces el valor de 1. Esta situación se presenta
difícilmente en la vida real; ya que se están considerando datos experimentales y, por lo tanto,
siempre existe un cierto nivel de ruido. El caso opuesto, C₀ = C₀ + C implica que C = 0; o
sea, un efecto pepita puro.
La validación cruzada consiste en eliminar cada valor medido (uno a la vez) del campo y esti-
mar su valor por medio del método de estimación seleccionado (por ejemplo, Kriging). De esta
manera se obtiene un gráfico de valores estimados versus valores reales para cada ubicación
utilizada en el muestreo. Dado que efectuar una validación cruzada requiere el uso de un mé-
todo de estimación, su discusión en profundidad será efectuada en el capítulo dedicado a la
problemática de estimación.
87
Figura 2.32. Ejemplo de un mapa
variográfico. La distribución es
isotrópica hasta una distancia (escala)
definida aproximadamente por el círculo
azul al centro del mapa. A distancias
mayores del radio de este círculo, la
distribución es anisotrópica (So!ware,
GS⁺, Robertson, 2008).
Una síntesis de la situación se presenta en la Figura 2.33. El mapa variográfico puede presentar a
ciertas escalas una distribución isotrópica (un círculo) y a otras escalas el caso opuesto, una dis-
tribución anisotrópica (el mapa variográfico conteniendo en este caso una elipse) (Figura 2.33a).
El eje mayor de la elipse precisa el eje anisotrópico principal de los datos, o sea, la dirección
alineada con los valores más bajos de semivarianza (dirección de máxima continuidad espacial,
o eje principal del modelo anisotrópico) (Figura 2.33b). El cociente (cd)⁄(ab) define la intensidad
de la anisotropía (coeficiente de anisotropía), y el ángulo ∡aox = θ determina la orientación de
la anisotropía (ángulo de la anisotropía) (Figura 2.33b).
89
2.5. Índices adicionales de continuidad espacial-temporal
El objetivo de esta sección es presentar otras funciones matemáticas, aparte del variograma,
que permiten la descripción cuantitativa de la continuidad espacial (temporal). Se justifican
estos índices adicionales por la necesidad de calcular variogramas bajo ciertas condiciones bien
precisas; por ejemplo, la presencia de valores atípicos en los datos. El VE, tal como fue definido
en la ecuación 2.7., mide la homogeneidad (heterogeneidad) promedio entre datos separados
por una distancia h y su valor aumenta tan pronto como la distancia h aumenta; no hay que
olvidar también, que el VE es función del promedio del conjunto de datos, incluidos valores
atípicos que pudieran estar presentes en esos datos. Estos últimos pueden asumir un rol impor-
tante en el cálculo de VE dado que γ(h) ∞ (Z(x) – Z (x + h))2 (ecuación 2.7.). La presencia de
valores atípicos en el conjunto de datos presenta por lo tanto una problemática a la cual hay que
encontrarle una solución satisfactoria. Existen varias posibilidades, descritas a continuación:
• Eliminar y/o retirar del conjunto de datos los valores atípicos: esta opción es aceptable si los
valores atípicos no son valores medidos durante el proceso de la adquisición de los datos;
o sea, representan ruido, el cual es deseable, por lo menos, minimizar. En el caso contrario,
su eliminación no se justifica.
• Transformar los datos: si se aplica a los datos una transformación matemática (logarítmica,
por ejemplo), se reduce el valor del coeficiente de asimetría. Esto tiene como efecto mini-
mizar la importancia de los valores atípicos en el cálculo del variograma.
1
i=1
xi xi (2.10.)
El uso tanto del madograma como del rodograma tiene como consecuencia disminuir la impor-
tancia o contribución de los valores atípicos al cálculo del VE (Figura 2.35.). Esta figura presenta
una comparación entre variograma, madograma y rodograma, los tres calculados para un con-
junto de datos, donde se conoce la presencia de varios valores atípicos. Los valores de la semi-
varianza son un orden de magnitud mayor en el variograma que en el madograma y rodograma.
La presencia de valores atípicos influye, por lo tanto, en el cálculo del variograma, pero tanto
en el madograma como el rodograma producen descripciones más claras de la continuidad
espacial-temporal (o la falta de ella).
Madogramas y rodogramas son dos índices que son útiles en el estudio de estructuras a gran-
des escalas y en la determinación del grado de anisotropía presente en los datos, pero no han
mostrado su utilidad en la modelización del efecto pepita. Otro campo donde han demostrado
su utilidad es en el estudio de la información espacial, presente en imágenes aeroespaciales
(Rodríguez-Galiano y otros, 2011).
Además del madograma y el rodograma existen otros índices adicionales que es necesario ci-
tar. Como se ha mencionado, el valor del variograma depende del promedio de los datos. Por
ejemplo, supongamos una región donde la varianza de los datos varía de una zona a otra; esta
situación no es compatible con la existencia de un variograma válido para toda la región, pues
91
la hipótesis de un solo variograma implica la existencia de solo una meseta, o sea una varianza
constante. En situaciones como esta o similares se utilizan tres tipos de variogramas normali-
zados:
Los variogramas relativos general y relativos por pares tienen también como objetivo eliminar la
dependencia del variograma en el promedio de los datos, pero sin recurrir a una segmentación
de la región de estudio. El primero (variograma relativo general), consiste en normalizar el va-
riograma por medio de una función de la media de los datos separados por una distancia h. Este
es, por lo tanto, un valor normalizado por el promedio estándar de los datos. El segundo (vario-
grama relativo por pares) es similar al relativo general pero normalizado por medio del cuadrado
del promedio. Los variogramas relativos permiten resaltar la continuidad espacial-temporal en
la presencia de agrupamientos de datos en la distribución de interés (Figura 2.36.).
• Los variogramas relativos son menos sensibles a variaciones en el promedio de los datos.
• En presencia de una distribución con una oblicuidad positiva, los variogramas relativos
son más robustos que el variograma a la presencia de pocos datos y valores anómalos.
Otro tema que se debe mencionar es el caso donde no se desea conocer las características de
la VR misma, pero sí de una transformación de esta. El caso más frecuente es el paso a logarit-
mos. Tiene como ventaja atenuar o incluso hacer desaparecer la presencia de valores atípicos.
Los so!ware geoestadísticos ofrecen en su gran mayoría esta posibilidad. Una descripción más
completa de todos los índices definidos hasta ahora se encuentra en Emery (2000).
Si se tienen dos o más variables con una cierta correlación entre ellas, todos los índices definidos
hasta este momento son también aplicables a esta nueva situación. Concretamente, se explica-
rán dos grupos: i) índices cruzados (entre variables) y ii) índices indicadores (variables discretas).
Todos los índices definidos hasta ahora se pueden generalizar a una situación multivariable; por
ejemplo, se puede considerar un diagrama de dispersión, un variograma, un correlograma o una
covarianza cruzada (o sea entre dos variables regionalizadas).
93
Por ejemplo, observaciones de concentración de carbono y oro simultáneas, permitiendo de-
terminar la relación espacial entre estos dos elementos (Figura 2.37.). En otras palabras, permite
estudiar la similitud entre medidas de atributos diferentes.
Se deben también mencionar los índices indicadores. Todos los índices definidos hasta este
momento evalúan la continuidad espacial-temporal, sobre todo el rango de valores de la variable
de interés; pero es posible que el grado de variabilidad sea función del valor de la variable. Es
decir, valores pequeños, medios o grandes de la variable de interés pueden presentar grados
diferentes de variabilidad. Se necesitará, por lo tanto, caracterizar la distribución espacial-tem-
poral de una variable Z(x) sobre o bajo un umbral, un límite (indicator datum).
Todos los índices definidos en este capítulo pueden ser aplicados al caso multivariable. La dis-
cusión en detalle de ellos se efectuará al momento de presentar y discutir los métodos de esti-
mación que requieren el uso de estos índices (Cokriging y Kriging indicador).
• Dado que a distancias grandes el número de pares necesarios para el cálculo del
variograma en general disminuye, el VE es poco confiable para distancias grandes
(mayores que la mitad del campo).
• Desconfiar de los so!ware que solo permiten ajustes automáticos. El análisis estructural
de un conjunto de datos es un trabajo interactivo, donde el investigador, el usuario del
so!ware, debe siempre tener la palabra final.
• El ajuste de una VE es un proceso interactivo y subjetivo. No existe un modelo único.
95
96 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA
capítulo 03
Estimación
y bases
teóricas de la
geoestadística
97
Antes de continuar se debe aclarar la noción de estimación, la cual implica dos conceptos: i) un
proceso de interpolación; vale decir, una estimación al interior del campo de observación, y ii) un
proceso de extrapolación, lo que significa una estimación al exterior del campo de observación.
En este libro interesa solamente el primer concepto, vale decir el proceso de interpolación.
Los métodos de interpolación clásicos son numerosos y tales que la relación entre el valor es-
timado a la posición de S₀ y cualquiera de las otras posiciones definidas por los n puntos de
muestreo, depende solo de la distancia y, posiblemente, la dirección entre las dos posiciones.
Se trata entonces de determinar por cada observación la ponderación (Figura 3.1a); es decir, el
peso que esta observación tendrá en el cálculo del valor interpolado a la posición de S₀. Este
enfoque presenta ciertos límites o inconvenientes que se pueden resumir en:
• ¿Se desea interpolar valores puntuales o estimaciones válidas por una superficie o volumen?
Estas tres preguntas determinaran el método que se utilizará; pero para responder adecuada-
mente se requerirá tener muy claro ciertas definiciones y conceptos, los cuales serán discutidos
a continuación. Dados los argumentos presentados, se puede definir un proceso de interpo-
lación espacial-temporal como el proceso de usar información de posiciones conocidas para
estimar los valores de posiciones no muestreadas (al interior del campo del muestreo). En el
caso general, al efectuar una interpolación espacial se obtiene una superficie empleando para el
cálculo datos puntuales (Figura 3.1b). Además, de la necesidad de estimar valores en posiciones
no muestreadas se pueden mencionar múltiples situaciones donde un proceso de interpolación
es necesario; por ejemplo, en estudios medioambientales (o en geomática):
• Una superficie continua está representada por un modelo diferente del requerido (conver-
sión raster a vector o el proceso inverso).
Teniendo claro entonces qué interesa efectuar en un proceso de interpolación, la próxima etapa
lógicamente es verificar si esta es posible de ser efectuada; es decir, formular la pregunta: ¿qué
elementos se requieren para interpolar? Para ello se deben cumplir tres condiciones, a saber:
99
3.1. Clasificación de los métodos de interpolación
Determinístico / Estocástico
Interpolación determinística: no cuantifica el cálculo del error de los valores interpolados. Todos
los métodos clásicos pertenecen a este grupo.
Global / Local
Interpolación global: utiliza todas las observaciones disponibles en el campo de muestreo para
estimar el valor interpolado. La regresión es un ejemplo de este grupo.
Interpolación local: utiliza una muestra de las observaciones para estimar el valor interpolado;
es decir, utiliza solamente la variabilidad local en el proceso de interpolación. La interpolación
geoestadística, por ejemplo, Kriging.
Exacto / Inexacto
Método exacto: el valor interpolado en una posición conocida (muestreo) es idéntica al valor
medido durante el muestreo. La interpolación splines es un ejemplo de este grupo.
Método inexacto: La diferencia entre el valor calculado y el valor medido, el residuo es diferen-
te de cero. El valor absoluto del residuo es una indicación de la calidad de la interpolación. La
regresión es un ejemplo de este grupo.
Aun cuando los métodos de interpolación se clasifican en tres grupos, estos grupos no son
excluyentes entre sí. A todos los métodos globales/locales y exactos/inexactos se los puede
también clasificar como determinísticos/estocásticos y a los métodos exactos/inexactos se los
encuentra incluidos en la clasificación global/local. Para efectos prácticos, ahora se discutirán
los Métodos Globales y Locales.
Si los datos presentan una tendencia, los valores medidos aumentan o disminuyen isotrópi-
camente o anisotrópicamente en el área de estudio (Figura 3.2.). Esto se discutirá en detalle al
momento de presentar el Kriging universal, este método de interpolación requiere eliminar la
tendencia antes de efectuar una interpolación local y, para cumplir este objetivo, se utiliza una
regresión polinomial; específicamente, se usa una regresión no-lineal (ecuación 3.1.).
Donde Xi: variable independiente, Yi: variable dependiente, bi: coeficientes de regresión, y m:
orden de la regresión. Polinomios de orden entre uno a tres son habitualmente utilizados. Poli-
nomios de orden más alto se deben evitar debido a que son muy inestables y difíciles de inter-
pretar físicamente. En teoría, si el grado del polinomio es alto, el ajuste es de mejor calidad; pero
en la práctica, el ajuste es menos robusto o de menor calidad.
101
3.1.2. métodos locales
Los métodos locales son métodos de interpolación lineales (ecuación 3.2.) y su estudio es esen-
cial para la comprensión del objetivo principal de este libro, orientado a los métodos de inter-
polación geoestadísticos.
INTERPOLACIÓN 1 (3.2.)
Donde Xi: datos disponibles, λi: peso (ponderación) asignada a cada valor de Xi y n: número de
observaciones.
INTERPOLACIÓN 1 (3.3.)
Ejemplos concretos de estos métodos clásicos de interpolación local son múltiples. Se pre-
sentarán en esta sección tres de ellos, debido a su uso más frecuente en el análisis de datos
medioambientales: i) Distancia inversa ponderada (Inverse distance weighting, IDW), ii) Spline, y
iii) Vecino más cercano (Nearest neighbor).
• Este método de interpolación, al igual que los que trabajan con promedios, no puede esti-
mar valores mayores y/o menores que los valores máximos y mínimo de las observaciones.
• Dada también la forma de la ecuación 3.2., este método tiene el efecto de suavizar los va-
lores extremos presentes en los datos. Su uso es equivalente a la aplicación de un filtro de
baja frecuencia a los datos originales.
Splines: este método ajusta una superficie flexible a través de los puntos de control, lo que
permite estimar valores sobre y/o debajo los valores extremos presentes en los datos, siendo
este interpolador, una buena opción para estimar valores fuera del rango de las observaciones
iniciales.
103
3.1.2.1. estimadores lineales ponderados
Los estimadores lineales ponderados son de gran interés y su estudio llevará de manera natural
a comprender las bases teóricas de la geoestadística. La idea básica será estimar el valor de una
VR en una ubicación geográfica dada, donde no se conoce el valor de la VR, utilizando un modelo
geoestadístico (ecuación 3.4.).
* n
(3.4.)
Donde X*(x): valor estimado a la posición x; {X (xi), i = 1, ... n)} son los valores de las ob-
servaciones en las posiciones {xi i = 1, …n}; a: coeficiente aditivo; y {λi, i = 1, …n} son los
ponderadores, pesos.
Notar que en esta ecuación la incógnita son los valores de las ponderaciones, pues tanto a como
X (xi) tienen valores numéricos conocidos. Dos preguntas básicas se presentan en este mo-
mento: i) ¿Qué factores deberían considerarse en la asignación de los ponderadores? o ¿cómo
determinar los “mejores” factores de ponderación?, y ii) ¿deberían considerarse las n obser-
vaciones en el cálculo? o ¿cuántas muestras se debería incluir? Cada método de interpolación
responde a estas preguntas de manera diferente. Al considerar, como ejemplo, dos de los esti-
madores discutidos en la sección anterior. Primero, el estimador vecino más cercano atribuye
toda la ponderación al dato más cercano a la ubicación donde se desea interpolar (λi = 1 para
el dato más cercano, y λi = 0 para todos los otros datos, a = 0). Este interpolador considera en
el cálculo las n observaciones disponibles. Dadas estas características, se entiende la relación
existente entre este método de interpolación y los Polígonos de Voronoi; el interpolador vecino
más cercano es un estimador por polígonos de influencia, puesto que el lugar donde se desea
interpolar se encuentra en el polígono de influencia del dato al cual se le ha asignado toda la
ponderación. Un segundo ejemplo es el estimador inverso de la distancia, que atribuye a cada
dato una ponderación proporcional al inverso de su distancia al sitio donde se desea estimar.
Como se ha mencionado, existen variantes donde se eleva la distancia a una cierta potencia
(usualmente valores entre uno y tres). Este estimador considera también todas las observacio-
nes disponibles.
El vecino más cercano e inverso a la distancia son estimadores sencillos de aplicar, pues la asig-
nación de la ponderación solo depende de un criterio de cercanía. Pero este criterio no es el
único factor que se debe considerar; hay que tener en cuenta también:
Los métodos de interpolación lineal sustentan sus cálculos solo en un factor de cercanía y, en
este punto, la geoestadística posee una ventaja comparativa, ya que además de considerar este
factor, incorpora otros tres factores (redundancia entre datos, continuidad espacial-temporal
y anisotropía) al proceso de interpolación. Lo cual se logra mediante el uso del variograma,
obteniéndose de esta manera estimaciones más precisas.
Antes de iniciar la discusión sobre las bases teóricas de geoestadística, es necesario recordar
que ninguno de los métodos de interpolación presentados hasta ahora proporciona información
acerca de:
• La estimación de los pesos (¿es esta estimación solo una función simple de la distancia?).
Tratando de integrar estos cuatro conceptos a los procesos de interpolación disponibles en sus
épocas, D.G. Krige (empíricamente) y G. Matheron (trabajo teórico) desarrollaron hace unos 50
años nuevos métodos de interpolación para uso en la industria minera. A partir de la minería,
estas nuevas técnicas (geoestadísticas) han encontrado en los últimos 30 a 40 años múltiples
aplicaciones en variados campos, tanto en Ciencias de la Tierra como otros (por ejemplo, as-
tronomía).
Como introducción a esta discusión teórica es necesario considerar que la geoestadística re-
conoce que la variación espacial (temporal) de una VR es muy compleja e irregular para ser
modelada solo con una función matemática simple (por ejemplo, distancia inversa ponderada).
Dada entonces esta complejidad, la geoestadística asume, por lo tanto, que la variación espa-
cial-temporal será mejor descrita por una función estocástica y en la gran mayoría de los casos
105
los datos serán la única fuente de información posible. Consecuentemente, los datos guiarán
en el desarrollo del modelo requerido, de ahí la importancia del análisis estructural como etapa
previa al proceso de interpolación. Matheron (1969) propuso que el valor de una VR en una ubi-
cación geográfica podría ser modelado como la suma de dos componentes: una componente
determinística y otra estocástica (ecuación 3.5. y Figura 3.4.). A este modelo se le conoce con
el nombre de Modelo Universal de Variación.
(3.5.)
Donde m(x): una función determinista describiendo la estructura de la variable Z a una posición
x (línea roja, Figura 3.4.); φ(x) variación local con una cierta correlación (línea verde, Figura
3.4.); y : ruido aleatorio con una distribución normal (curva gris, superpuesta en la línea verde,
Figura 3.4.).
La componente determinista representa una organización, una estructura global (línea roja) y
la componente estocástica personifica una estructura irregular, local, que no puede ser repre-
sentada por una función matemática determinista (línea verde). La componente determinista,
m(x), es calculable por medio de la estadística clásica (dos posibilidades, un valor constante,
la media del conjunto de datos o una regresión, línea roja). La componente estocástica será
justamente el objetivo del análisis geoestadístico.
107
en consecuencia, se introdujo una estacionaridad “más débil” o de segundo orden o hipótesis
intrínseca que aceptaba la existencia de varianzas infinitas en los datos. Se dispone en la teoría
geoestadística de dos tipos de estacionaridad: i) estacionaridad estricta, tal como definía ori-
ginalmente Matheron, y ii) una estacionaridad que dispone de varios nombres, dependiendo
con quién se está hablando. Se la denomina débil (o sea, menos restrictiva que la original), o de
segundo orden o hipótesis intrínseca.
E ( Z(x( = m
( (3.6.)
Notar que, dado un conjunto de datos, la condición de estacionaridad de segundo orden implica:
3.3. Resumen
Ninguno de los métodos determinísticos proporciona información acerca de:
109
110 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA
capítulo 04
Interpolación
local: Kriging
111
Kriging es un método geoestadístico de interpolación. Su objetivo es similar al de los métodos
clásicos, pero este método toma en consideración tanto la continuidad (o variabilidad) espa-
cial-temporal como el grado de anisotropía presentes en los datos. Desde un punto de vista
numérico, Kriging es un interpolador lineal (la ecuación básica de su cálculo es la ecuación
3.4.), pero las ponderaciones λi son calculadas de manera totalmente diferente al caso de los
métodos clásicos, ya que requiere conocer el momento de segundo orden de la función aleatoria
(VR de interés); en otras palabras, requiere conocer el variograma o la covarianza de los datos
disponibles.
Entre las bondades que posee Kriging como interpolador se pueden destacar:
• Es un interpolador exacto (si el efecto pepita es nulo) y también puede ser utilizado como
un filtro de baja frecuencia.
X Kriging simple
X Kriging puntual
c Implica tanto el uso del Kriging simple como el ordinario. Puntual se lo debe
interpretar como lo opuesto al Kriging en bloques.
X Kriging Universal
X Kriging Indicador
X Kriging en bloques
• Métodos lineales
• Métodos no lineales
113
Finalmente, una clasificación importante de mencionar es:
• Métodos univariados
• Métodos multivariable
X Cokriging.
Estas clasificaciones contienen los métodos Kriging más utilizados en el campo de estudios en
ciencias de la Tierra y serán los temas presentes en este capítulo; restricciones de orden prác-
tico (espacio y tiempo) impiden también hacer referencia a otros tipos de Kriging disponibles
en la literatura.
Se presentan a continuación las características generales de todos los métodos Kriging que se
discutirán en este capítulo:
X Donde Z*(S₀): valor estimado en la ubicación S₀, a: coeficiente aditivo, λi: pesos
calculados por el Kriging, e i = 1,...n: número de observaciones.
• La diferencia básica entre el método Kriging y los métodos clásicos es la manera de calcular
los λi. Kriging respetará dos condiciones bien específicas: insesgado y minimizar la varianza
del error de interpolación. Estas condiciones de cálculo de los λi son una característica
propia solo de los métodos Kriging, ningún método clásico garantiza una varianza mínima
de interpolación.
Si se desea por lo tanto interpolar en una posición S₀, Kriging respetará las siguientes condi-
ciones:
• Se dice que Kriging es “el mejor estimador lineal insesgado”. ¿Qué significa esto exacta-
mente? Significa que para determinar el coeficiente a y los ponderadores {λi, i = 1…n}
en la ecuación 4.1., se deberán respetar las ecuaciones 4.2. y 4.3. Consideremos estas dos
situaciones en detalle:
i=1
i=1
i=1 (4.4.)
115
Lo que significa que el estimador será insesgado para cualquier valor de la media, si se cumple
la condición:
1 (4.5.)
Veremos que esta condición se cumple en todos los métodos Kriging que se estudiarán en este
capítulo, con excepción del Kriging simple, donde se requiere conocer el valor de la media m;
esta información extra permite calcular la constante a en la ecuación 4.4. sin necesidad de
considerar la ecuación 4.5.
• Condición varianza mínima: Var [Z*(x) – Z(x)] debe tomar un valor mínimo.
Esta condición es mucho más compleja y difícil de discutir desde el punto de vista matemático
que la condición de insesgo. Por lo tanto, se presenta a continuación un bosquejo cualitativo
del trabajo de Matheron que permitirá comprender las etapas necesarias para efectuar una
estimación Kriging sin necesidad de entrar en detalles acerca de los innumerables desarrollos
matemáticos requeridos para la deducción de estas ecuaciones. Para los lectores que estuvieran
interesados en efectuar ese estudio, se recomienda consultar el trabajo de Giraldo (2002) o el
de Matheron (1963).
En primer lugar, hay que notar que en la ecuación 4.3. Z*(x) y Z(x) no son conocidos; por con-
siguiente, esta varianza no es calculable. La contribución de Matheron fue demostrar que era
posible expresar esta varianza en función de índices conocidos; es decir, calculable a partir de
los datos. La pregunta que se debe plantear es: ¿qué índices se conocen que son derivables di-
rectamente de los datos? La respuesta es simple, solo uno, el variograma. Dado que la condición
de estacionaridad se cumple, la relación Cov(h) = σ2 - γ(h) (ecuación 2.10.) es válida y permite
determinar la covarianza a partir del variograma. En otros términos, Matheron logró demostrar
que la varianza del error de interpolación era expresable en términos de los λs (las incógnitas)
y las covarianzas existentes en las observaciones (ecuación 4.6.). Para comprender el trabajo de
Matheron, se tiene que en un conjunto de datos (Figura 3.1a) es posible calcular dos conjuntos
de correlaciones (covarianzas): i) las correlaciones entre los datos que dependen exclusivamente
de las distancias entre ellos (la distribución espacial del muestreo) y ii) las correlaciones entre
los datos y el valor a interpolar (S₀); es decir, correlaciones entre la ubicación del punto S₀ y
todas las ubicaciones conocidas. Se puede entonces establecer que la ecuación 3.4. es función
de la covarianza entre los datos mismos y la covarianza entre los datos y la ubicación donde se
desea interpolar (ecuación 4.6.).
(4.6.)
(4.7.)
El cálculo de estas derivadas parciales permite obtener un sistema de ecuaciones con n incóg-
nitas, que usualmente se representa en forma matricial (ecuación 4.8.).
Donde la matriz Cij representa las correlaciones entre las observaciones, λ es un vector simbo-
lizando las n ponderaciones por calcular (las incógnitas), y el vector Ci,0 representa las correla-
ciones entre los datos y el valor por estimar. Este sistema de ecuaciones recibe comúnmente el
nombre de sistema de ecuaciones normal. La solución de este sistema de ecuaciones se obtiene
según las reglas del álgebra matricial (ecuación 4.9.):
–1
(4.9.)
Las ponderaciones λi se obtienen, por lo tanto, como el producto matricial entre la matriz in-
versa de la matriz Cij y la matriz Ci₀. Conociendo las ponderaciones λi, las ecuaciones 4.1. y 4.4.
117
permiten calcular el valor estimado en una ubicación S₀. No olvidar que habrá que proceder de
manera análoga para cada ubicación donde se desea efectuar una estimación.
Una expresión general del valor estimado se puede, por lo tanto, expresar por medio de la
ecuación 4.10. y la varianza del error de estimación por medio de la ecuación 4.11. La derivación
matemática de esta última se basa en los mismos principios que la efectuada por la ecuación
4.10. y no será aquí discutida (para más detalles se recomienda consultar Giraldo, 2002).
nn nn
i=1
(4.11.)
Kriging simple (KS) es el Kriging básico, y proporciona una interpolación válida al mismo soporte
que los datos de entrada. Supone que la media de la población de la VR de interés es constante
y conocida; pero esta suposición hace del KS un método difícil de utilizar dado que, en la gran
mayoría de los casos, el valor de la media de la población de interés no es conocido. Por otro
lado, KS respeta la estacionaridad de segundo orden, la VR de interés debe ser estadísticamente
estacionaria; es decir:
Kriging ordinario (KO) tiene el mismo objetivo que el KS, pero es más general. Su hipótesis
básica es que no se conoce la media de la población de la VR de interés, pero se supone que es
constante. Esta es una hipótesis menos restrictiva que la del KS y se adopta debido a que si la
condición de insesgado se cumple (ecuación 4.5.), no es necesario conocer el valor de la media.
Para comprender la lógica detrás de esta decisión, se considera que la interpolación por medio
del KS está definida por la ecuación 4.10.; pero si la condición de insesgo (ecuación 4.5.) se
cumple, le estimación por medio de la ecuación 4.10. es independiente de m.
Si 1
se cumple, la ecuación 4.10 se transforma en
(4.12.)
i=1
Lo que permite aplicar la metodología Kriging ordinario a datos sin tendencia y una media cons-
tante pero desconocida. No es necesario conocer el valor exacto de la media, dado que la media
no es un factor en los cálculos el KO. Una situación obviamente más general y por esta razón
se dice que el KO generaliza el KS. De manera similar al caso del KS, el cálculo de los λi se basa
en dos criterios: i) la condición de insesgado y ii) la minimización del error de la varianza de in-
terpolación. Respecto de la primera condición, no hay nada que agregar a lo ya explicado en la
obtención de las ecuaciones 4.4. y 4.5.; en lo referente a la segunda condición, la minimización
del error de la varianza de estimación (ecuación 4.6,), está sujeta a la restricción impuesta por
la condición de insesgado (ecuación 4.5.). El problema de minimización de una función con
restricciones se resuelve mediante el método de multiplicadores de Lagrange (ecuación 4.13.).
119
n
(4.13.)
i=1
Donde f (covarianzas, λi): expresión general representando una función como la ecuación 4.6.;
y µ: multiplicador de Lagrange.
Sin entrar en los detalles, se puede decir que el respeto de la ecuación 4.5. y por consecuencia
el uso de los multiplicadores de Lagrange es una característica distintiva de los métodos Kri-
ging. Ningún método de interpolación clásico garantiza una varianza mínima de interpolación
(para más información sobre multiplicadores de Lagrange y su uso en geoestadística, consul-
tar Giraldo, 2002). El sistema de ecuaciones finalmente obtenido es muy similar al caso del KS
(ecuación 4.14.).
(4.14.)
Donde Cij: matriz correlación entre los datos; λ: vector ponderaciones; Ci₀: vector correlación
entre los datos y el valor a interpolar; y µ: multiplicador de Lagrange.
De manera similar al caso del KS, Cij y Ci₀son calculadas a partir del variograma y las distan-
cias entre las observaciones y el lugar donde se desea estimar; finalmente, los valores de las
ponderaciones, λi, son calculados por medio de la ecuación 4.9. La expresión general del valor
interpolado (ecuación 4.10.) y la expresión para la varianza del error de estimación a la ubicación
interpolada (ecuación 4.11.) se transforman para el caso del KO en las expresiones 4.15. y 4.16.
n
(4.15)
i=1
n
k
i=1 (4.16)
• Porosidad, definida como el cociente entre el volumen de huecos y volumen total, es una
variable geológica que no tiene sentido físico a un nivel puntual.
El objetivo del KB es, por lo tanto, la estimación de un valor promedio de una función aleatoria
en un bloque (superficie o volumen). El soporte muestral será puntual y el valor estimado re-
presentará la media de un bloque. Dado este objetivo, se podría considerar el Kriging puntual
(KS y KO) como un caso límite del KB. Otro punto importante de mencionar antes de discutir
en detalle el KB, es que este se puede aplicar si la VR de interés es aditiva; es decir, se requiere
que el valor de la unión de varios campos coincida con la suma de los valores sobre cada uno de
ellos. No todas las variables medioambientales presentan esta propiedad; por ejemplo, pH es
una variable en la cual una estimación en bloques no se puede efectuar. El pH de un bloque no
es igual a la media aritmética de los pH puntuales en ese bloque.
El objetivo, por lo tanto, es estimar el valor promedio de una función aleatoria en un bloque
a partir de observaciones puntuales. Una posible solución sería dividir el bloque en una malla
muy fina, efectuar un Kriging puntual en cada nodo y calcular la media de estos valores. Esto es
perfectamente posible pues Isaaks y Srivastava (1989) demostraron que el valor calculado por
medio de un KB coincide con el promedio de las estimaciones sobre cada uno de los puntos del
enmallado dentro del bloque; pero requerirá mucho tiempo de cálculo y no permitirá estimar la
precisión de la interpolación del valor de la variable en el bloque. El KB elimina estas limitaciones
y produce medias válidas por un bloque directamente, no calculando promedios de estimacio-
nes puntuales. Para lograr esto se utilizarán métodos geoestadísticos; tanto el KS como el KO
pueden ser extendidos a la estimación directa del valor promedio en un bloque.
La forma más común de KB es adaptar el formulismo del KO a la situación donde se desea esti-
mar el valor promedio de una función aleatoria en un bloque.
Los supuestos (hipótesis) requeridos para usar el Kriging ordinario en bloques son:
121
• La muestra es una realización parcial de una función aleatoria Z(x).
• La función Z(x) es una función de estacionaria de orden dos; o sea, respeta la condición de
estacionaridad (ecuaciones 3.6. y 3.7.).
Como se describe, la hipótesis del KB es la misma que el KO, siendo la diferencia fundamental
entre ambos métodos, solamente el soporte de observación. A esto se puede añadir que:
• El sistema de ecuaciones requerido para el cálculo del KB se deduce del sistema de ecua-
ciones del KO (ecuación 4.14.).
• La matriz Cij (en la ecuación 4.14.) representa la covarianza entre las observaciones; en-
tonces, depende solamente en las posiciones relativas de las observaciones y no contiene
ninguna información acerca de la ubicación geográfica del lugar donde se desea interpolar.
Por lo tanto, el cálculo de esta matriz no variará entre el KO y el KB.
• El vector Ci₀ (también en la ecuación 4.14.) representa la covarianza entre las observaciones
y la ubicación donde se desea interpolar; es decir, depende de las posiciones relativas entre
ambas; pero, en el caso del KB se trata de interpolar en una superficie (o volumen) centrado
en las coordenadas del lugar donde se interpolará. Por lo tanto, el vector Ci₀ deberá ser
modificado para incluir las covarianzas respecto del bloque donde se desea interpolar.
(4.17.)
A i=1
Consecuentemente, el vector Ci₀ en la ecuación 4.14. deberá ser modificado tal que la ecuación
4.14. tomará un formulismo válido para el caso del KB (ecuación 4.18.).
(4.18.)
El sistema de ecuaciones del KB difiere del sistema del KO, por lo tanto, solo en el reemplazo del
vector CiO por el vector CiA (se ha reemplazado una covarianza punto-punto por una covarianza
punto-bloque).
En relación con el error de estimación del KB habrá que señalar que la situación es también si-
milar a la del KO (ecuación 4.16.), pero reemplazando las covarianzas puntuales por covarianzas
punto-bloque y bloque-bloque.
´ n
(4.19.)
KB
i=1
Donde σ²KB: varianza del error de estimación del KB; CAA: covarianza entre dos bloques; λi:
ponderadores; CiA: covarianza entre el punto muestreado i y el bloque A; µ: multiplicador de
Lagrange.
n n
(4.20.)
2 j
A i=1 j 1
123
La ecuación 4.20. representa la covarianza entre pares de puntos al interior del bloque.
• En relación con el método de cálculo mismo descrito, debe estar claro que el KB requie-
re el cálculo de covarianzas de diferentes tipos. La práctica común es calcular primero el
variograma puntual, lo que permite determinar la covarianza puntual (ver capítulo II) y a
continuación se derivan de la covarianza puntual las covarianzas de punto-bloque y de
bloque-bloque por medio de aproximaciones numéricas (iteraciones numéricas).
• Si el tamaño de los bloques es inferior a la malla del muestreo, la estimación puntual no per-
mitirá diferenciar los puntos al interior del bloque. No habrá en este caso ninguna diferencia
entre las estimaciones del KO y del KB.
• Valores interpolados por medio de un KB son menos dispersos que los valores interpolados
por medio del KO; en otras palabras, el contraste o diferencia entre valor máximo y mínimo
son menores.
• Valores interpolados por medio de un KB presentan también una estructura más regular
que los valores interpolados por medio del KO.
• Todo esto se traduce a que el KB produce mapas más lisos y con estimaciones de varianzas
menores que las obtenidas con el KO.
En los tres métodos descritos anteriormente, siempre se ha asumido que la VR era estacionaria
(o por lo menos satisfacía la estacionaridad de segundo orden. Ecuaciones 4.6. y 4.7.). Pero, en
Ciencias de la Tierra en general, y en estudios medioambientales en particular, la VR de interés
no siempre satisface estas condiciones y se caracteriza por exhibir una tendencia; en otras
palabras, sus valores aumentan o disminuyen sistemáticamente en alguna dirección al interior
del área de estudios. Ejemplos son numerosos, podemos mencionar:
• La temperatura en la troposfera.
El cálculo del KU se basa en el modelo Universal de Variación (Figura 3.4., ecuación 3.5.); pode-
mos decir entonces que se descompone la VR, Z(x) como la suma de una tendencia, considerada
como una función determinista, más una componente estocástica estacionaria de media cero
(componentes roja y verde en la Figura 3.4., respectivamente). De ahí que la ecuación 3.5 se la
expresa para el caso del KU como:
(4.21.)
Otra manera similar de abordar la problemática del KU es suponer la tendencia m(x) calculable
y entonces aplicar los siguientes criterios:
• Calcular la tendencia.
125
• Obtener el variograma experimental de los residuos.
Este procedimiento recibe el nombre de Kriging residual (KR). Los resultados son, en la gran
mayoría de los casos equivalentes, pero presenta dificultades desde un punto de vista teórico.
La dificultad mayor radica en el análisis variográfico de los residuales; por ejemplo, usando este
método no se conoce el variograma de la VR original; el análisis variográfico se efectúa usando
el variograma experimental obtenido de los residuos, no de los datos originales (se los supone
idénticos). En otras palabras, no se conoce el variograma de la función aleatoria de interés. Fi-
nalmente, sí existe una tendencia en los datos, la pregunta a considerar es la siguiente: ¿cuál es
método a utilizar, el KU o el KR? Daremos una repuesta de manera indirecta, pero práctica, apli-
cando KO y KU a datos que presentan una tendencia. Se trata de datos batimétricos en una re-
gión costera, donde la profundidad aumenta sistemáticamente con la distancia a la costa (Figura
4.1.). La Figura 4.1a presenta una interpolación inverso proporcional a la distancia (IDW); esta
interpolación muestra que la profundidad aumenta sistemáticamente desde la parte superior de
la imagen (zona cerca de la costa) hacia la sección inferior (mar). Estos datos presentan, por lo
tanto, las condiciones ideales para comparar los resultados del KO con los del KU. La Figura 4.1b
muestra el variograma experimental de estos datos batimétricos y el ajuste adoptado a un mo-
delo gaussiano. Dada la presencia de una fuerte tendencia en estos datos, no es de extrañar que
un modelo gaussiano haya sido el que presentó el mejor ajuste. Figuras 4.1c y 4.1d representan el
mapa estimado dado por KO y el KU, respectivamente. Visualmente, las diferencias entre estos
dos mapas son mínimas. Una comparación cuantitativa se presenta en las Figuras 4.2. y 4.3. Las
validaciones cruzadas son muy similares, presentando un r² de 0.91 (Figura 4.2a para KO) y r2 de
0.93 (Figura 4.2b para KU). Los mapas de errores en la interpolación son también muy similares
(Figura 4.3.). Por lo tanto, el resultado del uso del KO (Figura 4.3a) y un modelo gaussiano del
variograma experimental para estos datos batimétricos es equivalente al resultado obtenido
con el KU (Figura 4.3b). Poner en duda la obligatoriedad del uso del KU es, por lo tanto, válida.
No se está diciendo que el KU no debería ser considerado, pues se podría haber presentado sin
ninguna dificultad en las figuras 4.1., 4.2. y 4.3. un ejemplo mostrando exactamente la situación
opuesta. Lo importante en esta discusión es que, dadas las dificultades desde el punto de vista
teórico que el KU presenta y considerando ejemplos como el que se acaba de analizar, la utili-
zación del KU en datos reales debe ser minuciosamente analizada. Se deberá recurrir al uso del
KU cuando todas las otras posibilidades no hayan dado resultados satisfactorios.
127
4.7. Kriging no lineal
Existen situaciones con características particulares que técnicas lineales no pueden modelar;
por ejemplo: datos altamente asimétricos, datos con una oblicuidad muy alta. En estos casos,
la distribución no es normal y la condición de estacionaridad requerida por los cálculos Kriging
no se cumple. Se recurre, por lo tanto, a transformaciones de los datos; la idea en estos casos
es de realizar transformaciones matemáticas apropiadas, con la finalidad de acercar los datos
a una distribución normal, en los cuales se pueda utilizar un Kriging lineal y posteriormente se
deberá realizar una transformación inversa.
Un punto que debe quedar claro es que todos los algoritmos utilizados en el uso del Kriging no
lineal son en realidad un Kriging lineal, pero aplicado a transformaciones no lineales de los datos
iniciales. En otras palabras; la transformación no lineal aplicada a los datos iniciales especifica
el tipo de Kriging no lineal utilizado. Por ejemplo, una transformación logarítmica significa la
utilización de un Kriging log normal. Programas con módulos geoestadísticos ofrecen un mí-
nimo de tres transformaciones matemáticas, con el fin de acercar la distribución de los datos a
una distribución normal; ellas son: transformación logarítmica, raíz cuadrada y normalización
de los valores iniciales entre cero y uno. Cualquiera de estas tres transformaciones mejorará el
grado de normalidad de la distribución inicial. En lo referente a posibilidades de Kriging no lineal,
módulos geoestadísticos ofrecen también varias alternativas, entre ellas:
• Kriging multi-gaussiano.
De manera análoga al caso del Kriging lineal, esta lista no es completa y no todos los casos pre-
sentados en esta lista serán considerados. Concretamente se estudiarán dos casos, el Kriging
log normal y el Kriging indicador.
Dado que se trata de una transformación logarítmica, la variable Z(xi) deberá ser siempre po-
sitiva; en consecuencia, se requerirá algunas veces adicionar una constante positiva a Z(xi) tal
que Y(xi) siempre exista. Una vez superada esta etapa, el resto del procedimiento es análogo
al discutido en el caso del KO; o sea, se utilizan ecuaciones similares a las ecuaciones 4.14., 4.15.
y 4.16. Como ejemplo de la situación, se presenta la ecuación que permite el cálculo del valor
interpolado a una ubicación x₀ (ecuación 4.23.).
n
(4.23.)
i=1
Esta ecuación es equivalente a la ecuación 4.15., y válida para la situación donde se interpolará
en los valores del logaritmo natural de la variable y no en la variable misma. Los pesos λi se ob-
tienen de manera análoga al caso del KO y el variograma utilizado es el de los logaritmos natu-
rales de la variable. Un punto muy importante de señalar es que un interpolador “aceptable” de
Y(xi) no garantiza un interpolador “aceptable” de Z(xi), debido a la necesidad de efectuar una
transformación inversa para volver a la escala original. De manera general, toda transformación
no lineal posterior de los resultados Kriging puede dar lugar a graves sesgos; más precisamente,
transformaciones inversas (como logarítmicas y raíz cuadrada, por ejemplo) exageran el error
asociado a la interpolación.
Resumiendo, se puede decir que las técnicas de Kriging no lineal son útiles con datos donde la
distribución no es normal y en situaciones donde existen valores extremos atípicos; reducien-
do la influencia de estos valores presentes en los datos. Por otra parte, dada la necesidad de
efectuar una transformación inversa, su uso indiscriminado no es recomendable y, por lo tanto,
requiere un estudio cuidadoso de la situación.
Los diferentes índices y métodos Kriging de interpolación definidos y discutidos hasta ahora,
calculan la continuidad espacial-temporal, sobre todo el rango de valores de la VR de interés.
129
Pero en situaciones medioambientales es posible que la distribución y la variabilidad espa-
cio-temporal varíen en función del valor de la variable. Muy a menudo se presentan situaciones
donde se observa una coexistencia de manera aleatoria de grupos con una alta concentración
de la VR de interés con grupos presentando una baja concentración. Más aun, grupos con una
alta concentración presentan muy a menudo una distribución aleatoria, mientras que los grupos
con una baja concentración muestran una distribución continua. El grado de variabilidad puede
variar, por lo tanto, en función del valor de la VR; valores pequeños, medios o grandes presen-
tan distintos grados de variabilidad. El Kriging indicador (KI) fue introducido por Journel (1983)
justamente para mitigar la falta de un método geoestadístico aplicable a situaciones donde el
grado de variabilidad de la VR es función del valor de la misma. KI vio crecer su popularidad en
la década de l990, transformándose en uno de los algoritmos geoestadísticos más utilizados
tanto en aplicaciones mineras como medioambientales y recursos naturales; pero, desde prin-
cipios de este siglo, su uso ha disminuido debido a la importancia creciente que han tomado en
este campo las simulaciones condicionadas. Se presenta a continuación una discusión sobre el
uso del KI en un contexto medioambiental. El tema de las simulaciones condicionadas no será
presentado en este libro.
• Eliminarlos:
• En caso contrario:
• Agruparlos separadamente:
X Esto es posible, pero tiene la gran desventaja de que el número de puntos en estos
subgrupos no es, por lo general, estadísticamente suficiente para efectuar un análisis
estructural.
Journal (1983) fue el primer investigador en proponer usar el concepto de función indicadora en
estimaciones geoestadística, pero el concepto mismo existía ya en la literatura estadística. Lo
esencial de esta idea es la codificación de los datos en forma binaria (uno o cero) dependiendo
de su relación con el valor del umbral. La caracterización de la distribución espacial de la VR
de interés sobre o bajo un límite se efectúa definiendo un umbral indicador (indicator datum)
(ecuación 4.24.).
Si Z (xi )<Zt
I (xi , Zt) = { 1
0 Otro caso
} (4.24.)
n
(4.25.)
0
i=1
Por consiguiente, la estimación dada por esta ecuación en el sitio x₀ es igual a una combinación
lineal de las n funciones indicadoras evaluadas en los sitios de medición. Dada, entonces, una
ubicación (o una malla de puntos de interés), la ecuación 4.25. proporcionará un valor uno o
131
cero en cada una de las ubicaciones de interés. En efecto, este resultado es una estimación de
la proporción de los valores en la vecindad del punto de interés que son mayores que el valor
del umbral. KI es un estimador de la probabilidad acumulada hasta el límite Zt (definido por el
valor del umbral).
Desde el punto de vista del cálculo mismo, el KI implica el cálculo y el modelado de variogramas
indicadores (es decir, variogramas de datos transformados por medio de la ecuación 4.24.). De
manera general, debe quedar claro que todas las funciones o índices definidos previamente
pueden ser también aplicados al caso del KI. Se define, por lo tanto, una covarianza indicadora,
un correlograma indicador y un variograma indicador; no se entrará en los detalles de estos
índices, pero por información adicional acerca de estos, se puede leer a Goovaerts (1997). Lo
importante de comprender es que el uso del KI implica el cálculo y el modelamiento de vario-
gramas indicadores en cada uno de los umbrales dados. A este enfoque se le denomina Kriging
de Indicadores Múltiples (Multiple Indicator Kriging, MIK). Esta situación no es muy práctica, ya
que requiere el cálculo y el ajuste de un variograma por cada umbral (lo que demanda mucho
tiempo y paciencia para lograrlo). Una solución aproximativa a este problema es simplemente
inferir el variograma de la mediana de los datos originales y utilizar este variograma para todos
los umbrales. Este enfoque se ha denominado KI-mediana (Median IK), esto ha dado excelentes
resultados y es muy rápido, puesto que las ponderaciones del Kriging no dependen del (o de los)
umbral(es). El KI-mediana es una forma simplificada del MIK y es fácil de definir a partir de los
datos originales. Una excelente revisión de los diferentes tipos de KI disponibles se encuentra
en Remy y otros (2009).
Desde un punto de vista metodológico, las etapas que se deben seguir para efectuar un KI se
pueden resumir como:
• Con esta información disponible, el algoritmo KI procederá a realizar las siguientes etapas:
c Si la VR es binaria (discreta)
c Dado que todos a los datos se los transforma a una escala binaria, otros tipos
de datos secundarios pueden ser fácilmente utilizados con este esquema de
codificación; es decir, el KI permite una codificación común de diversos tipos
de datos.
133
X ¿Cuándo no se debe utilizar el KI?
Los Kriging simple, ordinario y universal no son modelos multivariados en el sentido usual de la
estadística, a pesar del hecho de emplear modelos aleatorios de funciones que comprenden un
número infinito de variables aleatorias. No se los considera modelos multivariables ya que solo
se utilizan en el modelamiento de solo un atributo; pero existen situaciones donde se desearía
estudiar y utilizar la covarianza entre dos o más VR. Como ejemplos típicos de esta situación
se pueden mencionar; i) la VR de interés ha sido escasamente muestreada, pero está altamen-
te correlacionada con una segunda VR que fue mucho mejor muestreada y ii) la VR de interés
presenta una baja autocorrelación, pero se correlaciona altamente con otra VR que muestra
una continuidad relativamente alta. El Kriging multivariables o cokriging (CK) considera, por lo
tanto, dos o más atributos definidos sobre el mismo campo y su objetivo principal consiste en
realizar una interpolación de una VR sobre la base de:
• Su información estructural.
CK es, por lo tanto, una extensión de los métodos Kriging ya discutidos en el caso de la inter-
polación de una VR, pero usando también información proporcionada por otras variables regio-
nalizadas. El análisis estructural requerido por el CK es mucho más exigente que el Kriging; la
dificultad mayor es de orden práctico y proviene de la necesidad de inferir y modelar conjunta-
mente muchos modelos de variogramas cruzados. Si K es el número de atributos, se necesitarán
K² modelos de variogramas cruzados (Remy y otros, 2009). En el caso concreto de dos variables
regionalizadas A y B, se requerirá los variogramas experimentales de A y B (variogramas simples)
y el variograma entre A y B (variograma cruzado). Dada esta dificultad, los so!ware comerciales
permiten en su gran mayoría el cálculo de un CK utilizando solo una variable auxiliar, tanto en
el caso del Kriging simple, como ordinario o por bloques.
1 n(h)
AB =
= 2n(h) i=1
{ZA(xi) – ZA (xi + h)}{ZB (xi) – ZB (xi+h)} (4.26.)
Donde ZA(xi) y ZB(xi) son dos variables correlacionadas, ZA(xi) la variable de interés, y ZB(xi)
la variable secundaria o auxiliar; n(h) es el número de parejas de datos que se encuentran a una
distancia h.
Notar que el variograma cruzado es calculable directamente de los datos y si el variograma di-
recto toma solo valores positivos, el cruzado puede tomar valores negativos en el caso de una
correlación inversa entre las variables A y B. Se asume también que tanto los modelos simples
como los cruzados pueden ser expresados como una suma de modelos básicos (ver sección
2.3.). De manera similar a los otros métodos Kriging ya estudiados, el valor interpolado de una
VR A en una posición X0 será una combinación lineal de k covariables (secundarias o auxiliares).
135
En el caso de que se considere solo una variable secundaria (el caso más común), el estimador
CK toma la expresión dada en la ecuación (4.27.).
n1 n2
A i
ZA (xi) bj ZB(xj) (4.27.)
i=1 j=1
Donde:
Los pesos ai y bi se los estima de manera análoga al método usado con el KO (ver sección 4.2).
• Lo anterior, debido a que hay ciertos requisitos que deberán ser respetados:
X Si todos los atributos (variables A y B) se miden en los mismos sitios sin valores per-
didos, CK ofrece resultados similares al Kriging. Esto quiere decir que se obtendrá un
mejor resultado reemplazando el KO por CK, si el número de observaciones de B (va-
riable secundaria) es mayor que el número de observaciones de A (variable principal).
Es necesario también que una proporción significativa de las mediciones secundarias
haya sido obtenida en lugares distintos a los de la variable primaria.
Comentarios
generales
139
Se han presentado en las secciones precedentes las tres etapas básicas de un análisis geoes-
tadístico: análisis exploratorio, análisis estructural y estimación. Discutiremos ahora algunos
temas complementarios a cada una de estas tres etapas, sin duda importantes de ser mencio-
nados, pero que no fueron incluidos en la presentación inicial.
1. Valores que fluctúan alrededor de un promedio constante con una variabilidad también cons-
tante.
Los dos primeros casos son las situaciones ideales para el cálculo de estimaciones geoestadís-
ticas, pues satisfacen la hipótesis de estacionaridad de segundo orden (ecuaciones 3.6. y 3.7.);
si la variabilidad es constante, la calidad de la estimación será la misma en toda la región de
interés. Las dos últimas situaciones, en cambio, presentan una situación donde la variabilidad
en general no es constante y por lo tanto la hipótesis de estacionaridad de segundo orden no
es válida. El último caso, en especial, es importante de mencionar ya que implica una desviación
estándar variable y proporcional a la media. La situación donde la media y la desviación están-
dar son proporcionales es un caso muy común con datos provenientes de ciencias de la Tierra
e ignorar su existencia puede conducir a graves errores en el proceso de estimación. La razón
es muy sencilla, la varianza del error estimación Kriging (ecuaciones 4.11., 4.16. y 4.19.) depende
solo de la configuración de los datos y es independiente de sus valores. Esta situación es acep-
table para datos satisfaciendo las condiciones de los dos primeros casos aquí discutidos, pero
es inaceptable para datos que presentan un efecto proporcional; es decir, mayor variabilidad en
áreas de alto valor de la variable de interés.
Entonces, por lo ya expresado en esta sección, deberá ser evidente la necesidad de verificar la
presencia de un EP en los datos, lo que se efectúa al nivel del análisis preliminar de los mismos.
Si en esta etapa se determina que la VR presenta una distribución normal (o cercana a ella),
la desviación estándar será constante y por lo tanto el EP ~ 0.0. No habrá, en este caso, una
cierta correlación entre la media y la desviación estándar (dado que el valor de esta última será
independiente del valor de la media). En el caso opuesto, el valor de la oblicuidad, CA, será alto
( ≥ 1.0), lo que implica la presencia de valores anómalos y la presencia probable de una cierta
correlación entre los valores de la media y la deviación estándar. Para verificar la existencia
de un EP y determinar su valor, el área de interés se divide en varias ventanas locales de igual
tamaño, dentro de cada una de ellas se calculan la media y la desviación estándar y se efectúa,
finalmente, una regresión lineal entre los valores de las medias y desviaciones estándar. Esta
operación se la ilustra en la Figura 5.1., donde en a) una matriz (5x3) de datos se subdivide en
tres matrices (3x3) identificadas en azul, rojo y azul, respectivamente, b) se calculan las medias
y desviaciones estándar al interior de estas tres submatrices y finalmente en c) se calcula una
regresión lineal entre los valores de las medias y las desviaciones estándar. En este ejemplo, el
141
EP no es un problema (r² = 0.2), pero los valores presentados en la Figura 5.1. solo ilustran el
proceso, no tienen ningún significado físico. Lo importante de comprender es que este ejemplo
ilustra el hecho de que el cálculo de medias y deviaciones estándar dentro de ventanas móviles
al interior del campo de los datos de interés es uno de los métodos mas utilizados para investigar
la presencia de valores anómalos y/o la presencia de un EP en los datos.
Habiendo determinado la presencia de un EP, la pregunta obvia es: ¿cómo eliminar este efec-
to? Al respecto, Isaaks y Srivastava (1989) demostraron que la existencia de un EP tiene como
consecuencia que variogramas de diferentes áreas de una región de interés sean desiguales. El
variograma, tal como ha sido definido en la ecuación 3.6., es la herramienta apropiada para la
descripción de datos donde no hay un EP; en caso contrario, si existe una relación lineal entre
la desviación estándar y la media (o el equivalente, una relación cuadrática entre la varianza y
la media), Isaaks y Srivastava (1989) observaron que los variogramas podrían hacerse idénticos
dividiendo sus valores por un valor que se determinará a partir de los datos. Esta observación se
encuentra en la base del desarrollo y uso de los variogramas relativos (sección 3.6.). Por ejemplo,
en el caso del variograma relativo, el variograma está estandarizado por la media al cuadrado
de los valores utilizados por cada lag (Deutsch y Journel, 1998).
• Por otra parte, se menciona que las simulaciones condicionadas, aunque no tratadas en
este libro, deben considerar el EP con el fin de proporcionar medidas realistas de la incer-
tidumbre local.
143
5.2. Análisis estructural
Este análisis es la segunda etapa de todo análisis geoestadístico. Su objetivo principal es es-
tudiar la continuidad espacial/temporal de la variable; se calcula el variograma experimental,
u otra función que explique la variabilidad espacial/temporal observada; se ajusta al mismo un
variograma teórico y se estudian en detalle las características de este último. Desde un punto
de vista práctico, se genera un modelo, permitiendo describir la estructura espacial-temporal
del fenómeno de interés.
5.2.1. comentarios
• Comenzar siempre con un análisis isotrópico; o sea, tratar de obtener el mejor ajuste po-
sible del variograma omnidireccional (promedio de variogramas direccionales). Si este no
ofrece una imagen clara de las estructuras, los variogramas direccionales no darán mejores
resultados tampoco. ¿Por qué no se observa la presencia de estructuras? Un estudio deta-
llado de las nubes de dispersión y la eliminación de algunos pares de datos anómalos puede
mejorar la situación.
• Una vez que la situación isotrópica está bien comprendida, considerar el caso anisotrópico.
La presencia de una anisotropía significa que existen una o varias direcciones y distancias
en las cuales el fenómeno de interés está menos estructurado. Determinar los ejes de aniso-
tropía (direcciones de máxima y mínima continuidad) y comparar esta información con la in-
formación de terreno disponible; si se conoce, aunque sea cualitativamente, la organización
espacial de la variable de interés, esta puede ser extremadamente útil en la interpretación
del variograma. El mapa variográfico es la herramienta principal de análisis en esta etapa.
No olvidar tampoco que, en el caso anisotrópico, un punto en el variograma cercano al
origen puede proporcionar menos información que un punto situado más lejos del origen.
Hecha esta aclaración, se presentan la metodología utilizada etapa por etapa y los resultados
obtenidos:
• En primer lugar, se presentan los datos utilizados. Se trata de una imagen de radar SRTM,
calibrada radiométricamente en valores de altura elipsoidal (Figura 5.2a). Este tipo de pro-
ducto satelital nos permite generar tanto modelos digitales de terreno (MDT) como curvas
de nivel.
• La segunda etapa consistió en generar un conjunto de puntos, datos con los cuales se reali-
zará este ejemplo (Figura 5.2b). Para ello se utilizo el so!ware QGIS, dado que cuenta entre
sus herramientas de investigación con algoritmos que crean conjuntos de puntos distri-
buidos en forma aleatoria. Se crearon 200 puntos, a los que se traspasó la altura desde la
imagen utilizando herramientas de conversión de ráster a vector y herramientas de gestión
de datos vectoriales disponibles en QGIS (Figura 5.2b)
• En la tercera etapa, se exportaron los 200 puntos con sus coordenadas X, Y y el valor de la
variable altura al programa SGeMS (formato vectorial).
• La cuarta etapa consistió en el análisis geoestadístico de estos 200 valores de altura por
medio del programa SGeMS. Se presenta, en primer lugar, el análisis preliminar de estos
145
datos (Figura 5.3). El histograma muestra una distribución claramente normal, con una sime-
tría positiva y un coeficiente de curtosis también positiva. Dados estos resultados, se decide
efectuar el resto del análisis geoestadístico utilizando los datos originales (no se aplicó
ninguna transformación) y se espera que un modelo gaussiano sea el modelo más apropiado
para el ajuste del variograma experimental. Se espera también una marcada diferencia entre
el histograma correspondiente a la dirección 0° y el histograma calculado en la dirección 50°.
Mean: 2008,87
Variance: 297979
Maximum 3778
Upper quartile: 2377
Frequency
Median: 1930
Lower quartile 1576
Minimum: 956
a)
800000
Figura 5.4. Variogramas
600000
correspondientes a los 200 valores de 400000
c)
800000
600000
400000
200000
0
0 5000 10000 15000 20000
distance
5.3. Estimación
En esta etapa se estima la variable en los puntos no muestrales, considerando la estructura de
correlación espacio-temporal seleccionada en la etapa del análisis estructural e integrando toda
la información disponible. Desde el punto de vista del cálculo mismo, se trata de calcular las
ponderaciones (pesos) que correspondan a las condiciones determinadas en la etapa del análisis
estructural. Al respecto, se pueden también hacer algunos comentarios complementarios a lo
dicho en el capítulo tres.
El peso atribuido a un sitio de observación, en general, es mayor cuando este sitio se encuentra
cerca del punto a estimar. El valor de ponderación calculado en el capítulo tres toma en cuenta:
aspectos geométricos (distancias entre el sitio que se estima y los datos; distancias entre los
147
datos mismos), y aspectos estructurales (continuidad espacial, anisotropía). Pero no considera
cierta información local (efecto proporcional, redundancia de datos ni el efecto pantalla). Dado
que el efecto proporcional ha sido ya discutido (sección 5.1.1.), redundancia de datos y el efecto
pantalla serán presentados en el resto de esta sección.
La solución general es asignar pesos diferentes a todas las muestras disponibles, de manera que
las muestras agrupadas no tengan una influencia indebida en el proceso de estimación. Para ello
se utilizan dos métodos: i) desagrupamiento por células, y ii) polígonos de Voronoi.
Este método utiliza el concepto de ventana móvil para calcular un valor representativo por
región (célula). Su implementación significa considerar dos etapas:
c)
149
• Desagrupamiento por medio de los polígonos de Voronoi
Esta transformación matemática divide el espacio en tantas regiones como el número de ob-
servaciones disponibles; o sea, se obtiene una división del espacio en polígonos tal que a cada
observación corresponde un polígono de influencia dentro del cual todas las ubicaciones están
más cerca de esta observación que de cualquiera otra observación (Figura 3.3.). El uso de esta
transformación como método de desagrupamiento de datos significa asignar un polígono de
influencia a cada muestra, considerando las áreas de los polígonos como pesos de desagrupa-
miento.
Este es un ejemplo típico de lo que se entiende por efecto pantalla en geoestadística; o sea, una
situación donde una observación puede “ocultar” a otra, y si la observación “oculta” está situada
directamente detrás de la observación que actúa como máscara respecto de la ubicación donde
se desea interpolar. De manera general se puede decir que situaciones como la que se acaba de
presentar y la presencia de inestabilidades numéricas en el cálculo de los pesos tienden a reducir
la influencia de las observaciones mas distantes. Esta situación se invoca como justificación en
geoestadística para utilizar solo las observaciones más cercanas a la ubicación de la estimación.
Los programas geoestadísticos ofrecen, por lo tanto, la posibilidad de especificar cuáles y cuán-
tas observaciones se utilizarán en el cálculo de los pesos por medio de la ecuación 4.9. Para
lograr este objetivo, se define una vecindad móvil que, en general, tomará la forma de una elipse
(datos bidimensionales) o un elipsoide (datos tridimensionales), orientada según la anisotropía
observada en el variograma. En la práctica, se trata de definir ciertos parámetros que permitirán
al programa efectuar el cálculo de las ponderaciones según las instrucciones del investigador
(Figura 5.9.).
Se requiere, en primer lugar, decidir cuántas observaciones se van a considerar. En el caso pre-
sentado en la Figura 5.9. los valores mínimo y máximo están definidos a uno y 16 respectiva-
mente. Si el número de observaciones es mayor que el valor máximo (16 en la Figura 5.9.), el
programa considerara solo las 16 observaciones más cercanas a la ubicación de la interpolación;
151
si el número de observaciones es menor, por ejemplo 10, el programa considerará las 10 obser-
vaciones disponibles para efectuar el cálculo de las ponderaciones. En general, se recomienda
que tres observaciones son un mínimo razonable y 25 son más que adecuado.
Segundo, se requiere informar al programa acerca del tipo de modelo que se debe considerar,
isotrópico o anisotrópico. Si se desea considerar un modelo isotrópico solo es necesario definir
el radio del círculo al interior del cual se buscarán las observaciones por considerar en el cálculo
de los pesos; en cambio, si se desea utilizar un modelo anisotrópico será necesario definir una
elipse, o sea, las longitudes de los ejes mayor y menor, como también la orientación de la elipse
en el plano definido por las observaciones. El ejemplo presentado en la Figura 5.9. indica que el
investigador optó por un modelo isotrópico, definido por un círculo de radio = 6420.529 (siendo
la unidad física de este valor la misma que la unidad utilizada en los datos). Un último comentario
importante: el valor del radio (o del eje mayor y menor de la elipse) no necesariamente deben
corresponder a los alcances del variograma, sino que se los define de manera de poder encontrar
suficientes datos para el cálculo de los pesos.
Notar que es posible también definir la búsqueda de datos por medio de una vecindad móvil
definida en sectores angulares (por ejemplo, cuadrantes en dos dimensiones). El caso concreto
presentado en la Figura 5.9. corresponde a la posibilidad de una búsqueda por octante. Este
tipo de búsqueda permite seleccionar datos presentando una buena distribución radial (dismi-
nuyendo, por lo tanto, la posibilidad de un efecto pantalla en el cálculo de los ponderadores).
Figura 1.1. Posiciones geográficas de valores del Índice de Vejez en la Región Metropolitana de
Santiago. Coordenadas expresadas en el sistema UTM (So!ware, GS+, Robertson, 2008).
Figura 1.2. Valores diarios de temperatura por un lugar situado en el hemisferio norte. Periodo
de observación es de un año. Día 1 corresponde al 1 de enero. Temperaturas expresadas en
grados Celsius (So!ware, GS⁺, Robertson, 2008).
Figura 1.3. a) Transecto horizontal (línea roja) sobre la banda roja de una imagen de la ciudad
de Puerto Varas, b) Valores digitales obtenidos. El transecto contiene 400 valores, expresados
en una escala a 8 bit (resolución radiométrica) (So!ware, ENVI V4.7, ITT, 2009).
Figura 1.4. Diagrama de Dispersión Tridimensional para la variable Índice de Vejez (So!ware
Minitab V16, Minitab Inc., 2010).
Figura 1.5. Ejemplo de producción de una imagen color a partir de una imagen multiespectral
de n bandas (n > 3). Se seleccionan primero tres bandas de las n bandas disponibles. a), b) y c)
presentan las tres bandas seleccionadas en una representación en blanco y negro; segundo,
se proyectan estas tres bandas a través del sistema RGB de la pantalla del computador para
obtener una imagen en color (imagen en d) (So!ware, ENVI V4.7, ITT, 2009).
Figura 1.7. Datos de Índices de Vejez presentados en Figura 1.1. a) Histograma de estos datos,
b) histograma acumulativo correspondiente (So!ware, GS⁺, Robertson, 2008).
Figura 1.8. Posibles valores del CA. a) CA=0, una simetría perfecta (caso hipotético); b) CA=
-0.01327, datos experimentales mostrando una distribución muy cercana a la normal; c) CA=
-0.756039, datos experimentales presentando una simetría negativa; y d) CA= 2.4683, datos
experimentales exhibiendo una simetría positiva. Se presentan también los diagramas de caja
respectivos. El alto valor del CA en el caso de la Figura 1.8d es debido a la presencia de varios
valores anómalos (cruces hacia la derecha en el diagrama de caja de estos datos) (So!ware,
GS⁺, Robertson, 2008).
Figura 1.10. Diagrama de caja correspondiente a los datos Índice de Vejez. Este diagrama
de caja es simplemente una repetición del diagrama de caja presentado en la Figura 1.8d (se
utilizó el mismo conjunto de datos) (So!ware Minitab V16, Minitab Inc., 2010).
Figura 1.14. Los mismos datos de la Figura 1.13., pero el histograma se presenta utilizando 20
clases (So!ware SGeMS, Remy y otros, 2009).
Figura 1.15. Ejemplo del histograma y estadísticas básicas de una variable b conteniendo 67
datos (So!ware SGeMS, Remy y otros, 2009).
Figura 1.16. Histograma presentando una forma bimodal (dos campanas de Gauss), indicando
probablemente la presencia de dos poblaciones diferentes (So!ware SGeMS, Remy y otros,
2009).
Figura 2.3. Comparación del diseño de muestreo entre medidas de terreno e imágenes.
Figura 2.5. Los dos tipos de muestreo de más interés en estudios medio-ambientales. a)
Muestreo totalmente aleatorio, representando medidas de terreno, b) muestreo sistemático
representado información aeroespacial o medidas de terreno. En los dos casos, la información
por unidad de medida puede ser mono o multiespectral (So!ware, GS⁺, Robertson, 2008).
Figura 2.6. Ilustración de un correlograma. Este gráfico presenta la variación del coeficiente
de correlación en función de la distancia de separación (lag). Se trata de una función
decreciente de la distancia, tendiendo a cero cuando la distancia es muy grande.
157
Figura 2.7. Ilustración de un variograma experimental. Generalmente se trata de una función
creciente de la distancia (lag), y se anula cuando esta toma el valor cero.
Figura 2.9. Gráfico de dispersión entre valores de la misma variable separados por una
distancia, h. a) dispersión entre temperaturas diarias con h = 1 día. b) gráfico donde se puede
apreciar tanto el grado de similitud perfecta (la línea bisectriz), como el caso opuesto, una
similitud nula si la distribución de puntos define un círculo (So!ware, GS+, Robertson, 2008).
Figura 2.10. Nubes de correlación diferida. Los valores corresponden a una serie de
temperaturas diarias por un periodo de una semana. Lag 1 es equivalente a un periodo de
un día, Lag 3 a tres días, Lag 5 a cinco y Lag 7 a un periodo de una semana (So!ware, GS⁺,
Robertson, 2008).
Figura 2.13. Representación gráfica de la covarianza entre dos variables X₁ y X₂ teniendo las
dos variables distribuciones normales pero diferentes (adaptado de Schowengerdt, 1983).
Figura 2.15. Relación entre covarianza espacial y semivariograma en el caso de una situación
estacionaria. Si h ≤ a, existe una correlación espacial-temporal en los datos; h > a indica una
ausencia de correlación espacial-temporal.
Figura 2.19. Ejemplo de mapas variográficos, ilustrando el hecho de que el mapa variográfico
permite determinar las direcciones de anisotropía en la variable de interés. a) Ejemplo de
una elipse de búsqueda sobrepuesta en un mapa variográfico; su eje mayor precisa el eje
anisotrópico principal de los datos, b) ejemplo de datos con una distribución prácticamente
isotrópica (valores de la semivarianza independientes de la dirección). La definición de
dirección respeta la definición dada en la Figura 2.17b (So!ware, GS⁺, Robertson, 2008).
Figura 2.20. Definición de los tres parámetros básicos de un variograma teórico: efecto
pepita (C₀), meseta (Ct) y alcance (a). Se define también un cuarto parámetro, la varianza
estructurada, C = Ct – C₀.
Figura 2.21. a) Ejemplo de un fenómeno totalmente aleatorio, un fenómeno sin ninguna estructura
espacial o temporal, b) variograma teórico correspondiente a la situación presente en a).
Figura 2.24. Ilustración de un variograma con hoyos (no monótono), este tipo de variograma
es característico de fenómenos periódicos.
Figura 2.25. Modelo efecto pepita puro. a) Variograma teórico, b) fórmula de cálculo. Ct es un
valor constante e igual al valor de la meseta.
Figura 2.26. Modelo esférico. a) Variograma teórico, b) fórmula de cálculo. C0: efecto pepita;
Ct: valor de la meseta; y a: valor del alcance.
Figura 2.27. Modelo exponencial. a) Variograma teórico, b) fórmula de cálculo. C₀: efecto
pepita; Ct: valor de la meseta; y a: alcance práctico; es decir, la distancia a la cual el variograma
llega al 95% de la meseta Ct (el alcance es 5% del valor de la asíntota).
Figura 2.28. Modelo gaussiano. a) Variograma teórico, b) fórmula de cálculo. C₀: efecto
pepita; Ct: valor de la meseta; y a: valor del alcance.
159
Figura 2.31. Ejemplo de un variograma anidado; a) un modelo exponencial + un efecto pepita,
b) un modelo esférico, y c) = a) + b).
Figura 2.37. Variograma cruzado entre las variables carbono y oro (So!ware, GS⁺, Robertson,
2008).
Figura 3.2. Ejemplo de datos presentando una tendencia (voltaje versus posición). En este
caso, si la posición aumenta, también lo hace el voltaje (So!ware Minitab V16, Minitab Inc.,
2010).
Figura 4.2. Validaciones cruzadas. a) Kriging ordinario con r² de 0.91, b) Kriging universal con
r² de 0.93.
Figura 5.1. Ejemplo de cálculo del EP. a) Matriz (5x3) de datos, b) Cálculo de medias y
desviaciones estandar al interior de las tres ventanas móviles, c) linear regresión entre las
medias y desviaciones estandar obtenidas en b).
Figura 5.2. a) Imagen radar SRTM, las zonas oscuras muestran las zonas de menor altura y
las claras las cotas más altas. En la imagen se identifica claramente una quebrada con azimut
entre 50 y 60 grados. b) Distribución espacial de las 200 muestras generadas por el programa
QGIS, sobrepuestas sobre la imagen radar SRTM.
Figura 5.3. Histograma y estadísticas básicas de las 200 muestras de alturas (DN) obtenidas
de la imagen radar SRTM.
Figura 5.5. Mapa de alturas obtenido por medio de un Kriging ordinario de bloques
(10x10x10m). a) Modelo isotrópico, b) modelo anisotrópico.
Figura 5.6. Conjunto de datos presentando un muestreo preferencial agrupado (ver interior
de círculos rojos). Figura adaptada de Deutsch y Journal (1998).
Figura 5.8. Ejemplo de un efecto pantalla. a) distribución espacial de las observaciones y del
lugar donde se desea interpolar, b) valores de las ponderaciones entregadas por un Kriging
simple aplicado a la distribución espacial presentada en a). Ejemplo adaptado de Olea (2009).
Figura 5.9. Definición de la ventana móvil permitiendo el cálculo de los pesos de acuerdo
con el tipo de variograma obtenido en el análisis estructural (Figura adaptada de Robertson,
2008).
161
162 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA
163
REFERENCIAS BIBLIOGRÁFICAS
Deutsch, C. V. (2002). Geostatistical Reservoir Modeling. Nueva York, EE. UU.: Oxford
University Press.
Goovaerts, P. (1997). Geostatistics for Natural Resources Evaluation. Nueva York, EE. UU.:
Oxford University Press.
Journel, A. G. (1983). Nonparametric Estimation of Spatial Distributions, Math. Geol. Doi: 15: pp.
445-468.
Krige, D. G. (1952). A statistical analysis to some of the borehole values in the Orange free
state gold field. Journal of the Chemical and Metalurgical Society of South Africa. (53), pp. 47-64.
Olea, R. A. (1999). Geostatistics for Engineers and Earth Scientists. Boston, EE. UU.: Kluwer
Academic Publishers.
Roberston, G.P. (2008). GS+, Geostatistics for the Environmental Sciences. Gamma Design
So!ware. Michigan, EE. UU.: Plainwell.
Schowengerdt, R.A. (1983). Techniques for Image Processing and Classification in Remote
Sensing. Londres, Reino Unido: Academic Press, Inc.
165
se terminaron de imprimir los 500 ejemplares
durante el mes de agosto del año 2021 en los
talleres de nuevamerica impresores. para el
cuidado de la edición se compusieron los
textos utilizando la variante sans de la
familia tipográfica karmina; diseñada
por veronika burian & josé scaglione
en el año 2007. ditribuida por
la fundición de la república checa
typetogether. recurriendo a
sus variantes light, regular,
italic, bold y bold italic
*
GEOESTADÍSTICA EN EL ÁMBITO
DE LAS CIENCIAS DE LA TIERRA