Está en la página 1de 170

GEOESTADÍSTICA

EN EL ÁMBITO DE
LAS CIENCIAS DE
LA TIERRA
Análisis y discusión acerca
de los principales métodos de
análisis y estimación

alfonso condal beretta


adrián morgado flores
mireya gonzález leiva
Ediciones Universidad Tecnológica Metropolitana

Calle Dieciocho 161, (56-2) 787 77 50


Santiago, Chile
Metro Los Héroes editorial@utem.cl
Vicerrectoría de Transferencia
Tecnológica y Extensión www.utem.cl
www.vtte.utem.cl
Casilla: 9845

Geoestadística en el ámbito de las ciencias de la tierra.


Análisis y discusión acerca de los principales métodos de análisis y estimación
Autores:
Dr. Alfonso R. Condal Beretta
Adrián Morgado
Dra. María Mireya González Leiva

1ra edición, agosto de 2021


500 ejemplares
Ediciones Universidad Tecnológica Metropolitana
ISBN: 978-956-9677-31-1
Registro de propiedad intelectual n.º 296480

Diseño, diagramación, portada y corrección de estilo:


Ediciones Universidad Tecnológica Metropolitana
Vicerrectoría de Transferencia Tecnológica y Extensión

© Está prohibida la reproducción total o parcial de este libro, su recopilación en un sistema


informático y su transmisión en cualquier forma o medida (ya sea electrónica, mecánica, por
fotocopia, registro o por otros medios) sin el previo permiso y por escrito de los titulares
del copyright.

Impresión: Nuevamerica Impresores


Santiago de Chile, agosto de 2021
GEOESTADÍSTICA
EN EL ÁMBITO
DE LAS CIENCIAS
DE LA TIERRA
Análisis y discusión acerca de
los principales métodos
de análisis y estimación

alfonso condal beretta


adrián morgado flores
mireya gonzález leiva
TABLA DE CONTENIDOS

prólogo 08 capítulo 02 53
presentación 10 análisis estructural
introducción 14 2.1. conceptos básicos de estadística 54
datos medioambientales 15 espacial
la geoestadística 16 2.1.1. Autocorrelación espacial/temporal 55
tipos de datos y software 19 2.1.2. Variable regionalizada 55
resumen 20 2.1.3. Soporte 56
2.1.4. Escala 57
capítulo 01 23 2.1.5. Diseño de un muestreo 59
análisis preliminar o exploratorio 2.2. funciones estructurales 61
1.1. herramientas estadísticas 24 2.2.1. Noción de correlación 63
exploratorias espacial-temporal
1.1.1. Definiciones estadísticas básicas 25 2.2.2. Covarianza espacial 65
1.1.2. Visualización de datos 27 2.2.3. Variograma experimental 70
1.1.2.1. Datos univariados 28 2.2.3.1. Cálculo del variograma 73
1.1.2.2. Diagrama de dispersión 30 experimental
tridimensional 2.3. variograma teórico 78
1.1.2.3. Datos multivariados 31 2.3.1. Características del variograma 79
1.2. distribución experimental 32 teórico
de los datos 2.3.2. Modelamiento del variograma 83
1.2.1. Histograma 32 experimental
1.2.1.1. Tabla e histograma 33 2.3.2.1. Modelos elementales 84
acumulativo 2.3.2.2. Evaluación del modelo 85
1.2.3. Resumen estadístico 34 ajustado
1.2.3.1. Medidas de ubicación o 34 2.3.2.3. Modelos complejos, 85
centralidad anidados
1.2.3.2. Medidas de dispersión o 36 2.4. análisis de anisotropía 87
diseminación 2.4.1. Modelos anisotrópicos 89
1.2.3.3. Medidas de forma 38 2.5. índices adicionales de continuidad 90
1.2.4. Diagrama de caja 40 espacial-temporal
1.2.5. Distribución de probabilidad 42 2.6. índices en el caso de la 93
normal geoestadística multivariable
1.3. ejemplos de análisis e interpretación 44 2.7. resumen 95
de un histograma
1.4. resumen 50
capítulo 03 97 capítulo 05 139
estimación y bases teóricas de la comentarios generales
geoestadística 5.1. análisis exploratorio 140
3.1. clasificación de los métodos de 100 5.1.1. Efecto proporcional 140
interpolación 5.2. análisis estructural 144
3.1.1. Métodos globales 100 5.2.1. Comentarios 144
3.1.2. Métodos locales 102 5.2.2. Modelo isotrópico versus modelo 145
3.1.2.1. Estimadores lineales 104 anisotrópico
ponderados 5.3. estimación 147
3.2. bases teóricas de geoestadística 105 5.3.1. Cálculo de los ponderadores 147
3.2.1. Hipótesis de Matheron 106 (pesos)
3.3. resumen 109 5.3.1.1. Redundancia de datos 148
5.3.1.2. Efecto pantalla 150
capítulo 04 111
estimación local: kriging listado de figuras 156
4.1. tipos de kriging 112 referencias bibliográficas 164
4.2. características de los métodos 114
kriging
4.3. kriging simple 118
4.4. kriging ordinario 119
4.5. kriging en bloques 121
4.6. kriging universal 124
4.7. kriging no lineal 127
4.7.1. Kriging log normal 128
4.7.2. Kriging indicador 129
4.8. kriging multivariable 134
PRÓLOGO Si pensamos en la década de 1980, probablemente el término geoes-
tadística solo le resultaba familiar a quienes tuvieran directa relación
con la industria minera y, específicamente, con los profesionales que
tenían en sus manos la labor de estimar los recursos y reservas de yaci-
mientos mineros; y es que, en un país como Chile, caracterizado por su
riqueza mineral y su enorme tradición minera, la geoestadística como
disciplina cobró especial fuerza en este ámbito. Pensemos que solo en
la década de 1960 la geoestadística alcanzó su consolidación como la
conocemos hoy, fue entonces cuando los aportes de George Matheron
y Daniel Krige, entre otros, dieron forma a esta maravillosa disciplina.
Desde entonces el trabajo de otros investigadores, sumado al desarro-
llo tecnológico en las áreas del so!ware y el hardware, han permitido el
desarrollo constante de esta disciplina.

Si, como mencionábamos, la geoestadística nace y se desarrolla en el seno de la industria mi-


nera, poco a poco y en un pasado no distante se comenzó a vislumbrar su aplicación en otras
áreas, y lo que comenzó como una alternativa, al cabo de un breve tiempo se ha transformado
en una necesidad; en el sentido que hoy no está en duda el enorme aporte de la geoestadística
en el modelamiento de variables complejas, en los más diversos ámbitos de las ciencias, no solo
en las de la Tierra sino también en otras áreas del saber humano, como astronomía, demografía...

La Universidad Tecnológica Metropolitana por medio de su Departamento de Cartografía, ha


abordado esta necesidad y desde el año 2010, ha brindado una serie de tres cursos de geoes-
tadística, que en conjunto forman un diplomado en el área. A esta labor académica, liderada
por la docente e investigadora de nuestra casa de estudios superiores, Dra. Mireya González
Leiva, se suma una destacada labor de divulgación y vinculación con el medio, como han sido
los Encuentros de Geoestadística que se realizan casi desde el inicio de este programa de per-
feccionamiento.

Desde su inicio, la labor docente de este Diplomado ha estado en manos del Dr. Alfonso Condal,
quien posee una destacada trayectoria en el ámbito de la geoestadística, especialmente en su
aplicación a las ciencias de la Tierra en general. El Dr. Condal, quien reside y realiza su labor
académica en Canadá, ha asumido este desafío y se ha comprometido con el desarrollo de este
programa, y desde el año 2010 ininterrumpidamente ha dejado un espacio de su tiempo para

8 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


viajar a dictar los cursos, permitiendo que hasta hoy alrededor de 300 profesionales de las más
diversas disciplinas de la Ciencias de la Tierra, encuentren en este programa un espacio de
crecimiento profesional.

A la labor de la Dra. González y del Dr. Condal, se ha sumado el aporte del profesor Adrián Mor-
gado, quien, por su formación y experiencia profesional en la disciplina, ha apoyado la labor do-
cente del profesor Condal como profesor asistente, para él día de hoy asumir la responsabilidad
de dictar el primer curso del programa.

El trabajo de este equipo de académicos ha ido más allá del ámbito de la geoestadística: ha
comenzado un programa de Diplomado en Geomática y un curso específico de análisis Multi-
variable.

En mi labor de vicerrector de Transferencia Tecnológica y Extensión he recibido gratamente la


labor de prologar el libro que usted tiene en sus manos y que sintetiza los contenidos abordados
en los primeros dos cursos del diplomado. Sin duda el lector encontrará en él un excelente ma-
terial de apoyo y guía que sin dejar de lado la profundidad y rigurosidad conceptual que requiere
la disciplina, la aborda con un lenguaje ameno y de fácil comprensión; los contenidos se ilustran
con gráficas y ejemplos e ilustraciones que contribuyen a clarificar los conceptos; además la
obra se enriquece con apartados que con palabras simples explican temas de gran complejidad,
sin duda esta es una de las características más destacables del libro que se presenta.

Vaya para usted, querido lector, un saludo cordial, alentándolo a profundizar su desarrollo en
esta apasionante disciplina. Como autoridad de nuestra querida UTEM, siento en la publicación
de este libro un hito relevante en el compromiso adquirido por nuestra Universidad con el fo-
mento de la geoestadística en el ámbito de las ciencias, y no solo en las de la Tierra.

Mario Torres Alcayaga


Vicerrector de Transferencia Tecnológica y Extensión

9
PRESENTACIÓN El nacimiento de la Era Espacial, con el lanzamiento del primer satélite
artificial en octubre 1957 (Sputnik 1), fue el inicio de una época extraor-
dinaria, a partir de la cual tanto nuevos métodos de adquisición como
nuevas técnicas de análisis de datos fueron desarrollados (geomática).
El uso, por ejemplo, del Sistema de Posicionamiento Global (GPS), la
Percepción Remota (PR) y los Sistemas de Información Geográfica (SIG)
ha revolucionado en los últimos 50 años el estudio del planeta Tierra.
El GPS ha proporcionado un método de georreferenciación muy eficaz,
rápido y relativamente de bajo costo; la disponibilidad de los SIG ha
permitido superponer y comparar datos digitales georreferenciados de
fuentes heterogéneas y la PR ha proporcionado una visión sinóptica
multiespectral de la superficie terrestre. El desarrollo de estas técni-
cas geomáticas ha permitido la observación de cambios en ambientes
terrestres, acuáticos y atmosféricos a múltiples escalas espacio-tem-
porales y desde la región visible a la de microondas del espectro elec-
tromagnético. Paralelo a estos avances tecnológicos se han producido
importantes avances teóricos en respuesta a i) la necesidad de analizar
la gran cantidad de datos generados por la PR, y ii) las dificultades en-
contradas por los métodos estadísticos tradicionales en el análisis de
datos, que presentan una correlación tanto espacial como temporal
(por ejemplo, datos medio-ambientales).

Krige (1952) y Matheron (1963) fueron los primeros investigadores en proponer un método de
análisis que respetara las propiedades de datos georreferenciados y otros datos correlaciona-
dos (por ejemplo, la existencia de una autocorrelación tanto espacial como temporal). De ahí,
entonces, el rápido crecimiento en la valorización de estos importantes métodos de análisis de
datos medio-ambientales, en los últimos 30 a 40 años; teniendo como resultado el desarrollo
de una Estadística Ambiental, donde la Geoestadística juega un rol muy importante.

Por esta razón, el Departamento de Cartografía y la Dirección de Capacitación de la Universidad


Tecnológica Metropolitana (UTEM) han ofrecido sin interrupción, anualmente desde el año 2010
una serie de tres cursos en Geoestadística en el Ámbito de Ciencias de la Tierra. El nivel 1, ofre-
cido por primera vez en 2010, el cual concentra su contenido en los conocimientos básicos de la

10 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Geoestadística Lineal; el nivel 2, ofrecido desde el año 2012, concentra otros temas importantes
dentro del estudio de la información georreferenciada como la geoestadística no-lineal y una
introducción a la geoestadística multivariada. El nivel 3, ofrecido desde el año 2013, explora en
más profundidad la integración del análisis espacial y los métodos de la geoestadística multi-
variable y simulaciones condicionadas, abordando también cuestiones de estadística espacial y
geoestadística en el contexto del uso de la Percepción Remota para estudio del medioambiente.

El perfil profesional de los asistentes a estos cursos ha sido multidisciplinario, de distintos lu-
gares y organizaciones, pero con dos puntos en común: i) un interés en el estudio de nuestro
planeta desde la problemática ambiental general a lo particular, y ii) un interés en cursos cortos
de capacitación o actualización, donde se puedan adquirir nuevas ideas y herramientas en el
campo del análisis de datos ambientales.

Los cursos han sido diseñados para que los asistentes complementen con ejercicios de auto-
estudio su formación al finalizar cada uno de estos cursos; por lo tanto, los tres cursos se los
ha ofrecido de una manera muy concentrada; diseñados en módulos de cinco días (ocho horas
diarias), incluyendo lecciones teóricas, formación en el uso de so!ware apropiados y ejercicios
de desarrollo autónomo supervisado. El objetivo ha sido de ofrecer un curso teórico-práctico,
adaptando el curso a los asistentes. Consecuentemente, se ha mantenido en los cursos una
cierta flexibilidad en lo referente al uso de so!ware y datos; cuando es posible, cada participante
utiliza su propio so<ware y sus propios datos entendiendo con esto que la fortaleza está en los
conocimientos adquiridos y no en la herramienta (so!ware).

Este libro es un volumen compilatorio de las notas de los cursos de niveles 1 y 2, proporcionando
una base sólida en los métodos básicos de geoestadística y también como un puente a técnicas
más avanzadas. Ejemplos presentados en cada capítulo y al final del libro ayudan a reforzar una
comprensión clara de los temas discutidos. Los profesionales interesados en el estudio de la
Tierra tienen tendencia a tomar un punto de vista pragmático referente al análisis de sus datos,
estando más interesados en comprender bien el potencial de un método que las bases teóricas
del método mismo.

De manera similar a los cursos, la orientación dada a este libro ha sido también teórica-práctica.
Esperamos que el lector esté mínimamente familiarizado con las técnicas estadísticas clásicas,
como también cuente con nociones acerca del uso de Sistemas de Información Geográfica y

11
posea un mínimo de conocimientos en el tratamiento y análisis de imágenes aeroespaciales en
el campo del medioambiente.

El libro se estructura en cinco capítulos, siguiendo el orden en que un profesional y/o un in-
vestigador abordaría una investigación. La primera etapa está orientada al análisis estadístico
exploratorio de los datos (verificación de los datos, resumen estadístico y visualización gráfica),
seguido de un análisis estructural (cálculo de correlogramas, cálculo y ajuste de variogramas,
determinación del grado de anisotropía presente en los datos). Luego, en los capítulos 3 y 4,
discutimos los problemas de estimación en el contexto de estudios medio-ambientales. En este
contexto, los problemas son casi siempre de estimación en una o dos dimensiones y de mapeo.
En raras ocasiones la problemática se extiende a tres dimensiones; por lo tanto, la tercera di-
mensión solo será mencionada en este libro a modo de introducción a niveles más avanzados.
En cada capítulo se presentan ejemplos ilustrando las ideas discutidas en ese apartado. El úl-
timo capítulo del libro presenta comentarios generales y ejemplos relacionados con los temas
discutidos en los capítulos previos. Los datos utilizados en estos ejemplos provienen tanto de
nuestros proyectos de investigación como de contribuciones de nuestros colaboradores.

Los autores desean agradecer a todos los asistentes a los cursos ofrecidos en la UTEM desde
el año 2010, por sus excelentes preguntas y comentarios. El libro también se ha beneficiado de
los comentarios y críticas de varios profesionales que han leído todo o partes de este; especial-
mente, los autores desean agradecer a Christian Espinoza Alvarado, Investigador del Instituto
de Fomento Pesquero, División de Investigación en Acuicultura, Puerto Mon=, por su valioso
aporte; sus comentarios permitieron mejorar tanto el contenido como la presentación de este
documento. Entre los organizadores de estos cursos y responsables de la publicación del do-
cumento, se reconoce el soporte otorgado por el Vicerrector, Mario Torres Alcayaga, y la ayuda
editorial del grupo de publicación de la UTEM, como también la administración del Departa-
mento de Cartografía, de la Facultad de Humanidades y Tecnologías de la Comunicación Social
y de la Dirección de Capacitación de la UTEM.

Alfonso Condal Bere=a


Adrián Morgado Flores
Mireya González Leiva

12 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


13
INTRODUCCIÓN El interés en el uso del análisis estadístico de datos georreferenciados
ha aumentado considerablemente en los últimos 30 a 40 años. Ello se
explica por los avances tecnológicos y la disponibilidad de técnicas
geomáticas que han permitido, por ejemplo, superponer y comparar
datos digitales georreferenciados de fuentes dispares; así como tam-
bién la percepción remota, (PR), que ha proporcionado una visión sinóp-
tica multiespectral de la superficie terrestre. El desarrollo, por lo tanto,
de técnicas geomáticas ha permitido la observación de cambios tanto
en el medio terrestre, como acuático y atmosférico, a una multitud de
escalas, tanto espaciales como temporales y desde la parte visible a
la región microondas del espectro electromagnético. Paralelo a estos
avances tecnológicos se han producido también importantes avances
teóricos en respuesta a la necesidad de i) analizar la gran cantidad de
datos generados por los sensores espaciales, y de ii) disponer de mé-
todos de análisis que respeten las características (por ejemplo, la au-
tocorrelación espacial o temporal) de los datos terrestres (tanto datos
in situ como aeroespaciales).

Este último punto es realmente importante. La base teórica de la estadística clásica presupo-
ne variables aleatorias independientes e idénticamente distribuidas, pero variables terrestres
poseen una cierta autocorrelación, lo que implica que no deberían ser modeladas como esta-
dísticamente independientes. Por lo tanto, modelos estadísticos que implican una dependencia
estadística (autocorrelación entre las observaciones) son modelos más reales, más útiles que
los que asumen variables aleatorias independientes e idénticamente distribuidas. Esta auto-
correlación posee una propiedad bien específica; en general disminuye con el aumento de la
distancia (espacial o temporal) entre los datos. A esto habrá que agregar que, a diferencia de
los datos temporales, en los datos espaciales la dependencia estadística está presente en todas
las direcciones.

14 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Datos medioambientales
Un estudio medioambiental implica efectuar un análisis espacial, temporal o espacio-temporal
de variables o atributos medio-ambientales, entendiéndose por ellos medidas cuantitativas o
descriptivas de diferentes características del medioambiente. Estos atributos presentan ciertas
propiedades que varían en función de la escala de observación y del método de adquisición
utilizado en su obtención. Por ejemplo, estas variables poseen una cierta continuidad espacial
(o temporal) y un cierto grado de isotropía (o anisotropía) espacial; propiedades que son en
general función de la escala de observación. Estas propiedades dependen también del modo
de obtención de la variable medioambiental. La adquisición de los datos, ya sea por medio de
un muestreo de campo (método más tradicional) o mediante la percepción remota (satélites,
aviones, etc.) o por medio de redes de sensores, es un factor determinante en las propiedades
de la variable medioambiental de interés. A esto habrá que agregar que otra característica im-
portante de los datos medioambientales es que, independientemente del modo de adquisición,
es solo posible estudiar una pequeña fracción, espacial como temporal, de cualquier fenómeno
medioambiental. En otras palabras, no es posible visitar y medir un fenómeno medioambiental
en todo lugar y tiempo. La(s) variable(s) de interés es solo posible medirlas en un número finito
de lugares. Se conoce el valor de la variable de interés en las coordenadas geográficas de los
lugares visitados, es decir se conoce solamente una fracción del área o volumen de interés
(Figura 1). En el resto es necesario estimar; se infieren las condiciones para toda la zona de
interés en base a los datos obtenidos y un modelo estadístico. Los resultados son por lo tanto
inciertos, pero esta incertidumbre no es una propiedad del medioambiente, es el resultado de
un muestreo y/o conocimiento incompleto del observador. Dada esta situación es evidente la
importancia de disponer de un método, permitiendo cuantificar esta incertidumbre.
a)
Figura 1. Sea en observaciones en
terreno (como el trabajo con GPS
que ilustra la figura 1a) o mediante un
sensor espacial o aerotransportado
(como el levantamiento con dron
mostrado en la figura 1b), es imposible
medir un fenómeno medioambiental
en todo lugar y tiempo. Se conoce, por
tanto, el valor de la variable de interés
solo en la ubicación y momento de
medición; en el resto de la región de
b) interés o periodo de tiempo estudiado
será necesario estimar (interpolar)
para conocer los valores de la variable
en los lugares no visitados por el
sensor o medidos en terreno.

15
Otra característica de los datos ambientales es que tienen componentes espaciales y tempo-
rales, así como valores medidos. La estadística clásica considera generalmente solo el valor nu-
mérico de la variable; la información espacial-temporal (ubicación de los datos) no es necesario
especificarla; situación totalmente contraria a la de la Geoestadística, donde es absolutamente
necesario definir la ubicación espacial-temporal del valor medido.

Datos de interés podrán ser medidas obtenidas en el terreno o por medio de imágenes aeroes-
paciales, podrán ser valores válidos local o regionalmente. La variable de interés podrá ser con-
tinua (temperatura) o discreta (número de casos de fiebre en un municipio), válida tanto en una
dimensión (series de tiempo), dos dimensiones (mapas), tres dimensiones (volumen), o volumen
y tiempo (datos en una cuarta dimensión). Se conocerá, por lo tanto, su ubicación geográfica,
su altitud, el tiempo de adquisición y su soporte espacio-temporal (las medidas obtenidas son
válidas solo para un volumen o área pequeña). Finalmente, los valores de interés poseerán una
cierta estructura espacial-temporal y una isotropía o anisotropía espacial que quedará por de-
terminar. Esta estructura de correlación se la deberá evaluar y utilizar para aumentar la exacti-
tud del modelamiento y la estimación de la variable de interés.

La estadística clásica no fue desarrollada para el análisis e interpretación de datos con estas
características, pues no utiliza ni la información de continuidad espacial (temporal) ni la infor-
mación referente al grado de anisotropía presente en las variables de interés. En otras palabras,
las características de los datos ambientales son tales que no respetan en general las condiciones
de uso de la estadística clásica. Dicho esto, debe quedar bien claro que no se está sugiriendo
que el uso de la estadística clásica en estudios de nuestro planeta sea totalmente obsoleto. No,
su uso continuará de ser necesario, primero como primera etapa de todo análisis geoestadístico
–el análisis preliminar– y, segundo, en casos bien específicos como, por ejemplo, en estudios
de datos provenientes de censos donde a la información se la agrupa por espacio geográfico
(localidad, comuna, etc.). Siempre existirá la necesidad de analizar datos estadísticamente, aun
cuando para modelarlos se deberá utilizar la geoestadística. Existe, entonces, la necesidad de
una metodología estadística apropiada para los datos georreferenciados. Su base deberá ser
la estadística clásica, pero tomando en consideración las propiedades intrínsecas de estas va-
riables. De ahí el desarrollo en los últimos 30 a 40 años de una estadística ambiental, donde la
geoestadística juega un rol preponderante.

La geoestadística
La palabra geoestadística implica dos ideas bien precisas: i) geo: el campo de estudio, las ciencias
de la Tierra, el medio-ambiente, y ii) estadística: el uso de métodos probabilísticos. Su origen
se lo encuentra en la industria minera (Krige, 1952 y Matheron, 1962); específicamente, su na-
cimiento estuvo relacionado con la estadística aplicada a la geología, fundamentalmente a la
estimación de recursos minerales y al análisis de observaciones de terreno. Desde fines de la

16 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


década de 1980 y principios de la de los 90 se la ha aplicado con éxito en ciencias de la Tierra en
general, medioambiente en particular y tanto a observaciones de terreno como imágenes ae-
roespaciales. La definición misma de geoestadística ha evolucionado con el tiempo, por ejemplo:
i) “Geoestadística ofrece un método de descripción de la continuidad espacial de fenómenos
naturales y proporciona adaptaciones de técnicas de regresión clásica para tomar ventaja de
esta continuidad” (Isaaks y Srivastava, 1989), ii) “Un subconjunto de la estadística especializado
en el análisis y la interpretación de datos geográficamente referenciados” (Goovaerts, 1997), iii)
“Geoestadística se la puede considerar como una colección de técnicas numéricas que permiten
la caracterización de atributos espaciales, empleando modelos principalmente aleatorios de una
manera similar al análisis temporal de series de tiempo de datos temporales “ (Olea, 1999), y iv)
“Geoestadística: estudio de los fenómenos que varían en el espacio y/o en el tiempo“ (Deutsch,
2002).

Hoy se la podría definir como “Una rama de la estadística que se especializa en el análisis e in-
terpretación de datos espacialmente (y temporalmente) referenciados y que se la utiliza cada
vez más en combinación con fuentes de datos geomáticos (PR y SIG). Desde un punto de vista
medioambiental es importante comprender que dado un conjunto de datos, localizados en es-
pacio o tiempo, el uso de técnicas geoestadísticas significa responder a tres preguntas básicas:
1. ¿Cuál será la mejor manera de caracterizar, modelar la correlación espacial-temporal presente
en los datos?, 2. ¿Cuál será el mejor método para estimar valores de la variable de interés en
sitios sin medición de la variable que interesa, o sea sitios no visitados durante el muestreo?, y
3. ¿De qué manera se pueden producir datos sintéticos que sean compatibles con las medidas
disponibles y la estructura espacial-temporal observada? La respuesta a la primera pregunta se
la obtiene efectuando un análisis estructural de los datos. Respuestas a la segunda y tercera pre-
gunta dependen de la respuesta obtenida para la primera; específicamente, la segunda pregunta
busca un método óptimo de estimación sobre la base de la respuesta obtenida en el análisis
estructural de los datos (por ejemplo, alguna de las posibilidades ofrecidas por el método Kri-
ging); y la tercera pregunta busca a producir datos sintéticos de la variable de interés, tales que
respeten las estadísticas observadas (la media y la varianza de los datos), como también valores
específicos de ellos (valores extremos) en los lugares visitados durante el muestreo (simulación
condicionada). La búsqueda de respuestas a las tres preguntas formuladas explica el hecho de
que todo trabajo geoestadístico se lleva a cabo en tres etapas, a saber:

análisis exploratorio de los datos

Se estudian los datos muestrales, se obtienen las estadísticas básicas, se comprueba la consis-
tencia de los datos, eliminándose los datos erróneos e identificándose las distribuciones de las
que provienen. Esta exploración inicial de los datos tiene también como objetivo principal de
determinar el grado de correlación entre los datos.

17
análisis estructural

Se estudia la continuidad espacial-temporal de la variable, se calcula el variograma experimental


u otra función que explique la variabilidad espacio-temporal observada; se ajusta al mismo un
variograma teórico y se estudia en detalle las características de este último. Desde un punto de
vista práctico, se genera un modelo, permitiendo describir la estructura espacial-temporal del
fenómeno de interés, incluyendo las escalas a las cuales se dispone de información.

estimación o simulación

Esta etapa ofrece dos posibilidades:

• Estimación: un proceso de interpolación en el cual se estima la variable en ubicaciones no


muestrales, considerando la estructura de correlación espacial-temporal seleccionada en la
etapa del análisis estructural e integrando toda la información conocida. Este es un proceso
de interpolación, no de extrapolación, que genera una interpolación óptima, no sesgada y
con una varianza mínima.

• Simulación condicionada: un proceso de generación de múltiples casos de la variable de


interés, bajo la condición de respetar tanto el modelo estructural obtenido en la segunda
etapa del análisis geoestadístico (análisis estructural), como los valores extremos presentes
en los datos.

Estimación y simulación condicionada permiten estimar variables que varían de una manera no
sistemática y a diferentes escalas; estos dos métodos permiten también estimar la probabilidad
de que una variable exceda un cierto valor, un umbral dado inicialmente como input al algorit-
mo (posibilidad que en algunas aplicaciones es tan importante o más que el cálculo de valores
interpolados en lugares no visitados durante el proceso de adquisición de los datos).

tipos de datos y software

El análisis geoestadístico no existe sin datos. Estos pueden estar expresados en formatos raster
o vectorial y pueden contener una variable, V (temperatura, una foto aérea) o dos o más varia-
bles, V, U, …(datos multivariables, imágenes satelitales multibanda). La fuente de estos datos
puede ser una información dura (medidas de terreno, digitalización de documentos o imágenes
provenientes de fotogrametría o percepción remota), o información suave o adicional (datos
GPS, mapas temáticos, o grado de variación, de normalidad en los datos).

18 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Dado el volumen y la complejidad, tanto de los datos por considerar como de los cálculos que
deberán efectuarse, la estadística ambiental y la geoestadística –en particular– requieren el uso
de computadores y so!ware apropiados. Para profesionales medioambientales existen múltiples
programas interesantes para tener en cuenta, independiente del deseo de este profesional de
trabajar usando Linux o Windows y cuál lenguaje de programación sea de su predilección. El he-
cho de desear trabajar, por ejemplo, en un lenguaje C⁺⁺, MATLAB, Python, R, etc., o cuál Sistema
de Información Geográfica (ArcGIS, GRASS, QGIS, etc.) se utilizará, no tiene importancia en lo
referente a los temas que serán discutidos en este libro. Los so!wares disponibles en el campo
de estadísticas espaciales son numerosos y queda a discreción del lector decidir cuál utilizar
(ver, por ejemplo, h=p://www.passageso<ware.net, 2018). Sin embargo, desde un punto de vista
práctico, resultará imposible presentar ejemplos de aplicación de los conceptos desarrollados
en este libro sin disponer de un so!ware. De entre todos los so!wares geoestadísticos disponi-
bles, se han elegido dos programas, por considerarlos apropiados para el nivel introductorio del
curso 1 y el nivel medio del curso 2; concretamente, todos los ejemplos que serán presentados
en los capítulos que siguen esta Introducción fueron desarrollados utilizando el programa GS+
(Robertson, 2008), y el programa SGeMS (Remy y otros, 2009). Al realizar cálculos estadísticos
y la visualización y el tratamiento de las imágenes se utilizaron los programas Minitab 16 (2010)
y ENVI 4.7 (2009).

19
Resumen
Se puede decir que, como corolario a la gran importancia que ha tomado la problemática
medioambiental a nivel mundial en las últimas décadas, se ha desarrollado una estadística am-
biental, donde los métodos geoestadísticos juegan un rol preponderante. En referencia al uso de
la estadística o geoestadística como método de análisis, la gran diferencia entre la estadística
clásica y la geoestadística es que esta última considera para efectuar una predicción: i) el nivel
de autocorrelación existente a ciertas escalas en los datos, ii) la predicción es local, basada en
un modelo espacial (temporal) de la autocorrelación entre los datos, y iii) se basa en la hipótesis
de un modelo aleatorio para la distribución de los datos.

El objetivo principal de la geoestadística es la evaluación del valor de una variable en un lugar


donde esta no ha sido medida, a partir de los valores muestreados en el campo.

Desde un punto de vista teórico, la geoestadística se basa en la teoría de probabilidad y la es-


tadística clásica. Similar a otras ciencias aplicadas, se distinguen en geoestadística tres niveles
de estudio: el aspecto teórico, la aplicación de esta teoría y el desarrollo de so!ware, algoritmos
que se utilizan en el tratamiento geoestadístico de datos. Este libro se concentrará principal-
mente en el segundo aspecto, manteniendo la discusión del primer y tercer aspecto a un nivel
mínimo, tal que la situación no se transforme en una simple entrega de recetas simplificadas,
pero manteniendo al mismo tiempo un nivel matemático lo más simple posible.

El lector encontrará también en cada capítulo algunos ejemplos simples que buscan ilustrar los
conceptos desarrollados en el cuerpo del libro, como también ejemplos específicos para expli-
car casos especiales. También se han incluido algunas preguntas que el lector debe hacerse al
enfrentarse con sus datos en el contexto de una investigación. Para lograr estos objetivos, se ha
tomado la libertad de usar un lenguaje coloquial, incluir ilustraciones, fotografías y esquemas,
muchas veces dejando de lado la rigurosidad técnica para privilegiar un acercamiento amistoso
a esta fascinante disciplina.

La notación matemática corresponderá al estándar en uso en el estudio de variables aleatorias.


Por ejemplo:

• Letra mayúscula Z para una variable aleatoria; letra minúscula z para una muestra o reali-
zación de la variable aleatoria.

• Z(x): una variable aleatoria Z a la ubicación x, donde x es el vector {x₁, x₂, x₃}
• Letra minúscula para un vector y letra mayúscula para una matriz.

20 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


21
22 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA
capítulo 01

Análisis
preliminar o
exploratorio

23
Esta es la primera etapa de todo análisis geoestadístico. ¿Qué se espera de este análisis? En
palabras simples, en esta etapa se trabaja solo con herramientas estadísticas; es decir, la lo-
calización espacial de los datos que aborda la geoestadística no es considerada en este punto.

La estadística permitirá entender en mejor forma la variable(s) y ayudará a evaluar si el muestreo


refleja lo que se conoce sobre la variable estudiada; al respecto, es fundamental que el investi-
gador maneje al menos los conceptos básicos de la teoría de muestreo. Todo esfuerzo realizado
en esta etapa será recompensado en las etapas posteriores o, dicho de otra forma, en este paso
se tomarán decisiones que determinarán la forma de trabajar los datos en las etapas sucesivas
de la investigación.

Dado entonces un conjunto de datos, un análisis geoestadístico de ellos requiere utilizar como
herramienta de análisis en primer lugar la estadística clásica. Interesan principalmente proce-
dimientos estadísticos útiles para el análisis espacial y temporal tanto de datos in situ (medidas
de terreno) como de imágenes (percepción remota) y fotos aéreas. Por esta razón, se presentará
en este capítulo un resumen de los conceptos estadísticos necesarios, tanto para efectuar un
análisis preliminar de los datos de interés como también para comprender las bases teóricas de
la geoestadística. Se presentan, como aplicación de estos conceptos, las estadísticas básicas
del índice de vejez en la región Metropolitana; índice derivado de información disponible en el
Censo (2002) para dos grupos etarios: menores de 15 años y mayores de 60 años.

1.1. herramientas estadísticas exploratorias


La estadística clásica permite efectuar una exploración descriptiva y cuantitativa de datos. Se
resumirán, por lo tanto, en este capítulo las herramientas que la estadística clásica ofrece para
efectuar un análisis exploratorio de datos. En general a estas herramientas se las puede orga-
nizar en dos grupos principales: i) visualización y descripción de la distribución de frecuencias,
de probabilidades en los datos, y ii) un resumen estadístico; este último grupo normalmente
se separa en dos subgrupos, medidas globales (de tendencia central) y medidas de dispersión
y forma.

Los métodos estadísticos se aplican principalmente a información expresada en forma numé-


rica. Para comprender bien la utilidad y significado de estas herramientas estadísticas, se re-
sumen primeramente algunas definiciones básicas necesarias para la comprensión del material
presentado en los próximos capítulos. Se supone que el lector está familiarizado con los méto-
dos estadísticos a un nivel universitario.

24 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


1.1.1. definiciones estadísticas básicas
Estadística: es difícil dar una definición general y formal de estadística. En lo que se refiere a este
libro se considera como la ciencia de recopilar, organizar, analizar y efectuar inferencias a partir
de datos tendientes a caracterizar una población; es decir describir un objeto, una persona, una
muestra no es complejo y no se requiere para ello de la estadistica, pero cuando es necesario
caracterizar no solo uno, sino un conjunto, se aplica la estadística. Esta definición implica reco-
nocerle cuatro funciones básicas: descripción, inferencia, pruebas de significado y predicción.

Población estadística, universo o colectivo: el conjunto de individuos, casos o elementos de


referencia sobre los cuales se realizan las observaciones. En otras palabras, el número total de
ocurrencias de una cosa particular presente en un área definida –por ejemplo, los habitantes
de una ciudad.

Muestra: no es posible medir u observar cada miembro de una población; por lo tanto, se consi-
dera un subconjunto de la población tal que refleje, en lo posible, las características esenciales
de la población de la cual se obtuvo la información. Se la utiliza para inferir las características
de la población.

Individuos o casos: en estadística es común referirse a los ítems sobre los cuales la información
se ha sido obtenido como individuos o casos. Cada individuo posee propiedades, atributos que
le son característicos y que varían de un individuo a otro.

Datos: un sustantivo plural que significa un cuerpo de información en forma numérica; por ejem-
plo, valores de una variable describiendo un evento en particular. La estadística clásica asume
que los datos que se analizarán son independientes; o sea, la ocurrencia de uno no afecta la
ocurrencia del otro; es decir, la ocurrencia de uno no provee información acerca del siguiente
evento. En aplicaciones medio-ambientales, se consideran generalmente tres tipos diferentes
de datos (los que pueden ser independientes o no):

• Datos organizados en una secuencia a lo largo de un continuo de distancia o tiempo. Por


ejemplo, valores de temperatura en una dirección o posición geográfica específica.

• Datos en los que el muestreo se lo realizó en relación con algún contexto geográfico u otro
tipo de contexto espacial. Estos son usualmente datos bidimensionales. Por ejemplo, mapas
(geológicos, temperatura, clorofila, etc.).

• Datos multivariables, donde varias características de la población de interés fueron deter-


minadas en relación con algún contexto geográfico u otro tipo de contexto espacial. Estos
son usualmente datos multidimensionales. Por ejemplo, datos multivariados, en los que a
cada unidad de observación se la caracteriza por varias variables.

Variable: el atributo, el evento o propiedad de interés. Una variable está relacionada con una
propiedad de la Tierra. Estos datos se obtienen por cada unidad de muestreo. Este último puede
ser un individuo, una entidad (un lago) o un elemento definido (un m²).

25
Nivel de medida de una variable:

• Nominal (categórica o discreta): escala utilizada con datos que difieren en cualidad más que
en cantidad. Datos donde los valores se clasifican según un atributo. Por ejemplo, diferentes
tipos de rocas.

• Ordinal: esta escala asigna las variables a grupos, permitiendo indicar un orden relativo de
ellas; o sea, se asignan las variables a diferentes rangos. Este ordenamiento no implica que
la diferencia cuantitativa entre dos elementos de la escala se mantenga, solo pueden ser
ordenados. Las operaciones matemáticas posibles son: contabilizar los elementos, igualdad
y desigualdad, y mayor que o menor que.

• De intervalo: como su nombre lo indica, esta escala se aplica a variables en las que es posible
crear intervalos. El primer paso es establecer la amplitud del rango y fijar un origen. En esta
escala el punto cero es arbitrario y no significa ausencia de valor. El ejemplo típico de esta
escala es el uso de las escalas Celsius y Fahrenheit para medir la temperatura.

• De razón: esta scala se usa con variables cuyos valores numéricos indican realmente la
cantidad que se mide, presentan intervalos iguales y el cero significa ausencia de la carac-
terística.

Desglose de los tipos de variables:

• Aleatoria: una función que asigna al azar un número real a cada elemento del espacio mues-
tral.

• Cualitativa: una variable expresando una característica, una cualidad. Toma, por lo tanto,
valores no numéricos; sin embargo, sí pueden ser ordinales (por ejemplo, bajo, medio o alto).

• Cuantitativa: una variable que toma valores numéricos y que puede ser discreta o continua.

• Discreta: una variable que asume valores que se pueden contar –por ejemplo, el número de
días de lluvia continua durante el mes de marzo–. Su representación es mediante números
enteros, utilizando una escala nominal.

• Continua: una variable que asume cualquier valor entre dos límites en una escala continua.
Puede utilizar cualquiera de las escalas ya presentadas, con excepción de la escala nominal.
Su representación es por medio de números reales –por ejemplo, el contenido de nitrato
o la temperatura.

Matriz de datos: un conjunto de datos organizados en forma tabular.

• Si se mide una variable por unidad de muestreo, el conjunto de datos se lo denomina uni-
variado.

26 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


• Si se obtienen dos variables por unidad, los datos serán considerados bivariados.

• Los datos que contienen tres o más variables medidas en la misma unidad de muestreo son
designados como datos multivariados.

Parámetro: una característica o rasgo distintivo acerca de la población.

Estadísticas: aquí es necesario aclarar la diferencia entre estadística (singular) y estadísticas


(plural). Estadística (singular) indica, como fue explicado al principio de esta sección, una meto-
dología útil para la organización, análisis y presentación de datos. Estadísticas (plural) se refiere
a características o rasgos distintivos de una muestra, a valores esperados (medias) de datos
numéricos (Kitanidis, 2000).

Muestra aleatoria: cada miembro de la población tiene la misma probabilidad de ser seleccio-
nado.

Valor atípico: una observación que es numéricamente distante del resto de la muestra de los
datos.

Isotropía/Anisotropía: una variable se la considera isotrópica si su valor es independiente de la


dirección. Anisotropía (o direccionalidad) es una condición con diferentes patrones espaciales
o valores en diferentes direcciones. El concepto de anisotropía no se lo aplica a datos unidirec-
cionales (una serie temporal de datos).

Global/Local: un análisis global describe un patrón general medido sobre toda la extensión de
los datos. Un análisis local asocia una medida o un patrón espacial solo a ubicaciones precisas
o subregiones del área estudiada.

Banda espectral: instrumentos de percepción remota son capaces de adquirir datos en múlti-
ples capas o bandas. Cada capa registra un rango particular de longitudes de ondas. Por ejemplo,
sensores hiperespectrales adquieren datos en docenas a cientos de bandas, mientras que el
primer satélite Landsat, puesto en órbita en 1972, disponía solo de cuatro bandas espectrales
en el visible e infrarrojo cercano.

1.1.2. visualización de datos


La primera etapa en el análisis preliminar de un conjunto de datos medioambientales es la vi-
sualización de estos mismos. La técnica específica, óptima que se utilizará para satisfacer este
objetivo dependerá tanto del tipo de datos (multivariados o no) como del tipo de so!ware dispo-
nible. En general, la gran mayoría de los SIG y so!ware disponibles en el mercado permiten tanto
el tratamiento y el análisis de datos de terreno, de imágenes aeroespaciales, como también la
visualización de estos datos, tanto en el caso univariado como multivariado. Básicamente, la

27
visualización se puede efectuar en blanco y negro o en color: blanco y negro para permitir la vi-
sualización de datos unidimensionales (serie de datos en función de distancia o tiempo o una de
las bandas de una imagen aeroespacial); y color para permitir la visualización datos tridimensio-
nales (por ejemplo, tres bandas de una imagen aeroespacial). Un sistema de representación en
color requiere tres componentes (por ejemplo, tres bandas satelitales), cada una de ellas siendo
asignada a uno de los tres colores primarios del sistema aditivo de la luz (rojo, verde y azul); este
sistema recibe el nombre de sistema RGB (RGB por rojo, verde y azul en inglés) y se lo utiliza para
la representación en color de datos raster, imágenes. Si las imágenes provienen de una cámara
fotográfica en color, estas bandas corresponden a los colores percibidos por el sistema visual
humano y se lo denomina por lo tanto un color “verdadero”. En el caso tanto de datos como de
imágenes con más de tres variables o bandas, cualquier banda puede ser asignada a cualquiera
de los tres colores primarios, pero solo tres bandas pueden ser visualizadas simultáneamente.
A estas combinaciones de datos en color se las denomina “falso color”, debido a que estas
composiciones de colores no representan colores naturales.

1.1.2.1. datos univariados


La visualización de datos univariados es ilustrada presentando tres ejemplos:

1. Un mapa presentando las medidas del Índice de Vejez en sus respectivas posiciones geográ-
ficas (Figura 1.1.). En este caso, estas posiciones están expresadas en coordenadas UTM con
la distribución de los valores del Índice de Vejez (IV) presentadas en cuartiles; es decir, los
datos ordenados divididos en cuatro partes iguales (Q1 que representa el 25% de los datos,
luego el Q2 que representa los datos siguientes hasta el 50% de los datos, el Q3 al 75% y Q4
al 100%), en los cuartiles el Q2 coincidirá con la mediana (los cuartiles son un tipo de cuan-
til en que el orden está definido en 0.25, 0.5 y 0.75, recordar que los cuantiles son puntos
tomados a espacios regulares de la distribución de la variable). Se nota que las ubicaciones
de las observaciones están irregularmente espaciadas. El mapa de las observaciones sirve
además para identificar posibles tendencias y valores atípicos.

2. Un gráfico presentando los valores diarios de temperatura media en una misma ubicación
geográfica (Figura 1.2.). En este caso, el periodo de observación es de un año.

Se presentan, finalmente, los valores obtenidos al trazar un perfil paralelo al eje X en la banda
roja de una imagen aeroespacial de la ciudad de Puerto Varas (Figura 1.3.). Esta imagen está
digitalizada a 8 bit y, por lo tanto, la escala en el eje Y es entre 0 y 255. Notar el contraste en los
valores obtenidos en tierra contra los valores obtenidos en agua.

28 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 1.1. Posiciones geográficas
de valores del Índice de Vejez en la
Región Metropolitana de Santiago.
Coordenadas expresadas en el sistema
UTM (So!ware, GS⁺, Robertson, 2008).

Figura 1.2. Valores diarios de


temperatura por un lugar situado
en el hemisferio norte. Periodo
de observación es de un año.
Día 1 corresponde al 1 de enero.
Temperaturas expresadas en grados
Celsius (So!ware GS⁺, Robertson,
2008).

29
Figura 1.3. a) Transecto horizontal
(línea roja) sobre la banda roja de
una imagen de la ciudad de Puerto
Varas. b) Valores digitales obtenidos.
El transecto contiene 400 valores,
expresados en una escala a 8 bit
(resolución radiométrica) (So!ware,
ENVI V4.7, ITT, 2009).

Valor digital

Índex

1.1.2.2. diagrama de dispersión tridimensional


Cualquier conjunto de datos bidimensionales (coordenadas X e Y) puede ser también repre-
sentado con un diagrama de dispersión tridimensional (Figura 1.4.). Un diagrama de dispersión
tridimensional es una representación gráfica donde en los ejes X e Y se ubican las coordenadas
de los puntos (en este caso, las coordenadas UTM) y en el tercer eje se sitúan los valores de la
variable de interés (en este caso, el Índice de Vejez). Esta representación gráfica de las observa-
ciones es también útil en la identificación de posibles tendencias en direcciones determinadas y
valores atípicos. En caso de que la variable Z representara la cota, este modelo sería un modelo
digital de elevación o de terreno, según el caso.

30 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 1.4. Diagrama de Dispersión
Tridimensional para la variable Índice
de Vejez (So!ware Minitab V16, Minitab
Inc., 2010).

Índice de vejez

1.1.2.3. datos multivariados


Datos raster multivariados requieren la utilización del sistema RGB de representación en color.
El ejemplo típico de esta representación en color es el caso de las imágenes multiespectrales.
Dado que este tipo de imágenes contiene un número n de bandas espectrales (n > 3), hay que
seleccionar tres bandas de las n bandas disponibles y luego proyectar cada una de las tres ban-
das seleccionadas a través de la componente roja, verde y azul de la pantalla del computador
(Figura 1.5.). Esta operación producirá una imagen en color verdadero, si son coincidentes con
las porciones del espectro visible y con la asignación correcta R para rojo, G para el verde y B
para el azul. O bien falso color cuando asignamos al menos un color no coincidente con la por-
ción del espectro correspondiente; por ejemplo, una banda del infrarrojo al rojo, una banda del
infrarrojo cercano al verde y una banda más cercana a la porción azul del espectro visible (como
es el caso de la combinación 741 de Landsat, muy utilizada en geología para interpretación de
unidades). Diferentes combinaciones de bandas pueden ser, obviamente, utilizadas para visua-
lizar de manera óptima diferentes fenómenos de interés.

31
Figura 1.5. Ejemplo de producción
de una imagen color a partir de una
imagen multiespectral de n bandas
(n > 3). Se seleccionan primero tres
bandas de las n bandas disponibles.
a), b) y c) presentan las tres bandas
seleccionadas en una representación
en escala de grises. Segundo, se
proyectan estas tres bandas a través
del sistema RGB de la pantalla del
computador para obtener una
imagen en color (imagen d). En el
ejemplo se utilizó una imagen ASTER
1b, siendo la figura a la banda 3; la
figura b la banda 2 y la figura c la
banda 1. La figura d corresponde
a la combinación de bandas
321(So!ware, ENVI V4.7, ITT, 2009).

1.2. Distribución experimental de los datos


Una vez terminado el proceso de visualización, la segunda etapa es normalmente estudiar la
distribución numérica de los datos. Datos numéricos se los expresa siempre dentro de un cierto
rango; por ejemplo, los valores de los pixeles de algunas imágenes satelitales están expresados
en 8-bit (valores entre 0 y 255). Es importante comprender que en este caso no todos los valores
entre 0 y 255 ocurren en los datos con la misma frecuencia. En general, dado cualquier conjunto
de datos (de terreno o una imagen satelital) es posible determinar entonces una cierta distri-
bución empírica, una distribución de ocurrencias, indicando las frecuencias con las cuales los
valores de la variable de interés ocurren. A esta distribución de ocurrencias se la estima a partir
de los datos y es independiente; o sea, no toma en cuenta la ubicación espacial o temporal de
los valores de la variable de interés. A la distribución de ocurrencias observada en un conjunto
de datos se la denomina Tabla de Frecuencias y su representación gráfica toma el nombre de
Histograma (Figura 1.6.).

1.2.1. histograma
Un histograma es simplemente la representación gráfica de una Tabla de Frecuencias. Para su
cálculo, el rango entre los valores máximo y el mínimo es dividido en m intervalos por puntos
a₁, a₂, …, am y una medida Z pertenece al intervalo k si ak₁≤Z < ak (Figura 1.6.).

32 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 1.6. a) Tabla de
frecuencias e b) Histograma,
correspondientes al conjunto
de datos Índices de Vejez
presentados en la Figura 1.1.
(So!ware, GS⁺, Robertson, 2008).

Los histogramas tienen ciertas propiedades importantes para resaltar. Por ejemplo, si el ancho
del intervalo es constante, como en el caso en la Figura 1.6b., la altura de la barra es proporcional
al número de valores incluidos en esa clase; si el ancho de la clase no es constante, el área de la
barra es proporcional al número de valores dentro de la clase, pero esta última posibilidad es
raramente utilizada. Una posible desventaja en el uso e interpretación de un histograma es el
hecho que la presentación del histograma, su forma visual depende críticamente del intervalo
de clase y el origen escogido. Por esta razón, el diagrama de caja (sección 1.2.4.) es a veces una
manera más apropiada de representación de la distribución experimental de los datos.

1.2.1.1. tabla e histograma acumulativo


En este caso, en lugar de considerar el número de valores dentro de una clase, se considera el
número total de valores que se acumulan hasta esta clase (Figura 1.7.). O sea, dada una muestra
de tamaño n, se visualiza cada observación Z i contra la proporción de la muestra que no es más
grande que Z i (entre las ventajas que tiene su uso, se menciona que este tipo de histograma
elimina la dependencia de la forma del histograma en la selección del intervalo de clase). Dada su
definición, este tipo de histograma indica también la frecuencia relativa; es decir, la frecuencia
del grupo/número total de observaciones.

33
Figura 1.7. Datos de Índices de Vejez
presentados en Figura 1.1 a) Histograma
de estos datos, b) histograma
acumulativo correspondiente (So!ware,
GS⁺, Robertson, 2008).

1.2.3. resumen estadístico


Corresponde a información complementaria a la proporcionada por los histogramas y distribu-
ciones acumulativas. Un resumen estadístico consiste en una colección de diversos índices que
recapitulan las características más importantes de la distribución experimental de los datos.
Estos índices proporcionan estadísticas globales y se los puede clasificar en tres categorías:

• Medidas de ubicación o centralidad (la media, la mediana, la moda).

• Medidas de dispersión o diseminación (el rango, la varianza, la desviación típica [estándar],


el coeficiente de variación, valores extremos, los cuantiles).

• Medidas de forma (el coeficiente de simetría [oblicuidad], la curtosis).

Cada una de estas tres categorías responde a una pregunta específica y su uso e importancia
es discutido en el resto de esta sección. Con este objetivo, se supone que se estará analizando
una serie de valores Yi (i = 1, …, n).

1.2.3.1. medidas de ubicación o centralidad


Las medidas de tendencia central resumen la distribución de los datos. La pregunta clave es,
por lo tanto, ¿dónde se encuentra el centro de la distribución? La media y la mediana responden
a esta pregunta.

34 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


La media (my) es el valor típico o central de la distribución experimental, o sea el promedio
aritmético de los valores Yi.

n (1.1.)

Ecuación (1.1.) es tal que todas las observaciones tienen el mismo peso, o sea cada uno de los
datos influye de igual forma en el resultado; sin embargo, es posible también definir una media
ponderada donde cada observación puede tomar un peso diferente en el cálculo de la media
(ecuación 1.2.).

n (1.2.)

Donde ai son los pesos individuales. Al respecto, dos comentarios importantes acerca de este
índice: i) la media es muy sensible a la presencia de valores extremos, y ii) es posible que pobla-
ciones muy diferentes tuvieran la misma media.

• La mediana (M) es el valor medio de las observaciones cuando se las ha ordenado en forma
creciente en cuanto a su magnitud: Y₁ < Y₂ < …< Yn. Su cálculo se efectúa mediante la ecua-
ción (1.3.) en función de la condición que el número de observaciones, n, sea par o impar.

M = Y n+1 si n es impar (1.3.)


2

si n es par

La mediana es menos sensible que la media a oscilaciones de los valores de la variable y no es


afectada por la dispersión de los datos; desde un punto de vista estadístico, esta propiedad de
la mediana se resume diciendo que la mediana es más robusta que la media.

Dentro de las medidas de tendencia central se consideran también otros cuatro índices.

35
• La moda es el dato más repetido, el valor de la variable con una mayor frecuencia absoluta.
Es un índice particularmente útil con variables cualitativas, siendo también sensible a la
precisión de los datos. Se entiende por un conjunto de datos amodal, datos sin moda, y por
datos multimodal, o datos con más de una moda (bimodal, trimodal…).

• El mínimo es el valor más pequeño en el conjunto de datos.

• El máximo es el valor más grande en el conjunto de datos.

• Los cuantiles corresponden a valores de la variable de interés que dejan por debajo de sí
determinada cantidad de los datos. Los cuantiles pueden tomar cualquier porcentaje. Por
ejemplo, es posible definir cuatro cuartiles, diez deciles y 100 percentiles. Como ilustra-
ción, recordemos que la mediana corresponde al segundo cuartil (Q2), o al percentil 50, o
al quinto decil.

1.2.3.2. medidas de dispersión o diseminación


Las medidas de tendencia central presentadas en la sección 1.2.3.1. resumen la distribución de
los datos. Las medidas de dispersión que se discutirán en esta sección informan, por el contra-
rio, acerca de la heterogeneidad de los datos, responden a la pregunta ¿en qué medida los datos
se agrupan en torno a un valor central? A estos índices se los presenta comúnmente en dos
grupos: i) índices absolutos (desviación media, varianza, desviación típica, rango), y ii) índices
relativos (coeficiente de variación).

• Respecto de los índices absolutos, se comienza por definir primeramente un índice de Des-
viación (Dy) tal que:

Dy = |Yi – C | (1.4.)

Donde C es un valor central (la media o la mediana). Dy mide, por lo tanto, lo lejos que esta
cada observación del valor central C (líneas verticales indican el cálculo del valor absoluto de la
expresión entre las líneas verticales).

• Otro índice absoluto es la Desviación Media (DMc):

(1.5.)

36 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Donde C representa el valor de la media o de la mediana, n simboliza el número de observacio-
nes y las líneas verticales tienen el mismo significado que en la ecuación (1.4.).

• Los índices absolutos tal vez más utilizados son la Varianza (Var o σ²) y la Desviación Típica
o Estándar (σ). Estos índices proporcionan información acerca de la variabilidad de los datos
en relación con la media; la variabilidad es pequeña cuando los valores de los datos se agru-
pan alrededor de la media y hay una gran variabilidad cuando los datos están ampliamente
dispersos alrededor de este último índice.

(1.6.)
n
• El Rango, la diferencia entre los valores máximo y mínimo, es otra medida de la dispersión
en los datos; se lo usa comúnmente en el tratamiento digital de imágenes para expresar el
contraste de una imagen. Pero en estadística clásica el Rango intercuartílico (RIQ), definido
como la diferencia entre el tercer y el primer cuartil, es tal vez el más utilizado.

RIQ = Q3-Q1 (1.7.)

El índice RIQ es independiente del valor de la media y se lo usa principalmente para definir va-
lores atípicos presentes en un conjunto de datos. Cabe recordar que se entiende por un valor
atípico a un valor marcadamente diferente del resto de la muestra de datos. La identificación
de valores atípicos se efectúa en estadística por medio de una regla práctica tal que si el valor
de interés es mayor que 1.5 RIQ se lo define como un valor atípico, y si él es mayor que 3.0 RIQ
el valor es definido como un valor atípico extremo.

• Otros dos índices de dispersión encontrados en la literatura son el Coeficiente de Variación


de Pearson, CV, y la Variable estandarizada o normalizada, Vn. El coeficiente de variación de
Pearson permite comparar la variación entre dos (o más) variables diferentes y se lo define
por la relación:

37
(1.8.)

La variable normalizada se la define por medio de la relación:

(1.9.)

La variable normalizada es una medida de la divergencia entre un valor experimental y su pro-


medio, expresado en función de la desviación típica. Este índice es un proceso de normalización
que permite comparar diferentes poblaciones.

Tanto en las expresiones (1.8.) como (1.9.) σ y representan la desviación estándar y la media
de la muestra de datos, respectivamente.

1.2.3.3. medidas de forma


Estos índices caracterizan la forma de una distribución, efectuando una comparación con la
distribución normal o gaussiana (sección 1.2.5.). Estos índices son indicadores del grado de si-
metría (o asimetría) del histograma. ¿Qué significa simetría?

Un histograma muestra una distribución simétrica si valores equidistantes de la media, a uno


u otro lado, presentan la misma frecuencia. Por ejemplo, el histograma mostrado en la Figura
1.8a es simétrico, pero los histogramas presentados en las Figuras 1.8b, 1.8c y 1.8d no lo son.
Se definen dos tipos de índices indicativos de la forma de la distribución: índices de simetría
(oblicuidad) y de exceso (curtosis).

El coeficiente de asimetría (CA) es una medida de la asimetría de una distribución alrededor de


su media y se la define según la relación:

3
i (1.10.)
n 3

Una distribución que es perfectamente simétrica implica que CA = 0 (Figura 1.8a). Este es un
caso hipotético, la asimetría de un conjunto de valores experimentales será en general muy

38 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


cercana a cero (Figura 1.8b), negativa (Figura 1.8c) o positiva (Figura 1.8d). En el caso de CA = 0,
la media, la mediana y la moda coinciden en valor, mientras que un valor del CA negativo implica
que el valor de la mediana es menor que el valor de la media y un CA positivo exactamente lo
inverso. En un histograma de una distribución simétrica los valores de la media, la mediana y la
moda son numéricamente idénticos.

Figura 1.8. Posibles valores del CA.


a) CA=0, una simetría perfecta (caso
hipotético); b) CA= -0.01327, datos
experimentales mostrando una
distribución muy cercana a la normal; c)
CA= -0.756039, datos experimentales
presentando una simetría negativa; y
d) CA= 2.4683, datos experimentales
exhibiendo una simetría positiva. Se
presentan también los diagramas de
caja respectivos. El alto valor del CA en
el caso de la Figura 1.8d es debido a la
presencia de varios valores anómalos
(cruces hacia la derecha en el diagrama
de caja de estos datos) (So!ware, GS⁺,
Robertson, 2008).

La curtosis es un índice del grado de achatamiento de la distribución que presentan los valores
en la región central de la distribución y es definida por la relación:

4
Curtosis i
(1.11.)
3
4

39
Se consideran tres casos de curtosis:

i) curtosis ~ 0, una distribución mesocúrtica

ii) curtosis > 0, una distribución leptocúrtica

iii) curtosis < 0, una distribución platicúrtica

1.2.4. diagrama de caja


Un diagrama de caja es un gráfico que permite resumir visualmente los diferentes estimadores
estadísticos de un conjunto de datos. Este gráfico está compuesto de un rectángulo (la caja) y
dos brazos (líneas verticales u horizontales, los bigotes) y suministra información acerca de las
estadísticas básicas (mínimo, máximo, cuartiles, mediana), valores atípicos y el grado de simetría
de la distribución de valores de la variable de interés; o sea, resume en un solo gráfico la gran
mayoría de los índices presentados en esta sección (Figura 1.9.).

Figura 1.9. Presentación y descripción Atípico 0


de un diagrama de caja. max(x)|x ≤ Ls

Ls = Q3 + RIC-1.5

Q3 (75%)
RIC = Q3 - Q1
Mediana (50%)
(50% de datos)
Q1 (25%)

Li = Q1 - RIC-1.5

min(x)|x ≥ Li

40 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Se resume a continuación la información que se podría obtener a partir de un diagrama de caja
(como el presentado en la Figura 1.9.):

• Si la mediana se encontrara exactamente en el centro de la caja, la distribución de los valo-


res de la variable de interés sería simétrica.

• Si la mediana se encontrara en la región de la caja entre el 25% y 50%, la simetría sería


positiva.

• Si la mediana se encontrara en la región de la caja entre el 50% y 75%, la simetría sería


negativa.

• Si las longitudes de los brazos fueran similares, la distribución sería aproximadamente si-
métrica.

• Si el brazo superior fuera más largo que el inferior, la distribución de los valores de la varia-
ble de interés presentaría una simetría positiva.

• Si el brazo superior fuera más pequeño que el inferior, la distribución de los valores de la
variable de interés presentaría una simetría negativa.

Como ilustración del uso del diagrama de caja, se presenta el diagrama de caja obtenido de la
variable Índice de Vejez (Figura 1.10.). Se deduce de la visualización de este diagrama de caja que
la variable Índice de Vejez incluye varios valores atípicos.

Figura 1.10. Diagrama de caja


correspondiente a los datos Índice
de Vejez. Este diagrama de caja es
simplemente una repetición del
diagrama de caja presentado en la
Figura 1.8d (se utilizó el mismo conjunto
de datos) (So!ware Minitab V16,
Minitab Inc., 2010).

41
1.2.5. distribución de probabilidad normal
En este capítulo se han analizado diversas herramientas que ayudan a determinar qué tanto se
acerca la data a la distribución normal, sea mediante medidas de dispersión, centralidad, curto-
sis sea numéricamente o visualizando gráficas; cabe entonces preguntar ¿por qué es importante
saber si la variable se distribuye en forma normal? La respuesta a esta pregunta es simple, la
naturaleza tiende a la distribución normal. La estatura de las personas, el peso de algunas es-
pecies, varias variables astronómicas, leyes de algunos elementos, son solo algunas de una muy
larga lista de variables que se distribuyen de esta forma; por tanto, es más fácil listar casos en
que la distribución no sea normal. Esto no debe interpretarse jamás como que la distribución
normal perfecta sea lo que esperamos, sino una tendencia hacia la distribución normal. El caos
es parte esencial de nuestro universo y su influencia nos lleva siempre a que la realidad se aleje
de modelos perfectos.

Considérese un ejemplo simple: alrededor de una isla habita una especie de molusco comesti-
ble, un científico la visita cuando aún no ha llegado población humana y estudia la distribución
de la especie de molusco por peso (que está en correlación directa con la edad del ejemplar) y
descubre que su distribución es muy próxima a la distribución normal. Al volver a la isla 10 años
después descubre que habita una importante cantidad de personas en ella y ha sustentado
parte de su alimentación en el consumo de este molusco, ¿ha dejado de ser una distribución
normal? No, pero hay variaciones resultantes de la explotación de la especie y principalmente
de los ejemplares de gran tamaño. Para dimensionar el impacto que ha causado el hombre en
esta especie, el estudio de la distribución será de gran utilidad.

Para entrar entonces en los detalles, se da el nombre de Distribución Normal o de Gauss o Gaus-
siana a una distribución de probabilidades de una variable continua describiendo datos que se
agrupan en torno a un valor central. Esta distribución fue usada empíricamente por primera
vez por Abraham de Moivre en 1733 y justificada teoréticamente por Karl Gauss en 1809. Su
importancia en estadística radica en que permite modelar una gran cantidad de fenómenos,
tanto naturales como sociales. Su uso es consecuentemente muy importante y muchas pruebas
estadísticas están basados en la hipótesis de que la variable de interés respeta esta distribución
(métodos paramétricos). Estos métodos suponen, por lo tanto, que la distribución de los valores
de la variable de interés, o sea su histograma, se aproxima a la distribución Gaussiana. Visual-
mente toma la forma de una campana simétrica respecto de la media (Figura 1.11.).

42 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 1.11. Visualización de una
distribución normal. m: media y s:
desviación estándar de la distribución
de interés (So!ware Minitab V16,
Minitab Inc., 2010).

La distribución normal posee una serie de propiedades importantes, que se las puede deducir
a partir de una simple visualización de la Figura 1.11.:

• Es simétrica respecto de la media, µ.

• La moda y la mediana son idénticas a la media, µ.

• La distribución es tal que en el intervalo.

X [µ - σ, µ +σ ] se incluye ~ 68.2%

X [µ - 2σ, µ + 2σ] se incluye ~ 95.4%

X [µ - 3σ, µ + 3σ] se incluye ~ 99.7%

En el caso de una distribución que no es normal, el investigador tiene la posibilidad de conti-


nuar su análisis utilizando los datos originales (no normales) y utilizar métodos estadísticos
no paramétricos o aplicar a los datos alguna transformación apropiada que acercará los datos
originales a un nivel de normalidad que permitirá el uso de métodos paramétricos. Por ejemplo,
una simple inspección visual de la Figura 1.12a permite inferir que el conjunto de datos Índices
de Vejez presenta una distribución de valores del IV que está lejos de poder ser considerada
normal (AC = 2.46); pero si se le aplicara una transformación logarítmica, la distribución del IV
se acercaría aceptablemente a la normalidad (AC = -0.19) (Figura 1.12b).

43
Figura 1.12. a) Histograma
de la variable Índice de
Vejez, IV; b) Histograma de la
transformación logarítmica
de IV [ln(IV + 1)] (So!ware, GS⁺,
Robertson, 2008).

La pregunta de determinar el grado de normalidad de una distribución encuentra su respuesta


en el uso de una serie de pruebas de normalidad disponibles en los programas estadísticos, tan-
to comerciales como freeware. Una prueba de normalidad se aplica a un conjunto de datos, con
el fin de determinar su similitud con la distribución normal. La hipótesis nula es que el conjunto
de datos es similar a la distribución normal y, por lo tanto, presenta un valor P suficientemente
pequeño. Varias pruebas de normalidad están disponibles en los programas estadísticos, entre
los cuales se puede mencionar el test de Kolmogórov-Smirnov como uno de los más utilizados.

1.3. Ejemplos de análisis e interpretación de un histograma


Como ya se ha mencionado un histograma es una representación gráfica de barras de una tabla
de frecuencias. Esto puede parecer muy simple, sin embargo, el análisis de histogramas y medi-
das de tendencia central pueden ayudar mucho a entender la variable en estudio. Se presentan
a continuación algunos ejemplos que ilustran esta situación:

Por ejemplo, se sabe que si un histograma describe la forma de campana de Gauss es porque la
variable se distribuye en forma normal. Pero, con el objetivo de clarificar este punto, conside-
remos el histograma de un set de 67 datos de una variable a (Figura 1.13.):

44 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 1.13. Histograma y
estadísticas básicas de una
variable a conteniendo 67
datos (So!ware SGeMS,
Remy y otros, 2009).

Data count: 67

Mean: 2.46507
Variance: 1.00675

Maximum: 4.7
Upper quartle: 3.15
Median: 2.41
Lower quartle: 1.74
Minimum: 0.35

¿Qué se observa? Hay 8 clases, los valores van desde 0.35 a 4.7, la distribución se acerca a la
normal pues el valor de la media es igual al de la mediana, la distribución es levemente asimé-
trica y positiva (CA = 0.055, valor no incluido en la Figura 1.13.). En lo relativo a la curtosis, se
podría decir que se ve un poco puntiaguda, pero esto es engañador, su coeficiente es de -0,6;
es decir, es más bien achatada (valor no incluido en la Figura 1.13.). El alto valor que presenta
la clase 4 explica esta visión errónea, pero si se consideran las demás clases, se observa que la
distribución es realmente achatada.

Ahora al hacer otra prueba, ¿qué sucede si se aumenta la cantidad de clases?, ¿será la interpre-
tación más fácil que la interpretación que ya se ha hecho de la Figura 1.13.?, ¿se mantendrá el
mismo nivel de normalidad? La Figura 1.14. presenta esta nueva situación. En este caso se ha
utilizado la misma data, pero se aumentó el número de clases a 20. La primera constatación es
que el histograma aparece muy diferente y será bastante más complejo de interpretar.

45
Figura 1.14. Los mismos
datos de la Figura 1.13.,
pero el histograma se
presenta utilizando 20 clases
(So!ware SGeMS, Remy
y otros, 2009).

Data count: 67

Mean: 2.465
Variance: 1.006

Maximum: 4.7
Upper quartle: 3.15
Median: 2.41
Lower quartle: 1.74
Minimum: 0.35

Evidentemente el resumen estadístico y los coeficientes se mantienen iguales, pero visualmente


el histograma se ve muy diferente. Este es un buen momento para anotar un consejo: muchos
autores recomiendan trabajar con 8 a 10 clases y no más. Pero, por supuesto que, un ojo más
entrenado puede valerse de estos histogramas de muchas clases para estudiar la distribución
en más detalle.

Ciertamente hay varias otras consideraciones, pero por ahora hay que dejar en la mente que
los histogramas pueden verse muy distintos cuando se aumenta significativamente el número
de clases.

¿Qué se puede decir del histograma presentado en la Figura 1.15.? El número de datos y los
valores máximo y mínimo son idénticos a los del caso anteriormente discutido. Pero, de los 67
datos, hay un y solo un dato muy alto. La media aumentó levemente y la mediana mantuvo su
valor. Lo que cambió mucho es la desviación estándar, que pasó de 1.00 en el caso anterior a
7.89 en este caso. Por otro lado, no hay valores entre 5 y 23; es decir, no se observa una cierta
continuidad que pudiera explicar un valor máximo de 24. Se observa, finalmente, que las cuatro
primeras clases muestran una distribución cercana a la normal. Situaciones como esta suceden
muy a menudo y existe la tendencia a trabajar con ellas sin cuestionarse primero acerca de su
significado. ¿Qué se puede decir de esta situación?

46 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 1.15. Ejemplo del
histograma y estadísticas
básicas de una variable
b conteniendo 67 datos
(So!ware SGeMS, Remy
y otros, 2009).

Data count: 67

Mean: 2.7606
Variance: 7.89905

Maximum: 24
Upper quartle: 3.15
Median: 2.41
Lower quartle: 1.74
Minimum: 0.35

Frente a casos de este tipo se deben formular las siguientes preguntas:

• ¿Es el valor anómalo correcto o es un error de análisis o simplemente de digitación?

• Si se elimina este valor ¿se obtiene una distribución que es más cercana a la normal?

• ¿Lo que se sabe previamente de la variable podría explicar este caso?

• Si se comprueba que el valor es correcto, ¿se lo debe considerar en el modelo?

En este caso es difícil responder en este momento, solo una recomendación general: se verá
en los próximos capítulos que la geoestadística ofrece varias posibilidades; por ejemplo, el uso
de transformaciones matemáticas o el uso de ciertos índices estructurales específicamente
desarrollados para disminuir la influencia que pudieran tener valores anómalos en el proceso
de estimación. Otro punto importante, y que será discutido en detalle en los próximos capítu-
los, es que los datos –incluyendo el valor anómalo– no satisfacen las condiciones de uso de la
geoestadística. Por lo tanto, en la mayoría de los casos similares a la situación que se está dis-

47
cutiendo, el valor anómalo no debería ser considerado para estimar y es probable que obedezca
a un error de medición, o bien a un valor que forma parte de otra población, o simplemente ser
un valor anómalo debido a la presencia de ruido en los datos. En este ejemplo, para ilustrar esta
problemática, lo que se hizo fue intencionalmente modificar un dato, cambiando un valor 2.4
del ejemplo anterior por un 24, simulando un error de digitación.

¿Qué pasa si dos poblaciones de la misma variable y presentando una distribución normal se
las muestrea como si fuera solo una? Para entender lo que se quiere decir con esta pregunta se
debe pensar en un ejemplo simple, imaginar la topografía de un lugar: en una zona hay lomas
suaves y en otra hay una escarpada montaña; como se ve la variable es la misma, la coordenada
z o cota. La montaña es una población y las lomas es otra población. Si realmente son dos po-
blaciones distintas, en el análisis preliminar se debería ver. Este es un caso muy frecuente y, si
bien hay casos particulares donde como investigadores podríamos justificar el hecho de trabajar
con toda la data junta, en la mayoría de los casos es mejor identificar las poblaciones y trabajar
con ellas en forma separada. La Figura 1.16. presenta un caso de este tipo, donde el histograma
presenta una forma bimodal (o dos campanas de Gauss). Notar que esta estructura bimodal es
independiente del número de clases (siete en la Figura 1.16a y 12 en la Figura 1.16b). En situacio-
nes como esta, lo más recomendable es verificar si las dos poblaciones están distribuidas en
forma separada en el espacio geográfico y, si es el caso, considerarlas de manera independiente.

Figura 1.16. Histograma


Data count: 67
presentando una forma bimodal
(dos campanas de Gauss),
Mean: 2.77463
indicando probablemente la
Variance: 1.80039
presencia de dos poblaciones
diferentes (So!ware SGeMS, Remy
Maximum: 5.45
y otros, 2009). Upper quartle: 2.07
Median: 2.41
Lower quartle: 1.74
Minimum: 0.35

Data count: 67

Mean: 2.77463
Variance: 1.80039

Maximum: 5.45
Upper quartle: 2.07
Median: 2.41
Lower quartle: 1.74
Minimum: 0.35

48 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


El caso de poblaciones completamente asimétricas

Al considerar el caso del histograma presentado en la Figura 1.17., este presenta un coeficiente
de asimetría de CA = 0.3 (una asimetría alta). ¿Qué tipo de situación física puede representar un
histograma de esta forma? Se pueden dar muchos ejemplos que explican este tipo de distribu-
ción, aquí se mencionarán dos:

• Algunas especies de polillas y mariposas salen en forma casi simultánea de su estado de


crisálida; un día el conteo de individuos es cero y al día siguiente es la situación opuesta.
Este es un ejemplo simple donde la naturaleza es responsable de la presencia de una asi-
metría positiva.

• Al considerar un elemento químico que posee una distribución normal, pero los análisis
de laboratorio son solo capaces de detectarlo cuando la cantidad del elemento está casi
en el primer tercio de la curva de Gauss. En esta situación, como en el ejemplo anterior, la
curva será asimétrica; pero en este ejemplo, el responsable de la presencia de una asimetría
positiva es el límite de detección del laboratorio. Si este límite fuera tal que el sistema de
detección del laboratorio no fuera capaz de detectar las concentraciones más altas del ele-
mento químico de interés, se tendría en la situación opuesta, donde el valor medido por el
laboratorio será un valor saturado, menor que los valores más altos presentes en los datos.
En este caso, la distribución presentaría una asimetría negativa.

Figura 1.17. Histograma


presentando un valor de la
oblicuidad CA = 0.3 (So!ware
SGeMS, Remy y otros, 2009).

Data count: 67

Mean: 3.24955
Variance: 0.342386

Maximum: 4.7
Upper quartle: 3.7
Median: 3.19
Lower quartle: 2.78
Minimum: 2.31

49
Recapitulando, estos ejemplos han ilustrado el hecho de que, enfrentado a una investigación, el
investigador debe analizar con detención la variable de interés hasta asegurarse de comprender
bien su distribución espacial/temporal. De ahí que es fundamental realizar con mucha rigurosi-
dad la etapa del análisis preliminar.

1.4. Resumen

Un análisis preliminar significa efectuar una familiarización con el conjunto de datos, efectuar
una exploración inicial de los datos:

• Proceder a su visualización y estudiar en detalle los datos tabulados. Proceder a un análisis


estadístico completo de los datos.

• Detectar patrones de regularidad.

• Eliminar datos erróneos.

Se debe asumir, en esta etapa, la menor cantidad posible de hipótesis y las conclusiones deberán
ser tentativas y provisionales. La herramienta principal será la estadística clásica uni y multi(bi)
variada.

Desde un punto de vista práctico, es importante no olvidar que todos los índices estadísti-
cos requeridos para efectuar un análisis preliminar están disponibles en todos los programas
estadísticos, geoestadísticos, sistemas de información geográfica y programas de análisis de
imágenes en uso en el estudio de datos terrestres (medioambientales).

50 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


51
52 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA
capítulo 02

Análisis
estructural

53
El análisis preliminar exploratorio, discutido en el capítulo anterior, tuvo como objetivo la des-
cripción de la distribución de los datos independientemente de su ubicación; por ejemplo, un
histograma presenta la distribución de probabilidades por cada valor presente en el conjunto de
datos, pero no indica la ubicación geográfica de estos valores. Se supone, como ilustración de
esta situación, que se dispone de valores de la temperatura superficial de la masa de agua en un
lago: el histograma indicará la presencia de m posiciones en la superficie del lago que presentan
un valor de la temperatura superficial de n °C, pero no proporciona ninguna información acerca
de la estructura espaciotemporal de estas m posiciones; es decir, no indica dónde se encuentran
en el lago esos m lugares con una temperatura de n °C.

El objetivo del Análisis Estructural que se estudiará en este capítulo es obtener información
espacial que el análisis preliminar no entrega; es decir, la descripción cuantitativa de la variación
espaciotemporal de la variable de interés. En otras palabras, interesa cuantificar las fluctuacio-
nes espacio y/o temporal observadas en la variable, por medio de una función analítica, expre-
sada en un índice (existen varios índices en la literatura que serán definidos en este capítulo).
La importancia de este análisis es poder dar respuesta a la pregunta: ¿qué tan continua es la
variable en el espacio o en el tiempo? Además, se discutirán en este capítulo las etapas para
lograr un análisis estructural, siendo estas: i) cálculo de un índice experimental (por ejemplo,
un variograma) y ii) ajuste de este índice experimental a un modelo teórico conocido. Todo esto
para determinar ciertos parámetros descriptivos del índice espaciotemporal, los que posterior-
mente serán utilizados en el proceso de interpolación geoestadística. Pero, primeramente, será
necesario discutir ciertos conceptos básicos de estadística espacial.

2.1. Conceptos básicos de estadística espacial

La información de la superficie de la Tierra se puede obtener a través de las diferentes caracte-


rísticas que esta presenta; que comúnmente se clasifican en cuatro grupos:

• Características espectrales.

X Propiedades emisoras y reflexivas de los objetos terrestres.

• Características espaciales.

X Tamaño, forma, textura, posición, distribución.

• Características temporales.

X Posición y cambios temporales.

• Polarización

X El grado y tipo de polarización de la luz reflejada o emitida por un cuerpo terrestre


permite diferenciar este objeto de otros cuerpos presentes en el campo de estudio.
El ejemplo típico es en mineralogía, donde microscopios de luz polarizada permiten
identificar minerales.

54 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


En el proceso de adquisición de datos se puede obtener la información buscada por medio de
cualquiera de estas características. Lo importante es comprender que el proceso de adquisición
de datos tiene ciertos límites, pues las muestras tienen obligatoriamente un tamaño determi-
nado y son discretas (son obtenidas solo en ciertos lugares y a un cierto tiempo). Por lo tanto,
es necesario discutir primeramente una serie de conceptos básicos del análisis espacial.

2.1.1. autocorrelación espacial/temporal


La autocorrelación espacial/temporal cuantifica la falta de aleatoriedad de los valores de una
variable, debido a su estructura espacial/temporal. En otros términos, datos están autocorre-
lacionados si valores pequeños de un atributo están en proximidad geográfica (o temporal) a
otros valores pequeños, mientras que a los valores altos se los encuentra cerca de otros valores
altos. De manera similar al coeficiente de correlación en estadística clásica, se considera una
autocorrelación tanto positiva como negativa.

2.1.2. variable regionalizada


Toda medición terrestre tiene una referencia espacio-temporal, la cual queda especificada por
cuatro parámetros, como mínimo:

• La ubicación geográfica (longitud, latitud; o coordenadas X, Y).

• La altura sobre la superficie del terreno (elevación).

• La fecha de adquisición de los datos (año, mes, día, hora, etc.).

• El soporte muestral en el cual la medición fue efectuada (concepto que se definirá en la


próxima sección).

Por lo tanto, se entiende por variable regionalizada (VR) una variable espacial o temporalmente
distribuida. Una VR representa medidas cuantitativas y/o cualitativas de diferentes caracterís-
ticas ambientales. Se las puede definir en relación con un punto (altura) o un soporte (línea, su-
perficie o volumen). Lo importante de destacar es que una VR es una variable georreferenciada
(un fenómeno regionalizado) y no posee extensión infinita. La VR solo está definida al interior
de un dominio limitado de la variable; lo que se denomina comúnmente el campo de la variable,
fuera de esta zona natural la VR no está definida. Ejemplos de VR son numerosos y pertenecen
a diferentes campos de estudios en las ciencias de la Tierra (biología, ciencias del suelo, cli-
matología, hidrología, etc.). Como ejemplos se pueden mencionar: temperatura, profundidad,
concentraciones de clorofila o contaminantes, pH, índices de vejez, índices de vegetación, etc.

55
2.1.3. soporte
El concepto de soporte está íntimamente relacionado con los conceptos de resolución espa-
cial/temporal, píxel en Percepción Remota y grano en Ecología. Se refiere simplemente al área o
volumen representado por los datos. Tomando como caso la radiación terrestre captada en un
pixel del satélite IKONOS es válida por un m²; y concentraciones de clorofila medidas en un lago
a una cierta profundidad son válidas por un volumen, digamos, de un litro. El soporte de las imá-
genes IKONOS es, por lo tanto, un m² y el soporte de la información acerca de la concentración
de clorofila es un litro. En general, se debe entender por soporte al tamaño, la geometría y la
orientación del espacio en los que se define una observación o dato. Notar que toda estructura
interna o variación al interior del soporte no es conocida y toda estimación efectuada a partir
de un conjunto de datos será válida solo a un soporte similar al soporte de los datos iniciales.

Por otro lado, la distribución estadística de los valores de una VR, en especial su varianza es-
tadística, dependerá del soporte sobre el cual está definida la VR; a esto se lo denomina el
efecto del soporte, o sea informaciones válidas a soportes diferentes no son comparables. Se
ejemplificará esta situación con un caso extremo: ¿se pueden comparar valores de tempera-
tura superficial obtenidas en la misma ubicación geográfica por medio del satélite NOAA y del
satélite IKONOS? El hecho de que los soportes respectivos sean de 1 km² y 1 m² no permite
esta comparación. Pero, eso sí, se podría efectuar un cambio de soporte. Dado un conjunto de
datos con un soporte conocido, se podría aumentar el soporte (concepto conocido en inglés
como upscaling), aplicando reglas de la teoría de regularización; y lo opuesto, una reducción del
soporte (downscaling), es también posible en ciertas circunstancias mediante la teoría de mezcla
lineal (linear mixing). En geoestadística se considera el caso particular de obtener una estimación
de una variable válida por un área o volumen más grande que el soporte de los valores iniciales.
Pero, en general, las teorías de cambio de soporte son temas para discutir en cursos de análisis
digital de datos e imágenes; no serán presentados en este libro, con excepción del Kriging de
bloques.

Se presenta, a continuación, un diseño de muestreo hipotético (Figura 2.1.), con el fin de poner
énfasis en la importancia que tienen el valor del soporte seleccionado y el diseño de muestreo
escogido en las mediciones y, por lo tanto, en las futuras estimaciones que se efectúen a par-
tir de ellas. En la Figura 2.1. es evidente que cualquier cambio en la posición y dirección de los
tres perfiles o del valor del soporte tendría como consecuencia que los valores medidos serían
diferentes. Por lo tanto, es primordial la selección de un diseño de muestreo y de un soporte
adecuado a los objetivos del proyecto. Errores que se cometan a esta etapa no podrán ser pos-
teriormente corregidos usando métodos estadísticos ni geoestadísticos.

56 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 2.1. Esquema de un
diseño de muestreo hipotético.

2.1.4. escala
El concepto de escala es una de las nociones básicas tanto en Ciencias Naturales como Físicas,
pues influye y/o afecta las conclusiones obtenidas por un observador. A esto se agrega la pro-
blemática de interpolar resultados obtenidos a una escala precisa, a otros lugares, tiempos o
escalas; lo cual es un problema frecuente en estudios medioambientales y en las ciencias en
general. La noción de escala está también íntimamente ligada al concepto de soporte, que se
acaba de discutir. En la teoría del muestreo, la escala (espacial o temporal) incluye tres elemen-
tos básicos: Grano, Intervalo y Extensión (Figura 2.2.). Se entiende por Grano la unidad elemental
del muestreo. Por ejemplo, el grano sería, en series temporales, el tiempo de integración de la
señal o la resolución espacial representada por un píxel en un muestreo continuo, como una foto
aérea. El Intervalo expresa la distancia promedio entre las unidades de muestreo, corresponde a
los conceptos de paso o “lag” utilizados en el estudio de series temporales y en geoestadística.
Finalmente, la Extensión expresa la longitud espacial, la duración temporal, el área o el volumen
total implicado en el diseño de muestreo utilizado.

57
Figura 2.2. Los tres elementos
básicos del concepto de
Escala.

La Figura 2.2. ilustra el significado de estos tres conceptos básicos en el caso de una visita a te-
rreno donde el diseño de muestreo adoptado determinará la geometría exacta por percibir. En el
caso de una foto aérea o imagen satelital, la situación es un tanto diferente, pero las definiciones
dadas de estos elementos del concepto de escala siguen siendo válidas. En una imagen o foto,
los datos consisten en áreas de muestreo contiguos que cubren por completo la extensión y
donde la medición lineal del grano es igual al intervalo del muestreo (Figura 2.3.).

Figura 2.3. Comparación


del diseño de muestreo
entre medidas de terreno e
imágenes.

Otro punto importante de señalar es que los datos medioambientales contienen información
a múltiples escalas y, en general, estas escalas son más grandes, más amplias que las escalas
disponibles a partir de estudios de campo o experimentos; de ahí, la importancia del uso de
imágenes aeroespaciales. Estas últimas proporcionan una visión sinóptica imposible de obtener
solo con datos de terreno. Esta diversidad de información es de gran ayuda para los estudios
medioambientales, pero los problemas surgen a menudo cuando se requiere extrapolar a es-
calas mayores o menores que la escala original (problema de cambio de soporte discutido en la
sección previa). La pregunta es, por lo tanto, ¿cuál es la escala adecuada para los estudios am-
bientales? De manera muy general se puede decir que no existe una escala adecuada (precisa).

58 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Si el objetivo es el estudio de grupos o unidades con un mismo valor de la variable de interés
o gradientes presentes en los valores de esta variable, estos deben ser interpretados respecto
de la escala del muestreo como a la escala del fenómeno de interés. Si se observan estructuras
en los datos, estas deben ser interpretadas como un indicador de la presencia de una auto-
correlación en los datos y deberán ser estudiadas usando los índices estructurales que serán
definidos en este capítulo. En otras palabras, la escala debe ser seleccionada en función de la
pregunta y el objetivo del estudio, no olvidando que si el campo que se estudiará es homogéneo
(espacial o temporalmente), el problema de cambios de escala será menor que si el campo que
se estudiará fuera heterogéneo. La decisión de seleccionar una escala precisa es, por lo tanto,
función de lo que se conoce acerca de la escala del proceso bajo estudio y la pregunta cientí-
fica de interés. La línea general es la de utilizar un grano que sea más grande que el organismo
u objeto de interés y menor que las estructuras de interés. El intervalo debe ser menor que la
distancia media entre las estructuras de interés, mientras que la extensión estará limitada por
la realidad del experimento.

El concepto de escala que se ha presentado en esta sección se basa en la unidad de medida;


por ejemplo, espacialmente hablando el kilómetro es una unidad de muestreo más grande que
el centímetro y, temporalmente hablando, las observaciones semanales son de una escala más
amplia que observaciones por hora. Es importante señalar que esta percepción de escala es di-
ferente e inversa a la utilizada en cartografía. Se entiende por escala cartográfica a la proporción
entre la dimensión lineal de un objeto en un mapa y su dimensión real en la naturaleza. Este con-
cepto expresa el grado de reducción espacial que indica la longitud utilizada para representar
una unidad más grande de medida. En esta lógica, un mapa de baja resolución (poco detalle)
presenta una escala, por ejemplo, de 1:100.000 y un mapa de alta resolución (mucho detalle) po-
see una escala de 1:25.000. No se trata aquí de insinuar que este concepto de escala es inferior
o superior al concepto presentado en la Figura 2.2. Ellos son simplemente dos definiciones de
escala adaptadas a las necesidades de dos campos de estudio diferentes. Este ejemplo ilustra
también el hecho de que el concepto de escala en el campo de ciencias de la Tierra tiene un
significado confuso debido a su uso general, abarcando una amplia gama de fenómenos muy
diferentes.

2.1.5. diseño de un muestreo


El soporte y la escala son solo dos de varios parámetros que se deben considerar dentro del
marco general de un muestreo. Su esquema, su densidad y las técnicas que se utilizarán para
efectuar el muestreo son factores también que hay que considerar. Pero, primeramente, efec-
tuar un muestreo significa escoger un subconjunto o muestra representativa de una población
estadística. Existen dos tipos generales de muestreos: los probabilísticos y los no probabilísti-
cos. El primero será el método de interés para el presente libro, pues otorga una probabilidad

59
de pertenencia a cada elemento de la población. Para cualquier elemento de la población, esta
probabilidad es conocida o calculable. Esta también no puede ser nula para ningún elemento de
la población de interés. Sin entrar a discutir las técnicas de muestreo en detalle, se puede decir
que existen varias posibilidades de efectuar un muestreo probabilístico (Figura 2.4.).

Figura 2.4. Técnicas de Sistemático: muestras se las obtiene en una malla regular, en intervalos
muestreo probabilístico. regulares de tiempo de espacio.

Aleatorio: muestras se las toman en intervalos de tiempo o espacio


variables y distribuido al azar. Cada evento tiene la misma probabilidad
de ocurrir en cualquier punto del espacio. La ocurrencia de un evento
no afecta la ocurrencia ni la posición de otro.

Aleatorio estratificado: muestras se las obtiene aleatoriamente dentro


de un estrato. Un estrato corresponde a una sección del tiempo o del
espacio y es de tamaño constante.

Los diseños de muestreo presentados en Figura 2.4. no son los únicos posibles, pero sí repre-
sentan los casos más cercanos a los objetivos de este libro. Tanto las observaciones de terreno
como las imágenes aeroespaciales y fotos aéreas corresponden a uno de los tipos de muestreo
presentados en la Figura 2.4. Concretamente hay dos tipos de muestreo que interesan: i) un
modelo de muestreo aleatorio representando medidas de terreno (Figura 2.5a), y ii) un modelo
sistemático representando información aeroespacial (imagen multiespectral o foto aérea) o
medidas de terreno (Figura 2.5b). Cada tipo de muestreo posee sus ventajas y desventajas; una
discusión más profunda sobre este tema se puede encontrar en textos acerca de técnicas de
diseño de muestreo, en Burrough y McDonnell (1998).

Figura 2.5. Los dos tipos de


muestreo de más interés en
estudios medioambientales.
a) Muestreo totalmente
aleatorio, representando
medidas de terreno, b)
muestreo sistemático,
representando información
aeroespacial o medidas de
terreno. En los dos casos, la
información por unidad de
medida puede ser mono o
multiespectral (So!ware, GS⁺,
Robertson, 2008).

60 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


2.2. Funciones estructurales

Estas funciones permiten determinar la estructura espacial-temporal existente en los datos. Los
términos “espacial” o “temporal” se refieren comúnmente a niveles de regularidad que incluyen
agrupaciones locales de puntos y/o estructuras globales, por ejemplo. Algunas de estas estruc-
turas pueden ser identificadas visualmente, mientras que otras requieren un análisis más pro-
fundo. Las funciones estructurales son especialmente útiles en este último caso, permitiendo
también cuantificar este análisis. Pero, antes de iniciar esta discusión, se presenta una definición
que ayudará a comprender mejor los conceptos que se definirán en esta sección.

Las funciones estructurales son pertinentes a la distancia de separación entre dos observaciones;
esta distancia puede variar desde cero (valor que se compara con sí mismo) a la extensión del
diseño de muestreo utilizado. A esta distancia variable se la denomina Lag y funciones estruc-
turales, como el correlograma o el variograma, son comúnmente expresadas en relación con
este parámetro.

El grado de complejidad de una estructura espacio-temporal puede variar entre dos extremos:
homogeneidad (ausencia total de variación) y heterogeneidad (presencia de variación); o sea, se
requieren índices indicadores de la presencia (o ausencia) de organización (autocorrelación) en
los datos. Este concepto se aplica tanto a datos espaciales como a temporales. Lo importante
de retener es que se requiere una medida cuantitativa de esta presencia (o ausencia) de varia-
ción. La estadística clásica ofrece un índice de este tipo; la varianza de un conjunto de datos es
un índice del grado de homogeneidad; pero existen también varios otros índices, todos ellos
agrupados bajo el nombre de Funciones Estructurales. De todos ellos, el Correlograma y el Va-
riograma son habitualmente los más utilizados. El correlograma es un gráfico donde la distancia
(o lag) está representada en el eje X y el grado de autocorrelación en el eje Y (Figura 2.6.).

Figura 2.6. Ilustración de un


correlograma. Este gráfico presenta
la variación del coeficiente de
correlación en función de la
distancia de separación (lag). Se
trata de una función decreciente
de la distancia, tendiendo a cero
cuando la distancia es muy grande.

61
El cálculo del correlograma está disponible en los so!wares de estadística clásica y puede ser
univariado (I de Moran y C de Geary) o multivariado (de Mantel). Los correlogramas son muy
utilizados en estudios estadísticos y pueden ser calculados por una dirección precisa o en su
modo omnidireccional (en todas direcciones).

El variograma o semivariograma es, por su parte, la función estructural básica en geoestadística


es también un gráfico donde la distancia (o Lag) se representa en el eje X y la semi-varianza en
el eje Y (Figura 2.7.).

Figura 2.7. Ilustración de un variograma


experimental. Generalmente se trata
de una función creciente de la distancia
(lag), y se anula cuando esta toma el
valor cero.

Su cálculo puede ser omnidireccional o válido por una dirección específica, es un gráfico calcula-
do a partir de los datos, siendo, por lo tanto, una función definida solamente a ciertas distancias
(lo que depende del diseño de muestreo seleccionado). Se denomina, por lo tanto, variograma
experimental (VE). Modelar la estructura espacial representada por el VE requiere consecuen-
temente ajustar al variograma experimental a un modelo estadístico, con el fin de disponer de
un modelo de la estructura espaciotemporal de los datos, independiente de las distancias a las
cuales el VE fue calculado. Estas etapas serán discutidas en detalle más adelante; lo importante
de comprender por ahora es que el VE permite cuantitativamente detectar patrones espacia-
les-temporales y sus respectivas organizaciones.

Este análisis es fundamental para la comprensión de los fenómenos terrestres y, una vez que la
estructura ha sido detectada, solo entonces se puede describir y utilizar en el modelamiento

62 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


matemático del fenómeno medioambiental. El fundamento del desarrollo teórico que se expon-
drá en la próxima sección es la existencia de una relación; es decir, una dependencia entre las
posiciones de los objetos muestreados en el espacio y/o en el tiempo.

Los datos medioambientales reflejan en sus valores esta propiedad básica, propiedad que se
denomina continuidad espacio-temporal e implica que valores similares de un atributo medioam-
biental están en proximidad geográfica a otros valores similares; las transiciones entre valores
son graduales. Las funciones estructurales ya mencionadas son, en este sentido, índices de
continuidad espacial-temporal. La covarianza espacial-temporal y el variograma serán las fun-
ciones estructurales en los cuales se concentrará la atención del lector.

2.2.1. noción de correlación espacial-temporal


Antes de presentar en detalle los conceptos de covarianza espacial y variograma es necesario
discutir la noción de correlación espacial-temporal. La herramienta matemática que describe la
relación entre dos variables es un gráfico de dispersión (sca"er plot). Este tipo de gráfico permite
la detección del grado de relación entre dos variables, identificando también tendencias por
medio del ajuste de una línea de regresión a la nube de puntos (Figura 2.8.). La tendencia es, en
este caso, obvia: si la variable_1 aumenta en valor, la variable_2 también aumenta y la línea de
regresión cuantifica esta relación.

Figura 2.8. Ejemplo de un gráfico


de dispersión entre variable_1 y
variable_2. Calculando la línea de
regresión de la nube de puntos
(línea recta) es posible cuantificar la
relación entre estas dos variables;
específicamente, en este caso,
variable_2 = 0.444 + 10.0 variable_1
(So!ware, GS⁺, Robertson, 2008).

Un gráfico de dispersión también se puede utilizar en la descripción cuantitativa de la depen-


dencia espacial, si se calcula el gráfico de dispersión entre valores de la misma variable, pero
separados por una distancia, h (Figura 2.9a). En este caso, Z(x) es el valor de la variable Z en una
ubicación x, y Z (x + h) es el valor de la misma variable, pero en un sitio situado a la distancia h
del anterior.

63
Este gráfico de dispersión recibe el nombre de nube de correlación diferida y es importante en-
fatizar que muestra la diferencia entre valores de todos los posibles pares de datos cuyas po-
siciones se encuentren a una cierta distancia en una dirección particular. La situación general
se puede apreciar en la Figura 2.9b; dependiendo del grado de similitud entre Z(x) y Z(x + h), se
tendrán entonces dos casos límites: i) la línea bisectriz (a 45° en la Figura 2.9b) indicando una
similitud perfecta (Z(x) = Z(x + h)) en el cual, d = 0; y ii) situaciones donde d ≠ 0 (Z(x) ≠ Z(x + h)),
formándose una nube de puntos, como el caso límite de un círculo si la similitud entre Z(x) y Z(x
+ h) es nula. Dado que gráficos como el de la Figura 2.9. presentan información válida solamente
a una dirección bien precisa, este tipo de gráfico recibe también el nombre de nube direccional.

Figura 2.9. Gráfico de dispersión entre


valores de la misma variable separados
por una distancia, h. a) dispersión entre
temperaturas diarias con h = 1 día. b)
gráfico donde se puede apreciar tanto
el grado de similitud perfecta (la línea
bisectriz), como el caso opuesto, una
similitud nula si la distribución de
puntos define un círculo (So!ware, GS⁺,
Robertson, 2008).

Los datos en Ciencias de la Tierra presentan una propiedad muy importante, la correlación
(similitud) entre dos valores de la variable de interés: esta disminuye si la distancia h entre
estas dos observaciones aumenta. Esta es una propiedad fundamental que permite cuantificar
el grado de autocorrelación espacial-temporal de un conjunto de datos. Como ilustración de
esta situación, se visualizan cuatro nubes de correlación diferida de una serie de valores de
temperaturas diarias medidas en un mismo lugar por un periodo de una semana (Figura 2.10.).
Lag 1 corresponde a diferencias de temperatura de un día, Lag 3 de tres días, Lag 5 de cinco días
y Lag 7 de siete días, respectivamente. Estos cuatro gráficos indican claramente que el grado
de correlación entre los valores diarios de temperatura disminuye al aumentar la diferencia
temporal entre las observaciones, pues es evidente que la dispersión de la nube aumenta con
la distancia temporal de separación. El análisis de las nubes de correlación diferida indica, por
lo tanto, cuán semejantes son dos muestras en función de la distancia que las separa. Es decir,
permite apreciar la correlación espacial-temporal de los valores de la variable regionalizada.

64 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 2.10. Nubes de
correlación diferida. Los valores
corresponden a una serie de
temperaturas diarias por un
periodo de una semana. Lag
1 es equivalente a un periodo
de un día, Lag 3 a tres días, Lag
5 a cinco y Lag 7 a un periodo
de una semana (So!ware, GS⁺,
Robertson, 2008).

La Figura 2.10. presenta el caso de una serie temporal de datos. La posibilidad de una situación
isotrópica o anisotrópica no se discute, obviamente, pero para datos bidimensionales las nubes
direccionales son muy útiles, pues permiten detectar cambios en la estructura espacial de una
variable en función de la dirección (isotropía versus anisotropía). Cada nube direccional repre-
senta un escenario por una distancia y una dirección precisa; considerando que, en un conjunto
de datos bidimensionales, el número de nubes direccionales será considerable, se requerirán
muchas de ellas para considerar todas las posibles distancias y direcciones espaciales presentes
en los datos. El uso de las nubes de dispersión es, por lo tanto, interesante pero no práctico. Se
necesita resumir toda esta información; de ahí, la importancia del uso de funciones estructu-
rales como la covarianza, el variograma y la correlación.

2.2.2. covarianza espacial


La comprensión del concepto de covarianza espacial requiere discutir, primeramente, pero de
manera somera, el concepto de covarianza clásica, tal como se la define y utiliza en estadística
clásica. La covarianza es un valor que indica el grado de variación conjunta de dos variables
aleatorias respecto de sus medias; en otras palabras, la covarianza clásica es una medida de la
variabilidad mutua; por ejemplo, un par de propiedades medioambientales o dos bandas espec-
trales de una plataforma aeroespacial. A la covarianza clásica entre dos variables aleatorias X e
Y, Covx,y se la define como:

(2.1.)

65
Donde E […] es el valor esperado de la expresión entre los paréntesis cuadrados, y µX, µY son las
medias de las variables X e Y respectivamente. El cálculo se efectúa por medio de la relación:

1 1
i =1 i =1 i =1 (2.2.)

Su significado físico es preciso y fácil a comprender. Si a valores altos de X corresponden valores


altos de Y o a valores bajos de X corresponden valores bajos de Y, la covarianza es positiva; en
el caso contrario, a valores altos de X corresponden valores bajos de Y o a valores bajos de X
corresponden valores altos de Y, la covarianza es negativa (Figura 2.11.). El signo de la covarianza
expresa, por lo tanto, la tendencia existente entre las dos variables de interés. En el caso de una
covarianza cero, se interpreta como la no existencia de una relación lineal entre las dos variables
estudiadas. Se obtiene también una covarianza cero en el caso de dos variables independientes,
pero la situación inversa no es correcta; o sea, es posible que dos variables aleatorias tengan
una covarianza cero pero que no sean independientes.

Figura 2.11. Representación gráfica


del concepto de covarianza. El signo
de la covarianza indica el tipo de
relación entre las dos variables. a)
Covxy >> 0 (las dos variables crecen
o decrecen a la vez); b) Covxy ~ 0
(si los puntos se reparten con igual
intensidad); c) Covxy << 0 (cuando
una variable crece, la otra tiene
tendencia a decrecer).

Cabe destacar también que las ecuaciones (2.1.) y (2.2.) implican que la covarianza no es calcula-
ble directamente de los datos, pues requiere el conocimiento previo de la media; o sea, el valor
de la covarianza es función del valor de las medias. Esta dependencia se elimina definiendo un
coeficiente de correlación, ρXY, por medio de la relación:

CovXY
XY
= ar (X ar (Y )
(2.3.)

66 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


ρXYse denomina también el coeficiente de correlación de Pearson. Este coeficiente es el índice
más comúnmente utilizado para resumir comparaciones entre variables, no olvidando que solo
tiene sentido emplearlo para evaluar asociaciones lineales. El coeficiente de correlación varía
continuamente entre -1 y +1 (-1 < rXY < +1); o sea, rXY = +1 significa una correlación lineal perfecta,
y ρXY = -1 implica una correlación perfectamente inversa (Figura 2.12.).

Figura 2.12. Valores extremos del


coeficiente de correlación ρXY.

De esta discusión debe quedar claro que la covarianza es una medida de la variabilidad mutua de
un par de variables y que es, al mismo tiempo, una generalización a dimensiones superiores del
concepto de varianza de una variable aleatoria escalar. Otra propiedad importante del concepto
de covarianza, tal como se acaba de definir, es que se puede generalizar a cualquier dimensión.
Esta posibilidad es de gran utilidad, tanto en el análisis de datos multivariables como en estudios
utilizando imágenes aeroespaciales multibanda.

Metodologías como análisis en componentes principales y métodos de clasificación supervisada


requieren el cálculo previo de la matriz de covarianza multibanda de los datos en consideración.
Dado, entonces, un conjunto de datos multivariables se entenderá por matriz de covarianza,
Σ, a una matriz cuadrada que disponga en su diagonal principal de las varianzas de cada una
variable implicada, y en los elementos no-diagonales de las correspondientes covarianzas entre
cada dos variables (ecuación 2.4.). Esta matriz recibe también el nombre de matriz de dispersión
(Legendre, 2003).

2 (2.4.)

67
Una ilustración simple en dos dimensiones de una matriz de covarianza se presenta en la Figura
2.13. En esta figura se comparan dos variables presentando distribuciones normales, por ejem-
plo, dos bandas en la región visual del espectro electromagnético de un satélite de estudios en
recursos naturales o meteorológicos. Cada una de estas dos variables posee una distribución
normal y está definida por dos parámetros, la media (µ) y la varianza (σ²).

Figura 2.13. Representación


gráfica de la covarianza
entre dos variables X₁ y X₂
teniendo las dos variables
distribuciones normales
pero diferentes (adaptado
de Schowengerdt, 1983).

Por lo tanto, los únicos parámetros requeridos para definir la distribución mostrada en la Figura
2.13. serán un vector de medias M y una matriz de covarianza, Σ, definidas par las expresiones
(2.5.):

1
(2.5.)
2

Otro ejemplo, esta vez mas práctico, es el caso de una imagen satelital multibanda; por ejemplo,
al considerar seis bandas de una imagen del satélite Landsat TM (Thematic Mapper). En este
caso, el vector de medias M estará compuesto de seis medias y la matriz de covarianza será
de dimensión 6x6 (Figura 2.14.). Esta figura ilustra también la ventaja de utilizar la covarianza
normalizada, o sea la correlación, en lugar de la covarianza misma. Saber que la covarianza entre
las bandas 1 y 2 de la imagen estudiada es 54.16 es equivalente a saber que la correlación entre
estas dos bandas es de 96 %, pero este segundo valor posee una interpretación física que el
primero no ofrece.

68 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 2.14. Ejemplo de
matrices de covarianza y
covarianza normalizada
(correlación) de una imagen
Landsat TM conteniendo
seis bandas.

Recapitulando: la matriz de covarianza es siempre una matriz simétrica, independiente de la


dimensión del espacio en consideración. Notar también que los elementos en la diagonal de la
matriz de covarianza corresponden a las varianzas de la distribución en cada una de las dimen-
siones consideradas (en el caso de la imagen Landsat, seis). Estos elementos son, por lo tanto,
valores siempre positivos. Sin embargo, los elementos situados no en la diagonal no presentan
esta restricción y su significado se lo aprecia más fácilmente en la matriz de correlación que
en la matriz de covarianza misma. Otro punto importante es que una matriz de covarianza de
dimensión N permite establecer el grado de correlación entre las N variables.

Suponer ahora la existencia de un espacio bidimensional (dos variables), y donde la segunda


variable es reemplazada por la primera pero desplazada por una distancia-tiempo movible h.
Esta situación permitirá comprender el concepto de covarianza espacial; dado que se trata de
una situación con un solo atributo se utiliza también el término de autocovarianza. La ecuación
(2.1.) se reduce, por lo tanto, a la expresión presentada en la ecuación (2.6.).

covarianza clásica: CovX,Y = E [(X – µx)( Y –µy)] (2.1.)

covarianza espacial: Cov(h) = E [(X(s) – m)( X(s+h)– m)] (2.6.)

69
Donde X, Y: variables de interés, X(s): valor de dicha variable a la posición s, X (s + h): valor de
la variable en la ubicación (s + h), h: paso entre las muestras (distancias iterativas), m: media.

Notar que la covarianza espacial no es calculable directamente de los datos, pues requiere el
conocimiento previo de la media m.

2.2.3. variograma experimental


El variograma experimental (VE) es un índice en forma de una gráfica que se utiliza comúnmente
en geoestadística para explorar la interdependencia espacial-temporal (Figura 2.7.). Este índice
proporciona información acerca de la distribución de la variabilidad espacial-temporal respecto
de las escalas presentes en los datos; o sea, aporta una descripción de cómo las mediciones
varían en el espacio-tiempo y cómo se relacionan en función de su ubicación.

El (semi)variograma experimental, γ(h), se lo calcula por medio de la expresión dada por la


ecuación (2.7.):

1
(2.7.)

Donde Z: variable de interés, Z(si): valor de dicha variable a la posición si, Z(si + h): valor de la
variable en la ubicación (si+ h), h: paso entre las muestras (distancias iterativas), N(h): número
de pares, y 2 γ (h): valor de la función variograma para un valor h.

La idea básica es que la variación en espacio o tiempo de una variable aleatoria Z(s) puede ser
expresada por medio de diferencias entre pares de observaciones de Z(s) a posiciones X y X +
h. Notar, por lo tanto, que el variograma experimental es equivalente a graficar la semivarianza
de los datos en función de h, el paso entre las muestras. La semivarianza se la evalúa calculando
γ(h) para todos los posibles pares de puntos en el conjunto de datos y asignando cada par a
una clase h. El variograma experimental tiene, por lo tanto, el inconveniente de que el gráfico
depende de los intervalos seleccionados (como en el caso del histograma); pero es un índice
calculable directamente a partir de los datos (ecuación 2.7.), situación contraria a los otros ín-
dices estructurales que requieren para su cálculo información suplementaria (la varianza y la
covarianza, por ejemplo, demandan conocer previamente la media). Por esta y otras razones
por discutir más adelante en el texto, se prefiere, en general, utilizar el variograma en lugar de
la covarianza o del correlograma.

70 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Resumiendo, el variograma experimental es una función que analiza tanto la dependencia es-
pacial-temporal de la variable de interés como la relación entra la varianza y la distancia h. Se
puede decir también que el variograma experimental es una función que mide la homogeneidad
(heterogeneidad) promedio entre las mediaciones en función de su separación.

Desde un punto de vista más teórico, la información presentada hasta ahora en esta sección se
podría abreviar diciendo que, dada una variable regionalizada Z(x), las siguientes expresiones
para valores esperados E (…) son válidas:

• La media: E(Z(Xi )) = m(Xi )

• La varianza: Var(Z(Xi )) = E[Z(Xi ) - m(Xi )]² = σi²


• La covarianza espacial: Cov (Z(Xi),Z(Xj )) = E[Z(Xi ) - m(Xi )] [Z(Xj ) - m(Xj )]
1
• El (semi)variograma: γ(Z(Xi ),Z(Xj )) = E[Z(Xi ) - Z(Xj )]²

Donde j = i + h, y h es el paso entre las muestras. Si consideramos el caso especial de h = 0 (o


sea, i = j) en la ecuación iii), se obtiene la expresión:

(2.8.)

Se puede decir por lo tanto que la existencia de la covarianza espacial implica que la varianza
existe, es constante y no depende de h.

Otra característica importante de estos índices es que la covarianza espacial, el correlograma y


el variograma están íntimamente relacionados; son actualmente funciones similares, cada una
obtenible de la otra si ciertas condiciones se cumplen. Estas condiciones tienen una relación
directa con el concepto de estacionaridad, están a la base de la teoría geoestadística y serán dis-
cutidas en detalle en la sección dedicada a la presentación de esta teoría. Por ahora, se supone
que se dispone de una variable regionalizada definida en un cierto campo y que dos condiciones
se aplican: i) el valor esperado de esta variable; su media, es constante para toda ubicación
geográfica en el campo; esto implica que, exceptuando fluctuaciones aleatorias, el valor de la
media no presenta ningún tipo de tendencia, y ii) la covarianza espacial existe y es solamente
función del vector de separación h; o sea, la covarianza es independiente de la ubicación. Bajo
estas condiciones existe una clara relación entre la covarianza espacial y el variograma.

71
Existe, por lo tanto, una relación directa entre el variograma, la varianza, y la covarianza espacial,
si la condición de estacionaridad se cumple (ecuación 2.9.):

1 1

= 1
2 {E(Z( X+ h) – m)2 + E(Z( X ) – m)2 – 2E (Z( X+h )–m)(Z( X )–m
{
(2.9.)
1 1 { {

Considerando que la correlación es una covarianza normalizada (ecuación 2.3.), la ecuación (2.9.)
se expresa comúnmente en función de la correlación, es decir, toma la forma:

(2.10.)

La covarianza espacial y el variograma son por lo tanto equivalentes, son calculables uno a partir
del otro (ecuación 2.9.). Pero es importante considerar que la relación en la ecuación (2.10.) y el
gráfico presentado en la Figura 2.15. son solamente válidos en el caso de una situación estacio-
naria (definición que se discutirá en detalle en la sección dedicada a la teoría geoestadística).

Tres puntos son importantes de comprender por ahora: i) en geoestadística es necesario cuanti-
ficar la continuidad espacial-temporal del atributo de interés, ii) la auto-covarianza o covarianza
espacial es el índice utilizado con este fin, y iii) su cálculo se efectúa por medio de la ecuación
(2.10.); el variograma es calculable directamente de los datos originales, y la varianza, σ², es una
constante conocida.

Figura 2.15. Relación entre


covarianza espacial y
semivariograma en el caso de
una situación estacionaria. Si
h≤a, existe una correlación
espacial-temporal en los datos;
h > a indica una ausencia de
correlación espacial-temporal.

72 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


El análisis de la figura 2.15. muestra también otras dos características importantes de la relación
entre covarianza espacial y variograma: i) dada una distancia h, la suma del valor de la covarianza
espacial y del semivariograma coinciden con el valor de la varianza (el equivalente gráfico de
la ecuación 2.9. o 2.10.), y ii) a una cierta distancia h = a, el valor del semivariograma concuerda
con el valor de la varianza (o el valor de la covarianza espacial es cero); por lo tanto, a distancias
menores que el parámetro a, la covarianza espacial existe y a distancias mayores que a, la co-
varianza es cero. Esta distancia a representa el límite entre la utilización de la geoestadística o
de la estadística clásica (se volverá a discutir este punto en más detalle en la sección dedicada
a la teoría geoestadística).

2.2.3.1. cálculo del variograma experimental


En esta sección se discutirá el método de cálculo del VE. Se considerarán varias situaciones;
específicamente, los casos de i) datos uni o bidimensionales, ii) muestreos regular o irregular, y
iii) datos con una distribución isotrópica o anisotrópica.

• Datos unidimensionales (muestreo regular): un ejemplo podría ser una serie temporal de
datos o un transecto en una foto aérea en una dirección determinada. Se debe notar como
Z(si) (i = 1…N) la VR de interés tanto en la serie temporal como en el transecto; siendo el
caso de un muestreo regular, el intervalo entre las observaciones es constante (Figura 2.2.).
El uso de la ecuación 2.7. significa comparar en el primer lag (Lag 1) valores vecinos (o sea,
valores separados por una distancia igual al valor del intervalo), y en los siguientes lags
valores separados por distancias igual al valor del intervalo multiplicado por el valor del lag
(Figura 2.16.).

Figura 2.16. Ilustración del método


de cálculo de un variograma
experimental en el caso de un
muestreo unidimensional y
regular.

73
Ilustrando este caso con un ejemplo concreto. Se supone que se dispone de las siguientes ob-
servaciones espaciadas cada 100 m:

5 3 6 4 2 1 1 2 4 3 2

En este caso, utilizando la ecuación 2.6. se obtiene:

etc.

• Datos bidimensionales (muestreo regular): cuando los datos son bidimensionales y el mues-
treo es regular, se requiere definir la dirección en la cual aplicar la ecuación 2.7. Por ejem-
plo, en la Figura 2.17a se considera el caso de un muestreo regular donde se seleccionó
la dirección vertical para el cálculo del variograma. Se podría haber escogido obviamente
cualquiera otra dirección; es decir, es necesario en general definir tanto la longitud como la
dirección del vector h en la ecuación 2.6. Para ello se define la dirección vertical como 0° y la
rotación se efectúa en el sentido de las agujas de un reloj; consecuentemente, la dirección
horizontal corresponde a 90° (Figura 2.17b).

Figura 2.17. Conjunto de datos


bidimensionales, donde en a)
se ha seleccionado la dirección
vertical para efectuar el cálculo
del variograma experimental,
y en b) se muestra la definición
estándar de dirección para
el cálculo de un variograma
experimental.

74 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


• Datos bidimensionales (muestreo irregular): idealmente, lo deseable es disponer para el cál-
culo del variograma experimental de un gran número de pares de puntos a cada distancia;
pero, cuando el muestreo es irregular esta condición no se cumple (Figura 2.18a). Se requiere
adoptar, por lo tanto, parámetros de tolerancia sobre las distancias y las direcciones en el
cálculo del VE, permitiendo de esta manera aumentar el número de pares de puntos a cada
distancia; o sea, habrá que definir una distancia, h ± ∆h y una dirección, ϕ ± ∆ϕ. Los
valores adoptados para ∆h y ∆ϕ son casi estándar en la literatura; en su gran mayoría los
programas geoestadísticos adoptan para la distancia un ∆h igual a un 50 por ciento de la
unidad de medida. Por ejemplo, si la unidad de medida fuera el centímetro, lag 1 podría ser
la distancia mínima en los datos (cm) ± ½ cm y para el caso de ∆ϕ, se considera un valor
de 22°.

Figura 2.18. Datos bidimensionales:


a) muestreo irregular, b) parámetros
de tolerancia, ∆ϕ (dirección) y ∆h
(distancia), tal que:

En general, lo deseable es tener un gran número de pares de puntos a cada distancia. Esto no es
posible en los casos de muestreos irregulares, pero el uso de regiones de tolerancia, formadas a
partir de intervalos de distancia y un ángulo de tolerancia alrededor de la dirección definida por
el vector h, permite minimizar este problema. La región de tolerancia corresponde al polígono
cfed; solamente las muestras que se encuentran al interior de este polígono serán seleccionadas
para calcular el variograma a esa distancia y dirección (Figura 2.18b).

Desde un punto de vista práctico, se puede decir que un VE se calcula para todos los posibles
pares de puntos en el conjunto de datos y se asigna cada par a una clase de intervalo h. Es-
tas asignaciones son hechas generalmente por el so!ware (pero existe la posibilidad de que
el usuario efectúe él mismo estas asignaciones). Para efectuar esta operación, los programas
geoestadísticos requieren que se definan previamente dos parámetros: i) El rango sobre el cual
el variograma será calculado, ALD (Active Lag Distance, ALD) y ii) Definir cómo los pares de pun-
tos se agruparán en clases de intervalo h, LCDI (Lag Class Distance Interval, LCDI). Cada punto en
un variograma representa la semivarianza promedio para una clase de intervalo h, y el número

75
de puntos en el variograma es función tanto del ALD como del LCDI. Por ejemplo, un ALD = 300
m con un LCDI = 15 m producirá un variograma conteniendo 20 puntos. ¿Cómo influyen estos
parámetros en el cálculo del VE? Para responder a esta pregunta consideremos un ejemplo
numérico, un transecto de 1000 m tendrá un lag (distancia) máxima de 1000 m. Un ALD de 300
m limitará el cálculo del variograma a distancias (LCDI) menores o iguales a 300 m a lo largo de
toda la longitud de 1000 m del transecto.

Dado un conjunto de datos, el so!ware define usualmente el ALD como 80% del lag máximo en
los datos. Este valor no será probablemente el ALD más apropiado para cumplir con los objetivos
científicos del proyecto bajo consideración, pero proporcionará un buen punto de partida. La
selección de un 80% viene del hecho de que los variogramas no son estadísticamente robustos
a distancias cercanas al lag máximo, debido a la disminución del número de pares de puntos a
medida que se aproxima el lag máximo. De manera general, se puede decir que el variograma
es poco estable cuando i) la distancia h considerada es grande, ii) el muestreo es muy irregular
o atípico y iii) la distribución de datos presenta un valor alto de la oblicuidad (≥ 1) y/o contiene
valores extremos.

El valor mínimo aceptado para el parámetro LCDI es la distancia mínima entre las observaciones,
mientras que el valor máximo es el lag máximo presente en los datos. El valor predeterminado
del LCDI es 10% del ALD, si este valor es menor que la distancia mínima entre las observaciones,
esta distancia mínima prevalece.

Esta descripción del cálculo y la presentación visual de un variograma va a variar, en general,


entre so!ware; se recomienda por lo tanto consultar el manual del programa utilizado para
calcular y visualizar el VE para comprender exactamente el material recibido.

Dados los argumentos presentados hasta ahora en esta sección, debe estar claro que el cálculo
del VE de datos bidimensionales requerirá especificar la dirección en la cual el VE será calculado.
En la situación de una distribución isotrópica esta restricción obviamente no se aplica. En caso
de datos isotrópicos, es usual calcular un variograma omnidireccional; es decir, un variograma
que no depende de la dirección. Se puede interpretar como el promedio del VE en todas las
direcciones posibles. Su cálculo se efectúa escogiendo la tolerancia angular, ∆ϕ (Figura 2.18.)
tal que las direcciones (ϕ+ ∆ϕ) y (ϕ - ∆ϕ) sean opuestas y perpendiculares a la dirección ϕ .

Datos presentando distribuciones anisotrópicas: se intenta, en primer lugar, explicar en palabras


simples la diferencia entre una distribución isotrópica y una anisotrópica. Algunos ejemplos
simples ilustrarán esta diferencia:

• Imagine que usted y un grupo de amigos están sentados en torno a una fogata conversan-
do, cantando o contando historias; pero ¿por qué nos sentamos en torno a la fogata? La
respuesta es simple, alrededor del fuego no importa qué dirección consideremos siempre
recibimos el calor de la fogata; en otras palabras, la dirección no importa, solo es impor-

76 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


tante qué tan cerca del fuego estemos, por supuesto esto es así mientras no haya mucho
viento. Ahora qué pasa si en lugar de la fogata se utiliza un gran soplete; no funcionará pues
mientras un miembro del grupo recibirá la llama del soplete directamente y se rostizará, el
resto del grupo no sentirá el calor proveniente del soplete. El calor de la fogata presenta
una distribución isotrópica, en cambio la distribución del calor en el caso del soplete es
muy anisotrópica.

• Al considerar un caso más realista, la distribución de partículas disueltas en agua será iso-
trópica si el agua está en calma; pero si hay una corriente, esta arrastrará las partículas y la
distribución será anisotrópica.

• Al ir al supermercado, en general la temperatura se siente muy similar en todas partes, pero


la situación cambia en el pasillo de los congelados y los lácteos, donde la temperatura es
mucho más fría y su distribución es muy direccional (a lo largo del pasillo), bastará con que
usted camine por el pasillo que sigue y la temperatura habrá cambiado mucho.

• En minería es posible que existan cuerpos en los cuales un mineral está distribuido sin una
dirección predominante; pero una veta, por el contrario, es un claro ejemplo de concentra-
ción del mineral en una dirección determinada.

La anisotropía se refiere, por lo tanto, a la presencia de una tendencia direccional en los datos.
Por ejemplo, al considerear valores de elevación en la ladera de una montaña; en este caso,
los valores de elevación estarán auto-correlacionados de manera diferente en función de la
dirección considerada. Un análisis isotrópico de estos datos no será, por lo tanto, capaz de
determinar la distribución exacta de los valores de elevación. El análisis anisotrópico, por otro
lado, permitirá primero determinar si los datos tienen un componente direccional y, segundo,
identificar esta dirección. La manera óptima de evaluar el grado de anisotropía presente en un
conjunto de datos es utilizar la superficie de semivariancia anisotrópica (mapa variográfico)
disponible en la gran mayoría de los so!ware geoestadísticos (Figura 2.19.).

Figura 2.19. Ejemplo de mapas


variográficos, ilustrando el hecho
de que el mapa variográfico permite
determinar las direcciones de
anisotropía en la variable de interés.
a) Ejemplo de una elipse de búsqueda
sobrepuesta en un mapa variográfico;
su eje mayor precisa el eje anisotrópico
principal de los datos, b) ejemplo
de datos con una distribución
prácticamente isotrópica (valores de
la semivarianza independientes de la
dirección). La definición de dirección
respeta la definición dada en la Figura
2.17b (So!ware, GS⁺, Robertson, 2008).

77
El eje mayor de la elipse de búsqueda corresponde a una dirección alineada con los valores más
bajos de semivarianza (dirección de máxima continuidad espacial o eje principal del modelo
anisotrópico de variograma de anisotropía). La Figura 2.19b ilustra la situación de un campo
básicamente isotrópico, los valores de la semivarianza son prácticamente independientes de
la dirección. Se puede apreciar un ejemplo de un mapa variográfico con una clara distribución
anisotrópica en la Figura 2.32 (página 88).

Resumiendo, el variograma experimental es una función que analiza la dependencia espacial de


la variable en estudio y permite medir la semejanza promedio entre las mediciones en función
de su separación; en otras palabras, el variograma experimental cuantifica la correlación espa-
cial-temporal de los datos.

2.3. Variograma teórico

El VE, tal como fue definido en las secciones previas, es una función definida (calculada) solo a
ciertas distancias (de manera discreta) y solo a lo largo de algunas direcciones del espacio (a me-
nos de que se haya calculado el mapa variográfico). En este sentido, se puede decir que el VE es
incompleto, pues se desconoce su valor a distancias y direcciones que no fueron consideradas
en el diseño del muestreo. También hay que considerar que los valores de los cuales se obtuvo el
VE son experimentales, o sea están sujetos a imprecisiones. Por lo tanto, se podría decir que un
VE no es solo incompleto, sino también imperfecto. Lo que se requiere para remediar esta situa-
ción es obtener un modelo teórico del VE válido para toda distancia menor que la extensión del
diseño del muestreo (Figura 2.2.). Para lograr este objetivo, se ajusta simplemente una función
continua al VE. Este variograma teórico (VT) posee ciertas características que tienen relación
con el comportamiento del VE en el origen, al infinito y su comportamiento direccional. En esta
sección, por lo tanto, se presenta y discute primeramente las características (propiedades) del
VT y, en segundo lugar, se discute el modelamiento del VT, tanto en el caso isotrópico como
anisotrópico. Pero, antes de entrar en detalles, algunos comentarios de carácter general acerca
del ajuste (modelamiento) de un VT:
• Esta es una operación subjetiva. No existe un variograma teórico verdadero.

• No existe tampoco un método general. Se dispone de una serie de ajustes y hay que asegu-
rar siempre de respetar las características del VT.

• El ajuste de los parámetros (características) del VT es un proceso interactivo, cuyo objetivo


es lograr un ajuste satisfactorio.

78 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


• Desde un punto de vista teórico matemático, el VT posee ciertas propiedades:

X Es una función positiva: g(h)≥0.

X Es una función par: g(h) = g(-h).

X Es nulo en el origen: g (0) = 0.

X Es una función de tipo negativo condicional. Esto significa, entre otras cosas, que el
modelo que se utilizará no debe predecir varianzas negativas.

X En resumen, no cualquier función matemática es aceptable para el modelamiento del


VT; por esta razón, los so!ware geoestadísticos ofrecen solo un número muy limita-
do de modelos a utilizar en el ajuste de un VE, los cuales (modelos) veremos en esta
sección.

• Puntos importantes de considerar en el proceso de ajuste del VE:

X El comportamiento del VE en el origen y cerca de este.

X Evaluar tanto una situación isotrópica como una anisotrópica, pero en primer lugar
considerar el caso isotrópico.

X No se requiere un ajuste del VE a todas las distancias; o sea, ajustar el VE solamente


dentro de la escala de trabajo del proyecto.

X Utilizar siempre la función matemática más simple posible.

X No olvidar que existen ciertos límites matemáticos que hay que respetar. No cualquie-
ra función matemática es aceptable.

X Es posible considerar como solución una suma de modelos básicos (un variograma
anidado). Lo cual será discutido en detalle en esta sección.

2.3.1. características del variograma teórico


Tres parámetros del VT caracterizan la variabilidad en los datos con los cuales se calculó el VE.
Estos parámetros son: i) la discontinuidad en el origen (efecto pepita: C₀), ii) el valor máximo
de variabilidad (meseta: Ct) y iii) distancia a partir de la cual la correlación es cero (alcance: a)
(Figura 2.20.).

79
Figura 2.20. Definición de los tres
parámetros básicos de un variograma
teórico: efecto pepita (C0), meseta (Ct) y
alcance (a). Se define también un cuarto
parámetro, la varianza estructurada,

C = Ct – C₀.

Efecto pepita (C₀): este parámetro está relacionado con el comportamiento del variograma en
el origen. En teoría, el VE calculado para h = 0, por medio de la ecuación 2.6., sería de γ(0) = 0,
pero en la práctica γ(0) ≠ 0; específicamente, γ(0) = C₀. Se interpreta esta situación como un
variograma que presenta en el origen una discontinuidad debido a dos factores: i) errores en las
observaciones (no olvidar que se trata de observaciones experimentales) y ii) dado el diseño de
muestreo adoptado, existen en los datos variaciones a escalas más pequeñas que el intervalo
de observación. Si C = 0, Ct = C₀ (Figura 2.20.); por lo tanto, se trata de un fenómeno sin
estructura espacial-temporal, un proceso aleatorio sin correlación en el espacio (ni el tiempo).
Toda información que pudiera existir en estos datos se encuentra a la escala de microestructu-
ras; por ejemplo, a una escala de un metro la variabilidad presente a escalas de milímetros no se
observará y el variograma será 100 por ciento un efecto pepita puro (Figura 2.21.).

Figura 2.21. a) Ejemplo de un fenómeno


totalmente aleatorio, un fenómeno sin
ninguna estructura espacial o temporal,
b) variograma teórico correspondiente
a la situación presente en a).

80 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Meseta (Ct): la meseta representa el valor máximo de variabilidad presente en los datos; es
decir, se trata en este caso del comportamiento del variograma al infinito. En general, el vario-
grama se estabiliza en torno a una meseta cuando la distancia crece infinitamente (Figura 2.20.).
El variograma γ(h) aumenta a partir de h = 0 y toma eventualmente un valor límite máximo. Este
valor es obtenible a partir de la ecuación 2.9.

(2.9.)

Cuando la distancia de separación h tiende a infinito en la ecuación 2.9., la covarianza tiende a


cero y el variograma es, por lo tanto, igual a la varianza.

Si h → ∞, entonces γ(∞) = σ². Un valor constante que corresponde a la varian-


za en los datos (máxima variabilidad en los datos).

Alcance o rango (a): para valores de x ≥ a, el variograma presenta un valor constante e igual al
valor de la meseta (Figura 2.20.). Esto significa que Z(x) y Z (x + h) son valores independientes,
aleatorios; pero, si x ≤ a, los valores de Z(x) y Z (x + h) están relacionados entre sí, existe una
correlación entre ellos. En otras palabras, el valor del alcance precisa dos zonas en un variogra-
ma: i) si x ≤ a, se define una zona de correlación donde se debería utilizar la geoestadística, y ii)
si x > a, se define una zona donde la geoestadística no es aplicable y se debería, por lo tanto,
utilizar la estadística clásica (Figura 2.15.).

Se recuerda que la ecuación 2.9. y la situación presentada en la Figura 2.15. son válidas bajo la
hipótesis de que los datos originales satisfacen la condición de estacionaridad (tema que dis-
cutiremos en la sección 3.2.1.). Se menciona también que la forma del variograma presentada
en la Figura 2.20. es la forma típica, estándar que presenta un VT; pero, no es única, otras posi-
bilidades también existen y se las presenta a continuación:

Variograma sin límites: en ciertas circunstancias el variograma sigue creciendo infinitamente;


o sea, no presenta ni meseta ni alcance. El valor del variograma aumenta en función de h sin
límite (Figura 2.22.). Dos situaciones facilitan la obtención de un variograma de este tipo: i)
una razón de tipo teórico, los datos no respetan la condición de estacionaridad (no es posible
calcular la covarianza de tal conjunto de datos) y ii) una razón de tipo práctico, esta situación es
una consecuencia del diseño de muestreo adoptado para efectuar la adquisición de los datos; la
escala de observación es mucho menor que el alcance (el ALD sobre el cual el variograma será
calculado << alcance).

81
Figura 2.22. Ilustración de un
variograma sin meseta ni alcance.

Variograma en el caso de que los datos presenten una tendencia: el variograma presenta un
comportamiento parabólico cerca del origen (forma cóncava) debido a la presencia de una ten-
dencia en los datos (Figura 2.23.).

Figura 2.23. Ilustración de un


variograma en el caso de tendencia
en los datos.

Variograma en presencia de oscilaciones en los valores de la variable: en el caso de fenómenos


periódicos, el variograma presenta periodicidad. Es una situación mucho más frecuente con
datos temporales (por ejemplo, mareas) que con datos espaciales. Este tipo de variograma tam-
bién recibe el nombre de variograma con hoyos, indicando que el variograma no es monótono
(Figura 2.24.).

82 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 2.24. Ilustración de
un variograma con hoyos (no
monótono). Este tipo de variograma
es característico de fenómenos
periódicos.

2.3.2. modelamiento del variograma experimental


Se distinguen dos tipos de modelos, los modelos elementales y los modelos complejos o anida-
dos, que implican una suma de varios modelos elementales. Se diferencia también entre mode-
los isotrópicos y anisotrópicos. Independientemente de estas clasificaciones se puede también
agrupar modelos de acuerdo con la siguiente lógica:

• Modelos con meseta y con un comportamiento en el origen.

X Discontinuo (modelo efecto pepita puro).

X Lineal (modelo esférico o exponencial).

X Parabólico (modelo gaussiano o cúbico).

• Modelos sin meseta.

X Modelos potencia, lineal y logarítmico.

• Modelos con meseta y efecto hoyo.

X Modelo función trigonométrica.

83
2.3.2.1. modelos elementales
Figura 2.25. Modelo efecto pepita puro.
a) Variograma teórico, b) fórmula de
cálculo. Ct es un valor constante e igual
al valor de la meseta.

Este modelo se aplica en caso de un conjunto de datos con una correlación de valor cero; las
observaciones (muestras) son totalmente independientes:

Figura 2.26. Modelo esférico. a)


Variograma teórico, b) Fórmula de
cálculo. C₀: efecto pepita; CT: valor de
la meseta; y a: valor del alcance.

Figura 2.27. Modelo exponencial. a)


Variograma teórico, b) fórmula de
cálculo. C₀: efecto pepita; Ct: valor
de la meseta; y a: alcance práctico; es
decir, la distancia a la cual el variograma
llega al 95% de la meseta Ct (el alcance
es 5% del valor de la asíntota).

Figura 2.28. Modelo gaussiano. a)


Variograma teórico, b) Fórmula de
cálculo. C₀: efecto pepita; Ct: valor de
la meseta; y a: valor del alcance.

84 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 2.29. Modelo potencia. a)
Variograma teórico, b) fórmula de
cálculo. ω: un factor de escala; θ: 0≤
θ < 2.

Este modelo no posee ni meseta ni alcance y representa, de manera general, fenómenos no


estacionarios. El comportamiento en el origen depende del valor del exponente θ que puede
variar entre cero (un efecto pepita puro) y dos (un variograma parabólico). Tres ejemplos con-
cretos son presentados en la Figura 2.29.: i) línea negra (ω = 1.15, θ = 1.0), ii) línea azul (ω= 2.5,
θ = 0.4), iii) línea roja (ω= 0.4, θ = 1.8).
Desde la Figura 2.25. hasta la 2.29. se han presentado los modelos isotrópicos comúnmente
disponibles en los so!ware geoestadísticos, pero estos no son los únicos modelos existentes.
Se encuentran en la literatura otros modelos de uso menos frecuente, útiles en situaciones bien
particulares. Para detalles acerca de estos otros modelos se sugiere consultar: Emery (2000),
Giraldo (2002) o Montero y Larraz (2008).

2.3.2.2. evaluación del modelo ajustado


Los programas geoestadísticos proporcionan tres índices para evaluar la calidad del modelo
ajustado:

• La suma de cuadrados residuales, RSS (Residual Sums of Squares).

• El valor de r².

• La proporción C / (C₀ + C), donde C es la varianza estructurada y C₀ el efecto pepita


(Figura 2.20.).

• Además de estos tres índices se plantea la capacidad de efectuar una validación cruzada.

El RSS y el r² proporcionan un índice de la calidad del ajuste efectuado a los valores del VE, pero
el RSS es más robusto que el r² y, por lo tanto, se lo prefiere para juzgar el efecto de cambios
en los parámetros del modelo. El parámetro C / (C₀ + C) proporciona el grado de estructura

85
espacial (temporal) explicada por el modelo; es decir, es una medida de la proporción de la va-
rianza total presente en los datos (C₀ + C), que es explicada por la varianza estructurada C.
Si C₀ = 0, la proporción C / (C₀ + C) toma entonces el valor de 1. Esta situación se presenta
difícilmente en la vida real; ya que se están considerando datos experimentales y, por lo tanto,
siempre existe un cierto nivel de ruido. El caso opuesto, C₀ = C₀ + C implica que C = 0; o
sea, un efecto pepita puro.

La validación cruzada consiste en eliminar cada valor medido (uno a la vez) del campo y esti-
mar su valor por medio del método de estimación seleccionado (por ejemplo, Kriging). De esta
manera se obtiene un gráfico de valores estimados versus valores reales para cada ubicación
utilizada en el muestreo. Dado que efectuar una validación cruzada requiere el uso de un mé-
todo de estimación, su discusión en profundidad será efectuada en el capítulo dedicado a la
problemática de estimación.

2.3.2.3. modelos complejos, anidados


El VE presenta a menudo cambios de pendiente (Figura 2.30.). Esto significa que distintas es-
calas están presentes en los datos; un variograma anidado permite modelar estos cambios de
pendiente, para lo cual cada una de estas escalas será representada por un modelo elemental
(discutidos en la sección anterior). Cada variograma elemental caracterizará, por lo tanto, la
variabilidad a una escala particular y el VT del conjunto será, por lo tanto, interpretado como
la suma de varios variogramas elementales. Específicamente en el caso del variograma presen-
tado en la Figura 2.30., se han considerado tres modelos elementales para representar el VT:
un efecto pepita, C₀ y dos modelos presentando alcances a1 y a2, respectivamente. En otras
palabras, el VT se interpreta como una superposición de variogramas de base actuando simul-
táneamente, pero a escalas diferentes. Esto significa que existe una cierta jerarquía entre las
estructuras presentes; por ejemplo, la tercera estructura presente en el variograma anidado de
la Figura 2.30., la más alejada del origen hacia la derecha, integra las dos otras estructuras que
se encuentran más cercanas al origen. Si se considerara solamente esta tercera estructura, las
dos primeras tendrían alcances muy cortos respecto de la escala de la tercera y estarían, por lo
tanto, integradas al efecto pepita de este tercer modelo.

Figura 2.30. Ilustración de un


variograma anidado. Se trata de un
variograma anidado conteniendo tres
componentes, donde cada variograma
elemental caracteriza la variabilidad a
una escala particular.

86 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Un ejemplo más concreto de un variograma anidado se encuentra en la Figura 2.31. Se trata de
a) un modelo exponencial + un efecto pepita, y b) un modelo esférico; c) = a) + b).

Figura 2.31. Ejemplo de un variograma


anidado; a) un modelo exponencial + un
efecto pepita, b) un modelo esférico, y
c) = a) + b).

2.4. Análisis de anisotropía

Se trata de efectuar un análisis del comportamiento de la continuidad en distintas direcciones.


En el caso isotrópico, el variograma es idéntico en todas las direcciones (variograma omnidirec-
cional); en el caso anisotrópico, el variograma muestra diferentes comportamientos en función
de la dirección (variogramas direccionales). Este último caso significa que la VR de interés posee
direcciones preferenciales en lo referente a su continuidad; este es justamente el tema que inte-
resa considerar ahora. Como ya se ha discutido en el texto, el comportamiento del variograma
es función de la distancia y de la dirección; es decir, h es un vector en las ecuaciones 2.7. y 2.10.
En el caso de una situación isotrópica, el variograma depende solo del módulo de h; pero en el
caso anisotrópico depende tanto del módulo como de la dirección. En esta situación, la herra-
mienta más eficaz para detectar anisotropías es la utilización del mapa variográfico (Figura 2.19.),
dado que es un mapa de isovalores del variograma experimental en función de la separación
(distancia y orientación). Un ejemplo de esta situación se puede apreciar en la Figura 2.32., don-
de se presenta un mapa variográfico en el cual es posible definir un círculo, al interior del cual la
distribución sería isotrópica. A distancias mayores que el radio de este círculo, la distribución
debería ser considerada como anisotrópica.

87
Figura 2.32. Ejemplo de un mapa
variográfico. La distribución es
isotrópica hasta una distancia (escala)
definida aproximadamente por el círculo
azul al centro del mapa. A distancias
mayores del radio de este círculo, la
distribución es anisotrópica (So!ware,
GS⁺, Robertson, 2008).

Una síntesis de la situación se presenta en la Figura 2.33. El mapa variográfico puede presentar a
ciertas escalas una distribución isotrópica (un círculo) y a otras escalas el caso opuesto, una dis-
tribución anisotrópica (el mapa variográfico conteniendo en este caso una elipse) (Figura 2.33a).
El eje mayor de la elipse precisa el eje anisotrópico principal de los datos, o sea, la dirección
alineada con los valores más bajos de semivarianza (dirección de máxima continuidad espacial,
o eje principal del modelo anisotrópico) (Figura 2.33b). El cociente (cd)⁄(ab) define la intensidad
de la anisotropía (coeficiente de anisotropía), y el ángulo ∡aox = θ determina la orientación de
la anisotropía (ángulo de la anisotropía) (Figura 2.33b).

Figura 2.33. Representación de un mapa


variográfico. a) El círculo corresponde
a una distribución isotrópica y la
elipse a una distribución anisotrópica.
b) En el caso de una distribución
anisotrópica, se determinan los dos
ejes anisotrópicos principales ab y
cd (ejes mayor y menor de la elipse,
respectivamente) y la orientación de la
elipse (ángulo∡aox = θ).

88 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Para los efectos del modelamiento de estos mapas variográficos, se consideran tres tipos de
anisotropías: geométrica, zonal e híbrida:

• La anisotropía geométrica: el mapa variográfico presenta en distintas direcciones la misma


meseta, pero rangos diferentes. Por ejemplo, los dos variogramas presentados en la Figura
2.34a podrían representar direcciones Norte-Sur (a1) y Este-Oeste (a2) tales que la mayor
continuidad espacial se observa en la dirección del rango mayor (a2) y la menor continuidad
espacial en la dirección del eje rango menor (a1). En el caso de variogramas sin meseta, una
anisotropía geométrica significa variogramas direccionales con pendientes diferentes.

• La anisotropía zonal: es aquella en la cual el variograma presenta en direcciones diferentes


el mismo rango (a), pero diferentes mesetas (Figura 2.34b). Este tipo de anisotropía es indi-
cativa de la presencia de estructuras diversas en los datos de interés.

• La anisotropía híbrida: es la que el variogramas en distintas direcciones presenta tanto


rangos como mesetas diferentes (Figura 2.34c).

Figura 2.34. Tres tipos de anisotropía. a)


geométrica, b) zonal y c) híbrida. a, a1,
a2 representan rangos, C₁, C₂ indican
mesetas y ∆C = C₁ – C₂.

2.4.1. modelos anisotrópicos


Los modelos elementales (sección 2.3.2.1.) han sido definidos solo para el caso isotrópico. Para
el cálculo de modelos anisotrópicos, los programas geoestadísticos generalizan el formulismo
isotrópico al caso anisotrópico, en el cual el rango es función de la dirección, pero la meseta
permanece constante. Concretamente, los conceptos de efecto pepita (C₀) y meseta (C₀ +C)
siguen siendo los mismos, pero la meseta es invariante (la misma en todas direcciones) y se
utilizan dos alcances representando los dos ejes de variación (a₁, alcance en el eje mayor de
variación en una dirección ϕ, y a₂, alcance en el eje menor en la dirección (ϕ+ 90) (para más
detalles ver Giraldo, 2002).

89
2.5. Índices adicionales de continuidad espacial-temporal

El objetivo de esta sección es presentar otras funciones matemáticas, aparte del variograma,
que permiten la descripción cuantitativa de la continuidad espacial (temporal). Se justifican
estos índices adicionales por la necesidad de calcular variogramas bajo ciertas condiciones bien
precisas; por ejemplo, la presencia de valores atípicos en los datos. El VE, tal como fue definido
en la ecuación 2.7., mide la homogeneidad (heterogeneidad) promedio entre datos separados
por una distancia h y su valor aumenta tan pronto como la distancia h aumenta; no hay que
olvidar también, que el VE es función del promedio del conjunto de datos, incluidos valores
atípicos que pudieran estar presentes en esos datos. Estos últimos pueden asumir un rol impor-
tante en el cálculo de VE dado que γ(h) ∞ (Z(x) – Z (x + h))2 (ecuación 2.7.). La presencia de
valores atípicos en el conjunto de datos presenta por lo tanto una problemática a la cual hay que
encontrarle una solución satisfactoria. Existen varias posibilidades, descritas a continuación:

• Eliminar y/o retirar del conjunto de datos los valores atípicos: esta opción es aceptable si los
valores atípicos no son valores medidos durante el proceso de la adquisición de los datos;
o sea, representan ruido, el cual es deseable, por lo menos, minimizar. En el caso contrario,
su eliminación no se justifica.

• Transformar los datos: si se aplica a los datos una transformación matemática (logarítmica,
por ejemplo), se reduce el valor del coeficiente de asimetría. Esto tiene como efecto mini-
mizar la importancia de los valores atípicos en el cálculo del variograma.

• Definir otros índices de continuidad espacial-temporal: la diferencia (Z(x) – Z (X + h)) en la


ecuación 2.7. presenta una potencia al cuadrado, la cual la hace muy sensible a la presen-
cia de valores atípicos. Esta potencia al cuadrado se la podría substituir teóricamente por
otros valores que hicieran disminuir la contribución al cálculo del variograma de los valores
atípicos.

La fórmula de cálculo de un variograma (ecuación 2.7.) es simplemente un caso particular de una


fórmula más general (ecuación 2.10.), donde el valor de la potencia ω es dos.

1
i=1
xi xi (2.10.)

90 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


El valor de la potencia no tiene que ser obligatoriamente ω = 2. En general, se utilizan también
valores de ω < 2, lo que significa disminuir la influencia de los valores extremos en el cálculo del
variograma. Se definen entonces tres tipos de variogramas:

• Variograma: variograma de orden 2.

• Madograma: variograma de orden 1.

• Rodograma: variograma de orden 0.5.

El uso tanto del madograma como del rodograma tiene como consecuencia disminuir la impor-
tancia o contribución de los valores atípicos al cálculo del VE (Figura 2.35.). Esta figura presenta
una comparación entre variograma, madograma y rodograma, los tres calculados para un con-
junto de datos, donde se conoce la presencia de varios valores atípicos. Los valores de la semi-
varianza son un orden de magnitud mayor en el variograma que en el madograma y rodograma.
La presencia de valores atípicos influye, por lo tanto, en el cálculo del variograma, pero tanto
en el madograma como el rodograma producen descripciones más claras de la continuidad
espacial-temporal (o la falta de ella).

Madogramas y rodogramas son dos índices que son útiles en el estudio de estructuras a gran-
des escalas y en la determinación del grado de anisotropía presente en los datos, pero no han
mostrado su utilidad en la modelización del efecto pepita. Otro campo donde han demostrado
su utilidad es en el estudio de la información espacial, presente en imágenes aeroespaciales
(Rodríguez-Galiano y otros, 2011).

Figura 2.35. Comparación de a)


variograma, b) madograma y c)
rodograma calculados para un
conjunto de datos conteniendo
valores atípicos (So!ware, GS+,
Robertson, 2008).

Además del madograma y el rodograma existen otros índices adicionales que es necesario ci-
tar. Como se ha mencionado, el valor del variograma depende del promedio de los datos. Por
ejemplo, supongamos una región donde la varianza de los datos varía de una zona a otra; esta
situación no es compatible con la existencia de un variograma válido para toda la región, pues

91
la hipótesis de un solo variograma implica la existencia de solo una meseta, o sea una varianza
constante. En situaciones como esta o similares se utilizan tres tipos de variogramas normali-
zados:

• Variogramas relativos locales.

• Variogramas relativos generales.

• Variogramas relativos por pares.

Si la varianza no es constante, se puede segmentar la región de estudio en subgrupos y calcular


variogramas locales por cada subgrupo normalizados al promedio local. Finalmente, se calcula
el promedio de los variogramas locales (variograma relativo local). El problema mayor con este
método se genera al segmentar la región de estudio en subgrupos, el número de datos en cada
subgrupo es pequeño y el variograma promedio final no es robusto. Por esta razón, este método
no es muy utilizado en aplicaciones medioambientales, pero sí lo es en otras, como la minería.

Los variogramas relativos general y relativos por pares tienen también como objetivo eliminar la
dependencia del variograma en el promedio de los datos, pero sin recurrir a una segmentación
de la región de estudio. El primero (variograma relativo general), consiste en normalizar el va-
riograma por medio de una función de la media de los datos separados por una distancia h. Este
es, por lo tanto, un valor normalizado por el promedio estándar de los datos. El segundo (vario-
grama relativo por pares) es similar al relativo general pero normalizado por medio del cuadrado
del promedio. Los variogramas relativos permiten resaltar la continuidad espacial-temporal en
la presencia de agrupamientos de datos en la distribución de interés (Figura 2.36.).

Figura 2.36. Comparación


de a) variograma relativo
local, b) variograma relativo
general y c) variograma
relativo por pares; para
un conjunto de datos que
presenta agrupamiento
de estos (So!ware, GS⁺,
Robertson, 2008).

92 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Como resumen acerca de los variogramas relativos se puede decir que:

• El objetivo de su uso es mejorar la descripción de la estructura de un conjunto de datos


en los casos en que el VE es poco estable.

• Los variogramas relativos son menos sensibles a variaciones en el promedio de los datos.

• En ciertas situaciones producen una descripción más clara de la continuidad espacial


(temporal).

• En presencia de una distribución con una oblicuidad positiva, los variogramas relativos
son más robustos que el variograma a la presencia de pocos datos y valores anómalos.

• Permiten determinar estructuras y anisotropías que el variograma simplemente no


detecta.

• Cualquiera de ellos se puede usar en la descripción cualitativa de la continuidad


espacial-temporal.

• Finalmente, estos no son bien comprendidos teóricamente.

Otro tema que se debe mencionar es el caso donde no se desea conocer las características de
la VR misma, pero sí de una transformación de esta. El caso más frecuente es el paso a logarit-
mos. Tiene como ventaja atenuar o incluso hacer desaparecer la presencia de valores atípicos.
Los so!ware geoestadísticos ofrecen en su gran mayoría esta posibilidad. Una descripción más
completa de todos los índices definidos hasta ahora se encuentra en Emery (2000).

2.6. Índices en el caso de la geoestadística multivariable

Si se tienen dos o más variables con una cierta correlación entre ellas, todos los índices definidos
hasta este momento son también aplicables a esta nueva situación. Concretamente, se explica-
rán dos grupos: i) índices cruzados (entre variables) y ii) índices indicadores (variables discretas).
Todos los índices definidos hasta ahora se pueden generalizar a una situación multivariable; por
ejemplo, se puede considerar un diagrama de dispersión, un variograma, un correlograma o una
covarianza cruzada (o sea entre dos variables regionalizadas).

Como ilustración de esta situación, se considerará el caso de un variograma cruzado; es simple-


mente una extensión de la idea de variograma presentado en la Figura 2.7. Si en un variograma
se comparan valores de una variable con valores de la misma variable, pero localizados en otro
lugar, el variograma cruzado compara diferentes variables de ubicaciones disímiles.

93
Por ejemplo, observaciones de concentración de carbono y oro simultáneas, permitiendo de-
terminar la relación espacial entre estos dos elementos (Figura 2.37.). En otras palabras, permite
estudiar la similitud entre medidas de atributos diferentes.

Figura 2.37. Variograma cruzado entre


las variables carbono y oro (So!ware,
GS⁺, Robertson, 2008).

Se deben también mencionar los índices indicadores. Todos los índices definidos hasta este
momento evalúan la continuidad espacial-temporal, sobre todo el rango de valores de la variable
de interés; pero es posible que el grado de variabilidad sea función del valor de la variable. Es
decir, valores pequeños, medios o grandes de la variable de interés pueden presentar grados
diferentes de variabilidad. Se necesitará, por lo tanto, caracterizar la distribución espacial-tem-
poral de una variable Z(x) sobre o bajo un umbral, un límite (indicator datum).

Todos los índices definidos en este capítulo pueden ser aplicados al caso multivariable. La dis-
cusión en detalle de ellos se efectuará al momento de presentar y discutir los métodos de esti-
mación que requieren el uso de estos índices (Cokriging y Kriging indicador).

94 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


2.7. Resumen
Algunos comentarios generales con el fin de completar este capítulo:

• Se han presentado y discutido ciertas funciones (índices) que permiten el estudio


cuantitativo de la variabilidad espacial-temporal observada.

• A partir del VE se obtuvo un variograma teórico y se estudiaron en detalle las


características de este último.

• Desde un punto de vista práctico, se generó un modelo, permitiendo describir la


estructura espacial-temporal del fenómeno de interés.

• Dado que a distancias grandes el número de pares necesarios para el cálculo del
variograma en general disminuye, el VE es poco confiable para distancias grandes
(mayores que la mitad del campo).

• Es muy importante que el investigador, antes de realizar cualquier aproximación


estadística o geoestadística, conozca muy bien la naturaleza de los datos, desde el diseño
de muestreo hasta el comportamiento de las variables que se estudiarán.

• Desconfiar de los so!ware que solo permiten ajustes automáticos. El análisis estructural
de un conjunto de datos es un trabajo interactivo, donde el investigador, el usuario del
so!ware, debe siempre tener la palabra final.
• El ajuste de una VE es un proceso interactivo y subjetivo. No existe un modelo único.

95
96 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA
capítulo 03

Estimación
y bases
teóricas de la
geoestadística
97
Antes de continuar se debe aclarar la noción de estimación, la cual implica dos conceptos: i) un
proceso de interpolación; vale decir, una estimación al interior del campo de observación, y ii) un
proceso de extrapolación, lo que significa una estimación al exterior del campo de observación.
En este libro interesa solamente el primer concepto, vale decir el proceso de interpolación.

En esta sección se considera primeramente la problemática general de efectuar una interpo-


lación de valores desconocidos de una VR a partir de valores conocidos y, en segundo lugar, se
discutirán las bases teóricas de la geoestadística. Es decir, establecer la base necesaria para po-
der interpolar valores de una VR no solo a partir de los valores conocidos, sino también a partir
de la estructura de continuidad espacial-temporal. El problema general es entonces interpolar el
valor de una VR a una posición S₀ dado un número n de valores conocidos de la VR (Figura 3.1a).
También puede darse el caso de que, conforme a los objetivos de la investigación, sea necesario
generar una malla regular con valores interpolados de la VR, siendo necesario estimar el valor
de la VR para cada vértice de una malla (Figura 3.1b).

Figura 3.1. Problema general de


estimación. a) Se conocen los valores
de la VR en n posiciones y se desea
determinar el valor de la VR en la
posición S₀, b) dada una red de
observaciones, se desea obtener
una malla, una superficie de valores
estimados.

Los métodos de interpolación clásicos son numerosos y tales que la relación entre el valor es-
timado a la posición de S₀ y cualquiera de las otras posiciones definidas por los n puntos de
muestreo, depende solo de la distancia y, posiblemente, la dirección entre las dos posiciones.
Se trata entonces de determinar por cada observación la ponderación (Figura 3.1a); es decir, el
peso que esta observación tendrá en el cálculo del valor interpolado a la posición de S₀. Este
enfoque presenta ciertos límites o inconvenientes que se pueden resumir en:

• Es un enfoque que es función solamente de la distribución geométrica del muestreo. No


toma en cuenta la continuidad espacial que pudiera existir en la información disponible (la
organización espacial de los puntos de muestreo).

• No depende de los valores reales de la VR de interés (si la zona es rica o pobre en la VR de


interés, no es un factor para considerar).

• No es tampoco función de la VR observada; no tiene ninguna importancia si los datos son,


por ejemplo, geológicos, oceanográficos o meteorológicos.

98 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Cada método de interpolación puede ser útil en una situación particular y, a pesar de los incon-
venientes descritos, se debe reconocer que los métodos de interpolación clásicos dan en ciertas
situaciones excelentes resultados. Esta condición plantea, por lo tanto, dada una situación y un
problema específico, la siguiente pregunta: ¿cuál es el método de interpolación más apropiado?
Para responder a esta pregunta se deben considerar tres factores:

• ¿Se desea una estimación global o local?

• ¿Se desea interpolar solo un promedio o la distribución completa de los datos?

• ¿Se desea interpolar valores puntuales o estimaciones válidas por una superficie o volumen?

Estas tres preguntas determinaran el método que se utilizará; pero para responder adecuada-
mente se requerirá tener muy claro ciertas definiciones y conceptos, los cuales serán discutidos
a continuación. Dados los argumentos presentados, se puede definir un proceso de interpo-
lación espacial-temporal como el proceso de usar información de posiciones conocidas para
estimar los valores de posiciones no muestreadas (al interior del campo del muestreo). En el
caso general, al efectuar una interpolación espacial se obtiene una superficie empleando para el
cálculo datos puntuales (Figura 3.1b). Además, de la necesidad de estimar valores en posiciones
no muestreadas se pueden mencionar múltiples situaciones donde un proceso de interpolación
es necesario; por ejemplo, en estudios medioambientales (o en geomática):

• Las observaciones tienen una resolución espacial-temporal diferente de la deseada (datos


con suportes diferentes).

• Una superficie continua está representada por un modelo diferente del requerido (conver-
sión raster a vector o el proceso inverso).

• Cálculo de un modelo numérico (elevación) de terreno.

Teniendo claro entonces qué interesa efectuar en un proceso de interpolación, la próxima etapa
lógicamente es verificar si esta es posible de ser efectuada; es decir, formular la pregunta: ¿qué
elementos se requieren para interpolar? Para ello se deben cumplir tres condiciones, a saber:

• Disponer de datos correlacionados.

• Se requerirá un muestreo; es decir, posiciones con valores conocidos de la VR de interés


(tanto el número como la distribución de los puntos de muestreo tienen una influencia
directa e importante en la precisión de la interpolación).

• Disponer de un método de interpolación. Tema principal de discusión en los próximos ca-


pítulos.

99
3.1. Clasificación de los métodos de interpolación

Como se ha mencionado en la sección anterior, existen variados métodos de interpolación es-


pacial-temporal, pero es posible clasificarlos en tres grupos principales:

Determinístico / Estocástico

Interpolación determinística: no cuantifica el cálculo del error de los valores interpolados. Todos
los métodos clásicos pertenecen a este grupo.

Interpolación estocástica: cuantifica el error de los valores interpolados. La interpolación


geoestadística, por ejemplo, Kriging.

Global / Local

Interpolación global: utiliza todas las observaciones disponibles en el campo de muestreo para
estimar el valor interpolado. La regresión es un ejemplo de este grupo.

Interpolación local: utiliza una muestra de las observaciones para estimar el valor interpolado;
es decir, utiliza solamente la variabilidad local en el proceso de interpolación. La interpolación
geoestadística, por ejemplo, Kriging.

Exacto / Inexacto

Método exacto: el valor interpolado en una posición conocida (muestreo) es idéntica al valor
medido durante el muestreo. La interpolación splines es un ejemplo de este grupo.

Método inexacto: La diferencia entre el valor calculado y el valor medido, el residuo es diferen-
te de cero. El valor absoluto del residuo es una indicación de la calidad de la interpolación. La
regresión es un ejemplo de este grupo.

Aun cuando los métodos de interpolación se clasifican en tres grupos, estos grupos no son
excluyentes entre sí. A todos los métodos globales/locales y exactos/inexactos se los puede
también clasificar como determinísticos/estocásticos y a los métodos exactos/inexactos se los
encuentra incluidos en la clasificación global/local. Para efectos prácticos, ahora se discutirán
los Métodos Globales y Locales.

3.1.1. métodos globales


Los métodos globales permiten determinar las características generales de la VR de interés;
son útiles tanto para el tratamiento de datos organizados en una grilla regular (raster) como

100 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


para datos distribuidos aleatoriamente. Como ejemplo de métodos globales de uso común en
el tratamiento y análisis de datos medioambientales, se pueden mencionar: métodos de clasi-
ficación supervisada y no supervisada, métodos de cálculos de tendencias (ejemplo, regresión)
y métodos de análisis espectral. Estos métodos son muy utilizados en el campo del tratamien-
to numérico de imágenes aeroespaciales. No es el objetivo de este libro discutir los métodos
globales en detalle; sin embargo, dada la importancia que el cálculo de tendencias tiene en
geoestadística (ejemplo, Kriging universal): este sí será discutido bajo la óptica de su uso en el
tratamiento de datos medioambientales.

Si los datos presentan una tendencia, los valores medidos aumentan o disminuyen isotrópi-
camente o anisotrópicamente en el área de estudio (Figura 3.2.). Esto se discutirá en detalle al
momento de presentar el Kriging universal, este método de interpolación requiere eliminar la
tendencia antes de efectuar una interpolación local y, para cumplir este objetivo, se utiliza una
regresión polinomial; específicamente, se usa una regresión no-lineal (ecuación 3.1.).

Figura 3.2. Ejemplo de datos


presentando una tendencia (voltaje
versus posición). En este caso, si la
posición aumenta también lo hace el
voltaje (So!ware Minitab V16, Minitab
Inc., 2010).

Yi = b0 + b1Xi + b2Xi2 + b3Xi3 + bmXim (3.1.)

Donde Xi: variable independiente, Yi: variable dependiente, bi: coeficientes de regresión, y m:
orden de la regresión. Polinomios de orden entre uno a tres son habitualmente utilizados. Poli-
nomios de orden más alto se deben evitar debido a que son muy inestables y difíciles de inter-
pretar físicamente. En teoría, si el grado del polinomio es alto, el ajuste es de mejor calidad; pero
en la práctica, el ajuste es menos robusto o de menor calidad.

101
3.1.2. métodos locales
Los métodos locales son métodos de interpolación lineales (ecuación 3.2.) y su estudio es esen-
cial para la comprensión del objetivo principal de este libro, orientado a los métodos de inter-
polación geoestadísticos.

INTERPOLACIÓN 1 (3.2.)

Donde Xi: datos disponibles, λi: peso (ponderación) asignada a cada valor de Xi y n: número de
observaciones.

En estadística clásica la forma más común de asignación de pesos es una proporcionalidad


inversa a la distancia; o sea, una distancia menor implica un peso mayor. Al respecto, existen
variantes, donde se eleva la distancia a una cierta potencia (dos, en la gran mayoría de los ca-
sos). Los valores de los pesos, λi, están usualmente normalizados (su suma = 1). Otra variante
bastante útil es efectuar, previo al cálculo de la interpolación, una transformación matemática
de los datos originales; por ejemplo, una transformación logarítmica, polinomial o trigonomé-
trica (ecuación 3.3.). Notar que, en este caso, se requerirá efectuar también una transformación
inversa.

INTERPOLACIÓN 1 (3.3.)

Donde T (Xi): transformación matemática de los valores Xi y λi tienen el mismo significado


que en la ecuación 3.2.

Ejemplos concretos de estos métodos clásicos de interpolación local son múltiples. Se pre-
sentarán en esta sección tres de ellos, debido a su uso más frecuente en el análisis de datos
medioambientales: i) Distancia inversa ponderada (Inverse distance weighting, IDW), ii) Spline, y
iii) Vecino más cercano (Nearest neighbor).

Distancia inversa ponderada: posee ciertas características que es importante considerar:

• Este método de interpolación, al igual que los que trabajan con promedios, no puede esti-
mar valores mayores y/o menores que los valores máximos y mínimo de las observaciones.

• No posee un proceso para evaluar la calidad de la interpolación (excepto tomar nuevas


observaciones).

102 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


• Dado que el valor estimado es calculado por medio de una ecuación de forma similar a la
ecuación 3.2., la superficie resultante no pasará por los puntos de control; o sea, es un mé-
todo de interpolación inexacto.

• Dada también la forma de la ecuación 3.2., este método tiene el efecto de suavizar los va-
lores extremos presentes en los datos. Su uso es equivalente a la aplicación de un filtro de
baja frecuencia a los datos originales.

Splines: este método ajusta una superficie flexible a través de los puntos de control, lo que
permite estimar valores sobre y/o debajo los valores extremos presentes en los datos, siendo
este interpolador, una buena opción para estimar valores fuera del rango de las observaciones
iniciales.

Vecino más cercano: este método corresponde a la situación λ₁ = 1, λn = 0 para n > 1 en la


ecuación 3.2. y es equivalente al cálculo para el conjunto de datos de interés de los polígonos
de Voronoi (esta operación también recibe el nombre de polígonos de Thiessen o Dirichlet).
Esta transformación matemática divide el espacio en tantas regiones como el número de ob-
servaciones disponibles; o sea, se obtiene una división del espacio en polígonos tal que a cada
observación corresponde un polígono de influencia dentro del cual todas las ubicaciones están
más cerca de esta observación que de cualquiera otra observación (Figura 3.3.). Si el muestreo
es una grilla regular (raster), todos los polígonos son similares. Notar que no es posible formar
polígonos para el caso de las observaciones externas; en este caso, diferentes so!ware ofrecen
soluciones disímiles, pero la idea general es seleccionar un límite natural para completar el
polígono. Este es un método rápido para relacionar datos puntuales con superficies. El ejemplo
típico es la asignación de un área de influencia a una estación meteorológica (punto) en toda
el área de una ciudad (superficie). Por otra parte, el cálculo de los polígonos de Voronoi no es
el método más apropiado para el estudio de fenómenos que varían gradualmente, pero lo es
para estudios de datos cualitativos (por ejemplo, clases, variedades de vegetación o terreno).

Figura 3.3. Polígonos de Voronoi


correspondientes a un conjunto de 12
observaciones. La división del espacio
es tal que se obtiene una observación
por polígono. Las líneas entre los
puntos corresponden a la Triangulación
de Delaunay.

103
3.1.2.1. estimadores lineales ponderados
Los estimadores lineales ponderados son de gran interés y su estudio llevará de manera natural
a comprender las bases teóricas de la geoestadística. La idea básica será estimar el valor de una
VR en una ubicación geográfica dada, donde no se conoce el valor de la VR, utilizando un modelo
geoestadístico (ecuación 3.4.).

* n
(3.4.)

Donde X*(x): valor estimado a la posición x; {X (xi), i = 1, ... n)} son los valores de las ob-
servaciones en las posiciones {xi i = 1, …n}; a: coeficiente aditivo; y {λi, i = 1, …n} son los
ponderadores, pesos.

Notar que en esta ecuación la incógnita son los valores de las ponderaciones, pues tanto a como
X (xi) tienen valores numéricos conocidos. Dos preguntas básicas se presentan en este mo-
mento: i) ¿Qué factores deberían considerarse en la asignación de los ponderadores? o ¿cómo
determinar los “mejores” factores de ponderación?, y ii) ¿deberían considerarse las n obser-
vaciones en el cálculo? o ¿cuántas muestras se debería incluir? Cada método de interpolación
responde a estas preguntas de manera diferente. Al considerar, como ejemplo, dos de los esti-
madores discutidos en la sección anterior. Primero, el estimador vecino más cercano atribuye
toda la ponderación al dato más cercano a la ubicación donde se desea interpolar (λi = 1 para
el dato más cercano, y λi = 0 para todos los otros datos, a = 0). Este interpolador considera en
el cálculo las n observaciones disponibles. Dadas estas características, se entiende la relación
existente entre este método de interpolación y los Polígonos de Voronoi; el interpolador vecino
más cercano es un estimador por polígonos de influencia, puesto que el lugar donde se desea
interpolar se encuentra en el polígono de influencia del dato al cual se le ha asignado toda la
ponderación. Un segundo ejemplo es el estimador inverso de la distancia, que atribuye a cada
dato una ponderación proporcional al inverso de su distancia al sitio donde se desea estimar.
Como se ha mencionado, existen variantes donde se eleva la distancia a una cierta potencia
(usualmente valores entre uno y tres). Este estimador considera también todas las observacio-
nes disponibles.

El vecino más cercano e inverso a la distancia son estimadores sencillos de aplicar, pues la asig-
nación de la ponderación solo depende de un criterio de cercanía. Pero este criterio no es el
único factor que se debe considerar; hay que tener en cuenta también:

• Cercanía a la ubicación de interés.

• Redundancia entre los valores de las observaciones.

104 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


• Continuidad (o variabilidad espacial-temporal).

• Anisotropía (existencia de una dirección preferencial).

Los métodos de interpolación lineal sustentan sus cálculos solo en un factor de cercanía y, en
este punto, la geoestadística posee una ventaja comparativa, ya que además de considerar este
factor, incorpora otros tres factores (redundancia entre datos, continuidad espacial-temporal
y anisotropía) al proceso de interpolación. Lo cual se logra mediante el uso del variograma,
obteniéndose de esta manera estimaciones más precisas.

3.2. Bases teóricas de geoestadística

Antes de iniciar la discusión sobre las bases teóricas de geoestadística, es necesario recordar
que ninguno de los métodos de interpolación presentados hasta ahora proporciona información
acerca de:

• La calidad del valor interpolado (error asociado al valor interpolado).

• El número óptimo de observaciones que se utilizarán.

• El tamaño, forma y orientación del conjunto de datos que se utilizarán.

• La estimación de los pesos (¿es esta estimación solo una función simple de la distancia?).

Tratando de integrar estos cuatro conceptos a los procesos de interpolación disponibles en sus
épocas, D.G. Krige (empíricamente) y G. Matheron (trabajo teórico) desarrollaron hace unos 50
años nuevos métodos de interpolación para uso en la industria minera. A partir de la minería,
estas nuevas técnicas (geoestadísticas) han encontrado en los últimos 30 a 40 años múltiples
aplicaciones en variados campos, tanto en Ciencias de la Tierra como otros (por ejemplo, as-
tronomía).

Como introducción a esta discusión teórica es necesario considerar que la geoestadística re-
conoce que la variación espacial (temporal) de una VR es muy compleja e irregular para ser
modelada solo con una función matemática simple (por ejemplo, distancia inversa ponderada).
Dada entonces esta complejidad, la geoestadística asume, por lo tanto, que la variación espa-
cial-temporal será mejor descrita por una función estocástica y en la gran mayoría de los casos

105
los datos serán la única fuente de información posible. Consecuentemente, los datos guiarán
en el desarrollo del modelo requerido, de ahí la importancia del análisis estructural como etapa
previa al proceso de interpolación. Matheron (1969) propuso que el valor de una VR en una ubi-
cación geográfica podría ser modelado como la suma de dos componentes: una componente
determinística y otra estocástica (ecuación 3.5. y Figura 3.4.). A este modelo se le conoce con
el nombre de Modelo Universal de Variación.

(3.5.)

Donde m(x): una función determinista describiendo la estructura de la variable Z a una posición
x (línea roja, Figura 3.4.); φ(x) variación local con una cierta correlación (línea verde, Figura
3.4.); y : ruido aleatorio con una distribución normal (curva gris, superpuesta en la línea verde,
Figura 3.4.).

Figura 3.4. Modelo Universal


de Variación. Puntos celestes:
observaciones de la VR.

La componente determinista representa una organización, una estructura global (línea roja) y
la componente estocástica personifica una estructura irregular, local, que no puede ser repre-
sentada por una función matemática determinista (línea verde). La componente determinista,
m(x), es calculable por medio de la estadística clásica (dos posibilidades, un valor constante,
la media del conjunto de datos o una regresión, línea roja). La componente estocástica será
justamente el objetivo del análisis geoestadístico.

3.2.1. hipótesis de matheron


La estadística clásica considera que los valores muestreados durante una visita a terreno, como
realizaciones independientes de una variable aleatoria; se supone también que los datos po-

106 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


seen la misma ley de probabilidad (en la gran mayoría de los casos, una distribución normal). El
problema con estas hipótesis es que estas condiciones son raramente cumplidas en el campo
medioambiental. La geoestadística asume, por otro lado, que el modelo es probabilístico; es
decir, que existe una gama de realizaciones equiprobables de la misma función aleatoria y que
se dispone de solo una realización de esta función aleatoria. Esta suposición crea un problema,
debido a que es imposible inferir una función aleatoria Z(x) con solo una realización z(x) de ella
(los datos). En otras palabras, ¿qué sentido tiene una distribución de probabilidad si se dispone
solo de un dato en cada posición? El mayor aporte de Matheron fue justamente dar una solu-
ción adecuada a este problema. Su solución ha tomado con el tiempo el nombre de hipótesis de
Matheron o hipótesis de Estacionaridad.

Antes de discutir el concepto de estacionaridad en detalle, algunos comentarios acerca de las


herramientas matemáticas necesarias para la comprensión de las bases teóricas de geoesta-
dística en general y para el concepto de estacionaridad en particular. Dado que se adopta un
modelo probabilístico, se tendrá toda una serie de realizaciones equiprobables de una función
aleatoria. En este caso, en lugar de especificar todas las soluciones posibles y sus probabilidades,
es más conveniente definir y trabajar con promedios representativos del conjunto; es decir, los
momentos estadísticos. En geoestadística se usan los dos primeros momentos estadísticos del
campo aleatorio de interés: i) el primer momento, la función media, el valor esperado en cual-
quier ubicación y ii) el segundo momento, la función covarianza, la covarianza entre cualquier
par de valores.

El concepto de estacionaridad significa, de la manera más general, que las propiedades de la


variable aleatoria son independientes de la ubicación de las observaciones en el campo, vale
decir, los dos primeros momentos estadísticos son constantes al interior del campo. La no esta-
cionariedad (la falta de estacionariedad) puede crear problemas tanto en geoestadística como
en ciertos tipos de análisis espacial. Se asume en geoestadística una cierta homogeneidad es-
pacial-temporal; su objetivo es permitir la inferencia estadística a partir de una sola realización,
reemplazando la repetición sobre las realizaciones de la función aleatoria. Lo importante es
que en un caso como el descrito, se asume que los dos primeros momentos estadísticos no
dependen de la posición absoluta de los datos, sino solo de sus separaciones; matemática-
mente hablando, los valores de los dos primeros momentos estadísticos son invariantes a una
traslación al interior del campo. Esto último es una propiedad del modelo adoptado, no de los
datos. El modelo es estacionario y él se ajustará (o no) a los datos. Este modelo fue el propuesto
originalmente por Matheron (1969), pero resultó muy restrictivo en el sentido de que no era
posible satisfacerlo todo el tiempo, pues existen fenómenos físicos en el campo de Ciencias
de la Tierra, tales como que la varianza no es finita (fenómenos con una capacidad infinita de
dispersión). Tal situación no es compatible con una hipótesis en que la varianza debe permane-
cer constante. La base teórica de la geoestadística tuvo que ser, por lo tanto, modificada para
hacerla más consecuente con las características de los datos a los cuales se la deseaba aplicar;

107
en consecuencia, se introdujo una estacionaridad “más débil” o de segundo orden o hipótesis
intrínseca que aceptaba la existencia de varianzas infinitas en los datos. Se dispone en la teoría
geoestadística de dos tipos de estacionaridad: i) estacionaridad estricta, tal como definía ori-
ginalmente Matheron, y ii) una estacionaridad que dispone de varios nombres, dependiendo
con quién se está hablando. Se la denomina débil (o sea, menos restrictiva que la original), o de
segundo orden o hipótesis intrínseca.

Recapitulando: una estacionaridad estricta asume que la distribución espacial-temporal es in-


variante por traslación. Es decir, la relación espacial-temporal entre observaciones en una de-
terminada configuración es independiente del lugar donde esta configuración esté situada en
el campo. Similarmente se entiende que, en el caso de una estacionaridad de segundo orden, la
esperanza matemática existe y es constante, y que la covarianza también existe y solo depende
del vector de separación entre las observaciones. La estacionaridad de segundo orden se puede
resumir en dos ecuaciones (ecuaciones 3.6. y 3.7.).

E ( Z(x( = m
( (3.6.)

Cov ( Z(x), Z(x+h(( = Cov ( h) (3.7.)

Donde E (Z(x)): primer momento estadístico; m: una constante, Cov: covarianza.

Notar que, dado un conjunto de datos, la condición de estacionaridad de segundo orden implica:

• Un valor de la media constante (ecuación 3.6.).

• Si Z(x) y Z (x + h) no coinciden (o sea, h ≠ 0).

X Cov(Z(x), Z (x + h)) depende solo en la distancia h (ecuación 3.7.).


• Si Z(x) y Z (x + h) coinciden (o sea, h = 0).

X Cov(Z(x), Z(x)) = varianza de los datos = E[{Z(x) - µ)}²]

La tercera situación (h =0) confirma lo expresado en la sección 2.2.2., en referencia a la relación


existente entre el variograma, la covarianza y la varianza. Las ecuaciones 2.8., 2.9. y 2.10. son
válidas solo bajo la hipótesis de estacionaridad de segundo orden. Con lo cual ya es posible afir-
mar que estas ecuaciones resumen la hipótesis de estacionaridad y se encuentran en la base del

108 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


sistema de ecuaciones requerido para efectuar interpolaciones geoestadísticas. En el próximo
capítulo se planteará en detalle la importancia de esta relación en el desarrollo del método de
interpolación geoestadístico (Kriging).

3.3. Resumen
Ninguno de los métodos determinísticos proporciona información acerca de:

• La calidad del valor interpolado. El error asociado al valor interpolado.

• El número de observaciones óptimo que se utilizará en el cálculo del valor interpolado.

• El tamaño, forma y orientación de este conjunto óptimo de observaciones.

• La estimación de los pesos. ¿Es siempre una función simple de la distancia?

Buscar una repuesta a este tipo de preguntas permitió a D. G. Kriging (empíricamente) y G.


Matheron (teóricamente) desarrollar métodos de interpolación para uso en la industria minera.
Matheron propuso el nombre de Geoestadística para esta nueva metodología, la cual encontró
posteriormente al trabajo de Matheron múltiples aplicaciones en ciencias de la Tierra, moni-
toreo medioambiental y otros campos del saber humano. La geoestadística reconoce que la
variación espacial (temporal) de una VR es muy compleja e irregular para ser modelada con una
función matemática simple (proporción inversa a la distancia); y asume, por lo tanto, que esta
variación será mejor descrita por una función estocástica, aleatoria. Requiere conocer el grado
de correlación espacial (temporal) existente en los datos; en el caso de datos no correlacionados,
la geoestadística no es la metodología apropiada.

109
110 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA
capítulo 04

Interpolación
local: Kriging

111
Kriging es un método geoestadístico de interpolación. Su objetivo es similar al de los métodos
clásicos, pero este método toma en consideración tanto la continuidad (o variabilidad) espa-
cial-temporal como el grado de anisotropía presentes en los datos. Desde un punto de vista
numérico, Kriging es un interpolador lineal (la ecuación básica de su cálculo es la ecuación
3.4.), pero las ponderaciones λi son calculadas de manera totalmente diferente al caso de los
métodos clásicos, ya que requiere conocer el momento de segundo orden de la función aleatoria
(VR de interés); en otras palabras, requiere conocer el variograma o la covarianza de los datos
disponibles.

Entre las bondades que posee Kriging como interpolador se pueden destacar:

• Es el mejor interpolador insesgado en un punto y el mejor promedio móvil ponderado en


un bloque.

• Es un interpolador exacto (si el efecto pepita es nulo) y también puede ser utilizado como
un filtro de baja frecuencia.

• Comparando con los métodos no estocásticos, Kriging proporciona un análisis de la calidad


de la interpolación (suministra el error cuadrado medio de la interpolación).

Finalmente es importante reafirmar que el método Kriging respeta la Hipótesis de Matheron, o


sea la existencia de una estacionaridad de segundo orden. Por consiguiente, si los datos presen-
tan una tendencia o deriva, el método Kriging original no podrá obviamente ser considerado;
pero, entretanto, otros métodos Kriging han sido desarrollados que permiten, entre otras cosas,
su uso con datos que presentan tendencia. De ahí la necesidad de discutir primeramente los
diferentes tipos de Kriging disponibles.

4.1. Tipos de Kriging

Kriging es un método de regresión generalizado que proporciona la mejor interpolación si cier-


tas condiciones se cumplen. De ahí la necesidad de disponer de varios tipos, cada uno haciendo
suposiciones (hipótesis) diferentes para adaptarse a las características de la VR de interés. Se
pueden considerar varias clasificaciones:

• Una estimación al mismo soporte que los datos

X Kriging simple

c La media de la población es conocida y constante.

112 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


X Kriging ordinario

c La media de la población es desconocida pero constante.

X Kriging puntual

c Implica tanto el uso del Kriging simple como el ordinario. Puntual se lo debe
interpretar como lo opuesto al Kriging en bloques.

X Kriging con deriva

c La media de la población es desconocida y depende de la posición.

X Kriging Universal

c La deriva se la calcula por medio de un polinomio de las coordenadas.

X Kriging Log normal

c Kriging simple, ordinario o universal pero aplicado a una transformación


logarítmica de los datos.

X Kriging Indicador

c Kriging simple, ordinario o universal pero aplicado a una transformación binaria


de los datos.

• Una estimación a un soporte más grande

X Kriging en bloques

X Kriging simple, ordinario o universal pero aplicado a bloques (superficie o volumen).

Otra posibilidad de clasificación de los métodos Kriging es:

• Métodos lineales

X Kriging simple, ordinario y universal.

• Métodos no lineales

X Aplican el Kriging a una variable derivada, transformada.

X Kriging Log normal y Kriging indicador.

113
Finalmente, una clasificación importante de mencionar es:

• Métodos univariados

X Kriging simple, ordinario, universal, Log normal, indicador y de bloques.

• Métodos multivariable

X Cokriging.

Estas clasificaciones contienen los métodos Kriging más utilizados en el campo de estudios en
ciencias de la Tierra y serán los temas presentes en este capítulo; restricciones de orden prác-
tico (espacio y tiempo) impiden también hacer referencia a otros tipos de Kriging disponibles
en la literatura.

4.2. Características de los métodos Kriging

Se presentan a continuación las características generales de todos los métodos Kriging que se
discutirán en este capítulo:

• Se supone primeramente que se dispone de una serie de n valores muestreados Z(xi), i =


1, … n.
• Se desea estimar el valor de Z(xi) en una ubicación conocida (el punto S₀ en la Figura 3.1a)
mediante una combinación lineal de los Z(xi) (ecuación 3.4.).

X Z*(S₀) = a + Σ λi Z(xi) (4.1.)

X Donde Z*(S₀): valor estimado en la ubicación S₀, a: coeficiente aditivo, λi: pesos
calculados por el Kriging, e i = 1,...n: número de observaciones.

• La diferencia básica entre el método Kriging y los métodos clásicos es la manera de calcular
los λi. Kriging respetará dos condiciones bien específicas: insesgado y minimizar la varianza
del error de interpolación. Estas condiciones de cálculo de los λi son una característica
propia solo de los métodos Kriging, ningún método clásico garantiza una varianza mínima
de interpolación.

Si se desea por lo tanto interpolar en una posición S₀, Kriging respetará las siguientes condi-
ciones:

114 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


X Insesgado: E[Z*(S₀) – Z(S₀)] = 0 (4.2.)

X Varianza: Var[Z*(S₀) – Z(S₀)] debe ser mínima (4.3.)

• ¿Qué “productos” geoestadísticos reporta el método Kriging?

X Primero, el valor de la variable de interés; es decir, un mapa de interpolaciones en


todas las ubicaciones S₀ de interés de acuerdo con la ecuación 4.1.

X Segundo, un análisis de la calidad de la interpolación efectuada, un análisis del error


de estimación por medio de la evaluación de la varianza en el mapa de interpolación
y también es factible realizar una validación cruzada.

X Tercero, la probabilidad de que la variable de interés supere o no un umbral definido.

• Se dice que Kriging es “el mejor estimador lineal insesgado”. ¿Qué significa esto exacta-
mente? Significa que para determinar el coeficiente a y los ponderadores {λi, i = 1…n}
en la ecuación 4.1., se deberán respetar las ecuaciones 4.2. y 4.3. Consideremos estas dos
situaciones en detalle:

• Condición de insesgo: E[Z*(S₀) – Z(S₀)] = 0

El valor esperado del error de estimación es:

i=1

i=1

Para que este valor sea nulo, es necesario que:

i=1 (4.4.)

115
Lo que significa que el estimador será insesgado para cualquier valor de la media, si se cumple
la condición:

1 (4.5.)

Veremos que esta condición se cumple en todos los métodos Kriging que se estudiarán en este
capítulo, con excepción del Kriging simple, donde se requiere conocer el valor de la media m;
esta información extra permite calcular la constante a en la ecuación 4.4. sin necesidad de
considerar la ecuación 4.5.

• Condición varianza mínima: Var [Z*(x) – Z(x)] debe tomar un valor mínimo.

Esta condición es mucho más compleja y difícil de discutir desde el punto de vista matemático
que la condición de insesgo. Por lo tanto, se presenta a continuación un bosquejo cualitativo
del trabajo de Matheron que permitirá comprender las etapas necesarias para efectuar una
estimación Kriging sin necesidad de entrar en detalles acerca de los innumerables desarrollos
matemáticos requeridos para la deducción de estas ecuaciones. Para los lectores que estuvieran
interesados en efectuar ese estudio, se recomienda consultar el trabajo de Giraldo (2002) o el
de Matheron (1963).

En primer lugar, hay que notar que en la ecuación 4.3. Z*(x) y Z(x) no son conocidos; por con-
siguiente, esta varianza no es calculable. La contribución de Matheron fue demostrar que era
posible expresar esta varianza en función de índices conocidos; es decir, calculable a partir de
los datos. La pregunta que se debe plantear es: ¿qué índices se conocen que son derivables di-
rectamente de los datos? La respuesta es simple, solo uno, el variograma. Dado que la condición
de estacionaridad se cumple, la relación Cov(h) = σ2 - γ(h) (ecuación 2.10.) es válida y permite
determinar la covarianza a partir del variograma. En otros términos, Matheron logró demostrar
que la varianza del error de interpolación era expresable en términos de los λs (las incógnitas)
y las covarianzas existentes en las observaciones (ecuación 4.6.). Para comprender el trabajo de
Matheron, se tiene que en un conjunto de datos (Figura 3.1a) es posible calcular dos conjuntos
de correlaciones (covarianzas): i) las correlaciones entre los datos que dependen exclusivamente
de las distancias entre ellos (la distribución espacial del muestreo) y ii) las correlaciones entre
los datos y el valor a interpolar (S₀); es decir, correlaciones entre la ubicación del punto S₀ y
todas las ubicaciones conocidas. Se puede entonces establecer que la ecuación 3.4. es función
de la covarianza entre los datos mismos y la covarianza entre los datos y la ubicación donde se
desea interpolar (ecuación 4.6.).

(4.6.)

116 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Hay que comprender también que la ecuación 4.6. representa un sistema de ecuaciones, una por
cada λi, (i=1, … n), y para cumplir con la ecuación 4.3. se necesitará, por lo tanto, minimizar
cada una de las ecuaciones presentes en el sistema 4.6.; o sea, se necesitará determinar los valo-
res de los ponderadores (los λi) que minimicen la varianza del error (ecuación 4.3.). Recordando
que la derivada de una función indica la pendiente que esta tiene en un punto seleccionado, el
mínimo o máximo de una función se obtiene en los valores de la función donde la pendiente es
cero. Por lo tanto, para determinar los valores de λ que minimizarán las ecuaciones del sistema
4.6., habrá que calcular primero las derivadas parciales de esta expresión en función de λ y,
segundo, igualar estas derivadas parciales a cero (ecuación 4.7.).

(4.7.)

El cálculo de estas derivadas parciales permite obtener un sistema de ecuaciones con n incóg-
nitas, que usualmente se representa en forma matricial (ecuación 4.8.).

C11 C1n C10


= (4.8.)
Cn1 Cnn Cn0

Donde la matriz Cij representa las correlaciones entre las observaciones, λ es un vector simbo-
lizando las n ponderaciones por calcular (las incógnitas), y el vector Ci,0 representa las correla-
ciones entre los datos y el valor por estimar. Este sistema de ecuaciones recibe comúnmente el
nombre de sistema de ecuaciones normal. La solución de este sistema de ecuaciones se obtiene
según las reglas del álgebra matricial (ecuación 4.9.):

–1
(4.9.)

Donde Cij¹ : matriz inversa de la matriz Cij.

Las ponderaciones λi se obtienen, por lo tanto, como el producto matricial entre la matriz in-
versa de la matriz Cij y la matriz Ci₀. Conociendo las ponderaciones λi, las ecuaciones 4.1. y 4.4.

117
permiten calcular el valor estimado en una ubicación S₀. No olvidar que habrá que proceder de
manera análoga para cada ubicación donde se desea efectuar una estimación.

Una expresión general del valor estimado se puede, por lo tanto, expresar por medio de la
ecuación 4.10. y la varianza del error de estimación por medio de la ecuación 4.11. La derivación
matemática de esta última se basa en los mismos principios que la efectuada por la ecuación
4.10. y no será aquí discutida (para más detalles se recomienda consultar Giraldo, 2002).

nn nn

i=1 i=1 (4.10.)

i=1
(4.11.)

Donde σk²: varianza del error de estimación Kriging.


Lo descrito hasta ahora resume las características generales de todos los métodos Kriging que
se presentarán en este capítulo. Se presenta y discute, a continuación, la forma en que cada
método Kriging cumple con las condiciones que se acaban de resumir.

4.3. Kriging simple

Kriging simple (KS) es el Kriging básico, y proporciona una interpolación válida al mismo soporte
que los datos de entrada. Supone que la media de la población de la VR de interés es constante
y conocida; pero esta suposición hace del KS un método difícil de utilizar dado que, en la gran
mayoría de los casos, el valor de la media de la población de interés no es conocido. Por otro
lado, KS respeta la estacionaridad de segundo orden, la VR de interés debe ser estadísticamente
estacionaria; es decir:

• No presentar una tendencia (deriva).

• Su autocovarianza y autocorrelación deben solamente depender de la distancia entre las


observaciones.

118 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


El respeto de las condiciones de estacionaridad de Matheron implica que se conoce el vario-
grama γ(h); el cual presenta una meseta tal que γ(∞) = σ² y existe una función de covarianza
dada por la ecuación Cov(h) = σ2 - γ(h). El cálculo mismo del KS se lo efectúa por medio de
las ecuaciones 4.10. y 4.11. Dado el caso que la media fuese conocida, la ecuación 4.5. no es
obligatoria.

4.4. Kriging ordinario

Kriging ordinario (KO) tiene el mismo objetivo que el KS, pero es más general. Su hipótesis
básica es que no se conoce la media de la población de la VR de interés, pero se supone que es
constante. Esta es una hipótesis menos restrictiva que la del KS y se adopta debido a que si la
condición de insesgado se cumple (ecuación 4.5.), no es necesario conocer el valor de la media.
Para comprender la lógica detrás de esta decisión, se considera que la interpolación por medio
del KS está definida por la ecuación 4.10.; pero si la condición de insesgo (ecuación 4.5.) se
cumple, le estimación por medio de la ecuación 4.10. es independiente de m.

Si 1
se cumple, la ecuación 4.10 se transforma en

(4.12.)
i=1

Lo que permite aplicar la metodología Kriging ordinario a datos sin tendencia y una media cons-
tante pero desconocida. No es necesario conocer el valor exacto de la media, dado que la media
no es un factor en los cálculos el KO. Una situación obviamente más general y por esta razón
se dice que el KO generaliza el KS. De manera similar al caso del KS, el cálculo de los λi se basa
en dos criterios: i) la condición de insesgado y ii) la minimización del error de la varianza de in-
terpolación. Respecto de la primera condición, no hay nada que agregar a lo ya explicado en la
obtención de las ecuaciones 4.4. y 4.5.; en lo referente a la segunda condición, la minimización
del error de la varianza de estimación (ecuación 4.6,), está sujeta a la restricción impuesta por
la condición de insesgado (ecuación 4.5.). El problema de minimización de una función con
restricciones se resuelve mediante el método de multiplicadores de Lagrange (ecuación 4.13.).

119
n
(4.13.)
i=1

Donde f (covarianzas, λi): expresión general representando una función como la ecuación 4.6.;
y µ: multiplicador de Lagrange.

Sin entrar en los detalles, se puede decir que el respeto de la ecuación 4.5. y por consecuencia
el uso de los multiplicadores de Lagrange es una característica distintiva de los métodos Kri-
ging. Ningún método de interpolación clásico garantiza una varianza mínima de interpolación
(para más información sobre multiplicadores de Lagrange y su uso en geoestadística, consul-
tar Giraldo, 2002). El sistema de ecuaciones finalmente obtenido es muy similar al caso del KS
(ecuación 4.14.).

(4.14.)

Donde Cij: matriz correlación entre los datos; λ: vector ponderaciones; Ci₀: vector correlación
entre los datos y el valor a interpolar; y µ: multiplicador de Lagrange.

De manera similar al caso del KS, Cij y Ci₀son calculadas a partir del variograma y las distan-
cias entre las observaciones y el lugar donde se desea estimar; finalmente, los valores de las
ponderaciones, λi, son calculados por medio de la ecuación 4.9. La expresión general del valor
interpolado (ecuación 4.10.) y la expresión para la varianza del error de estimación a la ubicación
interpolada (ecuación 4.11.) se transforman para el caso del KO en las expresiones 4.15. y 4.16.

n
(4.15)
i=1

n
k
i=1 (4.16)

120 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


4.5. Kriging en bloques
Los dos casos estudiados hasta ahora, el KS y el KO, proporcionan un valor interpolado válido
al mismo soporte de las observaciones. Por el contrario, el Kriging en bloques (KB) permite
obtener valores interpolados válidos por un bloque; o sea, un soporte más grande que el de
las observaciones. Este método es útil en casos de interpolación de promedios por un área o
volumen dado o cuando la VR de interés no tiene sentido a un nivel puntual. Ejemplos de estas
situaciones son numerosos, se menciona a continuación dos casos ilustrativos donde no sería
lógico interpolar a un nivel puntual:

• Dado el precio puntual de viviendas, obtener el precio medio de un bloque de viviendas.

• Porosidad, definida como el cociente entre el volumen de huecos y volumen total, es una
variable geológica que no tiene sentido físico a un nivel puntual.

El objetivo del KB es, por lo tanto, la estimación de un valor promedio de una función aleatoria
en un bloque (superficie o volumen). El soporte muestral será puntual y el valor estimado re-
presentará la media de un bloque. Dado este objetivo, se podría considerar el Kriging puntual
(KS y KO) como un caso límite del KB. Otro punto importante de mencionar antes de discutir
en detalle el KB, es que este se puede aplicar si la VR de interés es aditiva; es decir, se requiere
que el valor de la unión de varios campos coincida con la suma de los valores sobre cada uno de
ellos. No todas las variables medioambientales presentan esta propiedad; por ejemplo, pH es
una variable en la cual una estimación en bloques no se puede efectuar. El pH de un bloque no
es igual a la media aritmética de los pH puntuales en ese bloque.

El objetivo, por lo tanto, es estimar el valor promedio de una función aleatoria en un bloque
a partir de observaciones puntuales. Una posible solución sería dividir el bloque en una malla
muy fina, efectuar un Kriging puntual en cada nodo y calcular la media de estos valores. Esto es
perfectamente posible pues Isaaks y Srivastava (1989) demostraron que el valor calculado por
medio de un KB coincide con el promedio de las estimaciones sobre cada uno de los puntos del
enmallado dentro del bloque; pero requerirá mucho tiempo de cálculo y no permitirá estimar la
precisión de la interpolación del valor de la variable en el bloque. El KB elimina estas limitaciones
y produce medias válidas por un bloque directamente, no calculando promedios de estimacio-
nes puntuales. Para lograr esto se utilizarán métodos geoestadísticos; tanto el KS como el KO
pueden ser extendidos a la estimación directa del valor promedio en un bloque.

La forma más común de KB es adaptar el formulismo del KO a la situación donde se desea esti-
mar el valor promedio de una función aleatoria en un bloque.

Los supuestos (hipótesis) requeridos para usar el Kriging ordinario en bloques son:

121
• La muestra es una realización parcial de una función aleatoria Z(x).

X Donde x: ubicación espacial, Z(x): función estacionaria.

• La función Z(x) es una función de estacionaria de orden dos; o sea, respeta la condición de
estacionaridad (ecuaciones 3.6. y 3.7.).

• La media es constante, pero no conocida.

Como se describe, la hipótesis del KB es la misma que el KO, siendo la diferencia fundamental
entre ambos métodos, solamente el soporte de observación. A esto se puede añadir que:

• El sistema de ecuaciones requerido para el cálculo del KB se deduce del sistema de ecua-
ciones del KO (ecuación 4.14.).

• La matriz Cij (en la ecuación 4.14.) representa la covarianza entre las observaciones; en-
tonces, depende solamente en las posiciones relativas de las observaciones y no contiene
ninguna información acerca de la ubicación geográfica del lugar donde se desea interpolar.
Por lo tanto, el cálculo de esta matriz no variará entre el KO y el KB.

• El vector Ci₀ (también en la ecuación 4.14.) representa la covarianza entre las observaciones
y la ubicación donde se desea interpolar; es decir, depende de las posiciones relativas entre
ambas; pero, en el caso del KB se trata de interpolar en una superficie (o volumen) centrado
en las coordenadas del lugar donde se interpolará. Por lo tanto, el vector Ci₀ deberá ser
modificado para incluir las covarianzas respecto del bloque donde se desea interpolar.

La principal peculiaridad del KB es su necesidad de calcular covarianzas entre soportes de tama-


ños diferentes; entonces, se trata de calcular la covarianza entre un punto y un bloque, o entre
bloque y bloque. En primer lugar, se hará el cálculo de la covarianza punto a bloque. Para calcular
esta covarianza, es común dividir previamente el bloque en una malla fina y calcular entonces
la media de las covarianzas entre el punto muestreado y todos los puntos al interior del bloque
(ecuación 4.17.). En consecuencia, la covarianza de un punto a bloque corresponde a la covarian-
za promedio entre el punto muestreado i y todos los puntos dentro del bloque (ecuación 4.17.).

(4.17.)

A i=1

122 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Donde iA: covarianza entre la ubicación del punto muestreado i y el bloque A; y CiA: covarianza
entre la ubicación del punto muestreado y cada uno de los puntos al interior del bloque.

Consecuentemente, el vector Ci₀ en la ecuación 4.14. deberá ser modificado tal que la ecuación
4.14. tomará un formulismo válido para el caso del KB (ecuación 4.18.).

(4.18.)

El sistema de ecuaciones del KB difiere del sistema del KO, por lo tanto, solo en el reemplazo del
vector CiO por el vector CiA (se ha reemplazado una covarianza punto-punto por una covarianza
punto-bloque).

En relación con el error de estimación del KB habrá que señalar que la situación es también si-
milar a la del KO (ecuación 4.16.), pero reemplazando las covarianzas puntuales por covarianzas
punto-bloque y bloque-bloque.

´ n
(4.19.)
KB
i=1

Donde σ²KB: varianza del error de estimación del KB; CAA: covarianza entre dos bloques; λi:
ponderadores; CiA: covarianza entre el punto muestreado i y el bloque A; µ: multiplicador de
Lagrange.

La covarianza entre bloques es dada por:

n n
(4.20.)
2 j
A i=1 j 1

123
La ecuación 4.20. representa la covarianza entre pares de puntos al interior del bloque.

Finalmente, algunos comentarios de carácter general respecto del KB:

• En relación con el método de cálculo mismo descrito, debe estar claro que el KB requie-
re el cálculo de covarianzas de diferentes tipos. La práctica común es calcular primero el
variograma puntual, lo que permite determinar la covarianza puntual (ver capítulo II) y a
continuación se derivan de la covarianza puntual las covarianzas de punto-bloque y de
bloque-bloque por medio de aproximaciones numéricas (iteraciones numéricas).

• Si el tamaño de los bloques es inferior a la malla del muestreo, la estimación puntual no per-
mitirá diferenciar los puntos al interior del bloque. No habrá en este caso ninguna diferencia
entre las estimaciones del KO y del KB.

• Valores interpolados por medio de un KB son menos dispersos que los valores interpolados
por medio del KO; en otras palabras, el contraste o diferencia entre valor máximo y mínimo
son menores.

• Valores interpolados por medio de un KB presentan también una estructura más regular
que los valores interpolados por medio del KO.

• De manera general, la incertidumbre de la estimación KB es menor que la del caso puntual.

• Todo esto se traduce a que el KB produce mapas más lisos y con estimaciones de varianzas
menores que las obtenidas con el KO.

4.6. Kriging universal

En los tres métodos descritos anteriormente, siempre se ha asumido que la VR era estacionaria
(o por lo menos satisfacía la estacionaridad de segundo orden. Ecuaciones 4.6. y 4.7.). Pero, en
Ciencias de la Tierra en general, y en estudios medioambientales en particular, la VR de interés
no siempre satisface estas condiciones y se caracteriza por exhibir una tendencia; en otras
palabras, sus valores aumentan o disminuyen sistemáticamente en alguna dirección al interior
del área de estudios. Ejemplos son numerosos, podemos mencionar:

• La profundidad marina en una zona costera.

• La temperatura en la corteza terrestre.

• La temperatura en la troposfera.

124 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


En estos tres casos (y otros similares) el principio de estacionaridad no se aplica y, por consi-
guiente, no se aplican tampoco los tres métodos Kriging discutidos hasta ahora. Kriging univer-
sal (KU) fue desarrollado justamente para ofrecer una solución a este problema. El cual elimina
básicamente la condición de que la media sea constante; pero, no hay que olvidar que a medida
que la complejidad del modelo aumenta, también lo hace la incertidumbre. KU no debe ser,
por lo tanto, utilizado de manera indiscriminada. KU recibe también el nombre de Kriging con
tendencia.

El cálculo del KU se basa en el modelo Universal de Variación (Figura 3.4., ecuación 3.5.); pode-
mos decir entonces que se descompone la VR, Z(x) como la suma de una tendencia, considerada
como una función determinista, más una componente estocástica estacionaria de media cero
(componentes roja y verde en la Figura 3.4., respectivamente). De ahí que la ecuación 3.5 se la
expresa para el caso del KU como:

(4.21.)

Donde m(x): tendencia; φ(x) : componente estocástica; σ² varianza en los datos.


p
La tendencia m(x) se expresa como m(x) = i=1 ai fi (x) es decir, se aproxima por medio de
una combinación lineal de las coordenadas, siendo p: el número de términos por considerar.
La componente estocástica φ(x) se obtiene de manera similar al caso del KO (ecuación 4.12.);
en otras palabras, debe respetar la condición de insesgado y varianza del error de predicción
mínima (ecuaciones 4.2. y 4.3.). Para detalles en el formulismo matemático del KU, consultar
Giraldo (2002).

Otra manera similar de abordar la problemática del KU es suponer la tendencia m(x) calculable
y entonces aplicar los siguientes criterios:

• Calcular la tendencia.

X Ajustar un polinomial a los datos(x).

c Un polinomial de primer, segundo o tercer orden.

• Calcular los residuos: datos(x) – tendencia(x).

125
• Obtener el variograma experimental de los residuos.

• Ajustar este variograma experimental a uno teórico estacionario.

• Efectuar una estimación de residuos por medio de un KO.

• Agregar a esta estimación la tendencia o deriva.

Este procedimiento recibe el nombre de Kriging residual (KR). Los resultados son, en la gran
mayoría de los casos equivalentes, pero presenta dificultades desde un punto de vista teórico.
La dificultad mayor radica en el análisis variográfico de los residuales; por ejemplo, usando este
método no se conoce el variograma de la VR original; el análisis variográfico se efectúa usando
el variograma experimental obtenido de los residuos, no de los datos originales (se los supone
idénticos). En otras palabras, no se conoce el variograma de la función aleatoria de interés. Fi-
nalmente, sí existe una tendencia en los datos, la pregunta a considerar es la siguiente: ¿cuál es
método a utilizar, el KU o el KR? Daremos una repuesta de manera indirecta, pero práctica, apli-
cando KO y KU a datos que presentan una tendencia. Se trata de datos batimétricos en una re-
gión costera, donde la profundidad aumenta sistemáticamente con la distancia a la costa (Figura
4.1.). La Figura 4.1a presenta una interpolación inverso proporcional a la distancia (IDW); esta
interpolación muestra que la profundidad aumenta sistemáticamente desde la parte superior de
la imagen (zona cerca de la costa) hacia la sección inferior (mar). Estos datos presentan, por lo
tanto, las condiciones ideales para comparar los resultados del KO con los del KU. La Figura 4.1b
muestra el variograma experimental de estos datos batimétricos y el ajuste adoptado a un mo-
delo gaussiano. Dada la presencia de una fuerte tendencia en estos datos, no es de extrañar que
un modelo gaussiano haya sido el que presentó el mejor ajuste. Figuras 4.1c y 4.1d representan el
mapa estimado dado por KO y el KU, respectivamente. Visualmente, las diferencias entre estos
dos mapas son mínimas. Una comparación cuantitativa se presenta en las Figuras 4.2. y 4.3. Las
validaciones cruzadas son muy similares, presentando un r² de 0.91 (Figura 4.2a para KO) y r2 de
0.93 (Figura 4.2b para KU). Los mapas de errores en la interpolación son también muy similares
(Figura 4.3.). Por lo tanto, el resultado del uso del KO (Figura 4.3a) y un modelo gaussiano del
variograma experimental para estos datos batimétricos es equivalente al resultado obtenido
con el KU (Figura 4.3b). Poner en duda la obligatoriedad del uso del KU es, por lo tanto, válida.
No se está diciendo que el KU no debería ser considerado, pues se podría haber presentado sin
ninguna dificultad en las figuras 4.1., 4.2. y 4.3. un ejemplo mostrando exactamente la situación
opuesta. Lo importante en esta discusión es que, dadas las dificultades desde el punto de vista
teórico que el KU presenta y considerando ejemplos como el que se acaba de analizar, la utili-
zación del KU en datos reales debe ser minuciosamente analizada. Se deberá recurrir al uso del
KU cuando todas las otras posibilidades no hayan dado resultados satisfactorios.

126 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 4.1. Análisis geoestadístico de datos batimétricos. a)
Interpolación inverso proporcional a la distancia (IDW), b)
variograma experimental (puntos) y ajuste efectuado (curva
gaussiana sobrepuesta), c) interpolación por medio del Kriging
ordinario, d) interpolación obtenida usando el Kriging universal
(So!ware, GS⁺, Robertson, 2008).

Figura 4.2. Validaciones cruzadas. a) Kriging ordinario con r² de


0.91, b) Kriging universal con r² de 0.93.

Figura 4.3. Varianza en el error de la interpolación. a) Kriging


ordinario, b) Kriging universal (So!ware, GS⁺, Robertson, 2008).

127
4.7. Kriging no lineal

Existen situaciones con características particulares que técnicas lineales no pueden modelar;
por ejemplo: datos altamente asimétricos, datos con una oblicuidad muy alta. En estos casos,
la distribución no es normal y la condición de estacionaridad requerida por los cálculos Kriging
no se cumple. Se recurre, por lo tanto, a transformaciones de los datos; la idea en estos casos
es de realizar transformaciones matemáticas apropiadas, con la finalidad de acercar los datos
a una distribución normal, en los cuales se pueda utilizar un Kriging lineal y posteriormente se
deberá realizar una transformación inversa.

Un punto que debe quedar claro es que todos los algoritmos utilizados en el uso del Kriging no
lineal son en realidad un Kriging lineal, pero aplicado a transformaciones no lineales de los datos
iniciales. En otras palabras; la transformación no lineal aplicada a los datos iniciales especifica
el tipo de Kriging no lineal utilizado. Por ejemplo, una transformación logarítmica significa la
utilización de un Kriging log normal. Programas con módulos geoestadísticos ofrecen un mí-
nimo de tres transformaciones matemáticas, con el fin de acercar la distribución de los datos a
una distribución normal; ellas son: transformación logarítmica, raíz cuadrada y normalización
de los valores iniciales entre cero y uno. Cualquiera de estas tres transformaciones mejorará el
grado de normalidad de la distribución inicial. En lo referente a posibilidades de Kriging no lineal,
módulos geoestadísticos ofrecen también varias alternativas, entre ellas:

• Kriging log normal.

X Se utilizan los logaritmos naturales de los datos iniciales.

• Kriging multi-gaussiano.

X Una generalización del Kriging log normal.

• Kriging de rango (Rank Kriging).

X Una transformación uniforme de los datos iniciales.

• Kriging disyuntivo (Disjunctive Kriging).

X Una transformación polinomial de los datos.

• Kriging indicador (Indicator Kriging)

X Una transformación binaria de los datos.

De manera análoga al caso del Kriging lineal, esta lista no es completa y no todos los casos pre-
sentados en esta lista serán considerados. Concretamente se estudiarán dos casos, el Kriging
log normal y el Kriging indicador.

128 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


4.7.1. kriging log normal
Se trata en este caso de aplicar el KO a la transformación logarítmica de los datos. Por lo tanto,
si Z(xi) (i= 1, …n) representa los datos iniciales, el KO se aplicará a una variable Y(xi) tal que:

Y(xi) (Z (xi)) (4.22)

Dado que se trata de una transformación logarítmica, la variable Z(xi) deberá ser siempre po-
sitiva; en consecuencia, se requerirá algunas veces adicionar una constante positiva a Z(xi) tal
que Y(xi) siempre exista. Una vez superada esta etapa, el resto del procedimiento es análogo
al discutido en el caso del KO; o sea, se utilizan ecuaciones similares a las ecuaciones 4.14., 4.15.
y 4.16. Como ejemplo de la situación, se presenta la ecuación que permite el cálculo del valor
interpolado a una ubicación x₀ (ecuación 4.23.).

n
(4.23.)
i=1

Esta ecuación es equivalente a la ecuación 4.15., y válida para la situación donde se interpolará
en los valores del logaritmo natural de la variable y no en la variable misma. Los pesos λi se ob-
tienen de manera análoga al caso del KO y el variograma utilizado es el de los logaritmos natu-
rales de la variable. Un punto muy importante de señalar es que un interpolador “aceptable” de
Y(xi) no garantiza un interpolador “aceptable” de Z(xi), debido a la necesidad de efectuar una
transformación inversa para volver a la escala original. De manera general, toda transformación
no lineal posterior de los resultados Kriging puede dar lugar a graves sesgos; más precisamente,
transformaciones inversas (como logarítmicas y raíz cuadrada, por ejemplo) exageran el error
asociado a la interpolación.

Resumiendo, se puede decir que las técnicas de Kriging no lineal son útiles con datos donde la
distribución no es normal y en situaciones donde existen valores extremos atípicos; reducien-
do la influencia de estos valores presentes en los datos. Por otra parte, dada la necesidad de
efectuar una transformación inversa, su uso indiscriminado no es recomendable y, por lo tanto,
requiere un estudio cuidadoso de la situación.

4.7.2. kriging indicador

Los diferentes índices y métodos Kriging de interpolación definidos y discutidos hasta ahora,
calculan la continuidad espacial-temporal, sobre todo el rango de valores de la VR de interés.

129
Pero en situaciones medioambientales es posible que la distribución y la variabilidad espa-
cio-temporal varíen en función del valor de la variable. Muy a menudo se presentan situaciones
donde se observa una coexistencia de manera aleatoria de grupos con una alta concentración
de la VR de interés con grupos presentando una baja concentración. Más aun, grupos con una
alta concentración presentan muy a menudo una distribución aleatoria, mientras que los grupos
con una baja concentración muestran una distribución continua. El grado de variabilidad puede
variar, por lo tanto, en función del valor de la VR; valores pequeños, medios o grandes presen-
tan distintos grados de variabilidad. El Kriging indicador (KI) fue introducido por Journel (1983)
justamente para mitigar la falta de un método geoestadístico aplicable a situaciones donde el
grado de variabilidad de la VR es función del valor de la misma. KI vio crecer su popularidad en
la década de l990, transformándose en uno de los algoritmos geoestadísticos más utilizados
tanto en aplicaciones mineras como medioambientales y recursos naturales; pero, desde prin-
cipios de este siglo, su uso ha disminuido debido a la importancia creciente que han tomado en
este campo las simulaciones condicionadas. Se presenta a continuación una discusión sobre el
uso del KI en un contexto medioambiental. El tema de las simulaciones condicionadas no será
presentado en este libro.

En la base del KI se encuentra el concepto de variable indicadora, la cual indica la pertenencia a


una variable categórica o a una variable continua, pero subdividida en grupos (cuartiles, deciles,
etc.). Como ejemplo de la utilidad de este concepto (variable indicadora), se supone que interesa
estudiar la concentración de ozono sobre una ciudad. En este caso el objetivo principal no es ob-
tener un valor interpolado, pero sí identificar zonas donde la concentración de ozono es mayor
o igual a un cierto valor (umbral) dado, obteniendo mapas de probabilidades. Este concepto es
también útil ya que permite conservar los valores extremos o atípicos presentes en los datos;
volviendo al ejemplo de la concentración de ozono sobre una ciudad, los valores extremos son
importantes pues indican zonas posiblemente contaminadas, no se puede simplemente asumir
que los valores atípicos son el resultado de ruido presente en los datos y eliminarlos. Su elimi-
nación significaría la pérdida de información, tal vez la más importante en el conjunto de datos.

La presencia de valores extremos o atípicos influenciará tanto el variograma experimental como


su ajuste; por consiguiente, son muy importantes. En el proceso de producir mapas de la VR de
interés la pregunta clave es ¿qué hacer con ellos?

• Eliminarlos:

X Solo si se llega a la conclusión de que no son valores reales de la VR de interés; en otras


palabras, se les puede considerar como ruido.

• En caso contrario:

• Agruparlos separadamente:

X Esto es posible, pero tiene la gran desventaja de que el número de puntos en estos
subgrupos no es, por lo general, estadísticamente suficiente para efectuar un análisis
estructural.

130 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


• Usar estadísticas robustas:

X Utilizar índices geoestadísticos menos sensitivos a la presencia de valores extremos;


por ejemplo, el madograma o el rodograma en lugar del variograma.

• Transformar los datos:

X Una transformación logarítmica reduce la influencia de los valores extremos.

X Utilizar el KI o las simulaciones condicionadas.

Journal (1983) fue el primer investigador en proponer usar el concepto de función indicadora en
estimaciones geoestadística, pero el concepto mismo existía ya en la literatura estadística. Lo
esencial de esta idea es la codificación de los datos en forma binaria (uno o cero) dependiendo
de su relación con el valor del umbral. La caracterización de la distribución espacial de la VR
de interés sobre o bajo un límite se efectúa definiendo un umbral indicador (indicator datum)
(ecuación 4.24.).

Si Z (xi )<Zt
I (xi , Zt) = { 1
0 Otro caso
} (4.24.)

Por lo tanto, en el caso del KI existe una condición: el cumplimiento o no de esta. El KI es un


método no paramétrico, no supone condiciones previas para su uso; hay que definir solo un
umbral y el KI estimará la probabilidad de que en cada punto del campo de interés el valor de la
VR sea mayor o igual al umbral dado. Notar también que el KI es una transformación no lineal
de los valores de la VR, ya sea en uno o cero. Los valores de la VR que sean mucho más grandes
que el valor del umbral Zt, en la ecuación 4.24., recibirán el mismo valor indicador que valores
que sean solo ligeramente superiores al umbral (una manera muy eficaz de limitar el efecto de
valores atípicos). La estimación misma será calculada por medio de una ecuación similar a la
ecuación 4.15., pero adaptada a la situación de un KI (ecuación 4.25.).

n
(4.25.)
0
i=1

Por consiguiente, la estimación dada por esta ecuación en el sitio x₀ es igual a una combinación
lineal de las n funciones indicadoras evaluadas en los sitios de medición. Dada, entonces, una
ubicación (o una malla de puntos de interés), la ecuación 4.25. proporcionará un valor uno o

131
cero en cada una de las ubicaciones de interés. En efecto, este resultado es una estimación de
la proporción de los valores en la vecindad del punto de interés que son mayores que el valor
del umbral. KI es un estimador de la probabilidad acumulada hasta el límite Zt (definido por el
valor del umbral).

Desde el punto de vista del cálculo mismo, el KI implica el cálculo y el modelado de variogramas
indicadores (es decir, variogramas de datos transformados por medio de la ecuación 4.24.). De
manera general, debe quedar claro que todas las funciones o índices definidos previamente
pueden ser también aplicados al caso del KI. Se define, por lo tanto, una covarianza indicadora,
un correlograma indicador y un variograma indicador; no se entrará en los detalles de estos
índices, pero por información adicional acerca de estos, se puede leer a Goovaerts (1997). Lo
importante de comprender es que el uso del KI implica el cálculo y el modelamiento de vario-
gramas indicadores en cada uno de los umbrales dados. A este enfoque se le denomina Kriging
de Indicadores Múltiples (Multiple Indicator Kriging, MIK). Esta situación no es muy práctica, ya
que requiere el cálculo y el ajuste de un variograma por cada umbral (lo que demanda mucho
tiempo y paciencia para lograrlo). Una solución aproximativa a este problema es simplemente
inferir el variograma de la mediana de los datos originales y utilizar este variograma para todos
los umbrales. Este enfoque se ha denominado KI-mediana (Median IK), esto ha dado excelentes
resultados y es muy rápido, puesto que las ponderaciones del Kriging no dependen del (o de los)
umbral(es). El KI-mediana es una forma simplificada del MIK y es fácil de definir a partir de los
datos originales. Una excelente revisión de los diferentes tipos de KI disponibles se encuentra
en Remy y otros (2009).

Desde un punto de vista metodológico, las etapas que se deben seguir para efectuar un KI se
pueden resumir como:

• Seleccionar el número de umbrales y sus valores.

X Número de umbrales ≤ 15, con el fin de evitar cálculos extremadamente largos.

X Número de umbrales no ≤ 5, con el fin de evitar la pérdida de información.

X En general, si se seleccionan k umbrales, el rango de valores de la VR será distribuido


en (k+1) grupos de aproximadamente la misma frecuencia.

• Con esta información disponible, el algoritmo KI procederá a realizar las siguientes etapas:

X Cada atributo a la posición xo (tipo de roca, vegetación, etc.) se clasificará en k pro-


babilidades acumulativas.

X Se calculará por medio de mínimos cuadrados una estimación de la función acumula-


tiva al umbral Zt. Existen dos posibilidades:

132 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


c Si la VR es continua y se dispone de t umbrales, Zk, k = 1…t

c KI se repetirá t veces a los valores de cada umbral (de ahí la importancia


de una selección adecuada del número de umbrales).

c Muchos umbrales implican cálculos muy largos.

c Pocos umbrales significa que detalles en la distribución desaparecen.

c Si la VR es binaria (discreta)

c El uso de la ecuación 4.24. no es necesario pues la VR está ya disponible en


valores discretos.

c Se pasa directamente al uso del algoritmo calculador del KI.

Como resumen al uso del KI, se formulan dos preguntas:

• ¿Cuándo se debe utilizar el KI?

X Se pueden dar varias razones para utilizarlo:

c El KI entrega una estimación que se puede interpretar directamente (sin ningu-


na transformación) como una estimación de la probabilidad de que el evento o
atributo de interés ocurra en una ubicación dada (esto en función de la distri-
bución original de los Z(xi) observados).

c KI es uno de los pocos métodos aplicable a poblaciones mixtas de datos.

c Dado que KI divide la distribución total de la muestra por medio de umbrales,


no hay necesidad de ajustar o asumir un modelo de distribución particular para
los datos.

c KI es una excelente opción en el caso de conjuntos de datos altamente sesga-


dos, ya que ofrece una manera práctica de tratar la cola superior o inferior de
la distribución (por ejemplo, la presencia de valores atípicos).

c Dado que todos a los datos se los transforma a una escala binaria, otros tipos
de datos secundarios pueden ser fácilmente utilizados con este esquema de
codificación; es decir, el KI permite una codificación común de diversos tipos
de datos.

133
X ¿Cuándo no se debe utilizar el KI?

c Al subdividir el conjunto de datos en n-subgrupos, el número de observacio-


nes por subgrupo es pequeño y, por lo tanto, los variogramas son difíciles de
calcular.

c No es práctico tener que inferir modelos de variograma en múltiples umbrales;


por esta razón, KI ha sido en los últimos años reemplazado y mejorado por el
paradigma de la simulación condicionada. De manera general y sin entrar en
detalles, la simulación condicionada ofrece todas las ventajas del KI y aún más
(ver Remy y otros, 2009).

4.8. Kriging multivariable

Los Kriging simple, ordinario y universal no son modelos multivariados en el sentido usual de la
estadística, a pesar del hecho de emplear modelos aleatorios de funciones que comprenden un
número infinito de variables aleatorias. No se los considera modelos multivariables ya que solo
se utilizan en el modelamiento de solo un atributo; pero existen situaciones donde se desearía
estudiar y utilizar la covarianza entre dos o más VR. Como ejemplos típicos de esta situación
se pueden mencionar; i) la VR de interés ha sido escasamente muestreada, pero está altamen-
te correlacionada con una segunda VR que fue mucho mejor muestreada y ii) la VR de interés
presenta una baja autocorrelación, pero se correlaciona altamente con otra VR que muestra
una continuidad relativamente alta. El Kriging multivariables o cokriging (CK) considera, por lo
tanto, dos o más atributos definidos sobre el mismo campo y su objetivo principal consiste en
realizar una interpolación de una VR sobre la base de:

• Su información estructural.

• Información acerca de VR secundarias (auxiliar) que estén correlacionadas con ella.

Se trata entonces de un método multivariable de estimación, situación que recibe el nombre


de corregionalización. No es necesario que todos los atributos tengan el mismo número de ob-
servaciones. CK requiere que la VR de interés esté insuficientemente muestreada, pero que se
conozca su relación con otras VR en la zona de estudio. El caso típico de utilización del CK es,
en cada sitio observado:

• Se obtiene información sobre más de un solo atributo (CK requiere dos).

134 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


X Una VR A presentando un muestreo infrecuente (muy pocas observaciones).

X Una VR B con muchas observaciones.

• Variables A y B están correlacionadas espacialmente (o temporalmente).

• Se utiliza la información en variaciones espaciales-temporales de B para determinar


las variaciones en A.

CK es, por lo tanto, una extensión de los métodos Kriging ya discutidos en el caso de la inter-
polación de una VR, pero usando también información proporcionada por otras variables regio-
nalizadas. El análisis estructural requerido por el CK es mucho más exigente que el Kriging; la
dificultad mayor es de orden práctico y proviene de la necesidad de inferir y modelar conjunta-
mente muchos modelos de variogramas cruzados. Si K es el número de atributos, se necesitarán
K² modelos de variogramas cruzados (Remy y otros, 2009). En el caso concreto de dos variables
regionalizadas A y B, se requerirá los variogramas experimentales de A y B (variogramas simples)
y el variograma entre A y B (variograma cruzado). Dada esta dificultad, los so!ware comerciales
permiten en su gran mayoría el cálculo de un CK utilizando solo una variable auxiliar, tanto en
el caso del Kriging simple, como ordinario o por bloques.

Si se dispone de dos variables regionalizadas, A y B tomadas en una región (o periodo) de in-


terés, siendo el número de observaciones no necesariamente iguales entre A y B, se calcula el
variograma cruzado entre A y B por la ecuación 4.26.

1 n(h)
AB =
= 2n(h) i=1
{ZA(xi) – ZA (xi + h)}{ZB (xi) – ZB (xi+h)} (4.26.)

Donde ZA(xi) y ZB(xi) son dos variables correlacionadas, ZA(xi) la variable de interés, y ZB(xi)
la variable secundaria o auxiliar; n(h) es el número de parejas de datos que se encuentran a una
distancia h.

Notar que el variograma cruzado es calculable directamente de los datos y si el variograma di-
recto toma solo valores positivos, el cruzado puede tomar valores negativos en el caso de una
correlación inversa entre las variables A y B. Se asume también que tanto los modelos simples
como los cruzados pueden ser expresados como una suma de modelos básicos (ver sección
2.3.). De manera similar a los otros métodos Kriging ya estudiados, el valor interpolado de una
VR A en una posición X0 será una combinación lineal de k covariables (secundarias o auxiliares).

135
En el caso de que se considere solo una variable secundaria (el caso más común), el estimador
CK toma la expresión dada en la ecuación (4.27.).

n1 n2

A i
ZA (xi) bj ZB(xj) (4.27.)
i=1 j=1

Donde:

• ZA* (x0 ): valor interpolado de A en una posición x0 no muestreada.

• ZA (xi ),i =1,2,…n1:variable principal.

• ZB (xj ),j=1,2,…n2:variable secundaria.

• ai (i=1,2,,,,n1) y bj )(j=1,2…n2) indican las ponderaciones de las variables ZA y ZB.

Los pesos ai y bi se los estima de manera análoga al método usado con el KO (ver sección 4.2).

Finalmente, algunos comentarios generales respecto del uso del CK:

• Información extra acerca de variables adicionales no es una garantía de valores interpola-


dos de mejor calidad; es decir, no es garantía de resultados superiores del cokriging sobre
el Kriging.

• Lo anterior, debido a que hay ciertos requisitos que deberán ser respetados:

X Las variables secundarias deben estar significativamente correlacionadas con la va-


riable principal. Por ejemplo, si el grado de correlación entre A y B es débil, se aumenta
simplemente el tiempo de cálculo por un mejoramiento despreciable.

X Si todos los atributos (variables A y B) se miden en los mismos sitios sin valores per-
didos, CK ofrece resultados similares al Kriging. Esto quiere decir que se obtendrá un
mejor resultado reemplazando el KO por CK, si el número de observaciones de B (va-
riable secundaria) es mayor que el número de observaciones de A (variable principal).
Es necesario también que una proporción significativa de las mediciones secundarias
haya sido obtenida en lugares distintos a los de la variable primaria.

136 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


137
138 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA
capítulo 05

Comentarios
generales

139
Se han presentado en las secciones precedentes las tres etapas básicas de un análisis geoes-
tadístico: análisis exploratorio, análisis estructural y estimación. Discutiremos ahora algunos
temas complementarios a cada una de estas tres etapas, sin duda importantes de ser mencio-
nados, pero que no fueron incluidos en la presentación inicial.

5.1. Análisis exploratorio

El análisis exploratorio es la primera etapa de todo análisis geoestadístico. Su objetivo es lograr


familiarizarse con el conjunto de datos –detectar patrones de regularidad, estudiar los datos
tabulados y efectuar una visualización de ellos–. Esta etapa no solo permite determinar las
características globales de los datos, sino que también permite detectar errores que se hayan
producido durante la adquisición y la tabulación de los mismos. Para efectuar estas tareas, se
utilizan las herramientas de la estadística clásica. Sin embargo, el análisis preliminar, tal como
fue que presentado en la sección dos, no verifica la presencia de ciertas propiedades caracte-
rísticas del tipo de datos que interesa; por ejemplo, la variabilidad de los datos en ciencias de
la Tierra depende frecuentemente de la magnitud de la VR. Esta dependencia recibe el nombre
de heteroscedasticidad o efecto proporcional. La presencia de un efecto proporcional (EP) implica
en la práctica que variogramas calculados en diferentes áreas de una región sean distintos. Este
tema será, en consecuencia, el primero de los temas complementarios que se presentarán y
discutirán en este capítulo. Una excelente y completa discusión de este tema se encuentra en
Isaaks y Srivastava (1989).

5.1.1. efecto proporcional


La calidad de una estimación es función de la distribución espacial de los datos: una región uni-
forme implica una precisión buena, mientras que una región presentando una gran fluctuación
en los valores de la VR significa que la estimación será menos buena. Este hecho es independiente
del método de estimación escogido; datos con poca variabilidad tendrán una estimación acep-
table, datos con mucha variabilidad presentarán una estimación menos aceptable. La cuantifi-
cación de esta situación requiere considerar la relación entre la media y la desviación estándar
(variabilidad) local. Se presentan cuatro posibilidades:

1. Valores que fluctúan alrededor de un promedio constante con una variabilidad también cons-
tante.

• Valores de la media y de la desviación estándar son constantes.

140 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


2. Se observa una tendencia en el promedio, pero la variabilidad se mantiene constante.

• El valor de la media varía, pero el valor de la desviación estándar permanece constante.

3. Se observa una tendencia en la variabilidad, pero el promedio es constante.

• El valor de la media es constante, pero el valor de la desviación estándar es variable.

4. Se observa una tendencia tanto en el promedio como en la variabilidad.

• Los valores de la media y de la desviación estándar presentan una cierta correlación.

Los dos primeros casos son las situaciones ideales para el cálculo de estimaciones geoestadís-
ticas, pues satisfacen la hipótesis de estacionaridad de segundo orden (ecuaciones 3.6. y 3.7.);
si la variabilidad es constante, la calidad de la estimación será la misma en toda la región de
interés. Las dos últimas situaciones, en cambio, presentan una situación donde la variabilidad
en general no es constante y por lo tanto la hipótesis de estacionaridad de segundo orden no
es válida. El último caso, en especial, es importante de mencionar ya que implica una desviación
estándar variable y proporcional a la media. La situación donde la media y la desviación están-
dar son proporcionales es un caso muy común con datos provenientes de ciencias de la Tierra
e ignorar su existencia puede conducir a graves errores en el proceso de estimación. La razón
es muy sencilla, la varianza del error estimación Kriging (ecuaciones 4.11., 4.16. y 4.19.) depende
solo de la configuración de los datos y es independiente de sus valores. Esta situación es acep-
table para datos satisfaciendo las condiciones de los dos primeros casos aquí discutidos, pero
es inaceptable para datos que presentan un efecto proporcional; es decir, mayor variabilidad en
áreas de alto valor de la variable de interés.

Entonces, por lo ya expresado en esta sección, deberá ser evidente la necesidad de verificar la
presencia de un EP en los datos, lo que se efectúa al nivel del análisis preliminar de los mismos.
Si en esta etapa se determina que la VR presenta una distribución normal (o cercana a ella),
la desviación estándar será constante y por lo tanto el EP ~ 0.0. No habrá, en este caso, una
cierta correlación entre la media y la desviación estándar (dado que el valor de esta última será
independiente del valor de la media). En el caso opuesto, el valor de la oblicuidad, CA, será alto
( ≥ 1.0), lo que implica la presencia de valores anómalos y la presencia probable de una cierta
correlación entre los valores de la media y la deviación estándar. Para verificar la existencia
de un EP y determinar su valor, el área de interés se divide en varias ventanas locales de igual
tamaño, dentro de cada una de ellas se calculan la media y la desviación estándar y se efectúa,
finalmente, una regresión lineal entre los valores de las medias y desviaciones estándar. Esta
operación se la ilustra en la Figura 5.1., donde en a) una matriz (5x3) de datos se subdivide en
tres matrices (3x3) identificadas en azul, rojo y azul, respectivamente, b) se calculan las medias
y desviaciones estándar al interior de estas tres submatrices y finalmente en c) se calcula una
regresión lineal entre los valores de las medias y las desviaciones estándar. En este ejemplo, el

141
EP no es un problema (r² = 0.2), pero los valores presentados en la Figura 5.1. solo ilustran el
proceso, no tienen ningún significado físico. Lo importante de comprender es que este ejemplo
ilustra el hecho de que el cálculo de medias y deviaciones estándar dentro de ventanas móviles
al interior del campo de los datos de interés es uno de los métodos mas utilizados para investigar
la presencia de valores anómalos y/o la presencia de un EP en los datos.

Figura 5.1. Ejemplo de cálculo del EP.


a) Matriz (5x3) de datos, b) Cálculo
de medias y desviaciones estandar al
interior de las tres ventanas móviles,
c) linear regresión entre las medias y
desviaciones estándar obtenidas en b).

La forma de la ventana es comúnmente cuadrada, en gran medida por razones de eficiencia


computacional. El tamaño de la ventana depende del diseño muestral adoptado (intervalo y
campo), una situación similar al cálculo de filtros de circunvolución en el campo de tratamiento
digital de imágenes. Se requiere, en general, una ventana lo suficientemente grande para ob-
tener medias y desviaciones estándar confiables y al mismo tiempo una ventana lo suficiente-
mente pequeña para detectar los detalles espaciales locales. Un compromiso con este conflicto
es el uso de superposición de las ventanas, con dos ventanas vecinas adyacentes, teniendo
algunas columnas de datos en común, como en el caso de la Figura 5.1. La posibilidad de cálculo
de medias y desviaciones estándar al interior de ventanas móviles no es una opción muy común

142 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


en so!ware especializados en el análisis geoestadístico, pero sí lo es en so!ware especializados
tanto en el análisis estadístico de datos como en el tratamiento digital de imágenes.

Habiendo determinado la presencia de un EP, la pregunta obvia es: ¿cómo eliminar este efec-
to? Al respecto, Isaaks y Srivastava (1989) demostraron que la existencia de un EP tiene como
consecuencia que variogramas de diferentes áreas de una región de interés sean desiguales. El
variograma, tal como ha sido definido en la ecuación 3.6., es la herramienta apropiada para la
descripción de datos donde no hay un EP; en caso contrario, si existe una relación lineal entre
la desviación estándar y la media (o el equivalente, una relación cuadrática entre la varianza y
la media), Isaaks y Srivastava (1989) observaron que los variogramas podrían hacerse idénticos
dividiendo sus valores por un valor que se determinará a partir de los datos. Esta observación se
encuentra en la base del desarrollo y uso de los variogramas relativos (sección 3.6.). Por ejemplo,
en el caso del variograma relativo, el variograma está estandarizado por la media al cuadrado
de los valores utilizados por cada lag (Deutsch y Journel, 1998).

Algunos comentarios más acerca de la presencia de un EP:

• En un proceso de interpolación Kriging, las ponderaciones, λi se obtienen mediante el uso


de la ecuación 4.9. Conociendo las ponderaciones λi, las ecuaciones 4.1. y 4.4. permiten
calcular el valor estimado en una ubicación S₀ de interés. Notar que los λi se han calculado
como la solución a un sistema de ecuaciones (ecuación 4.8.). Los valores obtenidos por los
λi son, por lo tanto, función de la distribución espacial del muestreo y del lugar S₀ donde se
desea interpolar; en otras palabras, los valores de los λi son función de la forma del vario-
grama. La multiplicación del variograma local por una función de la media local no cambiará
el valor de los pesos, pero sí cambiará el valor de la varianza Kriging.

• La calidad de un mapa obtenido por medio de un Kriging indicador es insensible a la presen-


cia del EP debido a la codificación en 0/1 de los valores observados; igualmente, transfor-
maciones matemáticas van permitiendo disminuir el valor de la oblicuidad, siendo también
inmunes al EP; por ejemplo, las transformaciones normal y log normal eliminan efectiva-
mente este efecto.

• Por otra parte, se menciona que las simulaciones condicionadas, aunque no tratadas en
este libro, deben considerar el EP con el fin de proporcionar medidas realistas de la incer-
tidumbre local.

143
5.2. Análisis estructural

Este análisis es la segunda etapa de todo análisis geoestadístico. Su objetivo principal es es-
tudiar la continuidad espacial/temporal de la variable; se calcula el variograma experimental,
u otra función que explique la variabilidad espacial/temporal observada; se ajusta al mismo un
variograma teórico y se estudian en detalle las características de este último. Desde un punto
de vista práctico, se genera un modelo, permitiendo describir la estructura espacial-temporal
del fenómeno de interés.

Al respecto, se mencionan primeramente algunos comentarios útiles al logro de este objetivo,


y, en segundo lugar, se presenta un ejemplo mostrando las diferencias entre mapas obtenidos
por medio de una interpolación Kriging, considerando primeramente un modelo isotrópico y,
en segundo lugar, un modelo anisotrópico.

5.2.1. comentarios
• Comenzar siempre con un análisis isotrópico; o sea, tratar de obtener el mejor ajuste po-
sible del variograma omnidireccional (promedio de variogramas direccionales). Si este no
ofrece una imagen clara de las estructuras, los variogramas direccionales no darán mejores
resultados tampoco. ¿Por qué no se observa la presencia de estructuras? Un estudio deta-
llado de las nubes de dispersión y la eliminación de algunos pares de datos anómalos puede
mejorar la situación.

• Una vez que la situación isotrópica está bien comprendida, considerar el caso anisotrópico.
La presencia de una anisotropía significa que existen una o varias direcciones y distancias
en las cuales el fenómeno de interés está menos estructurado. Determinar los ejes de aniso-
tropía (direcciones de máxima y mínima continuidad) y comparar esta información con la in-
formación de terreno disponible; si se conoce, aunque sea cualitativamente, la organización
espacial de la variable de interés, esta puede ser extremadamente útil en la interpretación
del variograma. El mapa variográfico es la herramienta principal de análisis en esta etapa.
No olvidar tampoco que, en el caso anisotrópico, un punto en el variograma cercano al
origen puede proporcionar menos información que un punto situado más lejos del origen.

144 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


5.2.2. modelo isotrópico versus modelo anisotrópico
Este ejemplo busca mostrar las diferencias en el modelo resultante de una estimación consi-
derando un escenario isotrópico y otro anisotrópico. Para lograr este objetivo, en el ejemplo se
ha privilegiado destacar la influencia de la dirección y como trabaja la elipse de búsqueda, más
que lograr un modelado de la VR en forma rigurosa.

Hecha esta aclaración, se presentan la metodología utilizada etapa por etapa y los resultados
obtenidos:

• En primer lugar, se presentan los datos utilizados. Se trata de una imagen de radar SRTM,
calibrada radiométricamente en valores de altura elipsoidal (Figura 5.2a). Este tipo de pro-
ducto satelital nos permite generar tanto modelos digitales de terreno (MDT) como curvas
de nivel.

Figura 5.2. a) Imagen radar SRTM,


las zonas oscuras muestran las zonas
de menor altura y las claras las cotas
más altas. En la imagen se identifica
claramente una quebrada con azimut
entre 50 y 60 grados. b) Distribución
espacial de las 200 muestras generadas
por el programa QGIS, sobrepuestas
sobre la imagen radar SRTM.

• La segunda etapa consistió en generar un conjunto de puntos, datos con los cuales se reali-
zará este ejemplo (Figura 5.2b). Para ello se utilizo el so!ware QGIS, dado que cuenta entre
sus herramientas de investigación con algoritmos que crean conjuntos de puntos distri-
buidos en forma aleatoria. Se crearon 200 puntos, a los que se traspasó la altura desde la
imagen utilizando herramientas de conversión de ráster a vector y herramientas de gestión
de datos vectoriales disponibles en QGIS (Figura 5.2b)

• En la tercera etapa, se exportaron los 200 puntos con sus coordenadas X, Y y el valor de la
variable altura al programa SGeMS (formato vectorial).

• La cuarta etapa consistió en el análisis geoestadístico de estos 200 valores de altura por
medio del programa SGeMS. Se presenta, en primer lugar, el análisis preliminar de estos

145
datos (Figura 5.3). El histograma muestra una distribución claramente normal, con una sime-
tría positiva y un coeficiente de curtosis también positiva. Dados estos resultados, se decide
efectuar el resto del análisis geoestadístico utilizando los datos originales (no se aplicó
ninguna transformación) y se espera que un modelo gaussiano sea el modelo más apropiado
para el ajuste del variograma experimental. Se espera también una marcada diferencia entre
el histograma correspondiente a la dirección 0° y el histograma calculado en la dirección 50°.

Variogramas experimentales omnidireccional y en las direcciones 0° y 50° y sus respectivos


ajustes se presentan en las Figuras 5.4 a), b) y c) respectivamente.

Figura 5.3. Histograma y estadísticas


básicas de las 200 muestras de alturas
(DN) obtenidas de la imagen radar
SRTM. Data count: 200

Mean: 2008,87
Variance: 297979

Maximum 3778
Upper quartile: 2377
Frequency

Median: 1930
Lower quartile 1576
Minimum: 956

a)
800000
Figura 5.4. Variogramas
600000
correspondientes a los 200 valores de 400000

alturas obtenidos de la imagen radar 200000

SRTM. a) Variograma omnidireccional, 0


0 5000 10000 15000 20000
b) variograma calculado en la distance

dirección 0°, c) variograma calculado b)


400000
en la dirección 50°. Cruces (en 300000

rojo) representan el variograma 200000


100000
experimental, línea sólida (en gris) 0

representa el modelo ajustado. 0 2000 4000 6000


distance
8000 10000 12000

c)
800000

600000

400000

200000

0
0 5000 10000 15000 20000
distance

146 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


El proceso de interpolación se efectuó utilizando una grilla de 500 m en ambas direcciones y
un Kriging ordinario de bloques de 10*10*10 m. Se consideraron tanto el caso isotrópico (Figura
5.5a) como el anisotrópico (Figura 5.5b). La elipse de búsqueda en el caso isotrópico (Figura
5.5a) fue de 3000 m en todas direcciones (un círculo de radio = 3000 m); en el caso anisotrópico
(Figura 5.6b) fue una elipse achatada de 3000 m en la dirección del azimut 50 y 1000 m en la
perpendicular. Se aprecia un suavizado en el caso isotrópico y si bien se nota que hay una direc-
ción preferencial, esta no es tan marcada como la apreciada en la imagen radar misma. En el caso
anisotrópico la presencia de una dirección preferencial es mucho más evidente; por lo tanto, si
bien el modelo escogido no es el más apropiado, el simple hecho de considerar un modelo ani-
sotrópico logró acotar la influencia de los valores bajos, marcando de mejor forma la quebrada.
Es importante también mencionar que este resultado se obtuvo utilizando solo 200 puntos.

Figura 5.5. Mapa de alturas obtenido por medio


de un Kriging ordinario de bloques (10x10x10m). a)
modelo isotrópico, b) modelo anisotrópico.

5.3. Estimación
En esta etapa se estima la variable en los puntos no muestrales, considerando la estructura de
correlación espacio-temporal seleccionada en la etapa del análisis estructural e integrando toda
la información disponible. Desde el punto de vista del cálculo mismo, se trata de calcular las
ponderaciones (pesos) que correspondan a las condiciones determinadas en la etapa del análisis
estructural. Al respecto, se pueden también hacer algunos comentarios complementarios a lo
dicho en el capítulo tres.

5.3.1. cálculo de los ponderadores (pesos)

El peso atribuido a un sitio de observación, en general, es mayor cuando este sitio se encuentra
cerca del punto a estimar. El valor de ponderación calculado en el capítulo tres toma en cuenta:
aspectos geométricos (distancias entre el sitio que se estima y los datos; distancias entre los

147
datos mismos), y aspectos estructurales (continuidad espacial, anisotropía). Pero no considera
cierta información local (efecto proporcional, redundancia de datos ni el efecto pantalla). Dado
que el efecto proporcional ha sido ya discutido (sección 5.1.1.), redundancia de datos y el efecto
pantalla serán presentados en el resto de esta sección.

5.3.1.1. redundancia de datos


Métodos de estimación son en general robustos al uso de un muestreo preferencial agrupado;
pero parámetros que deben deducirse de este tipo de muestreo antes del cálculo de la estima-
ción pueden ser seriamente distorsionados, especialmente en el caso de un número de muestras
pequeño (Figura 5.6.).

Figura 5.6. Conjunto de datos


presentando un muestreo preferencial
agrupado (ver interior de círculos rojos).
Figura adaptada de Deutsch y Journal
(1998).

La solución general es asignar pesos diferentes a todas las muestras disponibles, de manera que
las muestras agrupadas no tengan una influencia indebida en el proceso de estimación. Para ello
se utilizan dos métodos: i) desagrupamiento por células, y ii) polígonos de Voronoi.

• Desagrupamiento por células

Este método utiliza el concepto de ventana móvil para calcular un valor representativo por
región (célula). Su implementación significa considerar dos etapas:

148 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


X El área entera se divide en celdas rectangulares.

c Cada célula recibe un peso total de 1.

X Cada muestra en una célula recibe un peso inversamente proporcional al número de


muestras que se encuentran en la célula; por lo que las muestras agrupadas reciben
pesos menores.

Este es un procedimiento fácil de implementar y rápido. Como ejemplo, si se desea calcular la


media de un conjunto de datos obtenidos usando un muestreo preferencial agrupado (Figura
5.7a). La media de estos valores es 25, pero si estos datos son desagrupados (Figura 5.7b), la
media toma un valor de 16 (Figura 5.7c).

Figura 5.7. Desagrupamiento por


células. a) Muestreo preferencial, b)
muestreo “corregido”, c) cálculo del
valor desagrupado por célula y de la
media de estos.

c)

149
• Desagrupamiento por medio de los polígonos de Voronoi

Esta transformación matemática divide el espacio en tantas regiones como el número de ob-
servaciones disponibles; o sea, se obtiene una división del espacio en polígonos tal que a cada
observación corresponde un polígono de influencia dentro del cual todas las ubicaciones están
más cerca de esta observación que de cualquiera otra observación (Figura 3.3.). El uso de esta
transformación como método de desagrupamiento de datos significa asignar un polígono de
influencia a cada muestra, considerando las áreas de los polígonos como pesos de desagrupa-
miento.

Programas capaces de efectuar un desagrupamiento de datos están disponibles en la gran ma-


yoría de los SIG y programas de análisis estadístico. En el caso de que no se disponga de tal
herramienta, se sugiere consultar los programas SGeMS (Remy y otros, 2009) o GSLIB (Deutsch
y Journel, 1992).

5.3.1.2. efecto pantalla


Esta situación se ilustra con un ejemplo presentado originalmente por Olea (2009). Dada la ubi-
cación espacial de cuatro observaciones y el valor medido de una variable en cada uno de estos
cuatro lugares, se desea determinar el valor de la variable en una ubicación no visitada durante el
proceso de adquisición de datos (Figura 5.8a). Se efectúan las tres etapas básicas de un análisis
geoestadístico, considerando el cálculo de un Kriging simple (para conocer detalles en estas
etapas, ver Olea, 2009) y se obtienen cuatro valores de ponderadores o pesos para utilizar en
el cálculo del valor interpolado (Figura 5.8b). Notar que el peso asignado a la observación 4 pre-
senta un valor que es menor que los valores de los pesos correspondientes a las observaciones 1
y 2, a pesar de que la observación 4 se encuentra más cerca del lugar donde se desea interpolar.

Este es un ejemplo típico de lo que se entiende por efecto pantalla en geoestadística; o sea, una
situación donde una observación puede “ocultar” a otra, y si la observación “oculta” está situada
directamente detrás de la observación que actúa como máscara respecto de la ubicación donde
se desea interpolar. De manera general se puede decir que situaciones como la que se acaba de
presentar y la presencia de inestabilidades numéricas en el cálculo de los pesos tienden a reducir
la influencia de las observaciones mas distantes. Esta situación se invoca como justificación en
geoestadística para utilizar solo las observaciones más cercanas a la ubicación de la estimación.

150 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 5.8. Ejemplo de un efecto
pantalla. a) Distribución espacial de
las observaciones y del lugar donde
se desea interpolar, b) valores de las
ponderaciones entregadas por un
Kriging simple aplicado a la distribución
espacial presentada en a). Ejemplo
adaptado de Olea (2009).

Los programas geoestadísticos ofrecen, por lo tanto, la posibilidad de especificar cuáles y cuán-
tas observaciones se utilizarán en el cálculo de los pesos por medio de la ecuación 4.9. Para
lograr este objetivo, se define una vecindad móvil que, en general, tomará la forma de una elipse
(datos bidimensionales) o un elipsoide (datos tridimensionales), orientada según la anisotropía
observada en el variograma. En la práctica, se trata de definir ciertos parámetros que permitirán
al programa efectuar el cálculo de las ponderaciones según las instrucciones del investigador
(Figura 5.9.).

Figura 5.9. Definición de la ventana


móvil permitiendo el cálculo de los
pesos de acuerdo con el tipo de
variograma obtenido en el análisis
estructural (Figura adaptada de
Robertson, 2008).

Se requiere, en primer lugar, decidir cuántas observaciones se van a considerar. En el caso pre-
sentado en la Figura 5.9. los valores mínimo y máximo están definidos a uno y 16 respectiva-
mente. Si el número de observaciones es mayor que el valor máximo (16 en la Figura 5.9.), el
programa considerara solo las 16 observaciones más cercanas a la ubicación de la interpolación;

151
si el número de observaciones es menor, por ejemplo 10, el programa considerará las 10 obser-
vaciones disponibles para efectuar el cálculo de las ponderaciones. En general, se recomienda
que tres observaciones son un mínimo razonable y 25 son más que adecuado.

Segundo, se requiere informar al programa acerca del tipo de modelo que se debe considerar,
isotrópico o anisotrópico. Si se desea considerar un modelo isotrópico solo es necesario definir
el radio del círculo al interior del cual se buscarán las observaciones por considerar en el cálculo
de los pesos; en cambio, si se desea utilizar un modelo anisotrópico será necesario definir una
elipse, o sea, las longitudes de los ejes mayor y menor, como también la orientación de la elipse
en el plano definido por las observaciones. El ejemplo presentado en la Figura 5.9. indica que el
investigador optó por un modelo isotrópico, definido por un círculo de radio = 6420.529 (siendo
la unidad física de este valor la misma que la unidad utilizada en los datos). Un último comentario
importante: el valor del radio (o del eje mayor y menor de la elipse) no necesariamente deben
corresponder a los alcances del variograma, sino que se los define de manera de poder encontrar
suficientes datos para el cálculo de los pesos.

Notar que es posible también definir la búsqueda de datos por medio de una vecindad móvil
definida en sectores angulares (por ejemplo, cuadrantes en dos dimensiones). El caso concreto
presentado en la Figura 5.9. corresponde a la posibilidad de una búsqueda por octante. Este
tipo de búsqueda permite seleccionar datos presentando una buena distribución radial (dismi-
nuyendo, por lo tanto, la posibilidad de un efecto pantalla en el cálculo de los ponderadores).

152 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


153
154 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA
155
LISTADO DE FIGURAS
Figura 1. Pistas orbitales de un satélite artificial de la Tierra. De manera similar al caso de las
observaciones de terreno, para un sensor espacial es imposible visitar y medir un fenómeno
medioambiental en todo lugar y tiempo. Se conoce, por lo tanto, el valor de la variable de
interés solo en las ubicaciones visitadas por el sensor; en el resto de la región de interés
será necesario estimar (interpolar) para conocer los valores de la variable en los lugares no
visitados por el sensor.

Figura 1.1. Posiciones geográficas de valores del Índice de Vejez en la Región Metropolitana de
Santiago. Coordenadas expresadas en el sistema UTM (So!ware, GS+, Robertson, 2008).

Figura 1.2. Valores diarios de temperatura por un lugar situado en el hemisferio norte. Periodo
de observación es de un año. Día 1 corresponde al 1 de enero. Temperaturas expresadas en
grados Celsius (So!ware, GS⁺, Robertson, 2008).

Figura 1.3. a) Transecto horizontal (línea roja) sobre la banda roja de una imagen de la ciudad
de Puerto Varas, b) Valores digitales obtenidos. El transecto contiene 400 valores, expresados
en una escala a 8 bit (resolución radiométrica) (So!ware, ENVI V4.7, ITT, 2009).

Figura 1.4. Diagrama de Dispersión Tridimensional para la variable Índice de Vejez (So!ware
Minitab V16, Minitab Inc., 2010).

Figura 1.5. Ejemplo de producción de una imagen color a partir de una imagen multiespectral
de n bandas (n > 3). Se seleccionan primero tres bandas de las n bandas disponibles. a), b) y c)
presentan las tres bandas seleccionadas en una representación en blanco y negro; segundo,
se proyectan estas tres bandas a través del sistema RGB de la pantalla del computador para
obtener una imagen en color (imagen en d) (So!ware, ENVI V4.7, ITT, 2009).

Figura 1.6. a) Tabla de frecuencias y b) Histograma, correspondientes al conjunto de datos


Índices de Vejez presentados en la Figura 1.1. (So!ware, GS⁺, Robertson, 2008).

Figura 1.7. Datos de Índices de Vejez presentados en Figura 1.1. a) Histograma de estos datos,
b) histograma acumulativo correspondiente (So!ware, GS⁺, Robertson, 2008).
Figura 1.8. Posibles valores del CA. a) CA=0, una simetría perfecta (caso hipotético); b) CA=
-0.01327, datos experimentales mostrando una distribución muy cercana a la normal; c) CA=
-0.756039, datos experimentales presentando una simetría negativa; y d) CA= 2.4683, datos
experimentales exhibiendo una simetría positiva. Se presentan también los diagramas de caja
respectivos. El alto valor del CA en el caso de la Figura 1.8d es debido a la presencia de varios
valores anómalos (cruces hacia la derecha en el diagrama de caja de estos datos) (So!ware,
GS⁺, Robertson, 2008).

156 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Figura 1.9. Presentación y descripción de un diagrama de caja.

Figura 1.10. Diagrama de caja correspondiente a los datos Índice de Vejez. Este diagrama
de caja es simplemente una repetición del diagrama de caja presentado en la Figura 1.8d (se
utilizó el mismo conjunto de datos) (So!ware Minitab V16, Minitab Inc., 2010).

Figura 1.11. Visualización de una distribución normal. m: media y s: desviación estándar de la


distribución de interés (So!ware Minitab V16, Minitab Inc., 2010).

Figura 1.12. a) Histograma de la variable Índice de Vejez, IV; b) Histograma de la


transformación logarítmica de IV [ln(IV + 1)] (So!ware, GS⁺, Robertson, 2008).

Figura 1.13. Histograma y estadísticas básicas de una variable a conteniendo 67 datos.


(So!ware SGeMS, Remy y otros, 2009).

Figura 1.14. Los mismos datos de la Figura 1.13., pero el histograma se presenta utilizando 20
clases (So!ware SGeMS, Remy y otros, 2009).

Figura 1.15. Ejemplo del histograma y estadísticas básicas de una variable b conteniendo 67
datos (So!ware SGeMS, Remy y otros, 2009).

Figura 1.16. Histograma presentando una forma bimodal (dos campanas de Gauss), indicando
probablemente la presencia de dos poblaciones diferentes (So!ware SGeMS, Remy y otros,
2009).

Figura 1.17. Histograma presentando un valor de la oblicuidad CA = 0.3 (So!ware SGeMS,


Remy y otros, 2009).

Figura 2.1. Esquema de un diseño de muestreo hipotético.

Figura 2.2. Los tres elementos básicos del concepto de escala.

Figura 2.3. Comparación del diseño de muestreo entre medidas de terreno e imágenes.

Figura 2.4. Técnicas de muestreo probabilístico.

Figura 2.5. Los dos tipos de muestreo de más interés en estudios medio-ambientales. a)
Muestreo totalmente aleatorio, representando medidas de terreno, b) muestreo sistemático
representado información aeroespacial o medidas de terreno. En los dos casos, la información
por unidad de medida puede ser mono o multiespectral (So!ware, GS⁺, Robertson, 2008).

Figura 2.6. Ilustración de un correlograma. Este gráfico presenta la variación del coeficiente
de correlación en función de la distancia de separación (lag). Se trata de una función
decreciente de la distancia, tendiendo a cero cuando la distancia es muy grande.

157
Figura 2.7. Ilustración de un variograma experimental. Generalmente se trata de una función
creciente de la distancia (lag), y se anula cuando esta toma el valor cero.

Figura 2.8. Ejemplo de un gráfico de dispersión entre variable_1 y variable_2. Calculando la


línea de regresión de la nube de puntos (línea recta) es posible cuantificar la relación entre
estas dos variables; específicamente, en este caso, variable_2 = 0.444 + 10.0 variable_1
(So!ware, GS⁺, Robertson, 2008).

Figura 2.9. Gráfico de dispersión entre valores de la misma variable separados por una
distancia, h. a) dispersión entre temperaturas diarias con h = 1 día. b) gráfico donde se puede
apreciar tanto el grado de similitud perfecta (la línea bisectriz), como el caso opuesto, una
similitud nula si la distribución de puntos define un círculo (So!ware, GS+, Robertson, 2008).

Figura 2.10. Nubes de correlación diferida. Los valores corresponden a una serie de
temperaturas diarias por un periodo de una semana. Lag 1 es equivalente a un periodo de
un día, Lag 3 a tres días, Lag 5 a cinco y Lag 7 a un periodo de una semana (So!ware, GS⁺,
Robertson, 2008).

Figura 2.11. Representación gráfica del concepto de covarianza. El signo de la covarianza


indica el tipo de relación entre las dos variables. a) Covxy >> 0 (las dos variables crecen o
decrecen a la vez); b) Covxy ~ 0 (si los puntos se reparten con igual intensidad); c) Covxy << 0
(cuando una variable crece, la otra tiene tendencia a decrecer).

Figura 2.12. Valores extremos del coeficiente de correlación ρxy.

Figura 2.13. Representación gráfica de la covarianza entre dos variables X₁ y X₂ teniendo las
dos variables distribuciones normales pero diferentes (adaptado de Schowengerdt, 1983).

Figura 2.14. Ejemplo de matrices de covarianza y covarianza normalizada (correlación) de una


imagen Landsat TM conteniendo seis bandas.

Figura 2.15. Relación entre covarianza espacial y semivariograma en el caso de una situación
estacionaria. Si h ≤ a, existe una correlación espacial-temporal en los datos; h > a indica una
ausencia de correlación espacial-temporal.

Figura 2.16. Ilustración del método de cálculo de un variograma experimental en el caso de un


muestreo unidimensional y regular.

Figura 2.17. Conjunto de datos bidimensionales, donde en a) se ha seleccionado la dirección


vertical para efectuar el cálculo del variograma experimental, y en b) se muestra la definición
estándar de dirección para el cálculo de un variograma experimental.

Figura 2.18. Datos bidimensionales: a) muestreo irregular, b) parámetros de tolerancia,

158 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


ϕ`(dirección) y h (distancia), tal que:

Figura 2.19. Ejemplo de mapas variográficos, ilustrando el hecho de que el mapa variográfico
permite determinar las direcciones de anisotropía en la variable de interés. a) Ejemplo de
una elipse de búsqueda sobrepuesta en un mapa variográfico; su eje mayor precisa el eje
anisotrópico principal de los datos, b) ejemplo de datos con una distribución prácticamente
isotrópica (valores de la semivarianza independientes de la dirección). La definición de
dirección respeta la definición dada en la Figura 2.17b (So!ware, GS⁺, Robertson, 2008).

Figura 2.20. Definición de los tres parámetros básicos de un variograma teórico: efecto
pepita (C₀), meseta (Ct) y alcance (a). Se define también un cuarto parámetro, la varianza
estructurada, C = Ct – C₀.

Figura 2.21. a) Ejemplo de un fenómeno totalmente aleatorio, un fenómeno sin ninguna estructura
espacial o temporal, b) variograma teórico correspondiente a la situación presente en a).

Figura 2.22. Ilustración de un variograma sin meseta ni alcance.

Figura 2.23. Ilustración de un variograma en el caso de tendencia en los datos.

Figura 2.24. Ilustración de un variograma con hoyos (no monótono), este tipo de variograma
es característico de fenómenos periódicos.

Figura 2.25. Modelo efecto pepita puro. a) Variograma teórico, b) fórmula de cálculo. Ct es un
valor constante e igual al valor de la meseta.

Figura 2.26. Modelo esférico. a) Variograma teórico, b) fórmula de cálculo. C0: efecto pepita;
Ct: valor de la meseta; y a: valor del alcance.

Figura 2.27. Modelo exponencial. a) Variograma teórico, b) fórmula de cálculo. C₀: efecto
pepita; Ct: valor de la meseta; y a: alcance práctico; es decir, la distancia a la cual el variograma
llega al 95% de la meseta Ct (el alcance es 5% del valor de la asíntota).

Figura 2.28. Modelo gaussiano. a) Variograma teórico, b) fórmula de cálculo. C₀: efecto
pepita; Ct: valor de la meseta; y a: valor del alcance.

Figura 2.29. Modelo potencia. a) Variograma teórico, b) fórmula de cálculo. ω: un factor de


escala; θ: 0 £ θ < 2.

Figura 2.30. Ilustración de un variograma anidado. Se trata de un variograma anidado


conteniendo tres componentes, donde cada variograma elemental caracteriza la variabilidad
a una escala particular.

159
Figura 2.31. Ejemplo de un variograma anidado; a) un modelo exponencial + un efecto pepita,
b) un modelo esférico, y c) = a) + b).

Figura 2.32. Ejemplo de un mapa variográfico. La distribución es isotrópica hasta una


distancia (escala) definida aproximadamente por el círculo azul al centro del mapa. A
distancias mayores del radio de este círculo, la distribución es anisotrópica (So!ware, GS⁺,
Robertson, 2008).

Figura 2.33. Representación de un mapa variográfico. a) El círculo corresponde a una


distribución isotrópica y la elipse a una distribución anisotrópica, b) en el caso de una
distribución anisotrópica, se determinan los dos ejes anisotrópicos principales ab y cd (ejes
mayor y menor de la elipse, respectivamente) y la orientación de la elipse (ángulo ∠aox = θ).

Figura 2.34. Tres tipos de anisotropía. a) Geométrica, b) zonal, y c) híbrida. a, a1, a2


representan rangos, C1, C2 indican mesetas y ∆C = C1 – C2.

Figura 2.35. Comparación de a) variograma, b) madograma y c) rodograma calculados para un


conjunto de datos conteniendo valores atípicos (So!ware, GS+, Robertson, 2008).

Figura 2.36. Comparación de a) variograma relativo local, b) variograma relativo general y c)


variograma relativo por pares; para un conjunto de datos que presenta agrupamiento de estos
(So!ware, GS⁺, Robertson, 2008).

Figura 2.37. Variograma cruzado entre las variables carbono y oro (So!ware, GS⁺, Robertson,
2008).

Figura 3.1. Problema general de estimación. a) Se conocen los valores de la VR en n posiciones


y se desea determinar el valor de la VR en la posición S₀. b) Dada una red de observaciones, se
desea obtener una malla, una superficie de valores estimados.

Figura 3.2. Ejemplo de datos presentando una tendencia (voltaje versus posición). En este
caso, si la posición aumenta, también lo hace el voltaje (So!ware Minitab V16, Minitab Inc.,
2010).

Figura 3.3. Polígonos de Voronoi correspondientes a un conjunto de 12 observaciones. La


división del espacio es tal que se obtiene una observación por polígono. Las líneas entre los
puntos corresponden a la Triangulación de Delaunay.

Figura 3.4. Modelo Universal de Variación. Puntos celestes: observaciones de la VR.

Figura 4.1. Análisis geoestadístico de datos batimétricos. a) Interpolación inverso


proporcional a la distancia (IDW), b) variograma experimental (puntos) y ajuste efectuado

160 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


(curva gaussiana sobrepuesta), c) interpolación por medio del Kriging ordinario, d)
interpolación obtenida usando el Kriging universal (So!ware, GS⁺, Robertson, 2008).

Figura 4.2. Validaciones cruzadas. a) Kriging ordinario con r² de 0.91, b) Kriging universal con
r² de 0.93.

Figura 4.3. Varianza en el error de la interpolación. a) Kriging ordinario, b) Kriging universal


(So!ware, GS⁺, Robertson, 2008).

Figura 5.1. Ejemplo de cálculo del EP. a) Matriz (5x3) de datos, b) Cálculo de medias y
desviaciones estandar al interior de las tres ventanas móviles, c) linear regresión entre las
medias y desviaciones estandar obtenidas en b).

Figura 5.2. a) Imagen radar SRTM, las zonas oscuras muestran las zonas de menor altura y
las claras las cotas más altas. En la imagen se identifica claramente una quebrada con azimut
entre 50 y 60 grados. b) Distribución espacial de las 200 muestras generadas por el programa
QGIS, sobrepuestas sobre la imagen radar SRTM.

Figura 5.3. Histograma y estadísticas básicas de las 200 muestras de alturas (DN) obtenidas
de la imagen radar SRTM.

Figura 5.4. Variogramas correspondientes a los 200 valores de alturas obtenidos de la


imagen radar SRTM. a) Variograma omnidireccional, b) variograma calculado en la dirección
0°, c) variograma calculado en la dirección 50°. Cruces (en rojo) representan el variograma
experimental, línea solida (en gris) representa el modelo ajustado.

Figura 5.5. Mapa de alturas obtenido por medio de un Kriging ordinario de bloques
(10x10x10m). a) Modelo isotrópico, b) modelo anisotrópico.

Figura 5.6. Conjunto de datos presentando un muestreo preferencial agrupado (ver interior
de círculos rojos). Figura adaptada de Deutsch y Journal (1998).

Figura 5.7. Desagrupamiento por células. a) muestreo preferencial, b) muestreo “corregido”, c)


cálculo del valor desagrupado por célula y de la media de estos.

Figura 5.8. Ejemplo de un efecto pantalla. a) distribución espacial de las observaciones y del
lugar donde se desea interpolar, b) valores de las ponderaciones entregadas por un Kriging
simple aplicado a la distribución espacial presentada en a). Ejemplo adaptado de Olea (2009).

Figura 5.9. Definición de la ventana móvil permitiendo el cálculo de los pesos de acuerdo
con el tipo de variograma obtenido en el análisis estructural (Figura adaptada de Robertson,
2008).

161
162 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA
163
REFERENCIAS BIBLIOGRÁFICAS

Burrough, P. A. y McDonnell, R. A. (1998). Principles of Geographical Information Systems.


Nueva York, EE. UU.: Oxford University Press.

Deutsch, C. V. y Journel, A. G. (1998). GSLIB Geostatistical So!ware Library and User’s


Guide. Nueva York, EE. UU.: Oxford University Press.

Deutsch, C. V. (2002). Geostatistical Reservoir Modeling. Nueva York, EE. UU.: Oxford
University Press.

Emery, X. (2000) Geoestadística. Santiago de Chile: Departamento de Ingeniería de Minas de


la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile.

ENVI V4.7 (2009). ITT Visual Information Solutions. Recuperado de


h=p://www.harrisgeospatial.com

Giraldo, R. (2002). Introducción a la Geoestadística – Teoría y aplicación. Departamento


de Estadística, Facultad de Ciencias, Universidad Nacional de Colombia. Recuperado de
<p.ciat.cgiar.org

Goovaerts, P. (1997). Geostatistics for Natural Resources Evaluation. Nueva York, EE. UU.:
Oxford University Press.

Instituto Nacional de Estadística de Chile (2003). Censo 2002 – Síntesis de Resultados.


Recuperado de www.ine.cl

Isaaks, E. H. y Srivastava, R. M. (1989). An Introduction to Applied Geostatistics. Nueva York,


EE. UU.: Oxford University Press.

Journel, A. G. (1983). Nonparametric Estimation of Spatial Distributions, Math. Geol. Doi: 15: pp.
445-468.

Kitanidis, P. K. (2000). Introduction to Geostatistics, Applications in Hydrogeology.


Cambridge, Reino Unido: Cambridge University Press.

Krige, D. G. (1952). A statistical analysis to some of the borehole values in the Orange free
state gold field. Journal of the Chemical and Metalurgical Society of South Africa. (53), pp. 47-64.

Legendre, P. y Legendre, L. (1998). Numerical Ecology. Ámsterdam, Holanda: Elsevier Science.

Matheron, G. (1963). Principles of geostatistics. Economic Geology, (58), pp. 1246-1266.

164 GEOESTADÍSTICA EN EL ÁMBITO DE LAS CIENCIAS DE LA TIERRA


Minitab V16, Minitab Inc. (2010). User Guide. Pennsylvania State University. Recuperado de:
h=p://www.minitab.com

Montero, L. y Larraz, B. (2008). Introducción a la Geoestadística Lineal. La Coruña, España:


Netbiblo.

Olea, R. A. (1999). Geostatistics for Engineers and Earth Scientists. Boston, EE. UU.: Kluwer
Academic Publishers.

Rosenberg, M. S. y C. D. Anderson (2018). PASSaGE: Pa"ern Analysis, Spatial Statistics and


Geographic Exegesis. Version 2. Online Manual. Recuperado de: h=p://www.passageso<ware.
net/manual.php

QGIS 2.18. User manual. Recuperado de: h=ps://docs.qgis.org

Remy, N; Boucher, A. y Wu J. (2009). Applied Geostatistics with SGeMS. A User’s. Nueva


York, EE. UU.: Cambridge University Press.

Roberston, G.P. (2008). GS+, Geostatistics for the Environmental Sciences. Gamma Design
So!ware. Michigan, EE. UU.: Plainwell.

Rodríguez-Galiano, V. F.; Abarca-Hernández, F.; Ghimire, B.; Chica-Olmo, M.; Atkinson, P. M.


y Jeganathan, C. (2011). Incorporating Spatial Variability Measures in Land-cover Classification
using Random Forest, Procedia. Environmental Sciences, (3), pp. 44-49.

Schowengerdt, R.A. (1983). Techniques for Image Processing and Classification in Remote
Sensing. Londres, Reino Unido: Academic Press, Inc.

165
se terminaron de imprimir los 500 ejemplares
durante el mes de agosto del año 2021 en los
talleres de nuevamerica impresores. para el
cuidado de la edición se compusieron los
textos utilizando la variante sans de la
familia tipográfica karmina; diseñada
por veronika burian & josé scaglione
en el año 2007. ditribuida por
la fundición de la república checa
typetogether. recurriendo a
sus variantes light, regular,
italic, bold y bold italic

*
GEOESTADÍSTICA EN EL ÁMBITO
DE LAS CIENCIAS DE LA TIERRA

En la naturaleza un fenómeno es siempre fruto de la interacción


de procesos distintos. Nuestro conocimiento se basa en la cons-
trucción de modelos que han ido progresivamente haciéndose
más complejos, pero que están cada vez más cerca de explicar
la escurridiza realidad. Del modelo atómico de Thomson al de
Schrödinger, la teoría del caos y el efecto mariposa son distintas
maneras de percibir el mundo y de modelar nuestro entorno. Así
también es el caso de la geoestadística, que nos ayuda a mode-
lar variables que en su distribución espacial poseen patrones de
correlación. La concentración de un mineral en un yacimiento; la
distribución de un contaminante en una costa; oscilaciones de
temperatura en un ciclo de tiempo, son solo algunos ejemplos de
las muchas aplicaciones de esta disciplina que la presente publi-
cación nos acerca de forma didáctica.

También podría gustarte