Está en la página 1de 393

0

CURSO DE EXPLORACIÓN
GEOQUÍMICA

Jorge Oyarzún M.
Geólogo U.Ch. Dr. U., Dr. E. Sc. Nat., U.París
joyarzun@userena.cl homa640@vtr.net

Texto elaborado sólo para uso docente interno

Prof. Geol. Estructural, Geol. Económica e Ing. Geoambiental


Depto. Ing. Minas. Universidad de La Serena
Prof. Invitado Exploración Geoquímica. Progr. Magister Geol. Económica.
Depto. Geociencias. Universidad Católica del Norte.

La Serena, Junio 2013


1

Curso dictado por Jorge Oyarzún M. (Geólogo, Dr. Sc.,Prof. Titular, Depto.
Ing. Minas, Universidad de La Serena) para el Programa Magíster en
Geología Económica, Mención Exploración Minera Universidad Católica del
Norte.

Objetivos: El Curso tiene los siguientes objetivos principales: 1) Analizar los


principios básicos de la geoquímica y su programa científico, así como sus
relaciones con la tectónica, la petrología, los procesos endógenos y exógenos, la
metalogénesis y la exploración minera. 2) Reseñar las herramientas
metodológicas químico-analíticas y matemáticas, así como los criterios de
planificación de muestreos que permiten su aplicación en la detección y
evaluación de anomalías geoquímicas. 3) Discutir con los alumnos del Curso la
adecuación de los distintos tipos de muestreos (de rocas, suelos, sedimentos del
drenaje, etc.) a la prospección y exploración de anomalías geoquímicas
producidas por diversos tipos de yacimientos, bajo distintos contextos
metalogénicos, geológicos y geomorfológicos. 4) Analizar con los estudiantes el rol
que compete a la geoquímica en el marco general de las oportunidades y desafíos
que enfrenta la exploración minera actual, así como con respecto a los cambios
que se anticipan en los años futuros.
2

Contenidos.

1-Geoquímica, Exploración Geoquímica y Geoquímica Ambiental. 5

1.1-Objetivos y programa de la geoquímica. 6

1.2-La exploración geoquímica. 7

1.3-Geoquímica ambiental. 10

2-Métodos de Análisis Geoquímico. 14

2.1-Introducción, muestreo y preparación de muestras. 15

2.2-Métodos colorimétricos de análisis. 18

2.3-Espectrografía de emisión. 19

2.4-Espectrografía de absorción atómica. 21

2.5-Espectrometría por fluorescencia de rayos X. 22

2.6-Plasma inductivamente acoplado: ICP-AES. 24

2.7-Activación neutrónica. 26

3-Conducta Químico –Mineralógica de los Elementos Químicos. Ciclos Geoquímicos. 28

3.1-Elementos químicos y minerales. 29

3.2-Isomorfismo y diadocia. 30

3.3-La Tabla Periódica. Los enlaces químicos. 31

3.4-Los ciclos geoquímicos. 36

3.5-Química de soluciones. 40

3.6-Potencial iónico. Diagramas Eh-pH. 43

3.7-Soluciones hidrotermales y alteración hidrotermal. 49

3.8-La oxidación de los sulfuros y el drenaje ácido. 51


3

4-Geoquímica Endógena y Provincias Metalogénicas. 54

4.1-Historia geológica de la Tierra y su evolución metalogénica. 55

4.2-Ambientes metalogénicos endógenos. 59

4.3-Provincias geoquímicas y provincias metalogénicas. 60

5-Geoquímica Isotópica y sus Aplicaciones. 68

5.1- Estructura del átomo y radioactividad. 69

5.2-Isótopos radioactivos y sus aplicaciones geológicas. 71

5.3-Isótopos estables y sus aplicaciones geológicas. 76

6-Tratamiento Matemático de Datos, interpretaciones Geoquímicas y Modelación 88


Predictiva de Blancos.

6.1-Modelación predictiva de Blancos en exploración minera. 89

6.2-Análisis exploratorio de anomalías geoquímicas. 110

6.3-Mapas de prospectividad mineral basados en el conocimiento. 140

Anexo: Bases generales de aplicaciones estadísticas en Ciencias de la Tierra 150

7.-Exploración Mediante Anomalías Geoquímicas Endógenas. 247

7.1-Conceptos y relaciones generales. 248

7.2-Secuencia y ejecución de estudios litogeoquímicos. 261

8-Geoquímica de Suelos y del Drenaje. 268

8.1-Geoquímica regional, estratégica y táctica. 269

8.2-Prospección geoquímica de suelos o talus. Conceptos básicos. 271

8.3-Prospección geoquímica por muestreo de suelos. 277

8.4-Prospección geoquímica del drenaje. Conceptos generales. 290


4

8.5-Planificación y ejecución de prospecciones geoquímicas del drenaje. 295

8.6-Importancia de los estudios de orientación: Dos casos de estudio. 298

9-Prospección Geoquímica Mediante Aguas Subterrráneas. 308

9.1-Controles físicos del agua subterránea. 309

9.2-Características químicas del agua subterránea. 312

9.3-Formación de yacimientos y anomalías geoquímicas en acuíferos. 313

10-Geoquímica de Gases, Biogeoquímica y Geobotánica. 321

10.1-Exploración geoquímica de gases. 322

10.2-Exploración biogeoquímica. 324

10.3-Exploración geobotánica. 329

11-La Exploración Geoquímica en Chile. 335

11.1-Reseña histórica de la geoquímica en Chile. 336

11.2-Contribución de la geoquímica a la exploración minera en Chile: 1975-2010. 339

11.3-Caso de estudio: El descubrimiento de La Escondida 352

12-La Exploración Minera y la Geoquímica. Reflexiones Generales. 362

12.1-Presente y perspectivas futuras de la exploración minera. Los desafíos geológicos y el 363


rol de la geoquímica.

12.2-Exploración minera, desarrollo sustentable y desarrollo social: Propósitos comunes y 365


contradicciones prácticas.

12.3-Aspectos económicos, de gestión e innovación en la exploración minera. 371

REFERENCIAS 385

Reseña del Autor 392


5

CAPÍTULO 1: “GEOQUÍMICA, EXPLORACIÓN GEOQUÍMICA Y


GEOQUÍMICA AMBIENTAL”

A. Fersman (Der.)
V. Vernadsky
V. M. Goldschmidt

G. Govett

H. Hawkes (Izq.)

H. Wedepohl John S. Webb


(Izq.)
6

1.1 Objetivos y “Programa” de la Geoquímica

A diferencia de la “geología química”, disciplina centrada en la química de


los procesos geológicos, la geoquímica tiene por objetivo investigar la
distribución de los elementos químicos en las distintas “esferas” y
compartimentos de la Tierra, así como las leyes que explican esa
distribución. Entre los pioneros de esta ciencia destaca el químico del
U.S.G.S. F.W. Clarke, quien reunió, sistematizó y publicó un importante
volumen de información geoquímica (Data of Geochemistry, 1889).

La geoquímica alcanzó su madurez con la obra del investigador alemán


V.M. Goldschmidt, autor de importantes publicaciones y libros entre las
décadas de los 1920`s y 1940`s, quien estableció parte principal de su
conceptualidad y nomenclatura, así como las primeras reglas que explican
la distribución y substitución de los elementos químicos en los minerales
(isomorfismo y diadocia). En Rusia, se destacan las contribuciones de A.E.
Fersman, A. Vinogradov y V. Vernadski (fundador de la biogeoquímica),
obras desarrolladas contemporáneamente con la de Goldschmidt. El
notable libro de los finlandeses. K. Rankama y T. Sahama, presentó en
1949 un amplio y detallado panorama del conocimiento acumulado por la
geoquímica en los primeros 60 años de su desarrollo. Este libro, publicado
en castellano por editorial Aguilar en 1954, continúa manteniendo vigencia.
También cabe mencionar la obra de K.B. Krauskopf “Introduction to
Geochemistry” (1967) por su claridad conceptual, así como la editada por
H.L. Barnes “Geochemistry of Hidrotermal Ore Deposits” (1967), por su
vinculación directa de la geoquímica con la formación de los yacimientos
hidrotermales.
7

Entre los principales conceptos utilizados por la geoquímica está el de ciclo


geoquímico (paralelo al de ciclo geológico), el que describe el paso de los
elementos e isótopos a través de las distintas esferas geoquímicas
(litosfera, hidrosfera, biosfera, etc.). Al respecto, el desarrollo de la tectónica
global o de placas robusteció el marco interpretativo de la geoquímica.
Actualmente, la preocupación mundial relativa al cambio climático, y sus
vinculaciones con el calentamiento global y los gases con “efecto
invernadero” ha dado una importancia central al ciclo del carbono,
explicitado a través de los conocidos “diagramas de cajas”. Otros ciclos
geoquímicos de especial importancia ambiental son los del azufre y el
fósforo, y en materia eco – toxicológica, el del mercurio. Al respecto, la obra
de M.C. Jacobson et al, (2000) es muy recomendable.

1.2 La Exploración Geoquímica

Los términos exploración y prospección son utilizados con connotaciones


distintas por diferentes autores y muchas veces indiferentemente. En el
presente texto utilizaremos exploración para referirnos al proceso en su
forma más integral y estructurada, y prospección para el proceso más
directo de aplicación de metodologías particulares. Al respecto tiene
bastante sentido la posición de Marjoribanks, (2010) que asigna a la
prospección la función de establecer “prospectos” y a la exploración la de
su reconocimiento y evaluación que permiten en caso favorable convertirlos
en yacimientos. Por ejemplo, diremos: “La prospección geoquímica
constituye un elemento esencial de la exploración minera moderna” o “Una
prospección geoquímica realizada al W del distrito Las Peñas, reveló
contenidos anómalos de Cu y Mo. La empresa Delta declaró su interés en
explorar este prospecto y su entorno”.
8

La base conceptual de la prospección geoquímica es sencilla: puesto


que los yacimientos minerales son concentraciones económicas de
elementos químicos o minerales, es muy probable que ellos se encuentren
rodeados de aureolas de contenidos anormales de los elementos químicos
acumulados en el depósito. Tales aureolas, al tener un mayor tamaño que
los yacimientos, constituyen “blancos de exploración” más fáciles de
detectar. En consecuencia, la prospección geoquímica tiene por finalidad
detectar tales anomalías y corresponde a la exploración geoquímica
establecer su probable relación con yacimientos desconocidos situados
debajo o lateralmente respecto a ellas.

(Levinson, p. 369)

La exploración geoquímica se desarrolló principalmente en la Unión


Soviética, en Inglaterra (aplicada en la faja cuprífera de sus colonias
africanas), en Canadá, EE.UU y Francia. Las investigaciones de ingleses y
americanos se centraron en la geoquímica de suelos y sedimentos, y se
plasmaron en el importante libro “Geochemistry in Mineral Exploration” de
H.E. Hawkes y J.S. Webb, publicado en 1962.
9

Las prospecciones geoquímicas soviéticas, denominadas “prospecciones


metalométricas”, utilizaron métodos espectroscópicos por multi elementos
(a diferencia de los métodos colorimétricos para elementos individuales
utilizados por ingleses y americanos). Por otra parte, al igual que los
canadienses, pusieron un mayor énfasis en la geoquímica de rocas y en la
detección de anomalías primarias (ver A.A. Beus y S.V. Grigorian , 1977).
Entre 1947 y 1969, más de 60 millones de muestras fueron colectadas
considerando sólo una de las repúblicas de la URSS: Kazakstán.

El texto de Dhana Raju (2009,p.5), presenta un resumen de los


descubrimientos de depósitos realizados con participación principal de la
exploración geoquímica (tomado de Rose et al. 1979); que muestra la
importacia del análisis de sedimentos del drenaje en el logro de dichos
descubrimientos. Actualmente, la exploración geoquímica es una
herramienta principal y seguramente la más exitosa en la exploración
mundial de yacimientos metalíferos. A dicho éxito ha contribuido mucho el
avance de los métodos analíticos instrumentales para multielementos.
10

(Dhana Raju, p. 5)

1.3 Geoquímica Ambiental

La investigación científica básica en exploración geoquímica, se ha


enfocado en los mecanismos de generación de anomalías en torno a un
centro mineralizado. En cambio, la práctica de la prospección geoquímica
utiliza ese conocimiento en la operación inversa, vale decir, descubrir el
yacimiento partiendo de su anomalía periférica. En consecuencia, se trata
de un proceso “centrífugo” (el primero) y de uno “centrípeto” (el segundo).
11

En el caso de las aplicaciones ambientales de la geoquímica, ambas


aproximaciones son igualmente importantes. Si interesa conocer el efecto
de un centro emisor de contaminantes, se utilizan modelos de dispersión de
efluentes, los que mediante métodos físico – matemáticos predicen la
concentración de dichos efluentes en el espacio y en el tiempo. Es el “modo
centrífugo” de la geoquímica ambiental.

En la segunda aplicación se dispone de información respecto a la presencia


de contaminantes en el espacio (sedimentos de un río, aguas de un lago
suelos, atmósfera, etc.), cuya fuente no se conoce con seguridad. En este
caso, dicha fuente equivale al yacimiento oculto que se procura descubrir.
Los mismos métodos utilizados en prospección geoquímica pueden ser
útiles, por lo tanto, para descubrir las fuentes contaminantes responsables
.
La geoquímica ambiental está relacionada con la ecotoxicología ambiental,
que estudia la relación entre los contenidos de metales pesados y otros
contaminantes y sus efectos en la ecología y la salud humana. Parte de los
“contaminantes” pueden tener un origen natural, como los contenidos
anómalos de Pb y otros metales pesados o metaloides ligados a
determinadas formaciones sedimentarias o la presencia del drenaje ácido
natural de yacimientos en proceso de oxidación. Por ejemplo, los elevados
contenidos de As de las aguas subterráneas de Bangladesh, los cuales no
son dependientes de la actividad minera ni de la presencia de depósitos
metalíferos sino de la oxidación de minerales sulfurados diseminados en
estratos sedimentarios. Igualmente naturales son los altos contenidos de
Pb, Se, y otros metales o metaloides detectados en formaciones
sedimentarias de Norte América, que han sido relacionados con la
prevalencia de determinadas enfermedades en las respectivas regiones.
12

(Siegel, p. 22)

(Siegel, p. 140)
13

(Siegel, p. 145)
14

CAPÍTULO 2: “MÉTODOS DE ANÁLISIS GEOQUÍMICO”

http://www.groupecarso.com/Analyses-Physico- http://www.jordilabs.com/es/lab-testing/analytical-techniques/bench-
Chimiques,23.htm?langue_id=4 chemistry/

http://micienciaquimica.blogspot.com/2011/08/tecnicas-basicas-de-
http://vicinv.ujaen.es/taxonomy/term/102 laboratorio.html
15

2.1 Introducción: Muestreo y Preparación de Muestras.

En este capítulo revisaremos los métodos analíticos más utilizados en


exploración geoquímica. También consideraremos los parámetros que
determinan la calidad de los análisis, así como las condiciones previas que
se requieren para que tales análisis puedan efectivamente representar lo
que se espera de ellos.

Naturalmente, el muestreo, en su planificación y ejecución, es la base de


todo. En primer lugar ello implica determinar la densidad (por ej.,
muestras/km2) y la distribución de las muestras (controlada o no por la
topografía, y en el segundo caso, la orientación de los perfiles y la
separación entre muestras a lo largo de éstos), También el tamaño de las
muestras y otras variables deben ser consideradas. Por ejemplo, si se
están muestreando rocas graníticas, el tamaño de los cristales debe ser
considerado para establecer su tamaño mínimo (fórmula de P.Gy).
También existen criterios y procedimientos para el muestreo de suelos
(horizonte, profundidad), sedimentos del drenaje, agua de corrientes
fluviales, etc. En el caso de suelos y sedimentos es también importante
definir (según las circunstancias) qué fracción granulométrica conviene
analizar, la cual puede ser distinta para diferentes elementos químicos. Al
respecto, la mejor fracción no es la más rica en el elemento buscado, sino
la que entrega mejor contraste en términos de contenidos normales y
anómalos.

El siguiente paso corresponde a la conservación (por ej., agregado de ácido


a muestras de agua para prevenir la precipitación de metales), reducción
(como el “cuarteo” del material muestreado) y preparación de las muestras
para su análisis. Respecto al último punto, existen diferentes
procedimientos para poner en solución los metales contenidos en muestras
de rocas, suelos, sedimentos, etc. Ellos van desde su extracción “total”,
16

mediante la destrucción de los silicatos con HF, pasando por el ataque en


caliente con ácidos enérgicos (HCl, HNO3 HClO4), el ataque en frío con
ácido débiles (acético, cítrico), hasta procedimientos de ataque
extremadamente débiles mediante enzimas. Cada uno tiene sus propios
objetivos y valor, y es importante que el responsable del programa de
exploración geoquímica sea quien lo determine (ojalá basado en estudios
previos de orientación).

También le corresponde seleccionar la mejor opción disponible para la


realización de los análisis, la que dependerá de los elementos que se
desea analizar, el medio analizado (agua, rocas, etc.) y la calidad de los
análisis requeridos. Ello, además de factores prácticos como tiempos de
envío y ejecución, costos, etc. En general, es conveniente que el laboratorio
seleccionado tenga experiencia en el tipo de análisis a realizar y cuente con
instalaciones adecuadas para evitar la contaminación y la confusión de las
muestras, así como con estándares adecuados (ojalá internacionales) para
controlar sus resultados.

Es recomendable también que el cliente disponga de sus propios


estándares (muestras homogenizadas, analizadas en dos o más
laboratorios de prestigio) y que los introduzca periódicamente en los grupos
de muestras enviados para análisis (sin olvidar que dicho estándares deben
haber sido analizados por un procedimiento análogo al utilizado en el
laboratorio contratado). Igualmente, es conveniente incluir entre las
muestras enviadas algunas repetidas (por ej., 1 en cada 20) para evaluar la
precisión de los análisis.

La calidad de los análisis químicos se expresa por tres parámetros


principales: exactitud, precisión y sensibilidad. Por exactitud se entiende
su aproximación al valor “real”, por precisión, el grado de “reproductibilidad”
de los resultados y por sensibilidad, la concentración mínima que puede ser
17

detectada en el material analizado. Vale la pena discutir en detalle cada uno


de estos tres parámetros.

En principio, todo análisis es un experimento (D.M. Shaw) y no es posible


conocer el contenido “real” en términos absolutos. Sin embargo, si
preparamos una muestra artificial de matriz similar, que no contenga el
elemento en cuestión y se lo agregamos en una concentración conocida,
podemos estimar la exactitud del método analítico. También podemos
hacerlo utilizando estándares geoquímicos internacionales, asumiendo
como “reales” lo valores o rangos recomendados por sus responsables. Así
podremos determinar la exactitud del método, siempre que utilicemos una
preparación de la muestra análoga a la empleada en la confección del
estándar. Tal exactitud se puede expresar como porcentaje de la desviación
respecto a ese valor real.

La precisión se puede estimar analizando la misma muestra unas 10 o 20


veces y calculando la desviación estándar de los resultados entregados. Un
método puede ser preciso, pero no exacto o viceversa.

Respecto a la sensibilidad, es importante recordar que en la mayoría de los


casos no se analiza directamente el material muestreado, sino que una
solución producto de su ataque químico. En consecuencia, utilizando
procesos de concentración selectiva es posible mejorar mucho la
sensibilidad de los métodos analíticos (también ello puede ser logrado
mediante variaciones de la técnica instrumental utilizada). Finalmente, es
conveniente procurar establecer relaciones de colaboración y confianza con
el laboratorio analítico, lo cual implica compartir información y estar
dispuestos a plantear abiertamente las dudas que se puedan presentar.
18

2.2 Métodos Colorimétricos de Análisis

Tanto en EE.UU como en Canadá, Francia e Inglaterra (exploraciones en


el Copperbelt africano), se utilizaron inicialmente (años 1950’s) métodos
colorimétricos de análisis para elementos como Cu, Mo, Pb, Zn, etc. Tales
análisis incluían una etapa de extracción (con ácidos enérgicos en caliente
o con ácidos débiles y en frío) seguida por agitación con un compuesto
orgánico (dithizona, biquenolina, thiocianato), en una fase solvente, también
orgánica.
Dicho compuesto, al incorporar
el metal analizado a su
molécula, desarrolla una
coloración de gama e
intensidad proporcional a su
concentración. De acuerdo con
las condiciones de pH fijadas,
es posible utilizar el mismo
reactivo orgánico para distintos
elementos. También es posible
analizar, en forma semi
cuantitativa, la suma de dos o
tres elementos (por ej., Cu, Pb
y Zn). Esto último puede ser útil
en geoquímica, de sedimentos
del drenaje, porque permite
evaluar en terreno el interés
prospectivo de los afluentes a
cursos principales.
19

(Levinson, p. 155)

A diferencia de la investigación geoquímica científica, la prospección


geoquímica es una disciplina que puede tolerar márgenes mayores de
“imprecisión analítica”, a condición de que ellos no afecten la detección y
definición de las anomalías. En consecuencia, los métodos colorimétricos,
basados en simple comparación visual con las gamas de colores de los
estándares preparados, fueron muy efectivos en el logro de importantes
descubrimientos en distintos continentes. Naturalmente, su precisión podía
ser mejorada mediante el uso de lecturas instrumentales, pero en general
precisiones del orden de 10% eran consideradas satisfactorias. Tampoco
existían problemas de sensibilidad para los metales de base generalmente
prospectados. Los primeros estudios y campañas de exploración
geoquímica realizados en Chile entre fines de los 1950’s y la primera mitad
de los 1960’s (ver capítulo 11), utilizaron métodos analíticos colorimétricos
con resultados satisfactorios.

2.3 Espectrografía de emisión

Puesto que los métodos colorimétricos son específicos para determinados


metales, se adaptaban bien a las necesidades prospectivas de las
empresas mineras, las que generalmente se interesaban por un rango
estrecho de metales. En cambio, en el caso de la ex Unión Soviética, cuya
economía socialista era centralizada y abarcaba un gigantesco territorio, en
gran parte inexplorado, interesaba analizar la gama de metales más amplia
posible, en muestras procedentes de sus distintas regiones y localidades.

En consecuencia sus exploraciones geoquímicas, denominadas


“metalométricas”, utilizaron preferentemente la espectrografía de emisión,
pese a la mayor laboriosidad y dificultad que implica ese método,
20

especialmente en su forma original. La espectrografía de emisión consiste


básicamente en la colocación de la muestra pulverizada a analizar en una
pequeña cavidad en el extremo de un electrodo de grafito, por el que pasa
un arco eléctrico de elevado voltaje. Por efecto de la alta temperatura
generada, sus elementos químicos emiten radiación electromagnética
correspondiente a los “saltos cuánticos” producto de la excitación de los
electrones de sus orbitales externos. Esa radiación “luminosa” , que va del
infrarrojo al ultravioleta, es dispersada por un prisma y finalmente
impresiona una placa fotográfica.

En una placa de vidrio rectangular cubierta de material sensible a la luz,


cada elemento químico queda representado por varias líneas principales,
correspondientes a su espectro de emisión, las que se reconocen por su
posición respecto a las de un elemento (Fe) utilizado para fines
referenciales . Según la concentración de cada elemento, las respectivas
líneas quedan menos o más ennegrecidas. La placa, de unos 25 x 15 cm,
se coloca después de revelada sobre un instrumento de medida, donde la
intensidad de las líneas utilizadas se compara con la producida por
estándares de concentración conocida. El procedimiento es lento y
laborioso pero entrega análisis de buena calidad para un gran número de
elementos. Este método fue también muy utilizado también por
investigadores científicos como Goldschmidt, y tuvo gran importancia en el
desarrollo de la geoquímica.

Con el fin de aprovechar las ventajas de este método en términos de


calidad de los análisis y gama de elementos analizados, el B.R.G.M.
(Servicio Geológico – Minero de Francia) desarrolló a mediados de los
1960’s el denominado “quantómetro”. Este consiste en un espectrógrafo de
emisión de alta dispersión de las líneas espectrales, con fotodetectores,
ubicados en la posición de las líneas principales de cada elemento.
Conectado a un computador provisto del software necesario, el instrumento
21

compara sus las lecturas con aquellas generadas por estándares de


composición conocida, y entrega los resultados de manera casi
instantánea.

2.4 Espectrografía de Absorción Atómica

Esta metodología utiliza un principio físico inverso respecto al de la


espectrografía de emisión, puesto que aprovecha el efecto de absorción de
la radiación emitida por un elemento excitado térmicamente. Dicha
absorción se produce por la presencia de átomos vaporizados del mismo
elemento. La idea básica es que tal absorción es proporcional a la
concentración de dichos átomos (presentes en forma elemental, no
ionizada).

El instrumento consiste en una lámpara de “cátodo hueco” provista de un


filamento del elemento a analizar, el que emite luz al ser calentado por el
paso de una corriente eléctrica. El haz de luz es desviado parcialmente por
un prisma y llega a un foto detector que mide su intensidad. La mitad no
desviada pasa en cambio por la parte reductora de una llama, donde se
está “quemando” la solución que contiene el elemento en su forma iónica, el
que completa su envoltura electrónica en esa parte de la llama (por ej., Cu2+
+ 2e = Cu0). En tal condición, el elemento absorbe una parte de la luz
generada por el cátodo hueco, luz que impresiona otro fotodetector.
Comparando las dos intensidades medidas, así como las lecturas
entregadas por una serie de estándares, es posible entonces determinar la
concentración del elemento analizado, la cual es proporcional al grado de
absorción registrado.

Se trata de un método exacto y preciso, muy bien adaptado al análisis de


muestras de agua. En otros casos dependerá de la calidad del ataque
22

realizado. Su sensibilidad, naturalmente dependiente del elemento


analizado, puede ser mejorada tanto mediante pre concentración así como
mediante aditivos instrumentales (uso de la “navette”). Sin embargo, como
todos los métodos, está expuesto al efecto de interferencias que es
necesario considerar.

Este método llegó a Chile a fines de los 1960’s y se utilizó, junto con
fluorescencia de rayos X, en un amplio estudio realizado por la Universidad
de Chile para ENAMI, destinado a conocer los elementos menores y en
trazas presentes en minerales de cobre y concentrados de distintos distritos
mineros. También fue adquirido por el I.I.G. (actual SERNAGEOMIN) y
pasó a reemplazar a los métodos colorimétricos en las prospecciones
geoquímicas. Su único inconveniente práctico radica en la necesidad de
realizar los análisis elemento por elemento.

2.5 Espectrometría por Fluorescencia de Rayos X

A diferencia de los dos métodos espectrográficos anteriores, cuya base


física radica en los electrones externos y en aquella parte del espectro
electromagnético visible o cercano (infrarrojo a ultravioleta), este método se
asocia a saltos cuánticos en sus orbitales electrónicos internos y a una
parte del espectro electromagnético de mayor frecuencia y energía.

El método comprende la excitación de la muestra (normalmente en forma


de polvo o de una “pastilla”) mediante la radiación emitida por un tubo de
rayos X, la que produce saltos de nivel de energía de sus electrones
internos. Al “caer” estos a su nivel de energía anterior (vale decir a su órbita
normal), emiten radiación X, la cual es difractada (Fig. 6.4, Dhana Raju, p.
147) y finalmente medida mediante un dispositivo complejo (contador
proporcional y contador de centelleo con fotomultiplicador. Al igual que en
23

las otras medidas, los resultados se obtienen por comparación con series
de estándares.

(Dhana Raju, p. 147)

Este método es rápido y muy sensible, exacto y preciso para elementos


“pesados” como Rb y Sr. En cambio es poco adecuado para elementos
livianos y es afectado por algunas matrices. Sin embargo, si el instrumento
va a ser utilizados en condiciones “estándares” (por ej., determinación de la
ley de concentrados minerales de similar composición o de elementos
mayores de rocas ígneas), es posible “manejar” esas dificultades. También
ha sido utilizado en programas de exploración geoquímica por multi
elementos (En India, la Comisión de Energía Atómica lo ha usado durante
30 años en la detección de 60 elementos químicos en sus campañas de
prospección().
24

Una versión “de terreno” de este instrumento utilizaba una fuente sellada de
un isótopo radioactivo como fuente de rayos X, la cual fue recientemente
reemplazada en los últimos modelos por una batería de litio que entrega
varias decenas de miles de volts. El instrumento procesa la radiación
emitida por la muestra mediante un cristal de yoduro de sodio, acoplado a
un fotomultiplicador. Este aparato ha probado ser muy útil en exploración
preliminar (por ej., estudio de distritos mineros antiguos), así como en el
examen preliminar de sondajes y en investigaciones de contaminación
ambiental por metales pesados.

2.6 Plasma Inductivamente Acoplado ICP – AES

Este método constituye actualmente la principal herramienta analítica, tanto


para la investigación geoquímica básica como para sus aplicaciones
prospectivas y ambientales. Como señala Dhana Raju (2009, pp. 181 –
187), esta técnica, introducida a mediados de los 1970’s, supera muchas de
las deficiencias que afectan a otros métodos analíticos, especialmente en
términos de la supresión de interferencias, alta sensibilidad y posibilidad de
determinación simultánea de decenas de elementos químicos. Esto, en
rangos de concentración diferentes, que se extienden por 5 o 6 órdenes de
magnitud, con rapidez y bajo costo (del orden de 10 a 15 dólares por
muestra, en paquetes analíticos de 40 o más elementos).

Por otra parte, actualmente hay laboratorios comerciales en Chile que


ofrecen este servicio en muy buenas condiciones de rapidez, calidad y
formato de la información entregada, como es el caso de ALS Chemex
(Coquimbo).

Esta técnica también permite el análisis de elementos de las tierras raras,


con calidad adecuada par su uso en estudios petrológico – geoquímicos,
25

aunque esto requiere una separación previa por intercambio iónico.


También se utiliza actualmente para obtener análisis de roca total, lo que
ha permitido una gran expansión de la información petrológica disponible.

Sus principios físicos tienen como base la generación de un plasma (gas


ionizado) de argón como fuente de emisión óptica. Este plasma se propaga
al extremo de una “antorcha” de vidrio mediante energía de radio –
frecuencia, acoplada con el plasma mediante una espiral de cobre. El argón
fluye a una tasa constante hacia la antorcha, la que recibe un flujo de
electrones, mientras la energía de radio – frecuencia ioniza los átomos de
argón, alcanzando el plasma temperaturas sobre 10.000 °K. Las muestras
son introducidas disueltas, en forma de aerosol, mediante una corriente
impulsora de argón, y alcanzan una temperatura del orden de 8000 °K en
su paso por el plasma excitado. Esto conlleva que los elementos disueltos
de la muestra se encuentren en estado atómico y a que experimenten re –
ionización, con los consiguientes saltos electrónicos a niveles de mayor
energía y la emisión de radiación electromagnética, al regresar a niveles
más bajos. Al seleccionar las “líneas” de emisión más favorables, se
prefieren aquellas relacionadas con el proceso de ionización de muchos
elementos.
26

(Dhana Raju, p. 182) (Dhana Raju, p. 184)

2.7 Activación Neutrónica

Esta técnica, originalmente utilizada para investigaciones científicas, ha


tenido creciente aplicación en exploración geoquímica, pese a la
“competencia” que ha significado la introducción del ICP – AES (la que sí la
ha desplazado de las determinaciones de rutina de los elementos de las
tierras raras). Su uso principal actual se refiere a elementos de difícil
disolución, como Ta, Hf, Th. También sigue siendo un método
notablemente confiable para Au, e igualmente se usa en la exploración de
elementos afines al platino, de Ag y W, y de trazadores de mineralización,
como As y Sb.
27

El método se basa en la radioactividad inducida en los elementos de la


muestra, producida por su “bombardeo” con neutrones en un reactor
nuclear. Ello conlleva que esos elementos emitan a su vez partículas y
energía del tipo y rango característicos de cada uno de ellos, lo que permite
su identificación y medición de concentración a través de la intensidad de
sus emisiones. En consecuencia, el proceso tiene dos etapas, una de
exposición de la muestra a la radiación neutrónica, la otra de su
transferencia a un detector de radiación, donde ésta es medida.
.
Una gran ventaja de este método, además de su exactitud, precisión y
sensibilidad, es que no requiere ataque químico ni puesta en solución de la
muestra, operaciones en las que pueden introducirse errores. De hecho, no
se trata de un método químico, puesto que es independiente de los
orbitales electrónicos y sólo depende de las propiedades del núcleo de los
elementos analizados. Naturalmente, su dependencia de un reactor nuclear
implica que son pocos los laboratorios que pueden ofrecer este servicio
analítico (en Chile, CECHEN). Esta técnica es muy recomendable para
contar con estándares confiables en exploraciones por Au.
28

CAPÍTULO 3: “CONDUCTA QUÍMICO – MINERALÓGICA DE LOS


ELEMENTOS. LOS CICLOS GEOQUÍMICOS”

http://institucional.us.es/abioticos/abioticos.htm

http://www.icmm.csic.es/galeria/gal_si.html

http://www.diarioaportes.cl/portal/index.php?option=com_k2&v
iew=item&id=353:los-gigantes-duermen-inquietos&Itemid=18
http://es.wikipedia.org/wiki/Abundancia_de_los_elementos_q
u%C3%ADmicos

http://www.webadictos.com.mx/2011/06/09/se- http://cl.kalipedia.com/ecologia/tema/propiedades-
anaden-dos-nuevos-elementos-a-la-tabla- minerales.html?x=20070417klpcnatun_41.Kes&ap=0
periodica-el-114-y-116/
29

3.1 Elementos Químicos y Minerales

Los elementos químicos y sus isótopos se encuentran en la Tierra bajo


formas diversas. Así, se supone que el Núcleo Interno de la Tierra está
constituido por una masa de Fe con algo de Ni, y se sabe que el Manto y la
Corteza lo están principalmente por minerales silicatados, localmente
fundidos o semi fundidos (magmas en ascenso). Sabemos también que en
los niveles superiores de la corteza hay elementos en solución acuosa y en
forma de gases, al igual que en la superficie de la Tierra.

Los minerales, que constituyen la casi totalidad de la materia solida del


Manto y la Corteza tienen variados orígenes, aunque su mayor volumen se
ha generado por cristalización de magmas. Otros orígenes incluyen: a)
Reacciones entre fases gaseosas; como Sn F4(g) + 2H2O(g) = SnO2(s) +
4HF(g). b) Ruptura de complejos hidrotermales como: HgS2- 2 + 2H+ = HgS(s)
+ H2S c) Precipitación, como Ba2+ + 2Cl2- + 2Na+ + SO2-4 = BaSO4 + 2Na+ +
2Cl-. En este caso, ella se produce debido al bajo producto de solubilidad
(Kps) del BaSO4. En cambio, los otros dos compuestos involucrados: BaCl2
y NaCl tienen un alto Kps. d) Alteración o reemplazo de un mineral
preexistente. Por ejemplo, 2Fe3O4 + 1/2 O2 = 3Fe2O3 o bien CuFeS2 +
Cu2+ = 2 CuS + Fe2+.

En sentido estricto, los minerales deben cumplir tres condiciones para ser
considerados como tales. En primer lugar deben tener origen natural. Por lo
tanto, un producto de síntesis hecho por el ser humano no es considerado
como mineral, aunque tenga idénticas propiedades a las de uno natural. En
segundo lugar, debe tener una estructura interna ordenada (cristalina),
aunque ella no se exprese externamente. Por último, debe poseer una
composición química definida, si bien ella puede variar entre dos o tres
30

“términos finales”- Por ejemplo, la serie de las plagioclasas, que varía entre
NaAlSi3O8 y CaAl2Si2O8.

3.2 Isomorfismo y Diadocia

La variación composicional de los minerales se interpreta a través de los


conceptos de isomorfismo y diadocia. Decimos que dos minerales (o dos
términos de una serie continua, como las plagioclasas) son isomorfos,
cuando su estructura cristalina es casi idéntica, aunque su composición
química sea diferente. Mirado desde el punto de vista de los elementos
químicos, decimos que un elemento reemplaza al otro “diadócicamente”.

Los reemplazos diadócicos pueden ser simples o pareados. Por ejemplo:


Fe puede reemplazar parcialmente al Zn en la esfalerita (ZnS), lo cual
implica un reemplazo simple. En cambio, si el Ca de la anortita (Ca Al2 Si2
O8) es reemplazado por Na, se produce un déficit de carga eléctrica
positiva, puesto que la valencia del Ca es +2 y la del Na +1. En
consecuencia este reemplazo debe ser complementado por el de un Al3+
por un, Si4+, lo cual determina que la fórmula de la albita sea Na Al Si3 O8.

Las primeras reglas del reemplazo diadócico fueron establecidas por


Goldschmidt: 1) Para que exista reemplazo, el radio iónico de ambos
elementos debe ser similar (en general, menor de 15%). Si existe
diferencia, el elemento de radio menor es favorecido por ella. 2) Si la carga
eléctrica del elemento reemplazante y el reemplazado son diferentes, ello
debe compensarse con un segundo reemplazo (caso plagioclasas).

Ambas reglas fueron completadas por Ringwood, que introdujo la


consideración de la electronegatividad de los elementos reemplazante y
reemplazado. Al respecto, aquel catión más “fuerte” (vale decir “menos
31

electronegativo”) tiene ventaja en el reemplazo, puesto que forma uniones


eléctricas más fuertes. En el fondo, se trata de la aplicación de la Ley de
Coulomb: F = q1 x q2 / r2. Así, a mayor carga y electronegatividad, más
fuerza de unión. Si el radio iónico es algo menor, más atracción puesto que
r2 disminuye. Ello explica por qué el reemplazo de Ca2+ por Na+ en la
plagioclasa disminuye la resistencia del cristal (puesto que un q de valor +
2 es reemplazado por otro de valor +1), y por lo tanto su punto de fusión
baja.

Actualmente, cuando casi la totalidad de la Tabla Periódica tiene


aplicaciones tecnológicas, estos criterios pueden ser muy útiles en la
exploración por elementos “raros”. Al respecto un interesante caso de
diadocia es el de renio-molibdeno. Ambos elementos tienen propiedades
cristaloquímicas idénticas y Re se concentra en la molibdenita (MoS2), de
donde se extrae comercialmente en Chile. Sin embargo, en términos
metalogénicos, Re no está asociado al Mo, sino al Cu, y específicamente a
sus depósitos porfíricos. Así, los pórfidos de molibdeno son pobres en Re,
que en cambio se enriquece en los pórfidos cupríferos, donde se localiza
en la molibdenita.

3.3 La Tabla Periódica y los Enlaces Químicos

El gran mineralogista y geoquímico ruso A. Fersman remarcó en sus libros


la importancia de la Tabla Periódica (obra de otro ruso, D. Mendeleiev) en
la comprensión de la distribución geológica de los elementos químicos y en
su exploración. En efecto, dicha Tabla nos presenta un panorama completo
de los elementos y sus propiedades químicas, determinadas por la
distribución de sus orbitales electrónicos, a medida que el número atómico
de los elementos crece con el número de protones. Al respecto, si bien es
el número de protones lo que determina el elemento químico, y en conjunto
32

con el número de neutrones determinan de qué isótopo se trata, son los


electrones los responsables de las propiedades químicas del elemento. Si
la adición del nuevo electrón ocurre en el orbital más externo, ese cambio
conlleva un cambio de valencia y conductas químicas muy diferentes en
dos elementos de posición contigua, como K y Ca o N y O. En cambio si la
adición se produce en orbitales internos, las propiedades químicas
cambiarán poco (Ni-Co) o casi nada (Sm-Eu).

A la derecha de la Tabla encontramos los denominados gases inertes (o


“nobles”), cuyos orbitales más externos cuentan (excepto el He) con 8
electrones, distribuidos en orbitales cercanos de 2 electrones cada uno. Se
trata de una configuración estable, de manera que estos elementos no
tienden a captar ni a entregar electrones, lo que equivale a decir que no
participan en reacciones químicas.
33

A la izquierda de ellos se sitúa el grupo VII (F, Cl, Br, I) integrado por
elementos cuyo 4 orbitales más externos reúnen 7 electrones (2+2+2+1).
En consecuencia su tendencia química es a incorporar 1 electrón para
formar la estructura estable de 8 electrones. Al otro extremo de la Tabla se
sitúa el grupo de los elementos alcalinos (Li, Na, K, Rb, Cs), los que
justamente, cuentan con un orbital externo “alejado” con un electrón, que
entregan fácilmente para formar compuestos como NaCl.

En este punto conviene recordar que los tres tipos principales de uniones
inter atómicas son el iónico, el covalente y el metálico. En el iónico, el metal
entrega sus electrones y por lo tanto queda cargado positivamente ( al
quedar uno o más protones, cargas positivas, en exceso). A su vez, el “no
metal” recibe el o los electrones y queda cargado negativamente. En
consecuencia se produce una atracción electrostática “coulombiana” entre
el catión (+) y el anión (-). Este es, por ejemplo, el caso de la unión Na (+1)
– Cl (-1) en el NaCl.

Un compuesto como NaCl puede disolverse iónicamente en agua porque el


H2O tiene un comportamiento electrostático bipolar, que tiende a neutralizar
la unión, y por lo tanto separa el catión Na+ del anión Cl-.

El segundo tipo de enlace es el denominado “covalente”. En su forma


“perfecta”, se encuentra en moléculas formadas por dos elementos
idénticos, como es el caso del gas cloro: Cl2, donde los dos átomos
comparten electrones externos, de manera de quedar cada uno con 8
electrones. Es también el caso del oxígeno (O2), del hidrógeno (H2), etc.

Sin embargo, lo normal es que los enlaces no sean puramente iónicos o


covalentes, sino que se sitúen entre ambos extremos, lo cual puede ser
expresado en porcentaje, por ej., 60% iónico, 40% covalente. Naturalmente,
34

mientras más opuesto sea el carácter de los elementos involucrados, más


iónico será. Al respecto, los elementos del grupo 1A son los más
electropositivos, seguidos por los del grupo 2 A (Be, Ma, Ca, Sr, Ba), que
tienen dos electrones en su última órbita (y por lo tanto valencia 2+), y los
del grupo 3 A (B, Al, etc., con valencia 3+). Del otro lado, el 6 A (O, S, Se,
etc.) sigue en electronegatividad al 7 A y es seguido a su vez por el 5 A (N,
P, As, etc.), mientras el 4 A (C, Si, Ge, etc.) con sus 4 electrones externos
de valencia se sitúa en una posición intermedia, lo que explica su gran
versatilidad química.

Además de esta transición de electropositivo a electronegativo de izquierda


a derecha de la Tabla, se registra un aumento de electropositividad de
arriba hacia debajo de ella. Esto explica, por una parte, que un elemento
como nitrógeno, que es menos electronegativo que oxígeno (puesto que se
sitúa a su izquierda), pueda combinarse con ese elemento actuando como
proveedor “relativo” de electrones (por ejemplo, en NO2), aunque se trata
de un enlace marcadamente covalente. Por otra parte, explica también que
azufre, situado abajo del oxígeno, se una a éste formando SO2, donde
azufre actúa como el elemento menos electronegativo. Junto con adquirir
progresivamente propiedades “metálicas” (en términos de la tendencia
ceder electrones, también cambia el estado físico y el aspecto,
(progresivamente más metálico) de los elementos. Así, el grupo que se
inicia con oxígeno lleva al teluro y el que parte con nitrógeno, a dos metales
como antimonio y bismuto.

Un tercer tipo de enlace es el denominado metálico, en el cual los


electrones forman una especie de “nube aglomerante” y pueden
desplazarse libremente bajo la influencia de un campo eléctrico (lo que
explica la capacidad de los metales para conducir electricidad).
35

Al centro de la Tabla Periódica se sitúa un numeroso e importante grupo de


elementos, que incluye los principales metales explotados por la industria
minera (Cu, Au, Mo, Zn, Pb, Ni, Co, etc.) y que se denominan “elementos
de transición”. En estos elementos, el aumento progresivo en el número
atómico no se traduce en la adición de electrones en los orbitales más
externos, sino en orbitales interiores. Este fenómeno se produce también en
el caso de los elementos de las “Tierras Raras” con el agregado de que los
lantánidos constituyen un grupo “horizontal”. Por lo tanto, elementos
vecinos en cuanto a su peso tienen la misma configuración electrónica
externa. Esto conlleva propiedades químicas y físicas casi idénticas, lo que
dificultó mucho su reconocimiento y posterior separación. Sin embargo,
actualmente son elementos que tienen alto valor tecnológico y económico
por sus importantes aplicaciones en la electrónica de vanguardia.
36

(Craig et al., p. 230)

3.4 Los Ciclos Geoquímicos

Siguiendo a la geología, la geoquímica distingue dos grandes dominios de


estudio, uno interno, el ciclo endógeno y uno externo, el ciclo exógeno. En
el ciclo endógeno, controlado por elevadas temperaturas y presiones, se
producen fenómenos como la generación, diferenciación y ascenso de
37

magmas, el metamorfismo y los procesos diagenéticos e hidrotermales de


alta temperatura. Parte principal de los yacimientos metalíferos se forman
en estos ambientes, cuya comprensión actual debe mucho a la tectónica de
placas y a la geoquímica.

(Tarbuck y Lutgens, p. 23)

El estudio de los procesos endógenos como tales corresponde a la


tectónica, a la petrología ígnea y metamórfica, a la metalogénesis
endógena y otras disciplinas. Dicho estudio se realiza a través de métodos
experimentales, sometiendo minerales y asociaciones de minerales a altas
presiones y temperaturas y comparando los resultados obtenidos con las
38

predicciones termodinámicas. Estas últimas, establecen las condiciones de


equilibrio a través de los parámetros físicos (P, T) y los balances de energía
de las reacciones. También el uso de modelos tiene amplias aplicaciones
en estas materias. Por su parte, la geoquímica se centra en determinar y
calcular los caminos seguidos por los elementos químicos y sus isótopos en
el curso de estos procesos tectónicos y petrológicos y en utilizar sus
relaciones de concentración en rocas y magmas como indicadores de los
procesos y de las condiciones termodinámicas que los han controlado.

Aspectos como las substituciones diadócicas entre los elementos químicos


son importantes, junto con los parámetros termodinámicos en esta área de
la geoquímica. Por ejemplo, en un estudio geoquímico realizado en Chile, a
fines de los 1960´s, (Oyarzún, 1971), se determinaron elevados contenidos
de Sr en rocas volcánicas cuaternarias y en pórfidos cupríferos del norte de
Chile. Sr substituye diadócicamente a Ca en la plagioclasa. Sin embargo,
bajo las elevadas presiones en el Manto, plagioclasa no es una base
mineralógica estable. En consecuencia, la alta concentración del Sr
obtenida se interpretó como efecto de la mayor profundidad de generación
de los magmas, que resguardó al Sr del proceso de fraccionamiento que lo
había afectado si se hubiera encontrado presente en la plagioclasa,
cristalizada tempranamente en el proceso de diferenciación magmática.

Entre el Ciclo Endógeno y el Exógeno existe una “zona gris” o transicional


en la cual coexisten aguas subterráneas profundas de origen meteórico con
aguas de origen diagenético, metamórfico o magmático. Ya en la superficie
o cerca de ella, y en la hidrósfera y atmósfera, nos encontramos
propiamente en el dominio del Ciclo Exógeno, al cual corresponden
procesos geológicos como la meteorización, la formación de los suelos, la
erosión, la sedimentación, y los procesos diagenéticos superficiales. A
diferencia de los procesos endógenos, estos se realizan a baja temperatura
39

y presión, con mayor presencia de agua y participación importante del


oxígeno y de la actividad biológica.

En el estudio del Ciclo Exógeno desempeñan roles principales la química


de las soluciones, los conceptos de Eh, pH y potencial iónico. La actividad
biológica es impoprtante en la meteorización de las rocas y en la formación
de sedimentos y rocas biogénicas, siendo de particular importancia la
actividad bioquímica de las bacterias. Por otra parte, se trata de un ciclo
particularmente complejo, puesto que en él interactúan la litósfera superior,
la hidrósfera, la atmósfera y la biósfera, así como la antropósfera, cuya
importancia geológica y geoquímica ha llegado a ser muy grande.

Finalmente, cabe señalar que materias tan importantes como la


intervención humana en el ciclo del carbono, responsable de la
intensificación del efecto invernadero y del calentamiento global, forman
parte del estudio del Ciclo Exógeno. En ese estudio es muy útil la
elaboración de “diagramas de cajas”, que muestran los tonelajes
acumulados en cada uno de los “compartimentos” del ciclo del carbono, así
como la modelación de los flujos del elemento entre cada una de ellas.

(Jacobson et al., p. 346)


40

3.5 Química de las soluciones

Las reacciones químicas se desarrollan con una velocidad muy superior en


solución, y el agua es el único solvente importante en los niveles superiores
de la corteza y en la superficie de la tierra. Por otra parte, el importante rol
catalítico, de la actividad bioquímica bacteriana necesita también de la
presencia de soluciones.

A diferencia de la mayoría de los solventes orgánicos, cuya naturaleza es


no polar, y el agua es un solvente polar. Esto se debe a la estructura de su
molécula donde las cargas positivas de los dos protones (H+) se disponen
en forma opuesta a las dos cargas negativas producto de los dos electrones
transferidos al oxígeno. Puesto que los compuestos iónicos como NaCl,
CaSO4, etc., se mantienen unidos por la atracción eléctrica entre el catión y
el anión, cuando el dipolo del agua interfiere entre ambos, la unión se
debilita y Na+ y Cl- se separan, quedando en solución como iones.

Aparte de este modo de disolución en agua, existen otros dos: la molecular


y la coloidal. La primera se observa en compuestos como el azúcar, que no
tiene naturaleza iónica y cuyas moléculas se disuelven en agua. También
los compuestos ionizables pueden disolverse en parte en forma molecular
cuando la solución se satura.

Las soluciones coloidales están constituidas por partículas mucho mayores,


formadas por agregados de moléculas, que se mantienen dispersas en el
agua (en vez de flocular y precipitar) por efecto de cargas eléctricas
superficiales. Cuando tales cargas son perturbadas por factores físico –
químicos (por ej., cuando un rio entrega sus solutos coloidales al agua del
mar), se produce su floculación. De especial importancia son las soluciones
41

coloidales de óxidos hidratados de Fe y de Mn, así como de minerales de


arcilla y de compuestos orgánicos.

La solubilidad de los compuestos que se disuelven en forma iónica se mide


a través de su producto de solubilidad (Kps). Así, un compuesto AB que
tiene un Kps 10-12 se disolverá hasta que la concentración de A y la de B
sea 10-6, puesto que [A+] [B-] = 10-12 [A] = [B] = X X2 = 10-12 X = 10-6

La unidad de medida utilizada en este tipo de cálculos es moles/L (moles


por litro). Un mol se define como el peso molecular de la substancia
expresado en gramos. Por ejemplo, un mol de NaCl equivale a 23 + 35 = 58
g y uno de CaSO4, a 40 + 32 + 4 x 16 = 136 g.

El efecto denominado “del ión común” se refiere a la interacción de distintos


solutos en la concentración de sus iones. Supongamos que una solución
contiene solamente iones del compuesto AB cuyo Kps. es 10-12 y por lo
tanto [A+] = [B-] = 10-6 moles/L. Si a esa solución se le agrega otro
compuesto AC, que tiene un Kps 10-8, entonces [A+] = [C-] = 10-4. Esto
afectará al compuesto AB, considerando que ahora [A+] = 10-4. En
consecuencia, 10-4 x [B-] = 10-12, y por lo tanto [B-] = 10-8, vale decir cien
veces menor que la que tenía inicialmente. Nótese que la simplificación del
cálculo matemático es posible por la importante diferencia de magnitud
entre ambos Kps.

El proceso descrito es muy importante en la formación de minerales por


interacción de soluciones. Por ejemplo, cloruro de bario (BaCl2) es un
compuesto de elevada solubilidad, y también lo es el sulfato de sodio
(Na2SO4). En cambio, la solubilidad de BaSO4 es bajísima. En
consecuencia, de la interacción de ambas soluciones resulta el depósito de
BaSO4 (baritina), común en ambientes hidrotermales de baja temperatura.
42

Un factor muy importante en la química de las soluciones es su pH, en


particular sobre aquellos compuestos susceptibles de hidrólisis (vale decir,
los constituidos por un catión “fuerte” y un anión “débil” o viceversa (se
entienden por catión débil aquel cuyo hidróxido presenta baja disociación
iónica, y por anión débil aquel cuyo ácido se disocia débilmente).

En el agua “pura” una muy baja proporción de sus moléculas está disociada
en H+ y OH-. En términos matemáticos [H+] [OH-] = 10-14 moles/L. Se define
como pH el valor de –log10 [H+]. Por lo tanto en agua “pura” pH = - log 10 -7

= 7 (puesto que [H+] = [OH-]). En términos estrictos, se entiende que H+ se


une a la molécula de agua, formando el ion H3O+ (hidronio), pero ello no
tiene mayor relevancia para los efectos prácticos que nos interesan aquí.

Si se agrega a agua pura una sal formada por un ácido débil y una catión
fuerte, como NaHCO3 (bicarbonato de sodio), su ionización tiene el
siguiente efecto: NaHCO3 + H2O = H2CO3 + Na+ + OH-. En consecuencia,
se incrementa la concentración de [OH-] y por lo tanto disminuye la de [H+],
puesto que debe respetarse la ecuación [H+] [OH-] = 10-14 moles/L. El caso
opuesto es el de FeCl3 (cloruro férrico) donde: FeCl3 + 3H2O = Fe (OH)3(s) +
3H+ + 3Cl-. Esto se debe a que Fe3+ es un catión débil, vale decir, su
hidróxido está poco disociado. En consecuencia, en el primer caso, la
solución se hará alcalina o básica (pH > 7) y en el segundo, ácida (pH < 7).

La hidrólisis es un fenómeno de gran importancia geoquímica, en particular


en el Ciclo Exógeno. Este tema se verá nuevamente en la siguiente
sección, en particular respecto a su relación con el Eh (potencial de
reducción-oxidación o redox de las soluciones).
43

3.6 El Potencial Iónico y los Diagramas Eh – pH

Al construir un diagrama de ejes coordenados, en el cual se representa el


radio de los iones en el eje vertical y su carga eléctrica positiva en el eje
horizontal, se observa que éstos se agrupan en distintas regiones del
diagrama, y que ellas coinciden con sus principales propiedades químicas.
Estas agrupaciones pueden ser separadas mediante líneas radiales que
parten de la intersección de los ejes, como muestra la Fig. 15.

Puesto que los elementos químicos pueden tener más de una valencia, sus
distintos iones ocuparán diferentes posiciones en el diagrama. Esto, no
solamente respecto al eje horizontal (valencia positiva) sino también
respecto al vertical, debido que al perder más electrones su radio iónico
disminuye. Tal es, por ejemplo, el caso del Fe3+, respecto al Fe2+, en el que
el primero tiene mayor carga eléctrica, pero menor radio iónico.

La relación entre la carga eléctrica positiva de un ión y su radio iónico,


define su potencial iónico: P.I. = C.E. / R.I. Aquellos iones que poseen una r
carga positiva baja, pero un radio iónico grande, como lo de los grupos 1 A
y 2 A, denominados respectivamente “alcalinos” y “alcalino – térreos”, se
disuelven en forma de iones simples (Na+, Ca2+, Fe2+, etc.), los que no son
afectados por hidrólisis. Los iones de un segundo grupo, que incluye Al3+ y
Fe3+, también se disuelven en forma simple, pero tienden a formar
hidróxidos poco disociados, en condiciones básicas o neutras, vale decir,
son afectados por hidrólisis. Un tercer grupo principal reúne iones de alta
valencia positiva, como C4+, N5+ y S6+ , pero de radio iónico pequeño. Estos
no forman cationes simples, pero se disuelven como aniones complejos (
CO3=, NO3- y SO4= etc.).
44

(Siegel, p. 51)

El caso del Fe, como el del Mn presenta especial interés, porque su


conducta en solución depende de su valencia y por lo tanto, de su carga
eléctrica y radio iónico. Así, el Fe2+ se sitúa junto a los elementos del
primero grupo, y sus soluciones no son afectadas por la hidrólisis, lo que
facilita su migración con el agua subterránea. En cambio, la forma oxidada
Fe3+ se encuentra con los iones del segundo grupo, de manera que Fe3+ se
combina con OH-, dando lugar a la precipitación de Fe (OH)3.

Puesto que tal conducta (análoga a la que presentan Mn y otros


elementos) está determinada tanto por el pH de la solución como por las
condiciones de oxidación que producen el paso de Fe2+ a Fe3+, el estudio
45

del comportamiento de los elementos químicos en solución bajo diferentes


condiciones físico – químicas utiliza como una herramienta geoquímica
principal, los diagramas Eh - pH. Al respecto, estos diagramas representan
el Eh, vale decir, el resultado total de los distintos pares de óxido –
reducción presentes en la solución, en el eje vertical, con el pH en el eje
horizontal.

Los diagramas Eh –
pH se pueden construir
tanto experimentalmente
como sobre la base de
ecuaciones
termodinámicas. Ellos
muestran los campos de
estabilidad de cada una de
las especies iónicas o
moleculares, los que están
separados por líneas que
indican la frontera entre
ellas. La posición de tales
líneas depende de
propiedades
termodinámicas intensivas,
como la temperatura, y de
propiedades extensivas,
como la concentración de
las especies presentes, las
que deben ser indicadas
en el diagrama respectivo.

(Brookins, p. 11)
46

En el caso del diagrama Eh – pH del hierro (Fig. 17), podemos ver que una
línea horizontal separa el campo del Fe3+ (valores de Eh más altos) del
campo de Fe2+ en la parte izquierda del diagrama. Ninguna de estas formas
es afectada por hidrólisis, porque en esa parte domina la acidez y en
consecuencia la concentración de OH- es muy baja para que se produzca la
precipitación de Fe (OH)3.

El caso opuesto ocurre a la derecha del diagrama, donde tanto la forma


oxidada superior como la reducida inferior se presentan como hidróxidos,
puesto que el equilibrio está desplazado hacia la derecha por la gran
concentración de grupos OH- : Fe2+ + 2OH- = Fe (OH)2(s) K1 = Fe (OH)2 /
/[Fe2+] [OH]2 ; y con mayor razón aún: Fe3 + 3OH- = Fe (OH)3(s) K2 = Fe
(OH)3 / [Fe3+] [OH-]3.

Sin embargo, la parte más interesante del diagrama está constituida por la
línea intermedia de pendiente negativa que une a las otras dos. Ella está
controlada por la ecuación: Fe2+ + 3H2O = Fe (OH)3 + 3H+ + e. E0 = +1.06 v.
E = E0 + 0.059 log [H+]3 / [Fe2+]

Si la concentración de Fe2+ es 1M, Eh = 1.06 – 0.177 pH.


Si la concentración de Fe2+ es 10-7M Eh = 1.47 – 0.177 pH.

En consecuencia, en el sector intermedio del diagrama, donde una línea


inclinada de pendiente negativa separa los campos de estabilidad de las
formas ferrosa y férrica (Fe2+ y Fe(OH)3 ), tanto el Eh como el pH
intervienen en la determinación del respectivo equilibrio.
47

(Krauskopf, p. 248)

Como es lógico, en todo diagrama cartesiano una línea horizontal o vertical


implica que sólo existe una variable y que la otra se comporta como
constante. Así, hay reacciones que sólo afectan al grado de oxidación del
elemento, sin que en ello intervenga el pH, y otras en las que sólo
interviene la variación del pH, como en los equilibrios entre H2CO3 = H CO3-
+ H+ y HCO3- = CO32- + H+, cuyos campos están separados naturalmente
por líneas verticales. En cambio, líneas inclinadas, como en el campo de pH
intermedio del diagrama del hierro, implican que ambas variables
desempeñan un rol activo.
48

Los diagramas Eh-pH tienen importantes aplicaciones en geoquímica


básica, de exploración minera y ambiental, así como en otros campos de la
ciencia y la tecnología, como la hidrometalurgia. En exploración geoquímica
nos indican en qué medios y condiciones podemos encontrar los
elementos cuyas concentraciones anómalas buscamos. También tienen
importantes aplicaciones en el campo de la metalogénesis de yacimientos
exógenos, como los depósitos exóticos del cobre, de las mineralizaciones
del tipo “capas rojas” (Cu, U, V, etc.) y de aquellas ligadas a ambientes
reductores (lutitas negras).

(Krauskopf, p. 250)
49

3.7 Soluciones Hidrotermales y Alteración Hidrotermal

El término “solución hidrotermal” sólo implica la existencia de agua caliente


con substancias disueltas en ella y tales soluciones pueden tener
numerosos y variados orígenes, tanto respecto de la fuente del agua como
de la fuente térmica responsable de su temperatura. Por ejemplo, el agua
puede proceder de un intrusivo ígneo en proceso de cristalización, de la
deshidratación metamórfica, de procesos diagenéticos o de infiltraciones
subterráneas profundas. Igualmente, el calor puede proceder de un cuerpo
magmático en proceso de cristalización o tener otro origen geotérmico sin
relación directa con cuerpos magmáticos.

La salinidad de las soluciones hidrotermales contribuye a su capacidad de


transportar metales a través de dos mecanismos principales. Uno de ellos
es el efecto de la “fortaleza iónica” (ionic strenght) de la solución, generado
por la suma de los cationes y aniones presentes, los que se “interponen”
entre los cationes y aniones susceptibles de dar lugar a la precipitación de
sales, dificultando su unión. Así se da la paradoja de que una sal en
particular sea más soluble en una solución rica en otros iones que en el
agua pura (desde luego, excluyendo lo relativo al efecto del ion común
antes reseñado).

El segundo mecanismo corresponde a la generación de iones complejos,


que se facilita en soluciones ricas en cloruro y otros aniones. Este
mecanismo también implica efectos aparentemente paradójicos. Por
ejemplo, si a una solución que contiene iones Hg2+ se agrega H2S u otra
fuente de iones S2-, se produce la precipitación de HgS por efecto de la
reacción Hg2+ + S2- = HgS(s). Sin embargo, si el ión sulfuro es agregado en
exceso en la forma de Na2S, el precipitado de HgS se disuelve. Ello ocurre
porque se forma el ion complejo soluble HgS2-2: producto de la reacción
HgS(s) + Na2S = 2Na+ + HgS2-2.
50

La formación de iones complejos, en particular clorurados y sulfurados


explica la capacidad de transporte de metales pesados por soluciones
hidrotermales, pese a que sus sulfuros presentan valores de Kps muy
bajos. Por otra parte, cuando estos iones metálicos complejos se
desestabilizan, se produce el depósito de los sulfuros, sulfosales, óxidos o
metales nativos correspondientes a los diferentes elementos metálicos
transportados como complejos. Por ejemplo, en el caso del oro esto ocurre
principalmente por desestabilización de su complejo bisulfurado: Au (HS-)2-
+ e = Au + 2HS- o bien por efecto de:
Au (HS-)2- + e + 2H+ = Au(s) + 2 H2S
Au (HS-)2- + e + 2OH- = Au (s) + 2S2- + 2H2O.

En el primer caso interviene un proceso de reducción (del Au+); mientras en


los dos siguientes actúa también un cambio en el pH que convierte al HS-
en H2S (efecto ácido) o en S2- (efecto básico).

También un ión complejo se puede desestabilizar por un simple proceso de


dilución, al disminuir la concentración del ión que posibilite su formación
(Cl-, HS-, S2-, etc.). Ello produce la precipitación de minerales sulfurados
cuando las soluciones hidrotermales que los transportan se diluyen al
interactuar con aguas subterráneas profundas.

Cuando una solución hidrotermal se mueve a través de las fracturas de las


rocas o de sus zonas con permeabilidad primaria, se producen una serie de
cambios que afectan su temperatura, presión y composición química. Ellos
afectan por una parte la estabilidad de los complejos metálicos
transportados en solución. Por otra, la roca es alterada (alteración
hidrotermal), en particular cuando las soluciones hidrotermales adquieren
acidez. Al respecto, un proceso importante es la oxidación que ocurre al
acercarse la solución hidrotermal a la superficie terrestre, lo que se debe a
51

la presencia de oxígeno atmosférico en las aguas subterráneas (pese a las


bajas concentraciones del oxígeno en dichas aguas).
.
Ello afecta principalmente al ión S2-, puesto que el H2S es un ácido débil,
que al oxidarse da lugar a la formación de un ácido muy enérgico, el H2SO4.
La interacción de los hidrogeniones H+ con los silicatos de las rocas da
lugar a su disolución o a su conversión en silicatos de menor temperatura, a
través de reacciones como las siguientes:

Mg SiO3(s) + 2H+ = Mg2+ + SiO2 + H2O


Feldespato + nH+ = Me+, Me2+ + sericita + SiO2 (alteración sericítica)
Sericita + nH+ = Me+, Me2+ + arcilla (alteración argílica)
Arcilla + nH+ + SO42 = alunita + SiO2 (alteración argílica avanzada)

3.8 La Oxidación de los Sulfuros y el Drenaje Ácido

La meteorización de los minerales sulfurados, en particular su oxidación, da


lugar a productos de reacción que pueden generar, indirectamente, una
leve acidez. Por ejemplo, sulfuros de Cu, Zn y otros metales de base pasan
a formar sulfatos, que no son compuestos ácidos de por sí. Sin embargo,
su hidrólisis genera una débil acidez secundaria:

CuS + 2 O2 = Cu SO4 = Cu2+ + SO42- Cu2+ + H2O = Cu (OH)+ + H+

Este efecto se magnifica en el caso del FeS (pirrotina), puesto que la


oxidación posterior del Fe2+ y la consiguiente hidrólisis produce un mayor
número hidrogeniones:

FeS + 2 O2 = Fe SO4 = Fe2+ + SO42- Fe2+ = Fe3+ + e


Fe3+ + 3H2O = Fe (OH)3 + 3H+
52

Sin embargo, la generación de acidez alcanza su máximo en el caso de la


oxidación de pirita, FeS2, debido a la estructura anormal de este mineral,
que contiene un átomo “extra” de azufre. Así, por una parte, FeS produce
por oxidación y posterior hidrólisis 3H+ (ecuación anterior), pero a ello se
agrega el efecto del átomo “extra” de azufre:

S2- + 4H2O = SO42- + 8H++ 8e Sumada a: FeS +2 O2 + 3H2O = Fe (OH)3 +


SO42- + 3H+ +e, resulta: FeS2 + 2O2 +7H2O = Fe (OH)3 + SO42- +8H+ +8e

En consecuencia, sumados a los 3 H+ anteriores, resulta que la oxidación


de una sola molécula de FeS2 da lugar a la liberación de 11 H+.

Lo recién expuesto explica la gran importancia de la presencia de pirita,


tanto en el enriquecimiento secundario de los yacimientos de cobre como
en la formación de yacimiento “exóticos” del mismo metal. Ello, puesto que
el cobre necesita de un ambiente ácido para poder migrar, ya sea
verticalmente (enriquecimiento secundario) u horizontalmente (depósitos
exóticos). De otra manera, el cobre se hidroliza y precipita como hidróxido
(Cu (OH)+, Cu (OH)2).

El proceso de generación de “drenaje ácido” asociado a la oxidación de


pirita tiene, en cambio, efectos dañinos en materia ambiental. Ello, no sólo
porque la solución adquiere acidez, lo cual produce efectos negativos para
la flora y la fauna, así como corrosión en canales, instalaciones de riego,
etc., sino porque la acidez facilita también la disolución y movilización de
metales pesados, los cuales presentan grados importantes de toxicidad.

En términos de exploración geoquímica, la oxidación de los sulfuros abre la


posibilidad de encontrar contenidos importantes de metales tanto en el
agua subterránea y superficial como en los sedimentos fluviales. Al
53

respecto, en condiciones de clima árido o semi – árido, la alcalinidad de los


suelos conlleva la de las aguas de los ríos y por lo tanto la neutralización
del drenaje ácido. En esas condiciones, el contenido de Cu y otros metales
presentes en el agua es transferido a los sedimentos fluviales finos, por
efecto de su hidrólisis. En cambio, en condiciones de clima lluvioso, con
vegetación abundante, el drenaje ácido no es neutralizado y los metales
permanecen en solución.

La situación descrita es en particular válida para Cu y Zn. En cambio, Pb se


comporta de manera diferente, porque su sulfato posee un bajo Kps, lo que
limita su concentración en el agua. En consecuencia, en presencia de
altos contenidos de sulfato (como ocurre en buena parte del drenaje en
Chile) el Pb debe ser analizado en los sedimentos. Otro caso especial, es
el de Mo, debido a que su movilidad está limitada por la sorción en
Fe(OH)3.Sin embargo, Mo puede movilizarse bajo la forma de molibdato,
en medio alcalino y oxidante (con valencia 6+). Ello implica que las aguas
procedentes de relaves de las explotaciones de pórfidos cupríferos pueden
ser fuentes contaminantes de este metal.
54

CAPÍTULO 4: “GEOQUÍMICA ENDÓGENA Y PROVINCIAS


METALOGÉNICOS”

http://www.uclm.es/users/higueras/yymm/YM12.html

http://www.ucm.es/info/crismine/Geologia_Minas/Modelos_
Exploracion.htm

http://enlamaleta.es/el-archipielago-de-los-volcanes.html
http://www.ingenieriageofisica.com/apuntes-de-yacimientos-minerales

http://www.elesquiu.com/notas/2011/10/13/contextominero-
215537.asp
http://www.mch.cl/noticias/imprimir_noticia_neo.php?id=23400
55

4.1 La Historia Geológica de la Tierra y sus Yacimientos


Minerales

Uno de los dichos más repetidos en exploración minera señala: “Si uno
quiere cazar leones, debe ir al África”. En términos operativos esta
aserción puede ser tomada de dos maneras diferentes. La primera,
simplemente explorar donde se sabe que el tipo de yacimientos que nos
interesa es abundante. Esa es la razón, por ejemplo, de la presencia de
tantos grupos de exploración minera que trabajan o han trabajado en
países como Chile y Perú.

La segunda, más interesante, nos puede llevar a preguntarnos el por qué


existen esos yacimientos en determinados lugares del mundo, y si hay otros
lugares que reúnen similares condiciones geológicas pero han sido, por
distintas razones, poco explorados. En esta aproximación, la tectónica de
placas, con la petrología y la geoquímica, ofrecen hoy importantes criterios
de decisión. Al respecto, el trabajo de M. Fonteilles ejemplifica una de las
primeras aplicaciones modernas de estos criterios.

A fines de los 1960´s, el B.R.G.M. de Francia estaba considerando la


posibilidad de explorar por cobre y otros metales de base en una región
volcánica de la isla de Madagascar, al SE de África. Fonteilles, que había
investigado la estrecha relación entre el magmatismo calcoalcalino y los
yacimientos de esos metales en los arcos de islas del Pacífico occidental,
propuso estudiar la naturaleza petrológica de ese volcanismo mediante
diagramas AFM (álcali – hierro – magnesio). Realizado el estudio se
constató que se trataba de series volcánicas del tipo tholeítico,( no
calcoalcalino ), lo que condujo a objetar la exploración propuesta.
56

(Rosler y Lange, p. 260)

(Pelissonnier, p. 97)

El desarrollo de la tectónica de placas, que surgió poco después, explicó


esa relación empírica a través del efecto metalogénico de la subducción de
placa oceánica, que da lugar a la formación de arcos de islas y de cadenas
magmáticas de tipo andino, a las que se asocian yacimientos como los
57

pórfidos cupríferos con Au o Mo, buena parte de los yacimientos de metales


de base, epitermales de oro y plata, etc.

Al respecto, la geología moderna reconoce la compleja evolución de la


corteza y el manto de la Tierra, la cual incluye una primera etapa, bastante
caótica que dio lugar, al cabo, de unos 500 Ma a la corteza primitiva,
seguramente delgada. Durante ella y posteriormente, la caída de asteroides
debe haber destruido partes de esa corteza en repetidos episodios.
También la atmósfera y la hidrósfera primitiva se desarrollaron entonces,
junto con el inicio de las primeras formas de vida.

Alrededor de 3500 millones de años atrás, se produjo un cambio


geoquímico principal cuando aparecen las cianobacterias con su capacidad
de utilizar la energía solar para romper la molécula de agua y sintetizar
compuestos orgánicos utilizando CO2. Ello, porque ese proceso generó
oxígeno como subproducto, el cual alteró el potencial de óxido – reducción
de las aguas oceánicas. Como consecuencia de ello, enormes cantidades
de hierro ferroso (Fe2+) presentes en solución en las aguas oceánicas,
precipitaron como Fe(OH)3 , dando lugar a la formación de depósitos
ferríferos de óxidos bandeados.

También en esas etapas tempranas se formaron los grandes yacimientos


de cromitas y platinoides (en parte con sulfuros de Ni y Cu) asociados a
cuerpos máficos lopolíticos, como Bushveld, en Sudáfrica y Sudbury, en
Canadá. El hecho de que no se hayan formado depósitos similares
posteriormente, sugiere que la consolidación, de la corteza dificultó su
ocurrencia. Al respecto, al menos en el caso de Sudbury, es probable que
le impacto de un asteroide haya facilitado el ascenso de material
procedente del manto.
58

(En Apuntes L. Meinert)

(Pleissonnier, p. 23)
59

Los actuales continentes están constituidos por retazos de las muchas


veces repetida historia de fragmentación y crecimiento magmático de las
masas continentales, proceso cuya fuente energética es la radioactividad
del Manto, responsable a su vez de las corrientes de convección, que
mueven las placas tectónicas y dan lugar a la formación de nuevas placas
que surgen en sus líneas de divergencia. En tanto, en las líneas de
convergencia de placas tectónicas oceánicas entre sí o de placas
oceánicas y continentales, surgen respectivamente arcos de islas
volcánicas y cadenas magmáticas de tipo andino, que dan lugar a distintas
“oportunidades metalogénicas”, en conjunto con otros procesos geológicos.

4.2 Los Ambientes Metalogénicos Endógenos

Ambientes cratónicos: Aunque actualmente situados en el interior de


bloques con corteza continental gruesa, algunos de estos depósitos
pueden haberse formado bajo condiciónes geotectónicas muy diferentes
(como es el caso de los depósitos ferríferos bandeados, depositados en
medio marino). Entre los principales tipo de depósitos que se encuentran
actualmente en ambientes cratónicos están los cuerpos lopolíticos máficos
con Cr, platinoides y Ni, así como los depósitos diamantíferos en
chimeneas kimberlíticas y los cuerpos con Nb – Ta (“coltán”), tierras raras,
uranio, etc asociados a magnetismo alcalino.

Bordes divergentes de placas: La separación de placas tectónicas


producida por corrientes de convección divergentes en el Manto, da lugar
inicialmente a un “refting” tectónico, vale decir un valle tectónico alargado,
y al inicio de generación de magmas alcalinos. En estas condiciones, la
penetración de agua de mar a través de fracturas extensionales, como en
el caso del Mar Rojo, lixivia hidrotermalmente los metales de las rocas que
atraviesa y los deposita en el fondo oceánico. Cuando este proceso, se
60

encuentra en una etapa avanzada, como ocurre en las dorsales oceánicas,


en ambas márgenes del valle tectónico submarino central se producen
surgencias hidrotermales, responsables de la formación de los “black
smokers”, especies de chimeneas que expelen soluciones coloidales de
sulfuros de metales como Cu, Zn, Pb, etc. Se entiende que este proceso es
el responsable de la formación de los depósitos tipo “sulfuros macizos”.

Bordes convergentes de placas: Tanto en los arcos de islas volcánicas


(producto de la subducción de una placa oceánica bajo otra), como en los
márgenes de tipo andino (donde la placa oceánica es subductada bajo la
placa continental) se genera magmatismo de tipo calcoalcalino. Se
entiende que este magmatismo, empobrecido en Fe respecto al tholeítico y
rico en agua y en azufre, así como en metales de base, se produce por
efecto de la deshidratación de la placa oceánica subductada, actuando el
agua liberada como fundente de las rocas del Manto situado sobre esa
placa. Aunque el magmatismo de los arcos de estas es algo más máfico
(dioritas y andesitas basálticas) que el de los márgenes de tipo andino
(granodioritas y andesitas) su efecto metalogénico es similar, aunque con
ligeras diferencias (por ej., pórfidos cupríferos de Cu – Au en los arcos de
islas; pórfidos cupríferos de Cu – Mo en los márgenes de tipo andino).

4.3 Provincias Geoquímicas y Provincias Metalogénicas

La clasificación del magmatismo en alcalino, calcoalcalino y tholeítico


reviste especial importancia petrológica y geoquímica, aparte de sus
también relevantes connotaciones geotectónicas y metalogénicas. Por una
parte, permite explicar la distribución de los yacimientos metalíferos
endógenos cenozoicos, a través de sus relaciones con la tectónica de
placas, expuestas en la sección anterior. Por otra permite, a la manera del
estudio citado de M. Fonteilles, evaluar el potencial metalogénico de
61

complejos magmáticos de edades más antiguas, distribuidos en los


distintos terrenos que configuran los continentes.

El magmatismo alcalino reviste especial importancia en relación, con los


elementos denominados “raros”, como los lantánidos (tierras raras),
actínidos (Th, U), y otros elementos como Sc, Y, Hf, Nb, Ta, etc. Su
generación implica un bajo grado de fusión parcial de los silicatos del Manto
y ocurre tanto en zonas de convergencia de placas como el interior de
cratones continentales. En el primer caso, se sitúa en el sector más alejado
de la fosa oceánica. En el segundo, puede estar relacionado con “puntos
calientes” (hot spots) o con el desarrollo temprano de una línea de
divergencia de placas. Frecuentemente se asocian a complejos
pegmatíticos, así como a la presencia de carbonatitas (vale decir, rocas con
carbonatos de origen magmático).

El magmatismo calcoalcalino es característico de zonas de subducción. Su


generación implica un grado intermedio de fraccionamiento y diferenciación
de los materiales del Manto, y en ella participa tanto la fusión de la corteza
oceánica y de los sedimentos introducidos por la placa subductada, como la
zona del Manto situada sobre dicha placa.
62

El magma así formado


asciende a través a través
del Manto y experimenta
diferenciación por
cristalización fraccionada en
la base de la corteza. Es un
magma rico en agua, azufre
y metales y a él se vinculan
los pórfidos cupríferos, los
yacimientos epitermales de
metales preciosos, los
depósitos ferríferos tipo
Kiruna (como los del norte de
Chile) y buena parte de los
depósitos de metales de
base en general. La
evolución metalogénica de la
cadena andina (Oyarzún,
1985, 1991, 2000) muestra
claramente el potencial
metalífero de este tipo de
magmatismo en condiciones
de convergencia placa
oceánica - placa continental.

(Dhana Raju, p. 54)

Respecto a las situaciones de convergencia placa oceánica – placa


oceánica, la evolución metalogénica de la plataforma de Fidji, descrita por
Colley y Greenbaum (1980), es particularmente ilustrativa.
63

(Dhana Raju, p. 55)

El descubrimiento del gigantesco depósito de cobre con oro, uranio y tierras


raras de Olympic Dam, en Australia, que dio lugar a la definición del tipo
IOCG (iron ore, copper, gold) despertó un gran interés prospectivo por
depósitos de hierro del tipo Kiruna, que pudieran estar asociadas a
minerales de Cu, Au, U o tierras raras. Un rasgo considerado importante en
Olympic Dam fue su alto contenido de itrio (Y).
64

(Levinson, p. 24)

Si se considera el emplazamiento geotectónico de Olympic Dam, se


observa su posición transicional en una plataforma precámbrica,
relativamente alejado de la respectiva zona de subducción inferida El
yacimiento es del tipo “chimenea de brecha”, una subclase estructural de
los pórfidos cupríferos, por lo que se puede suponer que constituye un tipo
transicional entre los ligados al magmatismo calcoalcalino y alcalino. En
65

cambio, los depósitos adscritos al tipo IOCG de Chile, como Candelaria, no


presentan relación con magmatismo alcalino ni están alejados de la zona
de subducción contemporánea a su formación. Por lo tanto, no es
razonable esperar que ellos presenten contenidos especiales de Y, U ni
tierras raras.

Algo similar ocurre con los depósitos ferríferos tipo Kiruna de Chile. Aunque
la faja ferrífera cretácica del norte de Chile se asocia a algunas anomalías
radioactivas, la apatita que acompaña a la mineralización de magnetita sólo
contiene tierras raras en baja concentración. Ello confirma la importancia de
la posición geotectónica del magmatismo, en cuanto al tipo de “asociación
mineralógica” depositada.

El magmatismo tholeítico es el menos diferenciado y no presenta el


empobrecimiento en Fe característico del calcoalcalino. Sin embargo puede
generar yacimientos por cristalización fraccionada o desmezcla en sus
transiciones máficas komatíticas (caso lopolitos con Cr, platinoides, Ni, etc.)
También puede dar lugar a depósitos polimetálicos por efecto de la
lixiviación de su contenido metálico por infiltración de aguas marinas, en las
líneas de fractura del fondo oceánico ( caso de los “black smokers” de las
dorsales, que dan lugar a la formación de depósitos tipo sulfuros macizos).

Por las razones antes descritas, la identificación de la naturaleza del


magmatismo en terrenos antiguos entrega importantes criterios respecto a
que mineralizaciones es posible encontrar, y a que elementos químicos
conviene considerar en una exploración geoquímica.

Finalmente, consideraremos un tema que es de particular importancia para


explicar la riqueza en mineralizaciones sulfuradas del magmatismo
calcoalcalino: su alta concentración de azufre “disponible”. En efecto, no se
trata de que este magmatismo sea más rico en azufre que el tholeítico, sino
66

que de la forma química que presenta este elemento. Mientras que en los
magmas tholeíticos el azufre se encuentra como sulfuro y ligado al Fe
(FeS), en los calcoalcalinos se separa bajo la forma oxidada SO2. Conforme
a la explicación de Burnham y Ohmoto (1980) ello ocurre debido al alto
grado de hidratación del magma. Esto a su vez es consecuencia del agua
aportada por la corteza oceánica subductada, responsable a su vez de la
fusión parcial del Manto que da lugar al magmatismo calcoalcalino. Debido
a la elevada temperatura, parte de las moléculas de agua deben estar
disociadas: 2 H2O = O2 + 2H2. Puesto que la temperatura de las moléculas
de oxígeno e hidrógeno debe ser la misma y por lo tanto también su
energía cinética, tenemos: ½ mO2 vO22 = ½ mH2 vH22 Considerando que la
masa de la molécula de oxígeno es 32 y la de hidrógeno 2, eso da una
razón 16, cuya raíz cuadrada es 4, vale decir, las moléculas de hidrógeno
se mueven cuatro veces más rápido, lo que facilita su difusión y escape del
sistema, que se torna más oxidante, llevando al azufre a la forma SO2. Sin
embargo, el efecto metalogénico del azufre se verifica bajo su forma
sulfurada. El regreso a esa forma del azufre “liberado” ocurriría por efecto
de un proceso de óxido-reducción (Burnham y Ohmoto, op cit; Ohmoto y
Lasaga, 1982): 4S4+ = S2- + 3S6+ Al respecto, un artículo reciente
(Pokrovski, 2011) da cuenta del descubrimiento de una nueva forma de
azufre: el radical S3- que constituye una especie de “puente” entre las
formas sulfurada y sulfatada del azufre a temperaturas mayores de 250º y
alta presión, lo que constituye un nuevo aspecto a considerar en la
conducta del azufre y su rol en el transporte y precipitación de los metales
en la litósfera. Con relación al principal tipo de mineralizaciones ligadas al
magmatismo calcoalcalino: los pórfidos cupríferos, cabe recalcar su riqueza
tanto en azufre sulfurado como sulfatado (anhidrita). Tanto por su masa
como por su enriquecimiento respecto al Clarke, los pórfidos cupríferos son
propiamente depósitos de azufre. Por supuesto enriquecidos en dos de los
elementos químicos con mayor afinidad sulfófila : Cu y Mo, yu algunos de
ellos en un elemento en cuyo transporte el S2- juega un rol esencial: el oro.
67
68

CAPÍTULO 5: “GEOQUÍMICA ISOTÓPICA Y SUS APLICACIONES”

http://html.rincondelvago.com/radiactividad-artificial-y- http://radioactividadartificialoinducida.blogspot.com/
natural.html

http://silvana-xtina.blogspot.com/2009/07/que-radiaciones- http://www.fort.usgs.gov/resources/spotlight/shorebird_isot
emiten-los-isotopos.html opes/sp-isotopes_howtheywork.asp

http://zco1999.wordpress.com/2010/03/15/foraminif http://www.ccbp.org/es/ciencia.php?PHPSESSID=869cd2
eros-los-legionarios-del-oceano-invisible/ 4e105c84d10d957870b70f2d43
69

5.1 Estructura Atómica y Radioactividad

En términos estrictos, nadie sabe cómo está constituido un átomo, y los


modelos más sofisticados incluyen términos tan extraños e imaginativos
como “quarks”, “gluones”, “partículas encantadas”, etc. Sin embargo, no
necesitamos introducir mayores grados de complejidad del requerido para
explicar y predecir su conducta en el nivel de nuestro trabajo. Para tal fin,
es adecuado el modelo atómico simple, constituido por un núcleo formado
por protones (masa 1, carga 1) y neutrones (masa 1, carga 0), rodeado por
orbitales electrónicos (masa 0,0005, carga -1).

Mientras la suma de protones y neutrones determinan la masa de un átomo


(el “peso atómico”), sólo los protones determinan su naturaleza como
elemento químico. Esto es así porque un mismo elemento puede
presentarse en forma de átomos con distinto número de neutrones. Por
ejemplo, hay átomos de oxígeno (nº atómico 8) con 8 protones, 8 neutrones
y 8 electrones (masa 16) así como otros con 8 protones, 10 neutrones y 8
electrones (masa 18). Se afirma entonces que el oxígeno presenta un
isótopo de masa 16 (16 O8) y otro, mucho menos abundante, de masa 18
(18O8). Respecto al número de electrones, este no determina la naturaleza
de un átomo. De hecho, cuando un elemento entra en combinación
química, entrega, recibe o comparte electrones con otro, sin que su
18
naturaleza se modifique por eso (aunque sí sus propiedades). Nota: O8
implica masa atómica 18 y número atómico 8.

Si se grafica la abundancia de los elementos químicos en el cosmos contra


su número atómico, se observa que ella disminuye fuertemente (varias
órdenes de magnitud) al aumentar el número atómico. Por otra parte,
también existe una relación empírica entre la divisibilidad de la masa
atómica de un isótopo y su abundancia. Aquellos divisibles por 4 son más
70

16
abundantes que los divisibles por 2 (por ejemplo O8 es más abundante
18
que O8) y estos últimos lo son respecto a los de masa impar (con la
notable excepción del hidrógeno 1H, más abundante que 2H). Ésta es la Ley
de Oddo y Harkins.

Algunas configuraciones nucleares llegan a ser inestables y se desintegran


emitiendo partículas y energía electromagnética de alta frecuencia. Es el
fenómeno conocido como radiactividad. A través de la radioactividad un
isótopo (“isótopo radioactivo”) se convierte en el isótopo de otro elemento,
que puede ser estable o bien inestable. En algunos casos, como en la serie
235
del U82, esto da lugar a una secuencia de isótopos radioactivos
intermedios, hasta que finalmente se llega al isótopo estable 207Pb82.

La radioactividad natural se expresa por la emisión de energía


electromagnética de alta frecuencia (radiación gamma) y de dos tipos de
partículas, alfa y beta. Las partículas alfa están constituidas por dos
protones y dos neutrones y son equivalentes al núcleo del elemento helio.
En consecuencia su masa es 4 y su carga eléctrica 2+. Las partículas beta
constituyen electrones emitidos por el núcleo. Puesto que el núcleo atómico
no contiene electrones, ello se explica asumiendo que los neutrones están
constituidos por la unión de un protón y un electrón, lo cual es consistente
con su carga (+1 – 1 = 0) y con su masa 1 (dada la escasa masa del
electrón).

Por otra parte, lo anterior es compatible y explicativo respecto al hecho de


que la emisión de un electrón del núcleo no genera cambio de masa pero sí
de la naturaleza del elemento, que avanza un casillero en la Tabla
40 40
Periódica. Por ejemplo: K19 pasa a Ca20 al emitir un electrón del núcleo.
40
En cambio, retrocede a Ar18 al capturar un electrón (partícula beta).
Cuando el núcleo emite una partícula alfa, el nuevo isótopo resultante
71

retrocede dos lugares en la Tabla y su masa atómica disminuye en 4


unidades (por efecto de la pérdida de 2 protones y 2 neutrones).

Recapitulando: se denomina isótopo a cada una de las formas de un mismo


elemento que sólo difieren en su número de neutrones, y por lo tanto en su
masa atómica. Estos isótopos pueden ser estables o no. Cuando no lo son,
emiten partículas atómicas y energía y se convierten en el isótopo de otro
elemento, que puede ser estable o inestable. Tanto los isótopos inestables
(radioactivos) como lo estables tienen importantes aplicaciones en el
estudio de los procesos geológicos, geoquímicos y metalogénicos, los que
serán considerados en las dos secciones siguientes.

5.2 Isótopos Radioactivos y sus Aplicaciones

A fines del siglo 19, cuando se buscaban criterios científicos para estimar
a edad de la Tierra, un geoquímico, Joly, y un eminente físico, Lord Kelvin,
propusieron dos interesantes aproximaciones al problema. El primero,
partió de la suposición de que los océanos inicialmente estuvieron
formados por agua dulce. Calculando la contribución anual de sales
disuelta entregadas por los ríos al mar, llegó a una cifra del orden de los
100 Ma (millones de años). Por su parte, Kelvin partió de la suposición
correcta de que la Tierra estuvo inicialmente fundida, y asumiendo la
entalpía y la distribución de temperaturas que ello implicaba, así como
aplicando las ecuaciones de conductividad térmica, concluyó que, su
estado actual implicaba un período de enfriamiento del orden de 100 Ma.

Es interesante el hecho de la notable “convergencia” de ambos cálculos,


que utilizaron datos u métodos de distinta naturaleza, lo que parecía
confirmar su acierto. Sin embargo, ambos estaban equivocados por
72

razones que escapaban al conocimiento de esa época. Efectivamente,


Joly confundió el tiempo de acumulación de las sales en el océano, con el
“tiempo de residencia” del Na en los océanos (vale decir, el tiempo
promedio que un átomo de sodio permanece en el océano antes de
retornar a otra etapa de su ciclo geoquímico). En cuanto a Kelvin, cuando
realizó su cálculo no se conocía aún la radioactividad, cuyo efecto térmico
mantiene estable la temperatura del interior de la Tierra. En consecuencia,
ambas estimaciones quedaron cortas por uno a dos órdenes de magnitud
de la cifra establecida posteriormente (unos 4.5 miles de Ma).

En efecto, tanto la actividad magmática como la actividad tectónica de la


Tierra son dependientes de la energía entregada por la radioactividad de
isótopos distribuidos en el Manto y la Corteza, liberada bajo la forma de
radiación gamma. Puesto que magmatismo y tectónica permiten la
renovación de las rocas de la corteza y aseguran así la disponibilidad
permanente de nutrientes en su superficie, también la biósfera debe su
permanencia a la energía radioactiva, al igual que la evolución biológica,
que ha sido impulsada por los cambios geológicos que ella ha hecho
posible.

La velocidad de la desintegración d un isótopo radioactivo se mide por su


vida media, que es el tiempo que demora en desintegrarse la mitad de la
masa inicial de un isótopo radioactivo. Así, si esa vida media es de n años,
ello implica que si tenemos 64g del isótopo, en n año más quedarán sólo
32g, en 2n años, 16g; en 3n años 8, etc. Ello tiene su expresión
matemática la ecuación diferencial:

dA / dt = -KA
Si A es la masa inicial del isótopo, K su constante de desintegración y la
expresión dA / A = -K dt se integra entre A y A/2, el valor de t resultante
corresponde a su vida media.
73

Puesto que K puede ser calculada experimentalmente en laboratorio, y es


posible medir la cantidad final del isótopo en la roca o mineral (o la cantidad
del isótopo producto de la desintegración), así como inferir la cantidad
inicial del primero, la desintegración radioactiva permite calcular la edad de
rocas y minerales. A diferencia de la edad “relativa” entregada por el
contenido fosilífero de las rocas, en este caso se trata de edades absolutas,
ya sea de la roca o mineral o del proceso metamórfico que la afectó (como
en el caso del método K – Ar, cuando ese proceso ha alterado el contenido
de Ar).

40
Entre los principales métodos de datación absoluta están los de K19 –
40 40 39 87 87 147 143 238 206
Ar20; Ar20 – Ar20; Rb37 – Sr38; Sm62 – Nd60; U92 – Pb82;
232 208 187 187
Th90 – Pb82 y Re75 – Os76. Puesto que la datación isotópica de
rocas no está en los objetivos de este curso, sólo mencionaremos que el
libro de Dhana Raju (2009) presenta una descripción detallada de cada uno
de ellos (p. 378 – 412). El más utilizado de estos métodos en los estudios
metalogénicos realizados en Chile es el de K – Ar, al que nos referiremos
en los párrafos siguientes.
74

(Pelissonnier, p.91)

Potasio es un elemento mayor en las rocas corticales. Posee 2 isótopos:


39 40 41
K19 (93.26%), K19 (0.01%) y K19 (6.73%). Por su parte, Ar se presenta
40 38 36
también en 3 isótopos: Ar18 (99.60%), Ar18 (0.06%) y Ar18 (0.34%). El
40 40
paso de K19 a Ar18 ocurre por captura de una partícula β por el núcleo,
pasando un protón a neutrón, con una vida media de 1,25 x 109 años.

Potasio está contenido en minerales como los feldespatos, anfibolas y


micas, que son abundantes en rocas plutónicas y volcánicas, así como en
los minerales producto de la alteración hidrotermal, algunos de las cuales
ofrecen estructuras muy favorables para la retención del argón generado
(vidrios volcánicos, micas),lo que da al método amplia aplicación. En
75

particular, es muy útil para datar las distintas etapas de procesos como la
mineralización en pórfidos cupríferos (datando los minerales de la roca
intrusiva, así como aquellos resultantes de la alteración potásica y de la
alteración fílica).

Si un vidrio volcánico datado presenta estructuras de desvitrificación, ello


implica que parte del Ar generado puede haber escapado, y por lo tanto la
edad real sería mayor que la medida. Si la roca ha experimentado
metamorfismo, es posible que la edad medida sea justamente la del evento
metamórfico (puesto que la pérdida total del argón generado equivale a
“resetear” el geocronómetro, que inicia otra vez la acumulación de Ar). En
tal caso es necesario complementar la dotación con otro método, como Rb
– Sr, el que no es afectado por tal evento.

La radioactividad natural tiene también importantes aplicaciones en


exploración minera. Ello, a través de la espectrometría gamma y de la
medición del flujo de radón, gas radioactivo producto de la serie de uranio.
Respecto al primer método, el respectivo instrumento permite medir tanto la
40
radiación gamma total, como diferencias entre aquella emitida por el K, y
por los isótopos de las series del U y el Th. En consecuencia es muy útil,
tanto en la exploración de uranio y torio, como en la de otros tipos de
yacimientos que los contienen como elementos menores o en trazas
asociados a la mineralización principal (por ejemplo, en los IOCG). Por otra
parte, la espectrometría gamma es también útil en el estudio de
alteraciones hidrotermales que contienen potasio, como la potásica
propiamente tal, la fílica y la de sericita – adularia. Respecto al radón, sus
aplicaciones son tratadas en el capítulo 12.
76

5.3 Isótopos Estables y sus Aplicaciones

Aunque las propiedades químicas de los distintos isótopos de un elemento


son básicamente las mismas, su diferente masa atómica se expresa en la
distinta cinética de sus reacciones bioquímicas, “catalizadas” por la
actividad bacteriana. Por otra parte, la diferencia de masa implica
conductas físico – químicas distintas en procesos como la evaporación del
agua, así como en su condensación y precipitación desde la atmósfera, lo
cual tiene importantes aplicaciones hidrológicas. Además, el efecto de la
temperatura sobre los equilibrios isotópicos permite calcular temperaturas
de procesos hidrotermales, temperaturas medias atmosféricas o de los
océanos en tiempos pasados, etc., estas últimas de especial importancia en
materia de cambio climático.

En esta sección consideramos las aplicaciones de los isótopos estables de


oxígeno, hidrógeno, carbono y azufre. Esta materia está tratada en detalle
en el texto de Dhana Raju (2009), pp. 413 – 467 y a él referimos al lector
interesado en profundizar en el tema.

16
El oxígeno tiene tres isótopos estables, siendo los dos principales O
18 1
(99,76%), y O (0,2%) Por su parte, hidrógeno tiene dos: H (99,985%) y
2
H (0.015%). Este último, denominado deuterio, se simboliza también como
3
D. Existe un tercer isótopo de hidrógeno, el tritio H1, de carácter
radioactivo, producto de las explosiones nucleares en la atmósfera, hoy
proscritas y por lo tanto “en extinción”.

La combinatoria nos indica que hay 6 configuraciones isotópicas posibles


del agua, cuya masa va de 18 a 20. Considerando las abundancias
relativas de los isótopos, se deduce que la configuración más abundante de
las moléculas de agua es la más liviana (18) seguida por 1H – 1H – 18
Oy
16
por H – D – O, de masas moleculares 20 y 19 respectivamente.
77

Cuando se produce la evaporación de un cuerpo de agua, tanto los isótopos


livianos de H como de O se enriquecen en la fase evaporada, debido al
menor peso de las moléculas de agua que los contienen. Esto también
puede expresarse en términos de que la presión de las moléculas de agua
enriquecidas en los isótopos livianos es mayor. En consecuencia, el agua
18
remanente se enriquece a su vez residualmente tanto en D, como en O.
Con el objeto de contar con un estándar de referencia para estos estudios,
se preparó el denominado SMOW (Standard Mean Ocean Water) elaborado
por el National Bureau of Standards (U.S.A), utilizado también por la Atomic
Energy Commission (IAEA, Viena).

Es con relación a ese estándar que se expresan las composiciones


isotópicas de una muestra, en términos de diferencias por mil (%) respecto
a la composición del SMOW:

d18 O = [(18 O/ 16 O muestra – 18 O / 16 O SMOW) / 18 O / 16 O SMOW) / 18 O / 16 O SMOW] x 103


d D = [(D / H muestra – D/H SMOW) / D/H SMOW] x 103

18
Si el valor es positivo, la muestra estará enriquecida en O y D respecto al
estándar, y empobrecida si el valor es negativo.

Si el agua evaporada y condensada en forma de nubes avanza sobre el


continente, asciende a mayores alturas y va dando lugar a sucesivas
precipitaciones (lluvia o nieve), las moléculas de agua más pesadas son las
primeras en dar lugar a gotas de agua, de manera que la composición
isotópica de la lluvia “temprana” es similar a la del SMOW. Después se va
18
produciendo un continuo empobrecimiento en O y D, de modo que las
últimas precipitaciones experimentan el mayor fraccionamiento. En el curso
18
de este proceso, los fraccionamientos de O y D mantienen una relación
78

lineal aproximada, representada por la ecuación: dD = 8d18O + 10 (Línea


del Agua Meteórica).

(Dhana Raju, p. 421)

El fraccionamiento de los isótopos de oxígeno e hidrógeno es también


dependiente de la temperatura. Como se indica en el gráfico de la Fig. 15.1
18
del texto de Dhana Raju, los factores de fraccionamiento para O y D
disminuyen al incrementarse la temperatura de manera casi lineal para
oxígeno y ligeramente exponencial para D. Los factores se definen
mediante las expresiones: α (18O) = (18O / 16O líquido) / (18O / 16
O vapor) y α (D)
= (D / H líquido) / (D / H vapor).
79

(Dhana Raju, p. 425)


80

Como consecuencia de la relación inversa existente entre temperatura y


fraccionamiento isotópico, las aguas de origen juvenil o magmático que
ingresan a la corteza presentan grados insignificantes de fraccionamiento .
Para el caso de d18O, se ha determinado un +7%o y para dD un -48 ± 20%o
respecto al SMOW. Sin embargo, las aguas juveniles interactúan con las
rocas, reequilibrando su composición isotópica y se mezclan con otros tipos
de aguas.

(Dhana Raju, p. 438)

En consecuencia, el fraccionamiento isotópico de oxígeno e hidrógeno


puede ser utilizado, para determinar (o al menos estimar) la temperatura de
equilibrio isotópico a la cual se formaron los minerales de las rocas y
aquellos precipitados de fluidos neumatolíticos y soluciones hidrotermales.
Ello, a través de expresiones como en α = 1 / T2 (siendo alfa el factor de
fraccionamiento y T la temperatura absoluta).
81

La Fig. 15.2 del mismo texto citado representa la composición isotópica en


aguas subterráneas salinas de minas profundas ubicadas en tres distritos
mineros situados en distinta latitud. La diferente pendiente que muestran
respecto a la “línea meteórica”, la cual implica un empobrecimiento relativo
18
en O a mayor latitud, se atribuye al efecto de ésta en la menor
temperatura de las aguas meteóricas, factor que afecta al contenido en 18O.

(Dhana Raju, p. 421)

Respecto al uso de las razones isotópicas oxígeno en la determinación de


la temperatura de equilibrio en la formación de minerales, que es la principal
aplicación metalogénica de esta materia, ella requiere tres condiciones para
alcanzar plena validez: 1) Las reacciones de intercambio deben haber
82

alcanzado equilibrio 2) Ellas no deben haber sido alteradas posteriormente


y 3) La relación entre fraccionamiento y temperatura para el mineral en
cuestión debe ser conocida a través de determinaciones experimentales. Al
respecto, Dhana Raju presenta un completo listado de parámetros para 38
pares principales de equilibrio (ver Fig. 27).

12 13
Carbono, presenta dos isótopos estables: C (98.89%) y C (1,11%).
14
También existe un isótopo radioactivo, C, que se forma en la atmósfera
superior por incorporación de un neutrón (radiación cósmica) al núcleo de
14
N7, ( con “emisión de un positrón” o “captura de un electrón”). Debido a
que su vida media es sólo de 5700 años, su rango de aplicación no pasa de
40 mil años, lo cual limita mucho sus aplicaciones geológicas, pero lo hace
muy relevante en estudios arqueológicos y en la geología del Holoceno.

El fraccionamiento de los isótopos estables de carbono se produce por


12
procesos como la fotosíntesis (que favorece el enriquecimiento de C en
compuestos de origen orgánico), así como por reacciones de intercambio
isotópico entre distintos compuestos de carbono. Se expresa a través de la
ecuación:

d13C = (13C / C12 muestra – 13C / 12C estándar) / 13C / 12C estándar) x 103

(El estándar es la composición isotópica de un fósi (belemnite),


seleccionado como tal).
Como en el caso de los isótopos de oxígeno e hidrógeno, existen factores
de fraccionamiento propios de cada par de minerales: o de mineral – gas,
p.ej., bicarbonato – CO2, a 20°C, y por otra parte, un control de la
temperatura sobre el factor de fraccionamiento, lo cual permite su uso como
geotermómetro.
83

En consecuencia, el fraccionamiento de los isótopos estables de carbono


se utiliza en determinaciones de interés metalogénico tales como las
condiciones de formación de carbonatitas y diamantes, en las reacciones
de formación de minerales en la etapa neumatolítica y en la determinación
de las temperaturas de formación de carbonatos en soluciones
hidrotermales. Al respecto es necesario considerar que en ese
fraccionamiento influyen no sólo la temperatura y los factores propios de la
pareja de equilibrio mineralógico, sino también otros factores como la
fugacidad de O2, el pH, la salinidad del fluido y la concentración total de
carbono.

32 33
Azufre. Este elemento presenta 4 isótopos estables: S (95,02%), S
(0,75%), 34S (4,21%) y 36S (0,02%). Sus aplicaciones metalogénicas utilizan
32 34
las relaciones entre S y S, y conciernen básicamente al efecto de
fraccionamiento debido a la actividad bioquímica bacterial, así como al
efecto de la temperatura en el reequilibrio isotópico entre distintas especies
sulfuradas. En los sistemas geológicos el azufre se presenta con las
valencias -2 (sulfuros), + 4 (SO2) y + 6 (SO2-4) y el paso de una a otra,
asociado o no a la actividad bacteriana, puede dar lugar a reequilibrios
isotópicos. Su fraccionamiento se expresa a través de la ecuación:

d34S = (34S / 32S muestra – 34S / 32S estándar) / 34S / 32S estándar) x 103

En este caso el estándar utilizado es troilita (FeS meteorítico) procedente


32 34
del siderito de Cañón del Diablo cuya razón S/ S es 22.22, valor muy
cercano al de las rocas maficas de origen profundo. Las desviaciones de
esa razón obedecen, ya sea a la reducción de sulfato a sulfuro por efecto
de actividad bacteriana anaeróbica, o bien a reacciones de intercambio
isotópico entre iones sulfurados, moléculas o sólidos.
84

En el primer caso, las bacterias reductoras enriquecen el isótopo liviano en


la fase sulfurada (vale decir, reducida), por lo cual producen una relativa
concentración del isótopo pesado en la fase sulfatada residual. En el
34
segundo mecanismo, S tiende a concentrarse en aquellos compuestos
que presentan un mayor estado de oxidación del azufre o la mayor energía
de enlace.

El enriquecimiento de 32S en la fase sulfurada puede ser expresado a través


de la ecuación:

32
SO4(liq)2- + H234S(gas) = 34SO2-4(liq) + H232S(gas).

Catalizada por la actividad bacteriana, esta reacción puede enriquecer el


H2S en 32S hasta en un 75% respecto al sulfato, a 25°C.

Aunque el proceso descrito puede dar lugar a resultados complejos (por


34
ejemplo, si la fase sulfatada residual enriquecida en S es posteriormente
34
reducida, se podrían obtener sulfuros ricos en S) esta relación se utiliza
como criterio genético respecto al origen de las menas sulfuradas. El
criterio básico es que si los resultados se agrupan con poca dispersión en
torno al valor estándar, el azufre sulfurado es probablemente hipógeno, sin
participación de actividad bacteriana. En cambio, si existe dispersión
significativa, al menos parte del sulfuro puede ser de origen bioquímico (en
cuanto a la participación bacteriana en la reducción del sulfato).
85

(Jensen, p. 152)

En general, existe una buena consistencia entre el conocimiento actual de


las condiciones de formación de los yacimientos y su fraccionamiento
isotópico en azufre. Así, los pórfidos cupríferos presentan relaciones muy
próximas a las del estándar y poca dispersión. En cambio en los
yacimientos estratoligados en rocas sedimentarias hay un significativo
enriquecimiento en 32S (un 11.7%o).

Respecto al efecto de la temperatura en el fraccionamiento isotópico, éste


tiene un interés directo en la determinación (o estimación) de las
temperaturas de formación de sulfuros y sulfatos de origen hidrotermal. La
Fig. 15.7 muestra cómo este fraccionamiento, que es propio del par de
86

minerales en proceso de reequilibrio isotópico, disminuye al aumentar la


temperatura del proceso.

Otro isótopo estable utilizado con éxito (por ejemplo, en el Distrito


13
Collahuasi, Tarapacá, Djouka-Fonkwe et al, 2012) es C, que permite
distinguir entre carbonatos originados en procesos de alteración producto
de metamorfismo de bajo grado respecto de aquellos ligados a la
alteración propilítica generada por un cuerpo intrusivo (y por lo tanto más
interesantes en términos prospectivos). En términos generales, actualmente
se cuenta con metodologías de determinación basadas en espectrografía
infraroja tipo OA-ICOS que permiten aplicar métodos isotópicos de manera
rápida y a bajo costo, posibilitando la detección de anomalías isotópicas
(hidrógeno/oxígeno) de exploración de varios km en torno a los posibles
blancos (Barker et al, 2013).
87

(Dhana Raju, p. 459)


88

CAPÍTULO 6: “TRATAMIENTO MATEMÁTICO DE DATOS Y


MODELACIÓN PREDICTIVA DE BLANCOS”

http://www.mmtec.co.jp/english/0312/3.html http://www.scielo.cl/scielo.php?pid=S0718-
19572007000200005&script=sci_arttext

http://208.88.130.69/June-2003-Passive-surface-geochemical- http://geea.lyellcollection.org/content/10/1/27.abstract
survey-leads-to-dry-gas-discoveries.html

http://www.geosoft.com/products/arcgis-
extensions/geochemistry-arcgis http://geea.geoscienceworld.org/cgi/content/abstract/5/4/325

NOTA: Este capítulo está basado principalmente en el libro de E.M. Carranza (2009):
“Geochemical Anomaly and Mineral Prospectivity Mapping in GIS (Elsevier)”. Incluye
además conceptos y opiniones de otras fuentes así como comentarios del autor del
presente texto. El capítulo contiene un Anexo elaborado por el Dr. Ricardo Oyarzún.
89

6.1 Modelación Predictiva de Blancos de Exploración Minera

La exploración minera comprende cuatro etapas sucesivas: 1. Selección de


áreas 2. Generación de blancos 3. Evaluación de recursos 4. Definición de
reservas. Corresponde a la prospección y a la exploración geoquímica
participar en la segunda de ellas.

Conforme a la clasificación de Wood (2010), las áreas y blancos propuestos


se pueden dividir en : a) Búsqueda de extensiones de un depósito
conocido, cuyas probabilidades de éxito sitúa entre 1 en 5 y 1 en 10, en un
período de 1 a 2 años b) Búsqueda de un depósito oculto en las cercanías
de otro conocido ( 1 en 10 o menos, en 3 a 5 años) c) Búsqueda de un
depósito oculto en un distrito conocido ( 1 en 100, en 5 a 10 años) d)
Búsqueda de un depósito oculto en una zona donde no se conocen otros
yacimientos, como en el caso de Olympic Dam. En este caso las
probabilidades de éxito son “en extremo bajas”. Por lo tanto se trata de
exploración de alto riesgo, cuya recompensa puede ser, eso sí, cuantiosa.

Se entiende por generación de blancos la delimitación de áreas de interés


prospectivo. En ella participan, junto con la PG, la geología, la prospección
geofísica y otras disciplinas o metodologías, bajo el marco interpretativo de
los modelos metalogénicos de yacimientos.

La intersección de anomalías geológico – mineralógicas, geoquímicas y


geofísicas, junto con su magnitud e intensidad, definen la forma y el interés
relativo de las áreas de interés prospectivo, las que serán objeto de
sondajes y otras formas de reconocimiento tridimensional.

Sin embargo, no todas las anomalías están asociadas a la presencia de


yacimientos. De ahí que se requiera un proceso de análisis e integración
90

denominado: “modelación predictiva”; en el cual los sistemas de


información geográfica (SIG) pueden desempeñar un rol importante.

La Modelación Predictiva (MP) implica realizar descripciones,


representaciones o predicciones sobre un sistema complejo, accesible sólo
en forma indirecta, a través del análisis de información relevante,
preferentemente cuantitativo. Ello implica evaluar la probable presencia o
ausencia del yacimiento buscado sobre la base de propiedades o variables
predictivas directamente observables o medibles, las que se consideran
relacionadas entre sí y con el sistema u objeto que se pretende encontrar.

En consecuencia, la MP está basada sobre: a) interrelaciones entre


variables predictivas, que pueden revelar patrones relacionados con el
objeto de la búsqueda, y b) relaciones entre el “blanco” y las variables
predictivas. Lo segundo implica que cierta información asociada
directamente con el blanco es requerida para crear y validar un modelo
predictivo.

Un modelo predictivo es una especie de fotografía del sistema de interés (el


yacimiento), que incluye el conocimiento y la información utilizada en su
creación, así como aquella complementaria generada posteriormente.
Igualmente se considera como modelo predictivo cualquiera representación
cartográfica de ese objeto indirectamente observable.

La MP de anomalías geoquímicas y/o áreas prospectivas persigue


representarlas o mapearlas como entidades discretas o “geo – objetos” con
bordes definidos. El término representación o predicción es equivalente a
mapeo y se realiza sobre la base del análisis e interpretación de
información geocientifica en términos de hipótesis y proposiciones. En
consecuencia, un mapa de anomalías geoquímicas y/o áreas prospectivas.
91

constituye un modelo predictivo de donde es probable que se encuentre el


yacimiento buscado.

Hay dos enfoques o aproximaciones a la MP, una inductiva y otra


deductiva, las que son mutuamente complementarias. La deductiva implica
utilizar el conocimiento general disponible, por ejemplo, características de
los modelos de yacimientos, y generalmente se parte por ella. Pero como
siempre existen particularidades, puede ser necesaria complementarla con
la modalidad inductiva que nos informará sobre el caso particular en estudio
(Fig. 1.1 del texto de Carranza).

(Carranza, P. 6)

La MP puede ser de carácter físico conceptual o empírico. En el primero


caso se modela la interacción de los distintos componentes y procesos
responsables de la generación del yacimiento, y de sus probables
consecuencias en la generación de anomalías y otras evidencias indirectas.
92

Implica expresar las relaciones físicas y físico – químicas en términos de


ecuaciones, cuya resolución puede ser muy compleja. Se subdivide a su
vez en modelación determinística y modelación estocástica o probabilística.

En cambio, la modelación empírica es esencialmente descriptiva, y no


profundiza respecto a las causas que han determinado la evolución de los
sistemas modelados. Equivale a una fotografía simplificada del yacimiento
y de las anomalías que probablemente genera. Naturalmente, se construye
sobre la base del estudio de varios yacimientos, asimilados a un
determinado tipo o modelo. Al respecto, los textos sobre modelos
metalogénicos, como el de Cox y Singer, 1986, son muy útiles con este fin.

La MP de anomalías geoquímicas puede ser dinámica o estática, según


considere o no su evolución en el tiempo, aunque generalmente se aplica
de modo de modo estático en áreas prospectivas. También puede ser uni,
bi, tri o cuatridimensional (la última incluyendo el tiempo). Sin embargo, lo
usual es que sea bidimensional.

La información utilizada en PG (prospección geoquímica) proviene de


mediciones sistemáticas de una o más propiedades químicas de muestras
de materiales terrestres (rocas, suelos, sedimentos, vegetación, agua,
gases) y generalmente consiste en la representación de la concentración
de uno o más elementos químicos en afloramientos de rocas o en suelos,
sedimentos o aguas
.
En consecuencia es importante conocer el rango normal de concentración
de un elemento en un determinado material: por ej., fracción fina de los
sedimentos fluviales, roca basáltica, lutita negra, caliza, horizonte B de un
suelo tipo podzol, etc.,al que se denomina valor de fondo o background y
se representa por una cifra central (la media o – mejor la mediana).En el
caso de las rocas ígneas, ese rango se sitúa en similares órdenes de
93

magnitud para rocas del mismo tipo no mineralizadas (por ejemplo,


basaltos calcoalcalinos). Sin embargo puede ser muy diferente en el caso
de sedimentos o suelos, de ahí la necesidad de establecer rangos normales
regionales o locales.

En principio, la P.G. busca desviaciones o anomalías respecto a ese rango


normal, que puedan ser indicativas de la presencia de un cuerpo
mineralizado. Aunque el metal buscado es en principio el indicador más
directo, por ej., cobre para yacimientos cupríferos, lo normal es que se
utilicen varios elementos. Por ejemplo, la lixiviación superficial puede
arrastrar un alto porcentaje del cobre en un pórfido cuprífero oxidado. En
cambio, el molibdeno que lo acompaña es generalmente retenido en la
superficie por la limonita proveniente de la oxidación de pirita, por lo que
puede ser un mejor indicador.

Por otra parte, las asociaciones entre elementos son útiles para identificar la
presencia de determinados tipos de depósitos (por ej., yacimientos
auríferos tipo Carlin) o características especiales de los mismos (como es el
caso del itrio en los depósitos tipo IOCG’s).

Las variaciones espaciales de un elemento definen un “paisaje geoquímico”


integrado por áreas normales y por áreas anómalas de distinta intensidad.
Al respecto es importante entender que la anomalía (al igual que en el caso
de las anomalías geofísicas) está determinada por la diferencia entre la
cifra esperada (considerando el tipo de material muestreado y el valor de
fondo regional o local) y el contenido determinado analíticamente.

Aunque normalmente se buscan anomalías geoquímicas positivas, en


algunos casos (como en geoquímica de rocas volcánicas) también las
anomalías negativas pueden ser útiles como indicadoras de procesos de
reconcentración de interés metalogénico. A este respecto, casos como el
94

de la anomalía negativa de cobre encontrada por J.Losert (1973) en


basaltos alterados bajo los niveles mineralizados del distrito Buena
Esperanza (Tocopilla) son ilustrativos.

En suma, en el modelado de “umbrales”, vale decir de aquellos valores


sobre los cuales consideramos que estamos en presencia de anomalías
geoquímicas, podemos enfrentar la tarea de dos maneras. La primera
consiste en analizar cada elemento por separado mediante análisis
estadísticos univariados de su distribución de frecuencias. Al hacerlo es
importante reconocer el tipo de distribución estadística de los elementos
(generalmente log normal o aproximable a log normal).

La segunda manera consiste en trabajar con asociaciones de elementos,


utilizando métodos multivariados como el análisis de clusters
(agrupaciones) o el análisis factorial en sus dos modalidades (identificando
correlaciones entre los elementos y reemplazando su tratamiento individual
por el de factores que representan asociaciones de esos elementos y
explican la varianza del sistema).
95

(Levinson, p. 483)

(Levinson, p. 483)
96
97

La metodología seguida en la modelación univariada incluye: a) obtención


de información de referencia de la literatura disponible, b) comparación con
el resultado de un muestreo orientativo preliminar, c) representación gráfica
de los datos, d) transformación de los datos a sus logaritmos, si
corresponde (en caso de distribuciónes de tipo log normal o aproximables),
e) determinación de la media, mediana, desviación estándar y selección del
umbral. Esto también puede efectuarse mediante gráficos log –
probabilísticos como los propuestos por Lepeltier (1969), f) reconocimiento
de grupos de muestras anómalas en el espacio del mapa.

En el caso de la modelación multivariada, ella incluye: a) determinación de


correlaciones entre elementos químicos, generalmente mediante cálculo de
coeficientes de correlación de Pearson o Spearman, b) reconocimiento y
cuantificación de asociaciones entre elementos basados en esos
coeficientes, c) mapeo de las asociaciones de multielementos utilizando los
correspondientes puntajes (scores).

El análisis de componentes principales (factores) y el análisis de clusters


son útiles, especialmente cuando se carece de información “a priori” sobre
los controles de la variación geoquímica. Dicha información a priori se
encuentra en las descripciones de los textos sobre modelos de yacimientos
y puede ser utilizada, por ejemplo, para establecer anomalías geoquímicas
basadas en razones entre elementos con valor diagnóstico.

Un ejemplo de relación se refiere al rol de lo “acumuladores de metales”


como los óxidos de Fe y Mn. Así, las relaciones Cu/Fe y Cu / Mn pueden
ser mejores indicadoras que el simple contenido de Cu de las muestras.

Las anomalías geoquímicas pueden tener distintas fuentes: las de origen


geológico o “geogénicas” pueden derivarse de depósitos minerales
cercanos o lejanos, o bien de procesos de concentración primaria o
98

secundaria no relacionados con yacimientos (por ej., las denominadas


“lutitas negras”, depositadas en ambientes reductores, son naturalmente
ricas en metales pesados). A ellas se agregan las de carácter
antropógenico, como aquellas que son producto de la actividad minera o
metalúrgica.

En cambio, la presencia de yacimientos, puede estar acompañada de


anomalías geoquímicas débiles o prácticamente no detectables. En
consecuencia la interpretación debe tener en cuenta la “oportunidad”
efectiva que tuvo el eventual yacimiento de generarla, ya sea como
anomalía primaria (vale decir, contemporánea con la formación del
depósito) o secundaria (es decir, producto de la evolución geológica
posterior del bloque mineralizado).

En el caso de las anomalías primarias y secundarias, tanto la naturaleza


litológica como las estructuras y la hidrogeología del macizo rocoso
mineralizado desempeñan roles principales en la posibilidad de dispersión
de los elementos metálicos del cuerpo mineralizado.

En el clásico modelo de Pelissonier (1997), los yacimientos hidrotermales


se forman por el “entrampamiento” de metales transportados por un “tubo
de corriente”, que da lugar a la formación de “anomalías de fuga” más allá
del lugar principal de depósito. Ellas corresponden a las “anomalías
primarias”. Naturalmente, se favorecen si existen las estructuras favorables
para la migración de fluidos que transportan los metales que integran la
mena, más allá del sitio principal de depósito.
99

(Pelessonnier, p. 15)

Posteriormente al depósito del cuerpo mineralizado, la evolución estructural


del bloque, así como el efecto de la meteorización de sus niveles superiores
y el flujo de aguas subterráneas, ofrecen oportunidades de generación de
anomalías secundarias. En casos favorables, estas pueden ser tan
importantes que llegan a formar yacimientos secundarios, como los
depósitos “exóticos” de cobre (Munchmeyer, 1996).

En consecuencia, la modelación de anomalías geoquímicas debe


considerar, junto con la información química procesada, aquella de carácter
geológico, geomorfológico e hidrogeológico que pueda influir ya sea en la
acentuación o en el debilitamiento o desplazamiento de las anomalías
generadas. Entre ellas se cuentan la presencia y actitud de las fracturas, la
presencia de acuíferos y los factores litológicos y pedológicos.

También la extracción parcial o selectiva de los elementos a analizar puede


contribuir a destacar las anomalías “significativas”, en cuanto pese a que
entregan cifras menores, ellas tienden a presentar una asociación más
estrecha con la dispersión secundaria generada desde los yacimientos. Es
100

el caso de la extracción de cobre “en frío” y mediante ácidos débiles


desarrollada en los 1950’s o de la extracción “enzimática” popularizada en
los 1990’s.

Carranza utiliza el término “mineral prospectivity” (prospectividad mineral),


en adelante PM, para designar a la probabilidad favorable de encontrar
yacimientos de un tipo buscado en un bloque de terreno. A su vez, tal
presencia (si existe) se puede delatar mediante rasgos que la evidencian,
como las anomalías geoquímicas. En consecuencia, el grado de PM del
terreno se evalúa según la presencia e “intensidad” de tales evidencias o
“reveladores”.

Así, en principio, se entiende que la P.M. de un terreno es favorable si este


presenta las mismas o similares evidencias que se encuentran en otro
terreno donde tal presencia es conocida. Si alguna(s) de esas evidencia
falta, es importante procurar entender por qué. Por ejemplo, pueden existir
razones litológicas, mineralógicas, estructurales, climáticas, etc., que
expliquen la presencia de débiles anomalías geoquímicas en un prospecto,
como fue el caso de la “súper lixiviación” del cobre en Escondida.

Si se comparan las P.M. de dos posibles prospectos, la presencia e


importancia de las evidencias o reveladores en cada uno de ellos permitirá
determinar cual P.M. es más alta. Esto es utilizado si se trata de priorizar
entre posibles inversiones en exploración detallada, o bien si es necesario
abandonar parte de una concesión de exploración (Fig. 1.2).
101

(Carranza, p. 13)

La modelación de la P.M. se debe realizar en cada etapa de la exploración


minera, desde la realizada a escala regional a la de generación de blancos,
pasando por la escala local. Implica el análisis e integración de evidencias
derivadas de múltiples fuentes. (geológicas, geoquímicas, geofísicas,
sensores remotos, etc.) con el fin de delinear y establecer rangos entre las
áreas potenciales en términos de seleccionarlas o priorizarlas para la
continuación del trabajo exploratorio.

Durante esa labor es necesario estar abierto a “esperar lo inesperado”. Ello,


porque puede ser que esté presente un yacimiento de un tipo o mineral, no
esperado ni buscado… pero tanto o más importante que el objetivo
propuesto (como ha ocurrido mucha veces, siendo el caso de Olympic Dam
uno de los más conocidos).
102

En la generación de blancos a la escala regional, el modelamiento y


aplicación de la P.M. busca delinear las áreas más promisorias al interior de
grandes regiones potencialmente favorables. En la escala distrital a local de
generación de blancos, el modelado de la P.M. persigue seleccionar esos
blancos con mayor detalle y exactitud al interior de dichas áreas favorables.
Ello requiere contar con mayor información y con una mejor resolución
espacial producto de ella.

Un modelo predictivo de P.M. debe ajustarse a un tipo específico de


yacimiento. Así, uno aplicable a depósitos auríferos tipo Carlin no lo es para
pórfidos cupríferos. En consecuencia, en cada escala el modelado de la
P.M. debe partir por la definición de un modelo conceptual de la P.M.
establecido para el tipo de yacimiento buscado. Tal modelo es prescriptivo,
más que predictivo y especifica mediante palabras y diagramas las
relaciones teóricas entre los procesos geológicos y controles en términos
de por qué, y especialmente donde, debería encontrarse el tipo de
yacimiento buscado (Fig. 1-3).
103

(Carranza, p. 14)

Lo anterior confirma la importancia de los modelos de yacimientos y de los


textos que los describen, como el de Cox y Singer (1986). También resalta
la necesidad de establecer conexiones prácticas entre los distintos campos
de la geología (petrología, geología estructural, volcanismo, geoquímica,
paleogeografía, etc.) y la génesis de los yacimientos, a la luz de la tectónica
global o de placas. Al respecto, los trabajos de Mitchell y Garson (1972),
Sillitoe (1972), Oyarzún y Frutos (1974), Ishihara (1977) y otros autores
procuran explicar la naturaleza y distribución de las provincias
metalogénicas Circum Pacíficas sobre la base de dichos factores.

A ello se agrega la conveniencia de considerar la distribución espacial de


los depósitos del tipo buscado y su relación con rasgos geológicos
específicos. En el caso de Chile, esto se expresa claramente en la
distribución de los pórfidos cupríferos en fajas N–S de edades mesozoicas
y cenozoicas decrecientes de W a E. Ellas corresponden a las cadenas de
actividad magmática determinadas por las condiciones geométricas y
tectónicas de la subducción de la placa tectónica oceánica bajo la
104

continental. Por otra parte, la posición de los yacimientos en esas fajas


presenta cierta “periodicidad” y coincide en parte con su intersección por
estructuras mayores oblicuas, NE y NW.

En consecuencia, las características geológicas, geofísicas y geoquímicas


de las áreas que contienen depósitos del tipo buscado suministran los
criterios para reconocer la “prospectividad” de las áreas bajo evaluación. En
la realización de esa tarea se utilizan: a) información geocientífica espacial,
b) criterios para seleccionar aspectos diagnósticos de esa información, c)
métodos para transformar rasgos geocientíficos diagnósticos de los mapas
en mapas individuales que representan “criterios de prospectividad”, d)
métodos para ponderar clases o rangos que permitan realizar mapas de
predicción y e) métodos para integrar esos mapas individuales para
confeccionar mapas predictivos globales. Las etapas b, c y d de tal análisis
buscan establecer parámetros para introducir números en los modelos
predictivos.

En el caso de CODELCO y otras grandes empresas mineras se estima


importante traducir esta información en términos cuantitativos
probabilísticos. Ello, para que los profesionales del área económica de la
empresa que deben autorizar las inversiones en exploración, cuenten con
estimaciones relativas a la probabilidad de encontrar en el área explorada
un yacimiento de determinada magnitud y valor y las puedan contrastar con
las sumas a invertir.

La información geocientífica utilizada es propia de las distintas disciplinas


involucradas en la exploración minera, y el énfasis que se da a los distintos
aspectos estudiados o mapeados está dado por el conocimiento de los
depósitos minerales y la experiencia obtenida en su exploración. Por
ejemplo, es bien conocida la importancia de la alteración hidrotermal en la
exploración de pórfidos cupríferos, depósitos epitermales auríferos, etc. En
105

materia estructural, sabemos también que en Chile y otros países los


pórfidos cupríferos del modelo stockwork están generalmente asociados a
fallas mayores, pero no así los del tipo chimenea de brecha, etc.

Por lo tanto, los criterios y procedimientos para extraer y resaltar la


información más pertinente en términos prospectivos y volcarla a mapas
generales de prospectividad, requieren la aplicación de conocimientos,
experiencia, buen juicio, y algo de intuición, así como un buen criterio
respecto de la cantidad adecuada de información que puede contener un
mapa (y ser visualizada por su usuario, porque la información en exceso
“intoxica”, como bien lo saben los expertos en inteligencia militar).

La introducción de parámetros numéricos para pasar de los mapas de base


(ej., mapa estructural) a los mapas predictivos utiliza aspectos como la
magnitud e intensidad del rasgos favorable (por ej., una falla de rumbo, una
zona de alteración hidrotermal cuarzo – sericítica, etc.), así como la
distancia a dicho rasgo que presenta el área considerada (Fig. 1.4).

(Carranza, p. 16)
106

Respecto a los errores contenidos en los mapas temáticos y a su


“propagación” a los mapas predictivos, Carranza señala la necesidad de
aplicar métodos de valoración cruzada que permitan responder a las dos
preguntas siguientes:

La primera interrogante es: Si se cuenta con dos modelos de prospectividad


mineral. ¿Cuál se comporta mejor al aplicarlo a ocurrencias conocidas de
depósitos minerales del tipo buscado? (para tener una respuesta válida es
necesario que hayan sido desarrollados en lugares distintos de aquel en
que aplican).

La segunda es: supongamos que, en un área de estudio, se dividiera la


serie de ocurrencias conocidas de yacimientos en dos sub series y luego
se usara la primera para desarrollar un modelo de prospectividad. ¿Qué
porcentaje de los yacimientos de la segunda serie estarían situados en
áreas consideradas de alta prospectividad según ese modelo?

Cómo ocurre en cualquiera operación de desarrollo de modelos, debe


existir una etapa de “calibración” previa a la de validación del modelo, la
que se realiza contrastando la relación espacial entre rasgos geológicos
etc., y la ocurrencia de yacimientos del tipo buscado. En el fondo, la misma
operación se repite tres veces: al elaborar el modelo, al calibrarlo y al
validarlo. Puesto que se debe aplicar a distintas series de datos, es natural
que los resultados sean diferentes.

Todo modelo involucra una simplificación de la realidad y por lo tanto


implica la exclusión de algunas variables. Sin embargo, en el curso de los
modelos predictivos de la ocurrencia de yacimientos, la situación es
extraordinariamente compleja, porque involucra: eventos y parámetros
desconocidos, desarrollados millones a cientos de millones de años atrás,
107

en un marco espacial subterráneo gigantesco y oculto. De ahí que las


expectativas sobre el éxito de estos modelos deberían ser razonablemente
modestas.

Los sistemas de información geográfica (SIG) permiten geo – referenciar


todo tipo de información mediante el desarrollo de programas
computacionales. A diferencia de los antiguos métodos de superposición
de capas de información sobre hojas transparentes, los SIGs no tienen
limitaciones respecto al número de capas superponibles. Por otra parte es
muy fácil introducir correcciones en ellas por la naturaleza digital de la
información, así como generar e imprimir casi instantáneamente toda clase
de mapas. En suma, constituyen un instrumento valiosísimo en la
elaboración y aplicación de modelos predictivos.

El uso de SIG en la generación de MP (modelamiento predictivo) facilita el


obtener (“capturar”) información, almacenarla, organizarla, consultarla,
manipularla, transformarla, analizarla e integrarla. Dicha información puede
provenir de variadas fuentes: mapas, informes, publicaciones, etc., tanto
preexistentes y de fuentes externas, como producidas a diversas escalas
durante la exploración en curso. El hecho de que el SIG permita ir
visualizando posibles relaciones en el curso del proceso, facilita su misma
orientación, por cuanto van emergiendo relaciones, a veces inesperadas,
entre los distintos elementos integrados.

El MP de anomalías geoquímicas o de la prospectividad mineral (PM) de un


área implica caracterizar las propiedades estadísticas y las relaciones
espaciales de las variables, operaciones respaldadas por la observación,
consulta, manipulación y transformación de datos. En un sistema SIG, ellas
pueden ser realizadas utilizando tablas o mapas de atributos de los datos. A
su vez, esas tablas son útiles para resumir las propiedades estadísticas de
los datos univariados y para caracterizar las relaciones espaciales entre
108

series de esos mismos datos. Por ejemplo, superponer un mapa de valores


interpolados de concentraciones de cobre con uno de ocurrencia de
depósitos del mismo metal (observando así qué intervalos de concentración
coinciden con dichas ocurrencias) (Fig.1. 5).

(Carranza, p. 19)

Para realizar lo anterior es conveniente que el SIG esté dotado de un


software adecuado para realizar las distintas tareas mencionadas. Si no es
así, los datos pueden ser exportados a otros software que cuenten con los
respectivos programas y retornados al SIG. Nótese que el ejemplo de la
Fig. 1.5 ya representa una forma de integración (sencilla) de información.
En un SIG, un modelo predictivo o mapa se deriva normalmente de la
combinación de mapas predictivos (como el de la Fig.1.2), aplicando una
función computacional que permita caracterizar las interacciones o
relaciones entre los factores que controlan la conducta del sistema de
interés.

En consecuencia, se puede escribir: modelo predictivo = f (mapas


predictivos). Aunque los modelos predictivos de anomalías geoquímicas
pueden ser estocásticos, los de PM generalmente hacen uso de funciones
109

computacionales que expresan relaciones empíricas entre las variables del


predictor y la variable objeto.

Se denomina “redes de inferencia” a aquellas que informan sobre el


conocimientos respecto a las interrelaciones entre los procesos
representados por los mapas predictores individuales, por ejemplo, entre
los sistemas de fallas y la disposición espacial de las anomalías
geoquímicas.

Los métodos empíricos del tipo “data driven” (“conducidos por datos”)
generalmente usan funciones matemáticas para la integración simultánea
de mapas predictores, con independencia del conocimiento o razón de ser
de las respectivas interacciones. Por ejemplo, un algoritmo que relacione la
probabilidad de presencia de un yacimiento con la intensidad de las lecturas
de potencial inducido, rangos de contenidos de molibdeno y grado de la
alteración cuarzo – sericítica.

La integración de la información en un SIG está controlada precisamente


por la topología espacial y el enlace de los datos a cada ubicación por el
sistema de coordenadas. Sin embargo, existen aún ciertos problemas
relacionados con el modelo espacial de graficado de datos: vectorial o
“raster” (barrido). El primero representa mejor la geometría de los geo –
objetos, pero el segundo es mejor para la integración de los datos.

La presentación de los datos espaciales o geo – información en pantalla es


la funcionalidad más explotada de un SIG y es normal que los
exploracionistas observen la distribución de los datos en pantalla antes de
iniciar su análisis cuantitativo. Igualmente interesante es contrastar estos
patrones con los de otros datos como el patrón de fracturas o de las zonas
de alteración hidrotermal. Sin embargo, no todos los tipos de mapas más
útiles pueden ser elaborados mediante los softwares incluidos en la
110

mayoría de los SIG´s y deben ser obtenidos mediante “exportación de los


datos”.

6.2 Análisis Exploratorio de Anomalías Geoquímicas

A este respecto conviene recordar los conceptos básicos: a) Entendemos


por varianza y por desviación estándar las clásicas medidas de dispersión
estadística. La varianza se define como la suma de las desviaciones de las
medidas obtenidas en una población respecto a su media o valor central,
elevadas al cuadrado, y dividida por el número de observaciones, y la
desviación estándar como su raíz cuadrada. Entendemos por mediana el
valor central de una población. La desviación absoluta de la mediana (MAD)
se calcula haciendo un listado de la desviación entre cada valor de la
población y la mediana, y ordenándolos por magnitud. La mediana de ese
listado corresponde al valor de MAD. Se considera un indicador “robusto”
de dispersión, por cuanto está “protegido” del efecto de los valores
extremos. Otro indicador robusto es el IQR, que es la diferencia entre el
percentil 75 y el 25 de la población de datos.

En términos básicos, la principal interrogante de la prospección geoquímica


(P.G.) respecto a una muestra cuyo contenido en un elemento es mayor o
menor que el valor de fondo, es si ese contenido está o no dentro del rango
normal de variación en torno a ese valor central. A ese respecto, la
desviación estándar de la población (DE) es un parámetro principal. En
principio, un 68% de las muestras de una población ideal están
comprendidas entre M ± 1DE, así como 95% para M ± 2DE y 99,7% para M
± 3DE.
111

En consecuencia, mientras más DEs agreguemos al valor central para


definir el umbral, más probable es que las muestras pertenezcan a una
población distinta, la que se espera pueda provenir del efecto de un
yacimiento oculto. Sin embargo, la realidad es mucho más compleja, a
menos que el área muestreada sea perfectamente homogénea en términos
litológicos, estructurales, pedológicos, topográficos, etc., lo cual ocurre
raramente. Lo normal es que sus heterogeneidades den a lugar a más de
una población o a sub – poblaciones, lo que resta rigurosidad al estricto
análisis estadístico y complica la discriminación si el efecto del posible
cuerpo mineralizado es relativamente débil.

El problema reseñado, la heterogeneidad de las muestras comparadas,


concierne a un aspecto esencial, frecuentemente ignorado, respecto a la
posibilidad de aplicación científica estricta de la estadística a la prospección
geoquímica. Más realista sería enfrentar la estadística con un criterio
pragmático: no se pueden “chequear” todas las posibles áreas que
presentan algún interés y en consecuencia la estadística nos ayuda a
priorizar. Siempre es posible que sea desechada un área de débil anomalía,
que corresponda a un depósito importante pero profundo o que por otra
causa generó una débil anomalía. Tal vez otro la explore años después y
descubra aquello que nuestra priorización dejó de lado.

Por razones de simplicidad, el criterio de considerar como posiblemente


anómalas aquellas muestras situadas fuera del rango M ± 2DE se ha
utilizado clásicamente. El procedimiento normal implica establecer primero
la naturaleza aparente de la distribución, y si esta es “de aspecto log
normal” transformar sus valores a logaritmos y calcular su media y su
desviación estándar. Realizado el cálculo se dejan fuera provisoriamente
las muestras situadas fuera del rango y se calcula nuevamente la M y la
DE, para establecer definitivamente el rango M ± 2DE.
112

Aparte del hecho de que normalmente el conjunto de datos contiene más de


una población, los datos geoquímicos no son espacialmente independientes
(concepto que es justamente la base de la geoestadística). A ello se agrega
el hecho de que, pese a la transformación logarítmica de los datos, sólo se
logran aproximaciones a una distribución normal (y si hay más de una
población “normal” la aplicación de criterio M ± n DE es muy poco riguroso).

A lo anterior se agrega el hecho de que, aún en el caso que exista una


población normal y otra “anómala” producto del efecto de un yacimiento,
ellas pueden superponerse en parte y el criterio M ± n DE es insuficiente
para discriminar estrictamente a cuál de los pertenece una muestra (si a la
parte más alta de la población “normal” o la más baja de aquella debida al
efecto de yacimiento).

Reiterando lo antes señalado: si bien la exploración geoquímica y la


exploración minera en general procuran utilizar con rigurosidad los
conceptos y métodos de las disciplinas geocientíficas y de las matemáticas
y ciencias básicas en las que se apoyan, su tarea es esencialmente
pragmática. En efecto, se trata de encontrar nuevos yacimientos y de
realizar esta tarea con eficacia y eficiencia. Eso implica la necesidad de
discriminar, de manera de dirigir los esfuerzos hacia las áreas más
promisorias, dejando de lado otras que pueden tener cierto interés pero se
sitúan en un rango más bajo de prioridad. Con tal fin, es razonable utilizar la
estadística y otros métodos matemáticos con menor rigurosidad, pero con
conciencia de ello.

La Fig. 3.1 muestra que la distribución de los contenidos de Fe


representados en la Fig. 1.1 claramente se desvía de la normalidad y
consiste al menos de dos poblaciones. Como ocurre con los elementos
mayores (que en general presentan distribución normal) su distribución
tampoco se adecúa a una de tipo log normal (línea recta en 3.2B), aunque
113

el gráfico 3.2A ayuda a resaltar la presencia de dos poblaciones. En casos


como éste (dos poblaciones “normales” mezcladas) no tiene sentido usar el
criterio M± n DE. Nota: cuando escribimos “normal” queremos decir “no
anómalas”, en cambio normal sin comillas alude a la distribución gaussiana.

(Carranza, p. 52)

(Carranza, p. 52)

En el caso más general de las distribuciones “de tipo log normal” que
presentan los elementos en trazas (vale decir aquellos cuya concentración
114

en rocas de la corteza terrestre es inferior a 0.1%), el uso de diagramas de


tipo log – probabilidades sugerido por Lepeltier es útil, especialmente para
visualizar la o las poblaciones presentes, así como sus límites y
características.

(Levinson, p. 471)

Los diagramas utilizados por esa metodología representan la distribución


porcentual acumulada en el eje vertical y las concentraciones que definen
las clases o límites de tales concentraciones en el eje horizontal. La escala
del eje vertical es probabilística (vale decir, sus intervalos son estrechos al
centro y se expanden hacia los extremos), mientras la del eje horizonte es
logarítmica. Una población log normal simple da lugar a una recta, mientras
rectas con quiebres de pendientes implican dos o más poblaciones.
115

(Levinson, p. 470) (Levinson, p. 540)

(Lepeltier, p. 541) (Lepeltier, p. 545)


116

El análisis exploratorio de datos AED es un enfoque propuesto por Tukey


(1977, en Carranza,2009) que tiene por objetivo: a) lograr la mejor
comprensión posible respecto al sentido de una serie de datos b) descubrir
su “estructura” c) definir variables significativas en ella d) determinar
“outliers” (OL) y anomalías en la serie e) sugerir y probar hipótesis f)
desarrollar modelos “prudentes” y g) identificar el mejor tratamiento e
interpretación posible de los datos. Nota: se entiende por “outliers” valores
que escapan a la distribución encontrada. Pueden corresponder a errores
analíticos, contaminación de la muestra, fallas de transcripción de
resultados, etc., pero también a causas naturales.

A diferencia de la secuencia clásica de análisis estadístico, que es:


problema  datos  modelo  análisis  conclusiones, o de la secuencia
de análisis probabilístico: problema  datos  modelo  análisis de
distribución  conclusiones, la secuencia de AED es: problema  datos 
análisis  modelo  conclusiones. Vale decir, el modelo considera un
análisis previo de los datos.

El objetivo de fondo del AED es reconocer patrones de datos


“potencialmente explicables” a través de herramientas estadísticas y
gráficas distintas de las usadas en las aplicaciones estadísticas clásicas. Se
la estima como una metodología más “robusta” por cuanto es sólo
ligeramente afectada por un pequeño número de errores importantes o por
un gran número de pequeños errores. Tampoco la afecta mayormente la
existencia de OLs.

La estadística descriptiva y la gráfica empleadas en AED se basan en los


datos mismos, no en su modelo de distribución (normal, log normal, etc.) y
entregan definiciones sólidas de los parámetros estadísticas univariados y
de los OLs.
117

El énfasis del AED está en la interacción entre el conocimiento humano y la


computación bajo la forma de gráficos estadísticos que permiten al usuario
percibir la conducta y estructura de los datos. Entre ellos son comúnmente
usados las “trazas de densidad”, los J.D.S y los boxplots (diagramas de
cajas), los cuales facilitan su presentación conjunta y se utilizan
acompañados de un histograma (Fig. 3.3).

(Carranza, p. 54)

Lo anterior es importante, porque la impresión obtenida de la información


univariada a través de un histograma está bajo la influencia de la elección
del número de clases definido en su construcción, efecto que se mitiga a
través de la gráfica del AED. A diferencia del histograma, los tres gráficos
del AED pueden indicar rápidamente las anomalías en una serie de datos
univariados.

Un gráfico de trazas de densidad (TD) se construye ploteando los datos en


posiciones al azar a través de una banda estrecha ortogonal al eje de los
datos univariados. Puesto que su construcción no está basada en clases,
entrega información adicional respecto a los datos (densidades, gaps, OL,
etc.).
118

Existen dos tipos de boxplots o diagramas de cajas. El tipo ordinario


consiste en un rectángulo vertical cuyos límites superior e inferior están
dados por los valores que encierran los dos cuartiles centrales. Dos líneas
verticales trazadas hacia arriba y hacia abajo del rectángulo indican el valor
superior e inferior respectivamente de la población y una línea horizontal en
el rectángulo señala el valor de la mediana. En este caso, los OLs quedan
incluidos dentro del rango indicado por el diagrama.

En el caso de los boxplots estandarizados, el proceso inicial de su


construcción es el mismo. Sin embargo, después de construido el
rectángulo, se establecen dos límites superiores y dos inferiores mediante
el siguiente procedimiento: 1. Se calcula la diferencia entre los límites de los
cuartiles centrales Q3 – Q1 = IQR. 2. Se multiplica IQR por 1.5 y por 3.0
respectivamente. El primer valor determina el límite interno inferior (LIF) y el
segundo el límite externo inferior (LOF). Se verifica qué valor es mayor, si el
valor mínimo de la población o el determinado por la resta a Q1 de IQR x
1.5. La cifra más alta pasa a ser el límite inferior de la población (y por lo
tanto de respectiva línea horizontal o whisker) 3. Se repite el mismo
procedimiento para la parte superior de la población. En este caso se elije
el mínimo entre el valor mayor de la población y el determinado por la suma
a Q3 de IQR x 3.0. Se entiende que los valores situados por debajo y por
encima de los límites los “whiskers” corresponden a OLs.

Ejemplo: consideremos la serie siguiente de valores: 15, 20, 30, 40, 50, 60,
70,100, 120, 130, 180, 200, 210, 215, 300, 320, 60, 370, 890, 1000, 1020,
1200, 1500, 1900, 2500, 2800, 3040, 6250, 9100, 12600 y 12900. La
mediana de la población es 320, Q3 es 1900, Q1 es 100 y la diferencia Q3
– Q1 = IQR = 1900 – 100= 1800. Por lo tanto, LIF = 1800 x 1,5 = 2700,
LOF = 1800 x 3 = 3600.
119

Para encontrar el límite inferior elegimos entre 15 y (100 – 2700) = -2600.


Naturalmente se elije 15. Para encontrar límite superior se elije el valor
menor entre 12900 y 1900 + 1800 x 3 = 7300; que corresponde a 7300. En
consecuencia 3 valores superiores de la serie: 9100, 12600 y 12900 son
considerados como OLs. En cambio, no hay Ols en la parte inferior de la
serie de valores. La Fig. 3.4 (que está invertida) representa gráficamente
los conceptos reseñados.

(Carranza, p. 58)

A diferencia del tipo más sencillo de diagramas de cajas, en este caso la


longitud de las líneas, verticales superior e inferior respecto a la caja se
determinan algebraicamente considerando el valor de IQR, en vez de
utilizar simplemente los valores superior e inferior de la población
representada. Naturalmente, el mismo diagrama puede ser utilizado
también con datos transformados a sus logaritmos [Fig. 3.4]. Se entiende
que un merito principal de este diagrama radica en el manejo de los OLs,
que de otra manera podrían “contaminar” los datos.
120

Al usar este método, el umbral puede ser definido como el valor del UIF(Q1
+ 1.5 IQR) o buen del UOF ( Q1+1.5Q3). Otro procedimiento es utilizar la
mediana + 2MAD (equivalente a la desviación estándar) MAD = mediana
[(Xi – mediana Xi)].

Cuando los datos observados muestran la presencia de poblaciones


múltiples (como en el caso de la Fig. 3.3), el análisis de un único set de
valores es inadecuado para reconocer anomalías que pueden estar
asociadas con poblaciones individuales. Por ejemplo, en un terreno pueden
existir afloramientos de calizas y basaltos, cuyos contenidos normales de
cobre son diferentes (por ej., medias del orden de 20 y 100 ppm
respectivamente). En consecuencia un valor de 140 ppm puede ser
anormal en las calizas, pero no en los basaltos.

La Fig. 3.5A ,muestra diagramas de cajas para los contenidos de Fe en


suelo que consideran el tipo de roca. Así, un contenido de Fe de 5% está
bajo el rango de los suelos formados en basalto, pero muy por encima del
correspondiente a suelos formados sobre calizas y es normal es normal
para suelos desarrollados sobre filitas.

(Carranza, p. 58)

Estos diagramas pueden ser presentados en forma estandarizada (ver


Fig.3.5B).En este caso, los valores ploteados en el eje vertical
121

corresponden a: Zij = Xij - Ẋ j / SDEVj, siendo SDEV, la DE de los valores de


Xij. Con el objeto de evitar el efecto de OLs en la DE, se recomienda utilizar
los criterios de la AED, reemplazando la fórmula de estandarización por: Zij
= Xij - medianaj / IQRj.

También se han desarrollado mapas geoquímicos con símbolos apropiados


a la representación de información procesada conforme al AED, con
intervalos de clase “robustos” obtenidos mediante el método antes
reseñado (boxplots), que utilizan símbolos como los presentados en la Fig.
3.4 (círculos y cruces). Un mapa de este tipo se presenta en la Fig. 3.6, el
cual distingue los tres tipos de roca presentes en la Fig.1.1, cuyos
parámetros aparecen además bajo la forma de boxplots estandarizados.

(Carranza, p. 61)
Un método particular de la clasificación y mapeo de dato según AED y el
uso de boxplots estandarizados es que se puede lograr una representación
significativa de la información sin contar con un conocimiento a priori de los
122

factores que influencian su variabilidad. La representación puede efectuarse


también asignando a las clases diferentes tonos de gris.

Al comparar los mapas A y B de la Fig. 3.6 surge el aspecto más


importante. En efecto, A utiliza las mismas clases en todo el mapa, sin
considerar las distintas litologías. En cambio, las clases en B están
definidas utilizando datos estandarizados, de manera que un mismo valor
puede caer dentro de distintas clases según sea la litología a la que
pertenezca.

El AED requiere contar con una base de datos con sus coordenadas,
atributos geoquímicos y otras informaciones pertinentes, como litología,
zonas de alteración hidrotermal, etc. Naturalmente la topografía y
geomorfología son también importantes (en particular lo relativo a las
pendientes, por su influencia en las características de los suelos). Por otra
parte se requiere que exista inter – operatividad entre el software para
realizar un AED y el SIG para el manejo espacial, interacción de la
información y generación de mapas.

Las operaciones de consulta espacial en un SIG son útiles para subdividir


un set de datos geoquímicos conforme a los atributos espaciales de las
variables (como litología) que controlan la variabilidad química. Tanto la
clasificación de los datos geoquímicos como la estandarización de los datos
(boxplots, etc.) conforme al AED pueden ser realizados en un SIG, ya sea
mediante tablas de atributos o mapas. La Fig. 3- 7 muestra una operación
de enlace simple (coordenadas, litología, contenido de Fe) expresada en
una tabla de cálculo.
123

(Carranza, p. 64)

Los conceptos reseñados se ejemplifican a través de un caso de estudio,


ilustrado por las Figs. 3.9 a 3.21 y por las tablas 3-II a 3-VIII. El caso
corresponde a un distinto aurífero de Filipinas, Aroroy, ubicado en el NW de
la isla de Masbate. La región tiene relieve moderado y vegetación arbustiva,
con precipitaciones de 1500 mm/año. La litología incluye conglomerados
andesítico dacíticos de edad eocena – oligocénica, una intrusión diorítíca
miocena, que instruye a esos conglomerados y a las secuencias de
areniscas (Sambulawan, así como a tobas andesíticas que recubren a los
conglomerados (F. Mandaon) y a las areníscas. También hay cuerpos
andisíticos subvolcánicos pliocenos que instruyen a las unidades anteriores
(Andesita Nabongsoran). A estos últimos se asocia la mineralización
epitermal aurífera de alto contenido de azufre del distrito, que se presenta
al menos en 13 depósitos de Au.
124

En el estudio descrito por Carranza se utilizaron 135 de 2200 muestras


analizadas por Cu, Zn, Ni, Co, Mn y As, en un área de 101 km2 ,con una
densidad de muestreo de sedimentos aluviales de 1 muestra por 1 – 2 km2.
El análisis de As en 40 muestras se situó bajo el límite de detección de 0.5
ppm y se les asignó 0.25 ppm.

La Fig. 3.9 señala la posición de las muestras y de los depósitos del área
sobre el fondo litológico – estratigráfico y la Fig. 3.10 muestra los
histogramas de distribución acompañados de BP estandarizados. Debido a
la asimetría de la distribución, los valores de la media -2DE son
mayormente negativos, no así los de la mediana -2DE. Debido a lo primero,
se estimó que definir el umbral como la media +2DE sería equivocado y
que era necesario introducir transformaciones de los datos.

(Carranza, p. 65)
125

(Carranza, p. 66)

En la Fig. 3 – 11 y se observa el resultado de la conversión de los datos a


su forma logarítmica (cifras tabuladas en T. 3.I). Aunque la simetría de la
distribución mejora claramente, la distribución logarítmica tampoco es
propiamente normal. Ello se muestra en la Fig. 3.12, donde se aparta de las
líneas rectas que la representan propiamente (aunque es indudablemente
el mejor ajuste de D, E y F respecto a los datos no transformados de A, B y
C). Las fallas de ajuste se encuentran mayormente en los valores extremos
y afectan principalmente al As. En todo caso, ahora sí se podría aplicar el
criterio M+2DS para definir el umbral de Cu y Mo.
126

(Carranza, p. 67)

Sin embargo, todos los conjuntos de datos son multimodales e indican la


presencia de al menos dos poblaciones (Figs. 3.10 y 3.11). Desde luego, la
explicación más probable de esta característica es la presencia de distintas
litologías en el área muestreada. Al respecto, los diagramas de cajas (BP)
estandarizadas de la Fig.3.13, aplicados a los valores transformados
(logarítmicos) ilustran la diferente distribución de los elementos en la diorita
127

y en los conglomerados dacítico – andesíticos. Nótese al respecto como los


OLs presentes en los terrenos dioríticos pasarían desapercibidos en los
datos globales, puesto que se encuentran al nivel de los contenidos
“normales” de los conglomerados.

(Carranza, p. 68)

(Carranza, p. 69)
128

Por otra parte los valores “censurados” (vale decir, aquellos asignados
como la mitad del límite de detección) deben ser removidos, en particular si
“forman una población”, porque tienden a dificultar el reconocimiento de
OLs (Fig. 3.4).

(Carranza, p. 70)

Es importante “observar visualmente” la distribución de los datos referentes


a cada elemento para determinar si su tratamiento matemático conduce a
definir patrones espaciales significativos. Para el área estudiada los mapas
de la Fig. 3.15 muestran el fuerte control de la litología en la distribución
espacial de los valores de la mayoría de los elementos, mientras la
presencia de depósitos de Au implica controles adicionales para la
distribución espacial de Mn y As. Al respecto, en el terreno se observa que
las mineralizaciones de Au están asociadas a vetas silicificadas recubiertas
de Mn, que cortan los conglomerados dacítico – andesíticos. También se
observa que los valores bajos y censurados de As se sitúan sobre
afloramientos de la diorita.
129

(Carranza, p. 70)

(Carranza, p. 71)
130

La Tabla 3 II presenta los sets de datos transformados logarítmicamente


para la diorita y el conglomerado, y la Tabla 3 III los valores de umbral
definidos mediante: a) la media +2DE b) la mediana +2MAD c) los BPs
estandarizados. En los tres casos se consideran los datos no –
transformados y transformados logarítmicamente. Al comparar los umbrales
resultantes se observa que los entregados por el procedimiento c son los
más exigentes y que se les aproximan los calculados por el procedimiento
a, siendo la discrepancia mayor la correspondiente al As, cuando se
incluyen los “datos censurados”.

(Carranza, p. 72)

Consecuencia de lo anterior, resultan menos muestras anómalas cuando se


utiliza el tercer procedimiento. Al observar la relación espacial entre los
depósitos de Au y las posibles muestras anómalas de As (inexistentes
según el criterio de los BPs) se observa que la mediana +2MAD se
comporta mejor que la media +2DE (aunque sólo en la parte norte del
mapa) (Fig. 3.16). Para otros elementos, el resultado es diferente. Lo
señalado muestra la importancia de combinar el tratamiento matemático
con la inspección visual de la distribución espacial de los datos. En el fondo,
no debemos olvidar que la exploración minera es más un arte que una
131

ciencia, que lo empírico tiene gran importancia y que la magnitud y la


“heterogeneidad” de lo desconocido no permite aplicaciones “absolutas” del
enfoque estadístico.

(Carranza, p. 73)

(Carranza, p. 74)
132

En la Tabla 3. IV se expone el resultado de repetir el procedimiento anterior,


pero separando ahora la diorita del conglomerado volcánico. Como en la
Tabla 3.III, los umbrales más bajos son los definidos por la mediana
+2MAD. Respecto a As, si se excluyen los datos “censurados”, los tres
métodos dan umbrales “razonables”. Al observar la relación de las muestras
“anómalas” resultantes respecto a la presencia de yacimientos conocidos,
la mediana +2MAD entrega la mejor “predicción”.

Con el objetivo de establecer si las relaciones entre los distintos elementos


analizados pueden ser útiles para “predecir” la presencia de los yacimientos
de Au conocidos, se utilizaron diagramas del tipo “scaterplots” (SP) que
muestran gráficamente esas relaciones. En cierto modo son equivalentes a
los coeficientes de correlación, aunque más objetivos y directos. Para su
utilización es necesario excluir previamente los datos “censurados”: La Fig.
3.18 presenta estos diagramas.

(Carranza, p. 75)
133

(Carranza, p. 76)

Al respecto, Carranza sostiene que la inclusión de valores “censurados”


lleva a interpretaciones equivocadas sobre las relaciones entre elementos,
como también ocurre con aquellas que excluyen los valores censurados
pero no transformar los datos a logaritmos (cuando dicha transformación es
necesaria). Así, en el caso de los cuatro SPs de la Fig. 3.18, sólo el SP (D)
sería propiamente correcto. Justamente, se observa que en ese SP hay un
mayor grado de correlación entre los distintos elementos considerados. Tal
correlación visual tiene su complemento en los coeficientes de correlación
presentados en la Tabla 3V, significativos para un nivel de probabilidad
0,01.
134

(Carranza, p. 77)

(Carranza, p. 77)

Es importante procurar comprender la razón de ser de las correlaciones


entre los distintos elementos químicos. Ellas pueden obedecer a razones de
afinidad geoquímica y similitud de electronegatividad y radio iónico, como
es el caso de Co – Ni, K – Rb, Fe – V, etc. También pueden expresar la
composición de un fluido hidrotermal, que contiene elementos
químicamente muy diferentes, como la que pueden presentar, Au y As. En
ambos casos, se trata de correlaciones asociadas a procesos petrológicos
o hidrotermales endógenos. Otra posibilidad es la de correlaciones de
origen exógeno, como la que se produce entre Mn y otros elementos
metálicos (Cu, Zn, etc.) que son captados del agua de ríos, océanos, etc.,
por óxidos hidratados de Mn, que se comportan como geles sorbentes. Tal
proceso se denomina “scavenging” en inglés.
135

En el caso de estudio, Carranza distingue una asociación Cu – Ni – Co de


origen litológico, otra de As – Ni – Cu relacionada con la mineralización
metálica (en particular en las andesitas) y una tercera de Mn – Zn – Co, que
atribuye al proceso de “scavenging” (cuya traducción al castellano no es
apropiada).

Los métodos matemáticos multivariados más utilizados son: Análisis de


Componentes Principales (PCA), Análisis Factorial (FA), Análisis de
Clusters (CA), Análisis de Regresión (RA) y Análisis Discriminante (DA). De
ellos, PCA y FA son útiles para estudiar las relaciones entre elementos, que
pueden pasar desapercibidas en el conjunto de la información de
multielementos analizada. En cambio, CA es valioso para estudiar las
relaciones de “proximidad composicional” entre las distintas muestras.
Finalmente, RA y DA son útiles tanto para detectar relaciones entre
elementos químicos como entre muestras.

PCA y FA son técnicas muy similares, que sin embargo presentan bases
conceptuales y matemáticas diferentes. Ambas parten de la matriz de
correlaciones. Sin embargo, en PCA, los “componentes principales” (PCs)
son determinados sin realizar suposiciones estadísticas, de manera de dar
cuenta de la mayor parte de la varianza observada de las variables
consideradas.

El concepto de PCs se puede explicar a través de una analogía químico


mineralógica. Supongamos que no supiéramos nada respecto a las
plagioclasas, pero dispusiéramos de cientos de análisis de distintos
cristales de plagioclasa. Si procesáramos la información mediante PCA,
encontraríamos que la varianza química total puede ser explicada mediante
dos PCs, correspondientes respectivamente a las composiciones la albita y
la anortita.
136

En el caso del FA se define un número de “factores comunes”, sobre la


base de un modelo estadístico, con algunos prerrequisitos, para dar cuenta
del máximo de las inter correlaciones entre las variables. En consecuencia,
el PCA está orientado hacia el entendimiento de la varianza, y sus
resultados son un número de PCs no correlacionados que dan cuenta (en
distinto porcentaje) de la varianza total. En cambio, en el FA, orientado
hacia la correlación, el resultado es un número de factores comunes no
correlacionados que no dan cuenta de la varianza total, pero si la dan de la
máxima varianza común de todas las variables.

En el caso de PCA, el primer PC da cuenta de la mayor proporción de la


varianza total y es seguido por otros PCs que dan cuenta del resto en
porcentajes decrecientes (ver Tabla 3 VII).

(Carranza, p. 80)

El uso del PCA es favorable para reconocer las variaciones entre elementos
que reflejan el efecto de distintos procesos geoquímicos en el área de
estudio. A su vez, el FA, lo es para reconocer las relaciones entre
elementos relacionadas con los diferentes procesos geoquímicos en el área
de estudio. En síntesis, en el primer caso el énfasis está en la explicación
137

de la varianza y el segundo en lo referente a las correlaciones entre los


elementos.

La aplicación del PCA en el distrito estudiado, utilizando valores


transformados logarítmicamente y excluyendo los valores censurados (As)
se presenta en la Tabla 3 VII. EL factor PC 1, que representa una
asociación Co – Ni – Zn – Mn – As – Cu da cuenta del 58% de la varianza
total. Seguramente responde tanto a factores litológicos como químicos. El
segundo factor, PC 2, que asocia a Cu – Ni (control litológico) y Mn – Zn
(“scavenging”) explica otro 15%. PC3, con 11% corresponde a una
asociación dominada por As (mineralización) y Co – Ni (control litológico).
Finalmente PC4, PC5 y PC6 tienen importancia menor y su explicación es
incierta.

Consecuencia de lo antes descrito, PC3, aparece como especialmente


importante por su relación con la mineralización de oro. La participación de
PC3 en la varianza, medida por los respectivos puntajes (scores),
procesada estadísticamente mediante boxplots estandarizados y
representada en un mapa, se presenta en la Fig. 3.19, junto con la
distribución de los yacimientos de oro conocidas en esa área.

(Carranza, P. 80)
138

Carranza sostiene que en situaciones de este tipo, el PCA es más


adecuado que el FA, considerando su naturaleza “exploratoria” (respecto al
carácter más “confirmativo” del segundo). PC 3 da cuenta al menos de un
11% de la varianza total y representa dos asociaciones opuestas (ver
signos + -), una dominada por As, relacionada con procesos de
mineralización, y la otra por Co – Ni, que refleja control litológico.

Si sólo se consideran las rocas andesíticas, se llega a los valores


presentados en la Tabla 3 – VII, donde la relación opuesta Cu – As se
acentúa y PC 3 representa un 12.5% de la varianza. La diferencia entre el
factor PC 3 de primer cálculo respecto a segundo (con diferenciación
litológica) se observa comparando los mapas de la Fig. 3.19 con los de las
Figs. 3.20C y 3.20D.

(Carranza, p.81)
139

(Carranza, p. 82)

(Carranza, p. 83)
140

En la Fig. 3.19 hay anomalías fuertes de As asociadas a los dos depósitos


de Au de la parte sur, las que no aparecen en las Figs. 3.20C y 3.20D. Sin
embargo, las anomalías de As representadas por PC 3 en estos últimos
muestran fuerte asociación con la mayoría de los depósitos conocidos y son
por lo tanto significativas.

Finalmente, no hay que olvidar que aquí no se trata de realizar ejercicios


estadísticos rigurosos, sino de encontrar nuevos yacimientos. En
consecuencia, conviene combinar los resultados entregados por los
distintos métodos o sus variantes, de manera de obtener mapas de
“prospectividad” que incluyan las distintas posibilidades ofrecidas por
anomalías razonablemente significativas. Posteriormente, se procurará
comprobar su importancia, priorizando entre ellas cuando sea necesario por
razones de tiempo o presupuesto.

6.3 Modelos de Prospectividad Mineral Basados en el


Conocimiento.

El mapeo de la “prospectividad mineral” (PM) es útil en la exploración de


nuevos terrenos o de terrenos menos explorados en los cuales hay pocos
(o ningún) yacimientos del tipo buscado. Esto, a diferencia de los distritos
ya conocidos (“greenfield” contra “brownfield), donde hay información
abundante respecto a la relación entre rasgos geológicos, geoquímicos,
geofísicos, etc., y la presencia de depósitos de la clase explorada.
Naturalmente, estas relaciones sirven como base inicial de las
exploraciones greenfield y pueden ser formalizadas o estructuradas a
través de la creación de “mapas de evidencias” y el uso de “puntajes”.
Estos permiten definir clases de menor a mayor P.M., basados en el juicio
experto respecto al grado de asociación entre las evidencias y su probable
relación con depósitos minerales.
141

El proceso descrito puede utilizar mapas de evidencia (EM) binarios


(positivo/negativo) o de “multi clases” dependiendo de: a ) el grado de
aplicabilidad del conocimiento obtenido y b) el grado de exactitud de la
información relativa al área en exploración. Si uno o los dos factores son
estimados como altos, se recomienda aplicar multi – clases, si no es así, es
mejor usar EM binarios.

A continuación se revisarán los conceptos de diferentes técnicas de


modelación utilizadas en la generación de mapas de PM, que utilizan EM
binarios o multi – clases, mostrando su aplicación en el mismo distrito
(Aroroy, Filipinas) del estudio de caso antes descrito. Para tal fin se asume
que se conoce poco respecto a los controles geológicos o a sus
asociaciones con los yacimientos de oro del distrito. En consecuencia se
utiliza la información obtenida en otros distritos conocidos que presenten
características geológicas similares.

En el caso de estudio (Aroroy) se consideran los siguientes criterios como


evidencia favorables:
o Proximidad o fracturas de rumbo NNW.
o Proximidad a fracturas de rumbo NW.
o Proximidad a intersecciones de fracturas NNW y NW.
o Presencia de anomalías geoquímicas (multi elementos).

Estos criterios se operativizaron en términos de: a) distancias a las fracturas


(NNW y NW) y a sus intersecciones b) puntajes de los componentes
principales PC2 y PC3 obtenidos de la geoquímica de los sedimentos
fluviales. Para los primeros parámetros se estableció un umbral de distancia
de 0,35 km respecto a las fracturas NNW, de 0.9 km respecto a las NW y
de 1 km en torno a sus intersecciones. En cuanto a los puntajes de los PCs,
el umbral fijado para los “scores” fue de 0.34.
142

Lo anterior implica que el modelo conceptual de controles de mineralización


seleccionados, más la asignación de umbrales para cada criterio, es
efectivamente un “modelo prescriptivo”, cuya aplicación en áreas
específicas da lugar a un “modelo predictivo” (MP). Su efectividad puede
ser evaluada contrastando sus predicciones contra los poco casos de
depósitos conocidos en el área de aplicación (eso es legítimo, puesto que
se entiende que los criterios utilizados y, los respectivos umbrales fueron
establecidos en otra área). Esto permite establecer una “tasa de predicción”
para el mapa de prospectividad mineral. Lo anterior no constituye
propiamente una “calibración del modelo” (a menos que se disponga de
suficientes yacimientos conocidos para realizarla, como sería el caso de un
distrito donde se ha efectuado bastante actividad minera pero pocos
estudios geológicos, geoquímicos, etc.).

Las operaciones vinculadas a SIG en las tareas descritas incluyen


recuperación de información, reclasificación de ella y confección de mapas
digitales superpuestos, para integrar la información. En el caso de criterios
de “campo continuo”, como las distancias, se puede optar por una
clasificación binaria (menor o mayor que el umbral definido) o bien una multi
– clase (por ejemplo, si el rango de variación es 1200, en 6 clases de
doscientos). Entonces se asignan los respectivos puntajes. En todo caso,
corresponderá al responsable del modelo asignar puntajes así como
“pesos” a cada criterio. Finalmente, será necesario establecer funciones
computacionales adecuadas para representar las interrelaciones o
interacciones entre los controles geológicos, geoquímicos, etc., y su
relación predictiva con las mineralizaciones, de modo que:
Mapa de prospectividad = f (Mapa de evidencias)

Los procedimientos basados en SIG para crear mapas de evidencias


binarios o multiclases utilizan información de campos continuos o discretos.
143

Los puntajes por clase son asignados y almacenados en tablas de


atributos, vinculadas con los mapas de evidencias. En el caso de campos
continuos de variación, por ejemplo, distancia a una intersección de fallas,
la evidencia binaria podría corresponder a la pregunta: ¿Hay
intersecciones a menos de 1km.?, mientras que la “multi clases”
establecería intervalos de distancia. En el primer caso, la información sería
1 o 0. En el segundo, la posición en el rango daría lugar a un puntaje. En el
caso de variación discontinua, como sería el de los contenidos metálicos
en muestras del drenaje, la información binaria sería 1: sobre el umbral; 0:
bajo el umbral.

La evaluación por “validación cruzada” de un mapa de prospectividad


mineral, incluye varias etapas. Ellas se inician con la construcción de un
histograma de clases de “valor prospectivo”, que se traducen en el número
de pixeles, los que determinan los “grados de gris”, y culmina con su
comparación con la ubicación de los depósitos conocidos y finalmente con
un gráfico que muestra el grado de “productividad” representado en el
mapa.

En el caso de la modelación con mapas de evidencias binarias se utilizan


sólo 2 clases de puntaje (1 y 0). El positivo se asigna a la presencia de
rasgos geológicos que presentan relación espacial con depósitos del tipo
buscado. El negativo (o), a la ausencia de los mismos rasgos, sin que
existan puntajes por situaciones intermedias. Sin embargo, esto presenta
dificultades en el “mundo real” (que se adecúa mejor a los “tonos de gris”).
En todo caso, al utilizarlo, se debe hacer con cierta amplitud. Por ejemplo,
la posición de la intersección de dos fallas debería corresponden al área de
un círculo, no a un punto (puesto que si no es vertical la línea de
intersección se desplaza en profundidad). Esto, con mayor razón en el
caso de las anomalías geoquímicas secundarias, que frecuentemente
144

están desplazadas respecto a su fuente. Estos conceptos se explicitan en


la Fig. 7.3.

(Carranza, p. 195)

La utilización de mapas de evidencias binarias puede ser perfeccionada a


través de metodologías basadas en la lógica Booleana. Aquellos criterios
positivos (TRUE, puntaje 1) se oponen a los negativos (FALSE, puntaje 0)
de manera que el mapa sólo contiene 1s o 0s. Estos mapas se combinan
generando “redes de inferencia”; que utilizan operadores como “y” y “o” (la
letra). Se utiliza el primero cuando se estima que al menos ambos criterios
deben estar presentes (por ejemplo, uno estructural y uno litológico), y el
145

segundo cuando basta la presencia de uno de ellos. Esto se ejemplifica en


la Fig. 7.4.

(Carranza, p. 197)

El mapa final de prospectividad para yacimientos epitermales de oro en el


caso de estudio (distrito, Aroroy) basado en los criterios estructural y
geoquímico del diagrama 7.4, se presenta en la Fig. 7.5. Contrastando su
resultado con la posición de los depósitos conocidos, se concluye que el
método empleado fue capaz de predecir las áreas de ocurrencia de 5 de
los 12 depósitos conocidos.
146

(Carranza, p. 198)

Carranza describe una serie de refinamientos de la metodología descrita,


los que pueden mejorar la capacidad predictiva de los mapas basados en
información binaria y conducen a establecer “grados de prospectividad”
como se muestra en la Fig. 7.7. En tal situación, la posición de los
depósitos es prevista en todos los casos, pero ellos se sitúan en tonos de
gris decrecientes, que al fin de cuentas ocupan la mayor parte del mapa, lo
que resta al método su valor selectivo.
147

(Carranza, p. 205)

(Carranza, p. 206
148

(Carranza, p. 208)

(Carranza, p. 209)
149

En contraposición del enfoque altamente formal de Carranza, es


interesante considerar la aproximación opuesta expresada por Wood
(2010), que tiene el peso de su amplia y exitosa experiencia como
exploracionista (BHP y Newcrest, por 42 años): “En este proceso (integrar
y visualizar la información) vale la pena usar nuestra propia capacidad
mental, más bien que depender de la tecnología. La geología es una
ciencia observacional y algunas cosas en exploración se hacen mejor
utilizando menos tecnologías avanzadas. Por ejemplo, uno puede
visualizar mejor la geología de un área coloreando a mano un mapa
geológico sin necesidad del auxilio del computador. De igual manera,
cuando se busca identificar anomalías en el conjunto de la información
geoquímica, puede resultar una mejor interpretación del uso de nuestros
propios ojos y cerebro que del uso de un paquete estadístico”.

Las dos aproximaciones corresponden a dos maneras de enfocar la


exploración minera, así como otras actividades humanas, tales como la
medicina o la docencia. Uno es el enfoque científico, donde ciencia y
tecnología son los ingredientes básicos. El otro enfoque es considerarla
como un arte, donde ciencia y tecnología sirven de apoyo a decisiones
basadas en buena parte en la experiencia e intuición (vale decir en
razonamientos no formales, a menudo basados en “pensamiento lateral”).
Es una antigua discusión, en la que corresponde a cada uno decidir de qué
lado se coloca más cerca…
150

Anexo: Bases generales de aplicaciones estadísticas en Ciencias de la Tierra

Ricardo A. Oyarzún Lucero (Ing. Agr., M. Eng., PhD)

Introducción

El presente Anexo tiene por objeto entregar una visión de usuario más
amplia sobre el tema de las aplicaciones estadísticas en geoquímica, basada en
parte en nuestras experiencias en materia de geoquímica ambiental, enmarcadas
en el Programa Agua-Minería-Ambiente del Departamento Ingeniería de Minas de
la Universidad de La Serena. Aunque ellas se superponen en parte con el
expuesto en el Capítulo 6, su enfoque es algo diferente y esperamos que en
conjunto contribuyan a aclarar los aspectos principales de estas aplicaciones,
sobre las cuales es común que exista cierta confusión, tanto en la teoría como en
el uso práctico que se hace de ella.

La importancia de estas materias en cualquier área de las ciencias


naturales, la ingeniería y en general en todas las disciplinas científicas es difícil de
exagerar. Ello, considerando que el conocimiento científico y sus aplicaciones se
basan en la obtención e interpretación de datos numéricos, y que la estadística es
esencial para interpretar su validez y significado.

1.1. Análisis Básico Exploratorio.

- La estadística aplicada, como toda herramienta, debe ser bien usada,


conociendo sus posibilidades y limitaciones, así como los supuestos en que se
basa cada método de análisis. Al respecto, es importante reconocer que no existe
una sóla manera de obtener y analizar datos!. En el mejor de los casos, tendremos
diferentes alternativas de análisis que son todas eventualmente buenas. En el
peor de los casos (lamentablemente más cercano a la realidad), tendremos
diferentes opciones que involucran diferentes supuestos y llevan a diferentes
151

conclusiones. En todo caso, debiera ser obvio que la base de cualquier sistema de
análisis es el disponer de datos!

- Hay muchas formas de clasificar los datos. Dos de las clasificaciones más
usadas son continuos vs. discretos y razón-intervalo-ordinal-nominal. Un proceso
continuo genera datos continuos, mientras que datos discretos generalmente
resultan de contar algo. Los datos continuos pueden ser de razón o intervalo. Los
datos discretos son nominales.

- Otra forma de clasificar los datos es cómo cuantitativos y cualitativos. A veces


datos cualitativos se usa como sinónimo de datos nominales. También se
152

reconocen los datos categóricos (datos clasificados en categorías), y normalmente


categórico y nominal se usan como sinónimos.

- Población vs. muestra: Una distinción importante en estadística es la de muestra


vs. población. Población comprende todos los datos de interés en un estudio. Sin
embargo, en la mayoría de los problemas y aplicaciones en Ciencias de la Tierra,
la población es inmensamente grande o infinita (por ejemplo, en un estudio de
calidad de aire podría ser toda la tropósfera…), y así, desconocida. Así entonces,
para efectos prácticos, debemos considerar una parte, un subset de la población,
que es nuestra muestra (típicamente de un tamaño mucho menor que la
población). Y relacionado a esto, se conoce como estadístico a un número que
obtenemos de la muestra. El método usado para obtener la muestra (el plan de
monitoreo) determinará el tipo de inferencias que se podrán hacer.

- Distribución de frecuencias y modelos de probabilidad: El graficar los datos


normalmente es de suma relevancia y utilidad. Si bien cubriremos esto en extenso
más adelante, es importante a este nivel mencionar algo al respecto. Una forma
de describir datos univariados (una variable individual) es construir un gráfico de
distribución de frecuencias, es decir, tabular los datos en clases y luego
graficarlos. Este gráfico, llamado histograma, entrega información general acerca
de la forma (de distribución) de una muestra, y puede ser útil para elaborar un
modelo teórico.

Por ejemplo, la figura de la derecha


muestra la cantidad de pozos con
determinado caudal de extracción
(gpm), a partir de una muestra de 81
pozos. Se advierte por ejemplo que
casi 50 de los 81 pozos tienen
rendimientos menores a 10 gpm (
0,6 l/s). Una distribución de
frecuencias que tiene esta forma
153

(aspecto) general se dice que es sesgada positiva o a la derecha (right- or


positively skewed distribution)

- Con respecto al número (y magnitud) de las clases, no existe algo pre-definido.


Evidentemente, categorías (bins) muy pequeñas (estrechas) resulta en un
histograma que no resume nada, mientras que categorías muy amplias termina
con pocas clases y una dificultad para realizar un análisis exploratorio. Una
propuesta que suele aparecer en los libros y/o softwares estadísticos es lo que se
conoce como “Regla de Sturges”, que define el número de clases (k) como k=
1+log2n ó k = 1 + 3.3*log10n (n: número de datos). Sin embargo, aun algo tan
“simple” como esto puede ser discutido (ej. ver
http://robjhyndman.com/papers/sturges.pdf)

- La Distribución como un Modelo:


Además de servir como una forma
gráfica de mostrar los datos, los
histogramas nos pueden sugerir un
modelo teórico de distribución. La
importancia de estos modelos es que
nos permiten conectar las
observaciones (mundo real) con la
teoría.

Por ejemplo, tomando el caso de los pozos y sus rendimientos podemos


preguntarnos “¿Pueden estas situaciones ser representadas por distribuciones
teóricas ampliamente conocidas y estudiadas?”. A menudo la respuesta es “Sí”, y
abordaremos esto con mayor detalle más adelante.

- Una función de densidad de probabilidad (probability density function) para una


variable aleatoria continua puede ser representado como el par (f(Y), Y) donde Y
puede ser una variable como la temperatura, ppm de As, porosidad, etc. Así
entonces, la (función de) densidad de probabilidad puede ser vista como el área
154

bajo una curva. Específicamente, la probabilidad de que una variable aleatoria Y


esté entre a y b (incluyendo los límites) es

Así, el área total bajo la curva descrita por una función de densidad de
probabilidad es 1.

http://www.mathwave.com/articles/distribution-fitting-
graphs.html

- La mayor parte de las


distribuciones (continuas y
discretas), tanto teóricas
(expresadas como curvas de
frecuencia) como observadas
(empíricas), caen en 4 formas
generales: (a) Distribución
simétrica con forma de campana;
(b) Distribución sesgada a la
derecha (sesgo positivo); (c)
Distribución uniforme, igualmente
probable ; (d) Distribución sesgada
a la izquierda (sesgo negativo)
155

- Varias funciones de densidad de probabilidad pueden ser usadas para describir


cada una de estas formas. Es más, ocasionalmente, puede surgir una distribución
bimodal (e), como consecuencia de la mezcla de dos o más distribuciones
(“muestra que proviene de dos o más poblaciones”, ej. alturas de hombres y
mujeres)

- La mayor parte de las distribuciones que se encuentran en Ciencias de la Tierra


(y medio ambiente) suelen ser simétricas (típicamente con forma de campana) o
positivamente sesgadas. Por ejemplo, ¿cómo será la distribución de los sismos en
un lugar?

http://www.terra.cl/actualidad/index.cfm?id_cat=302&id_reg=1387819

- También puede ser interesante a veces conocer la función de distribución


acumulada (probabilidad de no excencia) o CDF. Por ejemplo, para los siguientes
datos de ocurrencia de crecidas/inundaciones (arriba), su cdf se presenta a abajo
156

- “Momentos” de una muestra: Además de visualizar los datos (y ya


profundizaremos más sobre esto), es útil calcular estadísticos básicos para
describir las propiedades de los datos de una muestra. Las distribuciones
asociadas con varios set de datos de muestras pueden ser caracterizados por sus
primeros “momentos”. El primer momento es la media (mean); el segundo
momento es la varianza; y el tercer momento es el sesgo (skewness)

- Medidas de ubicación (de tendencia central): Tres medidas de tendencia central


comúnmente usadas son la media (promedio), la mediana, y la moda. Cada una
de ellas describe un atributo diferente de los datos, y es común (y útil) su cálculo.

- Media: Corresponde al promedio aritmético de los datos, que se calcula como

Una desventaja o problema asociado


al cálculo/uso de la media es que
puede verse muy afectada por los
llamados “datos atípicos” o outliers,
especialmente cuando el set de datos
es pequeño. Aunque abordaremos el
tema de los outliers en detalle más
157

adelante, por el momento podemos entenderlos como “observaciones que se


desvían mucho de otras observaciones de tal forma que levantan sospecha de
que se debe a un mecanismo diferente”. Por ejemplo, si los valores son 4.53, 6.84,
6.61, 725, 8.32, etc… . Será real el 72.5? Será error de transcripción? La media
con el outlier es 18.8, mientras que sin ese valor es 9.64…¿Qué hacer?. O
efectivamente está mostrando algo importante del proceso/fenómeno/problema en
estudio?

- Mediana: es la observación del medio, o el promedio de las dos observaciones


más cercanas al medio, cuando los datos se encuentran ordenados (ya sea
ascendentes o descendentes). Así:

La mediana es significativamente menos sensible que la media a outliers. Pero por


otro lado, es (exclusivamente) sensible a los valores “del medio” en la secuencia
de datos.

- Moda: es la observación más


frecuente, o el valor asociado con la
máxima probabilidad para una
distribución continua. Cuando los
datos se muestran en un histograma,
corresponderá al valor dentro del
dominio (rango) de la barra más alta.
Por ejemplo, volviendo al ejemplo, la
moda está entre 0 y 5 (gpm)

¿Cómo será entonces la moda, y la relación moda vs. media vs. mediana?
158

a, b, d, y f tienen modas únicas;


e tiene dos modas; c es
normalmente usada para la
generación de números
aleatorios; Para b, media >
mediana > moda; Para d,
media < mediana < moda; Para
a, media = mediana = moda

- Medidas de dispersión: Podemos tener dos set de datos que tengan la misma
media, pero cuya distribución puede ser muy diferente (alta variabilidad). Para
esto, medida de la variabilidad, tenemos en primer lugar la Varianza. La varianza
de una muestra se define como

Comúnmente se usa y es apropiada para un set de datos “bien comportado”,


mientras que una desventaja de su uso es que se ve más fuertemente influenciado
por outliers que la media. Relacionado a la varianza, tenemos la desviación
estándar, que es simplemente la raíz cuadrada de la varianza muestral, y que se
calcula como

y tiene las mismas unidades que los datos. Finalmente podemos identificar el
rango Intercuantil (IQR), que se calcula como
159

Evidentemente, para ello debemos conocer Q1 y Q3, siendo ellos el valor


correspondiente al percentil 25 y 75, respectivamente (posición en los datos
ordenados de menor a mayor) (así, Q2, o percentil 50%, es la mediana). Se
reconoce como una medida “resistente”

- Distribución Normal (Gaussiana): Aunque volveremos a esto en diversas


oportunidades más adelante, resulta de interés desde ya reconocer que una forma
de la distribución con forma de campana que ya se ha mencionado tiene una
importancia central en estadística. Esta forma es la distribución normal o
Gaussiana. La ecuación que describe esta curva, llamada función de densidad
normal, es:

siendo la media de la población, la desviación estándar de la población, - <y


<

En la práctica, es bastante común el uso de la curva estandarizada, para lo cual se


hace la transformación
160

Así, Z varía entre 0 y 1, y su pdf será:

Como veremos más adelante, el supuesto


de normalidad es básico (central) en muchos
métodos estadísticos, y por lo tanto es algo
que debe ser evaluado y considerado al
momento de seleccionar una forma de
análisis
161

1.2. Análisis Exploratorio: Métodos Gráficos.

- Los gráficos pueden a menudo


entregar información esencial al
investigador / profesional, la cual
puede ser difícil de ser apreciada
bajo otra forma. Por ejemplo, la
siguiente figura muestra 8 gráficos
de dispersión (scatterplots), todos
con el mismo coeficiente de
correlación. Sin embargo, se
advierte que las situaciones son
diferentes!

En resumen, realizar análisis


estadísticos sin siquiera primero
mirar (gráficos de) los datos es
simplemente una mala práctica…
162

- Vamos a llamar a esto el “análisis de datos exploratorio gráfico”. Aunque muchas


veces olvidado, o dejado de lado, el EDA (por sus siglas en inglés) debiera ser una
de las etapas iniciales en el análisis de datos!. A partir de la observación de los
datos podemos derivar teorías e identificar patrones acerca de cómo se
“comporta” el sistema bajo análisis. Además, los gráficos son una forma “eficiente”
y “eficaz” de transmitir resultados e información.

- Histrogramas: ya hemos hablado de


ellos, y de su utilidad. Igualmente,
debemos recordar que una de sus
principales deficiencias radica en su
dependencia del número de
categorías escogidas para el gráfico.
Por ejemplo, los dos casos de la
figura a continuación corresponden a
los mismos datos (caudales anuales
de un rio), pero se ven bastante
diferentes. Incluso, en el segundo
vemos un vacío en torno a 6250 cfs
que no aparece en el primero.

- Si bien los histrogramas pueden ser de utilidad para mostrar aspectos de la


distribución de datos (normal, sesgada), no son prácticos para mostrar valores
individuales (por ejemplo, en el primer gráfico el caudal más bajo es mayor que
750, pero podría ser tan grande como 2250). En términos generales, para datos
que son medidos en escalas continuas (ej. caudal, concentración), los
histrogramas no son normalmente el mejor método de análisis. En otras palabras,
el proceso de forzar que datos continuos “caigan” en categorías discretas puede
enmascarar características importantes de la distribución de los datos.
163

Por otro lado, si son excelentes para mostrar datos


que naturalmente se presentan en categorías o
grupos (ej. especies en un río, número de pozos que
exceden un rendimiento crítico según unidad
geológica, etc…)

- Gráficos de Cuantiles: Permite graficar los cuantiles o percentiles (cuantiles *


100) de la distribución de los datos de una muestra. Estos gráficos tienen 3
ventajas principales: (1) No requieren categorías definidas en forma arbitraria; (2)
Se incluyen todos los datos; (3) Cada punto (dato) tiene una ubicación única sin
superposición.

Siguiendo con el ejemplo de


nuestro río, acá se muestra el Q-
plot (gráfico de cuantiles)
respectivo. Atributos del set de
datos, como el vacío entre 6000 y
6800, que aparece en el gráfico
como una línea casi horizontal, se
hacen evidentes. Además,
podemos ver con facilidad
aspectos como por ejemplo el %

de datos en la muestra que tienen una magnitud menor que un cierto valor (lo que
se advierte con mayor precisión que si se hiciese desde un histograma)

- Para su elaboración, simplemente “rankeamos” los datos, asignando un i = 1 al


menor valor y un “i = n” al de mayor valor (siendo n el total de datos), y luego
calculamos la “posición en el gráfico”, pudiendo usar una fórmula como pi =
(i-0.4)/(n+0.2) (fórmula de Cunnage) o pi = i / n+1 (Weibull). Cuando tenemos
valores repetidos (“tied data”), a cada uno se asigna una posición de graficado
164

diferente (no se promedian las posiciones de graficado). Así, valores repetidos se


muestran como líneas verticales en el gráfico.

- Boxplots (gráficos de cajas): Corresponden a una forma útil, concisa (y eficiente)


de mostrar en forma resumida la distribución y características de un set de datos.
Dado que ya han sido descritos en el capítulo 6, solo se resumen a continuación
los principales aspectos.

Los box-plots entregan un resumen


visual de (1) el centro del set de datos
(la mediana, la línea central de la
caja); (2) la dispersión (el rango
intercuartil, la magnitud de la caja); (3)
el sesgo (dado por el tamaño relativo
de las mitades de la caja); (4) la
presencia de valores inusuales. Por
ejemplo, en la figura que corresponde
a los datos de caudales, vemos que el
cuadro (caja) es simétrico, así como
la longitud de las barras (whiskers)
hacia arriba y hacia abajo que es
similar

- Adicionalmente, resulta interesante señalar que estos tipos de gráficos son


igualmente útiles cuando se tienen sets de datos con valores censurados (es
decir, menores al límite de detección. Abordaremos esto más adelante).
Simplemente debemos fijar un valor que reemplace el “dato censurado” (en este
caso, el valor real no es importante). Luego trazamos una línea a través del gráfico
al valor del límite, y borramos todas las líneas debajo de este valor del gráfico
165

- Por supuesto, estos métodos gráficos que hemos analizado para un set de datos
pueden ser perfectamente utilizables para más de un set de datos y para realizar
comparaciones entre ellos. Por ejemplo, la figura anterior muestra diferentes box-
plots para diferentes set de datos.

- Q-Q Plots: Estos gráficos son


especialmente útiles para
comparar las distribuciones de
dos set de datos. Simplemente,
como su nombre lo insinúa,
corresponde a un gráfico de
cuantiles de un set de datos vs.
los cuantiles del segundo. Si los
dos set de datos provienen del
mismo tipo de distribución, el

resultado será una recta. Por ejemplo, para los resultados de pruebas de bombeos
en dos acuiferos.

- Estos gráficos nos entregan además información valiosa (y de una forma rápida y
simple). Por ejemplo, si un set de datos tiene la misma forma (distribución) que
otro, diferenciándose sólo por una cantidad aditiva (por ejemplo, cada cuantil tiene
5 unidades más que las del otro set), los pares de puntos caerán en una línea
paralela a Yp = Xp, también con pendiente = 1, pero desfasada. Si los set de datos
166

difieren por una constante de multiplicación (por ejemplo, Yp = 5Xp), los pares de
puntos (cuantiles) se dispondrán a lo largo de una línea recta con una pendiente
igual a la constante de multiplicación. Así, de la figura anterior, se puede advertir
que los primeros 9 pares de cuantiles caen en una línea recta con pendiente
mayor a 1 (no paralela a la línea Yp = Xp). Esto entonces indicaría una relación
“multiplicativa” (por ejemplo, Y 4,4 X). Es decir, los rendimientos de los pozos en
la roca fracturada son 4,4 veces mayor que la de aquellos pozos construidos en
roca no fracturada, al menos para el 75% inferior de los datos. Finalmente, para
los 3 pares mayores, vemos que estos se disponen más cercanos a la línea Y = X,
lo que indica que los rendimientos mayores en los dos set de datos son similares.

- Gráficos de Dispersión: Los gráficos


bi-dimensionales de dispersión
(scatterplot) son uno de los métodos
gráficos más comunes usados para el
análisis de datos. De especial interés
es el ver si la relación entre dos
variables es lineal o curva, si
diferentes grupos de datos se ubican
en diferentes áreas del gráfico, y si la
variabilidad (o dispersión) es
constante en el rango de datos.

- En cada caso, se puede


“mejorar” el gráfico usando un
suavizador (Smooth), que
permite al usuario (analista)
resolver estas interrogantes
con mayor claridad de lo que
sería posible usando sólo el
gráfico. Por ejemplo, la figura
167

es un gráfico de dispersión de la carga (másica) de arena transportada por un río


para el período 1949-1964.

Al respecto, podemos preguntarnos si estos datos son lo suficientemente lineales


como para que podamos ajustar una línea recta (regresión), o debiéramos hacer
alguna transformación que tome en cuenta la curvatura que aparentemente se
observa?

- En efecto, el ojo humano es bueno para juzgar el rango en un gráfico de


dispersión, pero se dificulta establecer el centro de la relación, como y varía con
respecto a x. Esto se traduce en dos problemas: (a) Los outliers (valores
anómalos, también lo abordaremos a continuación) pueden engañar al ojo y hacer
ver que no es posible asociar una relación lineal; (b) Además, cambios verdaderos
en la pendiente son difíciles de discernir. Así, podemos ajustar una línea central
“resistente” cuya dirección y pendiente varía localmente en respuesta a los
mismos datos. Para esto existen varios métodos. Probablemente el más familiar
es el “no resistente” promedio móvil. Otro método bastante usado es LOWESS
(Locally Weighted Scatterplot Smoothing).

Podemos advertir que


ahora la no-linearidad es
evidente. Además, es
importante recordar que
no se asume ningún
modelo (lineal, cuadrático,
etc.) previo al cálculo del
suavizador (smooth). Así,
los suavizadores son útiles
herramientas exploratorias
para discernir la forma en
que se relacionan dos
variables
168

- Igualmente, los suavizadores


(smooths) son particularmente útiles
cuando se quiere graficar grandes
cantidades de datos, y/o varios
grupos de datos son puestos en el
mismo gráfico. Por ejemplo, la figura
muestra la dependencia entre el log
de la concentración de As y el pH
para miles de muestras de aguas
subterráneas en EEUU.

Al usar un suavizador, se puede advertir que los datos de una región del país
difieren del resto.

- Gráficos de perfiles: En estos


gráficos se asigna cada variable
a un eje individual y paralelo. Una
observación es representada por
una serie de puntos, uno por eje,
los cuales están conectados por
líneas rectas que forman el perfil.
Cada eje tiene (o puede tener)
una escala independiente,

basado en el rango de valores en el set de datos completo. Así, podemos realizar


comparaciones entre diferentes observaciones simplemente comparando los
perfiles.

- Gráficos de Stiff: Estos gráficos son de uso común en materias de recursos


hídricos. Consiste en graficar la concentración de ciertos elementos (normalmente
aniones y cationes mayores) en meq/L. Así, es relativamente simple y rápida la
comparación entre diferentes muestras (ya que comparamos la forma de los
diagramas)
169

- Gráficos de Estrella: Otra forma de


representar múltiples ejes es hacer
que ellos partan (“irradien”) desde un
punto central común. De nuevo, cada
observación será representada por un
punto en cada eje, y estos puntos son
conectados por líneas de segmentos.

Los ángulos entres los rayos de la estrella serán 360º/k, siendo k el número de
ejes a ser graficados.

Para entregar la mayor discriminación visual posible entre observaciones, los


rayos que describen características.

- Gráficos trilineales: Cuando tres variables


suman 100%, pueden ser representadas
como un punto en un diagrama trilineal. Para
esto, cada uno de las tres variables (en este
caso los cationes, expresados en
miliequivalentes) se divide por la suma de
los tres valores, para producir una nueva
escala en %:
170

(donde ci está en % de cationes totales, y mi son los meq del catión i)

- Diagramas de Piper: Es una


modificación (“mejorada”) de los
diagramas tri-lineales. Los diagramas
de Piper tienen como ventaja, sobre
los de Stiff o los de estrella, el que
cada observación se muestra como
un punto. Así, las similitudes o
diferencias en composición entre
numerosas observaciones se vuelven
más fáciles.

Sin embargo, nuevamente en comparación con los diagramas de Stiff o de


estrella, no permiten caracterizar la variabilidad espacial ni incorporar muchos
elementos (variables) al mismo tiempo

- Diagramas de Clusters (dendogramas): Como ya fue analizado, consiste en


agrupar las muestras de acuerdo a su similitud (Q-Mode) o los parámetros (R-
Mode) bajo el mismo esquema. Así, muestras con mayor similitud (composición)
quedan agrupadas juntas en el dendograma. El diagrama en si no nos dice nada
acerca de si los clusters formados tienen algún significado físico
171

- Diagramas de Componentes Principales: Un método para visualizar


observaciones en múltiples ejes es reducir el número de ejes a dos, y luego
graficar los datos como una nube de puntos (gráfico de dispersión). Una
importante técnica de reducción de la dimensionalidad es el análisis de
componentes principales. Estos son combinaciones lineales de p variables
originales que forman un nuevo set de variables (o ejes). Estos ejes no están
correlacionados entre ellos. El primer eje es el que explica la mayor parte de la
variabilidad (varianza) de los datos. Así entonces, los p-ejes resultantes son
“nuevas variables”. Cada observación puede ser ubicada en el nuevo set de ejes
de componentes principales. Por ejemplo, supongamos que se han calculado los
componentes principales de 4 variables originales, Ca, Mg, Na y K. Los nuevos
ejes van a ser combinaciones lineales de estas variables, tales como:

Podemos hacer entonces gráficos de las observaciones orientadas en torno a


estos nuevos ejes de componentes principales. Más aún, un scatterplot de los dos
172

primeros ejes contendrá la información más importante sobre la variabilidad de los


datos. Así, el agrupamiento en el espacio multivariado se ha simplificado a agrupar
en torno a los dos ejes más importantes, permitiendo advertir los grupos con
mayor claridad.

- Matriz de scatterplot: Otro método


para inspeccionar datos (con p
variables) es producir un scatterplot
para cada uno de los p(p-1)/2
posibles pares de variables,
agrupándolos todos juntos. Si bien
es cierto este tipo de gráficos no nos
permite ver detalles, podemos
discernir si existen relaciones
lineales, no lineales, etc.

Por ejemplo, a partir de los histogramas podemos advertir el sesgo positivo en


todas las variables (excepto pH). También podemos ver por ejemplo que hay dos
grupos de muestras (aguas) en términos de la relación pH-conductividad, o la
relación lineal entre SO4 y conductividad
173

1.3. Características de los Datos (outliers, datos censurados)

- En disciplinas como Ciencias de la Tierra es común encontrar algunas


características comunes para los datos que normalmente son recopilados y
analizados: (1) Límite inferior de 0, es decir, no tenemos datos negativos; (2)
Presencia de “outliers” o “datos atípicos”, es decir, observaciones
considerablemente más altas (o más bajas) que la mayor parte de los datos, que
aparecen en forma regular pero infrecuente; (3) Como consecuencia de lo anterior,
sesgos en la distribución de datos (normalmente sesgo positivo); (4) Como
consecuencia de lo anterior, distribuciones de datos que no son normales; (5)
Datos que son reportados como menor (o mayor) que un cierto umbral, límite,
conocidos como datos censurados (censored data). Por ejemplo, concentraciones
menor que el límite de detección de los equipos/técnicas usados en los análisis;
(6) Patrones estacionales, con valores que tienden a aumentar o disminuir en
ciertas épocas del año; (7) Autocorrelación, asociado a mediciones continuas en el
tiempo que están fuertemente correlacionadas con otras consecutivas; (8)
Dependencia de otras variables no controladas (ej. valores que co-varían
fuertemente). Estos rasgos deben ser considerados cuando se procede a analizar
e interpretar datos con métodos estadísticos. Por ejemplo, como se ha
brevemente mencionado ya, y como veremos en detalle más adelante, ciertos
métodos se basan en que los datos presenten una distribución normal….y esto se
cumplirá?
174

- Vamos a entender por outliers a observaciones que son bastante diferentes de


otras en el set de datos, y que a menudo causan confusión o preocupación. Sin
embargo, esto no debería ser el caso. Una práctica común (pero no
necesariamente adecuada) es “deshacernos” de estos datos antes de hacer el
análisis descriptivo básico, o antes de una evaluación estadística (hipótesis). Sin
embargo, los outliers pueden representar la fuente de información más importante
del set de datos, y deben ser investigados con detención. Sólo por poner un
ejemplo, el agujero de la capa de ozono pasó “inadvertido” por más de 10 años, ya
que los sistemas de monitoreo tenían rutinas (instrucciones) que ´procedían a
eliminar de forma automática los outliers (y se consideraba que no podía ser
posible que la cantidad de ozono disminuyese tanto)

- Los outliers pueden tener las siguientes causas: (a) Un error en la medición o en
el registro del dato; (b) Una observación de una población que no es similar a la
mayor parte de los datos (por ejemplo, una inundación causada por la ruptura de
una presa en vez de ser consecuencia directa de la precipitación); (c) Un evento
raro de una población individual que es altamente sesgada. Existen algunos
métodos gráficos, que comentaremos más adelante, que son bastante prácticos y
útiles para identificar outliers. De todas formas, siempre que aparezca un outliers,
es buena práctica verificar que no se ha cometido algún error obvio (transcripción,
decimales, etc..). Si no es el caso, no es recomendable eliminar el valor sólo por
que parezca inusual (a veces se hace para que los datos se ajusten a una
distribución de probabilidad dada….no tiene por qué ser así!!). En vez de eliminar
el valor para poder usar métodos de análisis que requieran simetría o normalidad
en la distribución de los datos, procedimientos robustos (resistentes a outliers)
175

deberían ser empleados (como ejemplo simple, considerar la mediana y no la


media, o en vez de usar un test-t, usar uno tipo rank-sum)

http://www.ciemonline.info/moodle/course/view.php?id= http://www.astm.org/SNEWS/SPANISH/SPJF11/datapoints_spjf1
2 1.html

- Existen algunos métodos gráficos, que comentaremos más adelante, que son
bastante prácticos y útiles para identificar outliers. También podemos considerar el
uso de algunos test estadísticos
176
177
178

- Datos censurados: Supongamos una siguiente situación en la que para cumplir


con las normativas ambientales, una industria debe demostrar que la
concentración promedio diaria en sus vertidos (residuos industriales líquidos) no
exceden el valor indicado por la norma. Sin embargo, en varias de las muestras
que se han tomado cada dos horas, las concentraciones son menores que el nivel
de detección que reporta el laboratorio que realiza los análisis

- Ciertamente, con valores “< X” se vuelve imposible calcular una simple


concentración media. Si la empresa sustituye un 0 para cada “menor que”, el
umbral de la norma no es sobrepasado. Pero si el servicio fiscalizador sustituye un
valor igual al límite de detección, el estándar (norma) es sobrepasado …. ¿Qué es
“lo correcto”? ¿Ha sido sobrepasada la norma? Lo mismo podría ocurrir en el caso
de un análisis de información para evaluar la concentración media de un elemento
en el terreno y decidir futuras acciones en la empresa comparando el valor
“promedio” con un umbral operativo.

- En la medida en que elementos traza (o sustancias que suelen estar en bajas


concentraciones en el ambiente) en suelos, agua, y/o aire son cada vez más foco
de atención, es cada vez más común encontrarnos con informes y reportes de
análisis que incluyen estos “< que”. Esta situación puede representar una seria
limitante para el profesional y su análisis estadístico de la información (y con ello,
la posterior toma de decisiones). Así entonces, necesitamos “datos”, tanto los
valores efectivamente medidos, así como información de la frecuencia de
observaciones por debajo de los límites de detección.
179

- En general se reconocen tres tipos básicos de métodos de “arreglo” de datos


censurados (para poder trabajar con ellos y así poder estimar estadística de
resumen): (a) Sustitución simple; (b) Sustitución Distribucional; (c) Métodos
robustos.

- Sustitución simple: consisten en,


como su nombre lo indica, sustituir
cada valor “menor que” por un valor
determinado, por ejemplo, el
promedio entre 0 y el límite de
detección. Luego podemos calcular la
“estadística de resumen” usando
estos datos “fabricados”, así como
con los datos originales (sólo aquellos
mayores que el ld). Estos métodos
son ampliamente usados, aunque en
estricto rigor, carecen de base teórica.
Como se muestra en la figura, las
distribuciones que pueden resultar de
estos métodos de sustitución simple
pueden presentar vacíos y no ser
necesariamente realistas.
180

- Métodos Distribucionales: Se basan en


usar las características de una distribución
asumida para estimar los estadísticos del
set de datos. Se asume que los datos por
sobre y por debajo del límite de detección
siguen una distribución tipo log-normal. Con
esto, se calculan los estadísticos de tal
forma de ajustarse, de la mejor forma
posible, a las concentraciones observadas
por sobre el ld y al porcentaje de datos por
debajo del ld.

(se ha visto que el asumir una distribución log-normal produce buenos resultados
en general en estudios ambientales aun cuando los datos no tengan esa
distribución).

- Métodos Robustos: Estos combinan los


datos observados (sobre el nivel de
detección) con valores por debajo del ld
extrapolados asumiendo una forma en la
distribución. Es decir, se parece al
método anterior, con la diferencia que
ahora la distribución ajustada se usa sólo
para extrapolar el conjunto de datos bajo
el ld. Además, estos valores extrapolados
no se consideran como estimaciones
para muestras específicas, sino que son
sólo usados en conjunto para realizar la
estimación de la estadística de resumen
(descriptiva)

(Para calcular los quantiles normalizados:


http://facweb.cs.depaul.edu/cmiller/it223/normQuant.html)
181

- De todas formas, es importante reconocer que si menos del 50% de los datos
están por debajo del ld, de todas formas podemos conocer la mediana de la
muestra. Igualmente, si menos del 25% de los datos son censurados, podemos
además conocer el IQR. Si bien dejaremos este tema hasta acá, ciertamente da
para mucho más (incluso libros dedicados sólo a este tema…).

1.4. Test de Hipótesis

- En estadística existe un teorema importante llamado teorema central del límite, el


cual nos permite formular test estadísticos basados en las características de la
curva normal, y el aplicar estos test incluso en circunstancias en las cuales la
población muestreada no se distribuye normalmente.

- Tomemos por ejemplo el caso de un paleontólogo


que ha encontrado fósiles tipo composita, pero de
mayor tamaño. Se han encontrado 6 fósiles, con un
largo promedio de 20.0 mm (se “sabe”, de estudios
previos, que la media y la desviación estándar del
largo de composita, en la población, es de 14,2 y
4,7 mm respectivamente).
182

¿Es posible que esta nueva muestra de braquiópodos corresponda a la misma


población?

- Podemos determinar la diferencia entre la media de nuestra nueva muestra y la


media poblacional. Esta diferencia puede entonces ser comparada con la
variabilidad que esperaríamos encontrar en las medias de muestras seleccionadas
aleatoriamente de una población específica. Esta variabilidad está dada por el
error estándar y es función de la varianza de la población y del tamaño de la
muestra. El error estándar, o en estricto rigor el error estándar de la estimación de
la media, corresponde a la desviación estándar de las medias de las muestras,
más exactamente la raíz cuadrada de esto. Describe la variabilidad que puede
esperarse en las medias de las muestras tomadas a partir de un método de
selección aleatorio repetido desde la misma población, y se calcula como:

Así entonces, la comparación entre la diferencia en medias y el error estándar se


puede realizar como

(es interesante notar que el


estadístico (z) se calcula de una
forma similar a la que se usa para
convertir una variable a su forma
estandarizada).

- Entonces el estadístico de la prueba, z, se distribuye normalmente con una


media de 0 y una desviación estándar de 1, si es que la media muestral se obtuvo
efectivamente de la población supuesta (hipotética). Si z es excesivamente
grande, tenderemos a inferir que la muestra no ha sido obtenida de dicha
183

población. Sin embargo, una decisión más formal, requiere establecer una forma
(procedimiento) más consistente para evaluar el estadístico z. Así, el paso inicial
es proponer una hipótesis adecuada acerca de la variable en cuestión.
Normalmente, esto se hace bajo la forma de lo que se conoce como hipótesis
nula, H0, que corresponde a la hipótesis de que NO hay diferencia,

es decir, que la media de la población “parental”, desde la cual la muestra se ha


obtenido, es igual a (o no es diferente de) la media de una población con una
media específica, 2 (siguiendo con nuestro ejemplo, que la media en longitud de
los nuevos fósiles es similar a la de la población original con la cual queremos
comparar).

- Habiendo establecido nuestra hipótesis nula, debemos también indicar una


hipótesis alternativa, tal como:

es decir, que la media de la población desde la cual se ha obtenido la muestra no


es igual a la media de la población original (son dos poblaciones diferentes, por
ejemplo, dos géneros distintos). Entonces ahora podemos definir un procedimiento
para evaluar la hipótesis, con niveles específicos de probabilidad de estar en lo
correcto. Así, una vez que tenemos nuestra hipótesis nula y nuestra hipótesis
alternativa, podemos decidir aceptar o rechazar la hipótesis nula sobre de un test
estadístico. Considerando además que hay dos posibles situaciones para la
hipótesis nula, que sea cierta o falsa, terminamos con un escenario de cuatro
posibles resultados, de los cuales dos son “correctos” y dos “incorrectos”:
184

- En procedimientos estadísticos estándar, la probabilidad de cometer un error tipo


I se llama nivel de significancia, y se representa por Esta probabilidad debe ser
especificada antes de hacer el test.

- Con el propósito de minimizar la posibilidad de cometer un error tipo II,


expresamos la hipótesis nula con la intención de que ésta será rechazada. En
efecto, si efectivamente rechazamos la H0, no hay posibilidad de cometer un error
tipo II, y la probabilidad de cometer un error tipo I es conocida ya que ha sido
especificada. En cambio, si el test falla en rechazar la hipótesis nula, la
probabilidad de cometer un error en la forma tipo II permanece. Esta probabilidad,
, es generalmente desconocida.

http://definicion.de/aceptacion http://eseune.blogspot.com/2008/04/anime-su-gente-cometer-errores.html

- Así, si rechazamos la hipótesis de igualdad, podemos señalar que las dos


poblaciones parentales tienen diferentes medias. La probabilidad de que esto sea
incorrecto, y nuestra decisión errónea, es igual a . Por otro lado, si H0 no es
rechazado, la indicación de que las medias de las dos poblaciones son iguales
está acompañada por una probabilidad desconocida, , de error.

- La lógica de los test estadísticos se basa


en la premisa de que la hipótesis nula y su
alternativa son mutuamente excluyentes y
en total completamente inclusivas: la
hipótesis nula es algo explícito y, por lo
tanto, la hipótesis alternativa debe ser
185

general. Si H0 es rechazada, estamos


diciendo que la relación específica descrita
por la hipótesis nula no existe. Aún más, la
relación real está contenida “en alguna
parte” del espacio infinito de las
posibilidades cubiertas por la alternativa
(“los test estadísticos, en el fondo, no dicen
lo que es, si no lo que no es”).

Finalmente, en términos más concretos aun, un nivel de probabilidad asumido (por


ejemplo) de un error tipo I de 5% (0,95) debe ser entendido como que estamos
dispuestos a erróneamente rechazar un hipótesis correcta 5 veces de cada 100
intentos (análisis)

- Volviendo a nuestro ejemplo de los fósiles (donde asumíamos que conocíamos la


media y la varianza de la población), podemos realizar la evaluación estadística de
la siguiente forma:

- En otras palabras, “el estadístico z tendrá una distribución de frecuencias que


corresponde a una distribución normal estandarizada, considerando que las
observaciones en la muestra fueron tomadas (supuestamente) en forma aleatoria
desde una población normal cuya varianza es conocida”. Hemos dicho además
que estamos dispuestos a rechazar la hipótesis de igualdad de medias, a pesar
que en realidad son iguales, 1 vez de cada 20, es decir, aceptamos un riesgo de
5% en el error tipo I. Así entonces debemos buscar, en la curva de distribución
normal estandarizada, las regiones extremas (bordes) que contienen un 5% del
área bajo la curva. Esto es lo que se conoce como área de rechazo o región crítica
186

(es decir, si el valor calculado del test estadístico cae en esta zona, rechazamos la
hipótesis nula)

- Dado que la alternativa (hipótesis) es simplemente de no igualdad, la hipótesis


(nula) será rechazada si el estadístico es demasiado grande o demasiado
pequeño. Es decir, a pesar de que hay tres posibles situaciones,

no estamos interesados en hacer distinción alguna entre las últimas dos.

Así entonces, la región crítica ocupa los


extremos de la distribución de
probabilidad y cada subregión contiene
un 2,5% del área total de la curva

- Los aspectos teóricos que están detrás del análisis recién descrito se pueden
resumir de la siguiente forma: (a) Conocemos las características de la curva
normal, las que han sido derivadas de consideraciones teóricas y su uso
justificado empíricamente; (b) El teorema del límite central nos dice que las medias
de las muestras están normalmente distribuidas: (c) Dado que podemos
determinar el error estándar, conocemos el % de medias muestrales que ocuparán
varios rangos de tamaños (por ejemplo, sabemos que 2/3 de las medias
muestrales estarán en la zona definida por la media poblacional +/- una desviación
estándar); (d) Si las medias de las muestras se obtienen desde esta población en
forma no sesgada (es decir, en forma aleatoria), la probabilidad de obtener una
media muestral de un rango específico de la curva de distribución es igual al área
en esa porción de la curva.

- Siguiendo con el ejemplo


187

http://www.lakeneosho.org/page54.html http://braquiopodos.webnode.es/products/composita-ambigua

Así, rechazaremos la hipótesis de igualdad de medias si la media de la muestra


es, o muy grande, o muy pequeña (es decir, si z cae en el área de la izquierda, o
la de la derecha), comparado con la media de la población “de referencia”.

Esto nos lleva a un “test de dos colas”


188

- A partir de tablas estadísticas, podemos definir los valores críticos de z


correspondientes a esas áreas. Como en nuestro ejemplo z = 3.0, que excede 1.9,
podemos concluir que las medias de las dos poblaciones no son iguales.

- El desarrollo de los programas estadísticos (softwares) ha permitido formas


alternativas al procedimiento clásico de especificar un nivel fijo de significancia y
luego aceptar o rechazar la hipótesis nula, según sea el resultado del test
estadístico. Así se ha introducido el valor-p (p-value), que corresponde a “el menor
nivel de significancia al cual la hipótesis nula podría ser rechazada para un test
específico”. En otras palabras, es la probabilidad, asumiendo que H0 es correcto,
de que el resultado (estadístico) observado pudiese ser obtenido en forma
aleatoria.

- En el ejemplo de los fósiles


recién descrito, calculamos un
valor del estadístico z = 3.023, el
cual era significativo al nivel de 5%
en un test de dos colas, y que
llevaba a un rechazo de la
hipótesis nula. De la tabla de
distribución normal estandarizada,
vemos que el área a la derecha de
z = 3.023 es 1.000 – 0.9987 =
0.0013. Dado que nuestro test fue
de dos colas, el valor-p asociado
con este test es dos veces esta
cantidad, es decir, p = 0.0026
189

- En otras palabras, la probabilidad de que obtengamos una muestra de seis


especímenes del fósil (Composita) cuyo largo medio sea de 20.0 mm como
consecuencia de un muestreo aleatorio de una población cuyo largo medio y
desviación estándar son 14.2 y 4.7 mm es menos que 3 en 1000. Así, es fácil
determinar si el resultado de un test cae en la región crítica. Simplemente
comparamos el p-value con el nivel- especificado; si el p-value es menor, la
hipótesis nula debe ser rechazada (y no necesitamos consultar una tabla de
valores críticos)

- Resulta importante hacer algunas reflexiones en torno a lo que significan los


niveles de significancia, especialmente en las disciplinas de ingeniería y ciencias
de la Tierra. Muchos textos estadísticos, particularmente aquellos relacionados
con agricultura o control de calidad en la industria, suelen usar niveles de
significancia de 1 en 20 ( = 0.05) o 1 en 100 ( = 0.01), pero no es que exista
algo particularmente importante o universalmente establecido acerca de estos
niveles específicos. El definir el nivel de significancia es responsabilidad del
investigador/evaluador/analista quien debe decidir cuál es el riesgo apropiado de
rechazar una hipótesis nula!.

- Por ejemplo, en ciencias geológicas,


a menudo se está en presencia de
situaciones con alta incertidumbre, y
sería poco realístico esperar que un
test estadístico resultara en una
decisión que fuese errónea sólo 1 de
cada 100 veces, o incluso 1 en 20.

En otras palabras, si establecemos niveles de significancia extremadamente


rigurosos, encontraremos que nuestra hipótesis nula nunca será rechazada, y
siempre necesitaremos mayores y mayores cantidades de datos (algo no fácil de
conseguir). En cambio, si fijamos niveles de significancia más modestos,
podremos obtener conclusiones de utilidad más frecuentes, aun incluso si éstas
190

son erróneas, especialmente cuando comparamos con los estándares en otras


áreas/disciplinas.

- Consideremos por ejemplo el efecto de fijar diferentes niveles de significancia


para la evaluación estadística hipotética de prospectos de petróleos. Imaginemos
que una compañía ha encontrado una “variable cuantitativa” que puede ser
medida (obtenida) antes de perforar para indicar si un prospecto es o no
productivo.

La compañía aplica un test estadístico


a la variable para decidir si el
prospecto debe ser perforado o
abandonado. La hipótesis nula señala
que el prospecto viene de una
población de localidades estériles; la
hipótesis alternativa señala que viene
de una población de lugares no
estériles (es decir, productivos)

http://trilogyenergy.com/properties/dunvegan-oil-
development.html

- Si fijásemos un nivel de
significancia “tradicional”, tal
como = 0.05 (panel
superior), muy pocos
prospectos serían
encontrados como diferentes
de la población estéril (H0).
Aquellos que se “definan”
como diferentes con
seguridad resultarán en
yacimientos explotables
cuando sean perforados.
191

La compañía tendrá una “gran eficiencia”, pero dejará de lado muchas


propiedades (prospectos) que posteriormente podrían probar ser productivos
cuando fuesen perforados por compañías más “aventureras”. En resumen, la
compañía rara vez perforará, rara vez se equivocará, pero dejará muchas reservas
sin descubrir

- En cambio, si estableciésemos el
nivel de significancia como =
0.40 (panel inferior), muchos
prospectos serían identificados
como “perforables”, pero la tasa de
fracaso sería mayor. Con este
criterio, la compañía perforará a
menudo, se equivocará en forma
más frecuente, pero dejará muchas
menos reservas sin descubrir.

- La industria petrolera considera las consecuencias de dejar de perforar en


lugares donde existe petróleo (error tipo II) mucho más “terrible” que perforar
pozos secos (error tipo I). Esto se debe a la recompensa financiera de sólo un
descubrimiento exitoso, que permite compensar los costos de decenas a centenas
de “pozos secos”. De hecho, la tasa de éxito en los EEUU es de alrededor de
10%. Si estos pozos fuesen perforados sobre la base de test estadísticos, esto
correspondería a un nivel de significancia de = 0.90!!

- El ejemplo visto puede ser considerado como


un caso extremo, ciertamente, pero de todas
formas ilustra el hecho que el nivel de
significancia debe ser fijado en un valor
apropiado para las circunstancias específicas de
cada situación y test.
192

- El valor de debe basarse en la evaluación de las consecuencias de cometer un


error tipo I. Estas consecuencias pueden ser tangibles e involucrar la pérdida de
dinero, tiempo, o incluso vidas, o pueden ser intangibles e involucrar aspectos
como daños a la reputación profesional (o al orgullo). Buscando preservar la
“honestidad intelectual”, sería lógico esperar que el profesional o investigador
decida al comienzo cual es el nivel de riesgo que está dispuesto a asumir, y fijar el
nivel de significancia en consecuencia.

- La distribución de “t” y el concepto de grados de libertad: Un supuesto hecho

hasta acá, implícito en la ecuación

y que rara vez es cierto en aplicaciones reales, es que conocemos efectivamente


los parámetros de la población.

Por supuesto que es imposible


examinar la población entera de
fósiles (Composita). Dado que y
son en realidad desconocidos, lo
mejor que podemos hacer es
estimarlos a partir de muestras. Esto
lleva inherentemente cierto nivel de
incertidumbre.

- La incertidumbre introducida a
las estimaciones derivadas de
muestras puede ser registrada
usando una distribución de
probabilidad que tiene una
dispersión mayor que la
distribución normal.
193

Una distribución de este tipo se llama “distribución de t” (la cual es similar a la


distribución normal, pero dependiente del tamaño de la muestra). La forma exacta
de la curva cambia de acuerdo al número de observaciones de la muestra que se
está usando para estimar la población.

- Cuando el número de observaciones de la muestra es


“infinito”, la distribución de t es idéntica a la distribución
normal. De hecho, cuando el número de observaciones
excede más o menos 30 (número “mágico” en
estadística), las dos distribuciones se vuelven bastante
parecidas por lo que podemos usar z en vez de t, aun
cuando no conozcamos los parámetros de la población.
Este “umbral” (30) separa lo que se conoce como
“estadística de muestras pequeñas” de la “estadística
de muestras grandes”

- En tests basados en muestras, debemos estimar un número de parámetros de la


población para calcular los estadísticos del test. Así, parece en forma intuitiva
poco “sabio” tanto estimar los parámetros como llevar a cabo el test a partir del
mismo ser de datos sin compensar, de alguna forma, este “doble uso” de
observaciones. Esto puede llevarse a cabo considerando una cantidad llamada
“grados de libertad”, que puede ser definido como el número de observaciones de
una muestra menos el número de parámetros estimados a partir de esa muestra.
En otras palabras, los grados de libertad corresponden al número de
observaciones “en exceso” con respecto a las mínimas necesarias para estimar
los parámetros de la distribución.

- Consideremos el siguiente ejemplo: La tabla presenta el cálculo de la media y la


varianza de 5 mediciones (réplicas) de los niveles de Cr en rocas (esquistos).
194

- La media se estima a partir de las 5 observaciones independientes y así tiene 5


grados de libertad. La varianza se estima como el promedio de las desviaciones
con respecto a la media (al cuadrado). Sin embargo, podemos advertir que si
determinamos 4 de estas diferencias, automáticamente conoceremos la quinta, ya
que

Luego, hay sólo cuatro “items” independientes de información desde los cuales
podemos estimar la varianza.

- Las tablas de distribución de t (así como otras distribuciones basadas en


muestras) se usan de la misma manera que las tablas de distribución normal
estándar acumuladas, excepto que ahora se requieren dos “entradas” para
encontrar la probabilidad en la tabla: el nivel deseado de signicancia ( , la
probabilidad del error tipo I) y los grados de libertad (v), como se muestra
(parcialmente) a continuación.
195

- Así entonces, los test tipo t, basados en la distribución de probabilidad de t, son


útiles para establecer la probabilidad de que una muestra dada sea miembro
(provenga) de una población con ciertas características especificadas, o para
evaluar una hipótesis de equivalencia de dos muestras. Por ejemplo, supongamos
que se quiere evaluar la hipótesis de que un set de testigos de areniscas, como el
de la tabla, viene de una población parental que tiene un promedio de porosidad
de más de 18%
196

Asumiendo que los testigos fueron obtenidos en forma aleatoria de una población
normal, el estadístico-t se puede calcular como

Resulta importante notar que el test es esencialmente igual a

excepto que debemos estimar el error estándar

por en vez de , dado que no conocemos la


varianza de la población.

- En términos estadísticos formales, estamos evaluando la hipótesis

vs. la alternativa
197

La primera hipótesis establece que la media de la población de la cual la muestra


ha sido obtenida es igual o menor a una media de 18%. La hipótesis alternativa
establece que la población parental de la muestra tiene una porosidad promedio
mayor que 18%.

- Tal como se señaló previamente, debemos entonces fijar ahora un nivel de


significancia y los grados de libertad. En este ejemplo, un parámetro es asumido
( 0) y el otro es estimado ( es estimado por s, la desviación estándar de la
muestra). Por lo tanto, en la muestra de 10 determinaciones de porosidad, habrá 9
grados de libertad. Además, estamos interesados en rechazar la hipótesis nula
sólo si la porosidad media excede significativamente 18%. Por lo tanto, la “región
crítica” ocurre sólo para altos valores del estadístico del test, como se muestra en
la figura:

- Así entonces, este tipo de test es uno de “una cola”, dado que la región crítica
ocupa sólo un extremo de la distribución del test. Si quisiéramos evaluar la
hipótesis con la probabilidad de rechazarla cuando fuese cierta 1 de cada 20
veces ( = 0.05), el valor de t calculado debe exceder 1.83 para el test de una
cola. El test estadístico se obtiene de la misma forma que antes:
198

Si el valor que se calcula de t es menor que 1.83, podríamos sólo decir que no hay
nada en la muestra que sugiera que la media poblacional es mayor que 18%.
Nótese que no decimos que la media de la porosidad sea menor a 18%, sólo que
no hay base suficiente para sugerir que es mayor!.

- Continuando (y complementando)
nuestro ejemplo, supongamos que se
han obtenido 10 muestras adicionales
(testigos), como lo que se muestra en
la tabla, y que ahora nos interesa
saber si los dos sets de muestras son
similares.

Es decir, ahora nos interesa comparar dos muestras entre ellas, en vez de con
respecto a un parámetro poblacional propuesto. El test a usar es nuevamente uno
de t, pero su cálculo es algo diferente.

- La hipótesis que estamos evaluando ahora es:

La cual establece que la media de la población de la cual proviene la primera


muestra es la misma que la media de la población parental de la segunda
muestra. A su vez, la hipótesis alternativa será

es decir, que las dos medias (poblacionales) no son iguales


199

- Nuevamente debemos fijar un nivel de significancia, por ejemplo, 10% ( = 0.01).


Nuestro test estadístico tiene ahora la forma

El error estándar de la media se debe basar en las características de ambas


muestras, por lo que se generaliza como

- Acá, sp es un estimador en conjunto de la desviación estándar, que se obtiene al


combinar las varianzas de las muestras de ambos set de datos,

Los sub-índices se refieren a las muestras 1 y 2. Este proceso de agrupar las dos
varianzas muestrales nos “cuesta” un grado de libertad adicional, ya que dos

parámetros, deben ser estimados. En otras palabras, los grados de


libertad son ahora v = n1+ n2 -2. El resultado es:
200

- Dado que el valor de t para un test


de 2 colas con 18 grados de libertad y
una significancia de 10% (5% a cada
lado!) es -1.73 y 1.73, el estadístico
calculado no cae en la región crítica y,
por lo tanto, la hipótesis nula no
puede ser rechazada, es decir, no hay
evidencia para sugerir que las dos
muestras vengan de poblaciones con
medias diferentes.

- Vale la pena recordar que este test se


ha hecho en base a 3 supuestos: (1)
Ambas muestras son seleccionadas en
forma aleatoria; (2) Las poblaciones
desde las cuales se han obtenido las
muestras tienen distribución normal;
(3) Las varianzas de las dos
poblaciones son similares.

El primer supuesto puede ser difícil de cumplir/justificar en numerosas situaciones


en Ciencias de la Tierra, y puede ser una seria fuente de error si las muestras se
obtienen en forma sistemáticamente sesgada (como sería por ejemplo si las
porosidades fuesen medidas sólo en testigos de zonas efectivamente productoras
de petróleo). Sobre el segundo supuesto, una población puede ser evaluada con
respecto a normalidad, pero las desviaciones de la normalidad pueden no ser un
mayor problema de acuerdo a lo que señala el teorema central del límite, si es que
la muestra es “lo suficientemente grande”!. Sobre el tercer supuesto, igualdad de
varianzas entre los dos grupos, es crítica: Afortunadamente, este supuesto puede
201

ser fácilmente verificable (test F), y existen test-t aproximados si las varianzas de
las dos muestras son efectivamente diferentes.

1.5. Normalidad y Test Paramétricos y no Paramétricos

- Generalizando un poco lo que hemos visto hasta ahora, es importante


profundizar un poco más en lo que se conoce como test de hipótesis y los
supuestos que hay detrás de ellos. Uno de los objetivos principales de la colecta
de datos es poder evaluar si las hipótesis que hacemos sobre ellos (y sobre un
proceso que está ocurriendo por ejemplo) pueden ser justificadas, de acuerdo a la
evidencia entregada por los datos. Así, los test estadísticos se vuelven la forma
más cuantitativa para determinar si una hipótesis se sustenta, o si debe ser
modificada.

http://www.escapegames24.com/2011/10/to-z-riddle.html http://www.solosubtitulos.com/descargar-subtitulos/s1875-2151.html

- Un uso común de los test de hipótesis, como ya hemos visto en algunos


ejemplos, es para comparar set de datos, entregando una base numérica, una
medida de la fortaleza de la evidencia (valor-p). Podemos clasificar los test de
hipótesis de diferentes formas, según sea el tipo de variables y el tipo de análisis
que nos interesa
202

Dentro de estos tipos, la forma de la distribución de los datos determina la


principal clasificación de los tests, paramétricos y no paramétricos (y cual es
adecuada para ser usada en cada caso)

- Los tests que asumen que los datos tienen una distribución particular
(usualmente normal) se llaman test paramétricos. Esto se debe a que la
información contenida en los datos puede resumirse en parámetros, a menudo la
media y la desviación estándar, y el estadístico del test es calculado usando estos
parámetros. Esto es un proceso eficiente si los datos efectivamente siguen la
distribución asumida. Pero si no es el caso, los parámetros representarán en
forma deficiente lo que ocurre en realidad con los datos. Así el test puede
hacernos llegar a una conclusión errónea, ya que carece de la sensibilidad o poder
(power) de detectar los reales efectos (lo que está ocurriendo). Un uso común de
los test de hipótesis, como ya hemos visto en algunos ejemplos, es comparar set
de datos, entregando una base numérica, una medida de la fortaleza de la
evidencia (valor-p). Aquellos test que no requieren el supuesto de que los datos
sigan una distribución específica se conocen como test no paramétricos (o libres
203

de distribución). La información se extrae de los datos comparando cada valor con


otros (haciendo un ranking de los datos) más que calculando parámetros

- Así, la selección de un enfoque u otro se debe basar en los datos. Por ejemplo, si
datos similares en el pasado presentaron una distribución normal, normalmente
seleccionaremos un procedimiento paramétrico. En cambio, si se espera que los
datos tengan una distribución no normal, o no se conoce lo suficiente como para
asumir una distribución específica, debiéramos privilegiar el uso de test no
paramétricos. El poder (power) de test paramétricos de rechazar H0 cuando ésta
es en realidad falsa es bastante bajo cuando se aplica a datos no normales, y por
lo tanto es común que se incurra en errores tipo II. Test no paramétricos son
particularmente apropiados para set de datos pequeños (a menos que la
experiencia apoye el supuesto de normalidad). “Afortundamente”, en general cada
test paramétrico tiene su símil no paramétrico, como se muestra en esta figura.
204

- Por ejemplo, veamos el caso de la


comparación de dos grupos. Antes
vimos el caso del uso del test de t
para evaluar la diferencia entre dos
muestras. Ahora veremos un test
similar, pero en el caso no
paramétrico, el rank-sum test.
205

Supongamos que los acuíferos X e Y son muestreados para determinar si los


niveles de un compuesto (concentración de un contaminante) son similares o
diferentes

- Se toman dos muestras del acuífero X y 5 muestras del acuífero Y (es decir, n=
2, m = 5, luego N = n + m = 2 + 5 = 7), y se cree a priori que los valores en el
acuífero X son menores que los del Y (por ejemplo, X es más profundo, y por lo
tanto menos vulnerable a la contaminación que Y).

Con esto, la hipótesis nula (H0) y la alternativa (H1) de este test de una cola serán:

- Recordemos que en test de una cola como éste, los datos que indican
diferencias en dirección opuesta a H1 (xi mayor que yi) apoyan la evidencia de H0.
Con test de una cola sólo estamos interesados en las desviaciones de H0 en una
dirección.

- Habiendo establecido las hipótesis


nula y alterna, debemos fijar el nivel
de error aceptable. Tal como en una
corte, se asume inocencia (es decir,
las concentraciones son iguales)
salvo que haya evidencia que muestre
“más allá de una duda razonable” que
el acuífero Y tiene mayores
concentraciones (es decir, que las
diferencias observadas no se
deberían sólo al azar), lo que se
relaciona con .
206

- Si se fuese a usar un test-t, cada set de datos debiese ser evaluado en términos
de su “normalidad” (algo que se aborda a continuación). Sin embargo, las
muestras de 2 y 5 datos son muy pequeñas para realizar una evaluación confiable.
Por ello, podemos asumir que un test no paramétrico es lo adecuado. El test
requiere rankear los 7 valores (la concentración menor tiene el ranking 1, la mayor
el 7) y sumar los rankings de los dos valores de la población con el menor número
de muestra (X). Esta suma de ranking es el estadístico W. A continuación, se
compara W con una tabla de quantiles para determinar el valor-p.

- De donde vienen estas tablas? La derivaremos a continuación para las muestras


de 2 y 5 como ejemplo. Cuáles son los posibles valores que puede tomar W si la
hipótesis nula es correcta? El conjunto de todos los posibles resultados de W
define su distribución y, por lo tanto, conforma la tabla de cuantiles estadísticos del
test de suma-ranking. Esto se muestra a continuación (todas las posibles
combinaciones de los rankings de los dos valores de x):

Si H0 es cierto, cada uno de los 21 posibles resultados es igualmente probable.


En otras palabras, es igualmente probable para los dos X´s estar rankeados 1 y 2,
ó 3, ó 4, ó 5, ó 1 y 7, o etc…. Así, cada uno de estos resultados es un resultado de
W, la suma de los dos rankings. Los 21 valores de W que corresponden a esto
serán:
207

- El valor esperado de W es la media (y mediana) de los valores del cuadro


anterior, es decir, 8. Dado que cada resultado es igualmente probable cuando H0
es verdadero, entonces la probabilidad de cada posible W es

Qué pasa si los datos colectados incluyen 2 valores de X con rankings 1 y 4?


Entonces W será 5, menor que el valor esperado E[W] = 8. Si H1 fuese verdadero
(en vez de H0), W tendería hacia menores valores. Cuál es entonces la
probabilidad de que W fuese 5 o menos si H0 fuese verdadera? Esto viene a ser la
suma de las probabilidades para W = 3, 4 y 5, es decir, 4/21 = 0.190

Este valor es entonces el p-value para el test estadístico de 5.

- En otras palabras, dice que la probabilidad de desviarse de E[W] en al menos


esta magnitud cuando H0 es verdadero será de 0.190, lo cual no es algo poco
frecuente (1 opción en 5). Es decir, la evidencia en contra de H0 no es muy
convincente. Si los rankings de los 2 x´s fuesen 1 y 2, entonces W = 3 y el p-
value sería 1/21 = 0.048. Este resultado es mucho menos probable que el caso
anterior, pero aun no es “extremadamente raro”. De hecho, debido a que el
número (tamaño) de la muestra es tan reducido en este ejemplo, el test casi nunca
208

permite rechazar H0. El añadir más datos podría hacer posible obtener menores
valores-p, permitiendo en forma más confiable rechazar H0

- El ejemplo anterior consideró solo el valor-p de un lado (test de una cola), lo cual
es adecuado cuando existe alguna noción de que x deba ser menor que y (o vice-
versa). Sin embargo, a menudo la situación es que no existe, a priori, una noción
acerca de cuál debe ser menor: En estos casos, un test de dos colas debe ser
efectuado

- Hemos hablado algo ya sobre distribuciones normales, no normales, test


paramétricos, no paramétricos, etc…., pero ¿cómo podemos evaluar ésto, si una
distribución (set de datos) es normal? Para esto tenemos métodos gráficos y test
estadísticos

- Métodos gráficos: Mientras más


“normal” es un set de datos, éste se
dispondrá en un gráfico de
probabilidad como (o más cercano) a
una línea recta. Así entonces,
podemos graficar los datos y ver
como se distribuyen.
209

- Métodos estadísticos: La hipótesis nula para todos los test de normalidad es que
“los datos se distribuyen en forma normal”. Así entonces, el rechazar H0 implica
que este supuesto de distribución es dudoso. El no poder rechazar H0, sin
embargo, no es prueba de que los datos siguen una distribución normal,
especialmente para tamaños pequeños de muestras. Simplemente significa que la
“normalidad” no puede ser rechazada con la evidencia disponible. El uso de altos
niveles de (por ejemplo 0.1) aumenta el poder del test de detectar no
normalidad, especialmente para muestras pequeñas, y suele ser recomendado.
Algunos ejemplos de test son: Kolmogorov-Smirnoff, Ryan-Joiner, y Anderson-
Darling
210

- Tal como ya se ha indicado, muchas variables en ciencias de la Tierra suelen,


“lamentablemente”, no seguir una distribución normal. Sin embargo, una
distribución que aparece con frecuencia es aquella log-normal, es decir, los
logaritmos de los valores originales si siguen una distribución normal
211

- Además de convertir una variable sesgada en otra con una forma (distribución)
más simétrica, una transformación (como la logarítmica) puede también ser útil
para “estabilizar” la varianza. La figura (panel de la izquierda) muestra por ejemplo
los resultados de permeabilidad vs. porosidad de testigos tomados de un campo
de gas. Como es de esperar, los testigos (materiales) que son más porosos
tienden a ser más permeables, pero también más variables en su permeabilidad.
Transformando la permeabilidad en su valor logarítmico (log-permeabilidad) se
observa (panel de la derecha) que la varianza se vuelve consistente y que la
relación entre porosidad y permeabilidad se lineariza.

- Igualmente, si dos variables que tienen distribuciones sesgadas se grafican


simultáneamente, la relación entre ambas se vuelve a veces más clara si ambas
variables se transforman logarítmicamente. Por ejemplo, la siguiente figura
muestra un gráfico de los volúmenes de reservas de petróleo (en Texas y
Lousiana) vs. las áreas de confinamiento de estructuras salinas en las cuales los
yacimientos se encuentran dispuestos. Se observa que en general existe una
relación positiva entre ambas variables, pero además, que la varianza
(variabilidad) es proporcional a la media! (volveremos a este tipo de situaciones
más adelante).
212

- Ciertamente otras transformaciones de xi (los datos de una muestra) pueden


realizarse de tal forma que su distribución se acerque a la “normal”, o haga que su
varianza sea más consistente, o entregue algún beneficio estadístico.

- En efecto, los procedimientos de


transformación de datos se usan a
veces para hacer que los datos se
vuelvan “más normalmente
distribuidos”, antes de aplicar un test
paramétrico. Sin embargo, no existe
necesariamente una garantía de que
este tipo de transformaciones sea
realmente efectiva. Aun más,
normalmente, no existe nada “sagrado”
en relación a nuestra escala original de
medición, y podemos sentirnos libres de
cambiar la escala si es de utilidad.
213

Sin embargo, al mismo tiempo debemos tener presente que ahora nuestro análisis
estadístico está evaluando una hipótesis diferente que corresponde a las
características de la variable transformada, y no necesariamente a las de la
variable original. Además, debemos ser cuidadosos en no engañarnos a nosotros
mismos con transformaciones tan “exóticas” que perdemos de vista la naturaleza
original de lo que estamos tratando de analizar y entender

- A menudo, las transformaciones incluyen funciones de la forma y = x , donde x


es el dato (variable) no transformado, y el transformado, y el exponente. El
siguiente cuadro muestra diferentes tipos de transformación existentes. Nótese
que ciertas transformaciones serían más recomendables para ciertos tipos de
datos (ej. si estos presentan sesgo positivo o sesgo negativo), y de ahí la
importancia del análisis exploratorio básico!
214

- En efecto, como se desprende de la tabla, cualquier transformación con menor


que 1 puede ser usada para hacer que datos sesgados a la derecha se vuelvan
más simétricos. El construir un box plot o un Q-Q plot de los datos transformados
indicará si la transformación fue apropiada. Si una transformación logarítmica
exagera para un caso de sesgo positivo, una transformación “más suave” con
más cercano a 1, como una transformación de raíz cuadrada o de raíz cúbica,
debería ser empleada. Finalmente, transformaciones con > 1 ayudarán en hacer
datos sesgados a la izquierda más simétricos.

- A modo de resumen, las transformaciones de datos pueden ser usadas con tres
objetivos: (1) Para hacer los datos más simétricos; (2) Para hacer los datos más
lineales; (3) Para hacer los datos más constantes en su varianza. Como se ha
mencionado, problemas (a veces serios) pueden surgir cuando se usan métodos
estadísticos que asumen simetría, linearidad, u homoscedasticidad (varianza
constante) en los datos que en realidad no poseen estas características. La
transformación puede ayudar a conseguir (o acercarnos) a estas características, y
así el realizar una transformación cumple un objetivo.

- Eso sí, el otro extremo (el “abuso”), por ejemplo la tendencia a buscar la “mejor”
transformación, debe ser evitada. Por ejemplo, cuando se trabaja con varios set de
datos similares, probablemente es mejor encontrar una transformación que
funcione razonablemente bien para todo ellos, más que usar diferentes
transformaciones para cada uno. Se debe recordar además que cada set de datos
es una muestra de una población mayor.
215
216
217

1.6. Análisis Multivariados

- El análisis multivariado se enfoca en el desarrollo de modelos (estadísticos) para


entender las relaciones entre variables. En disciplinas de Ciencias de la Tierra, los
métodos multivariados son mayormente exploratorios. Estos métodos pueden caer
(en general) en algunas de las siguientes características: (a) Reducción de datos:
cuando se miden muchas variables, es común poder determinar subgrupos que
son una combinación lineal de las variables originales. Técnicas de reducción de
datos, como el análisis de componentes principales (Principal Component
Analysis, PCA) pueden ayudarnos a eliminar esta redundancia. Además, a veces
PCA provee información acerca de la estructura y relaciones entre variables; (b)
Agrupamiento de variables: El agrupar variables que exhiben similares
características pueden darnos información acerca de la ocurrencia de un proceso.
Un ejemplo de estas técnicas es el Análisis de Factores (Factor analysis, FA),
donde se pueden detectar señales de contaminación ambiental a través de la
identificación de un pequeño set de factores comunes compuestos de variables
similares; (c) Agrupamiento de observaciones: el agrupar muestras
(observaciones) cuyas variables tienen características similares puede ser una
herramienta importante para entender sistemas complejos, especialmente cuando
las observaciones tienen una relación espacial; (d) Clasificación: el clasificar un
objeto en uno de varios grupos pre-definidos puede ser hecho con un
procedimiento llamado análisis discriminante (discriminant analysis)

- El análisis multivariado implica hacer comparaciones, buscar patrones, y hacer


inferencias (a menudo en el tiempo o en el espacio). Como ya hemos discutido,
los gráficos (análisis gráfico) pueden jugar un rol importante. Por ejemplo, similar
al scatterplot, podemos usar un scatterplot matrix.
218

Por ejemplo, podemos


advertir un outlier
aparente para Ca; una
correlación positiva entre
Al y Si (hablaremos de
esto a continuación); una
correlación fuerte entre
Al y cenizas y entre Si y
cenizas; una correlación
negativa débil entre Al y
Sulfuro.

Dado que en secciones de este capítulo ya fue abordado en mayor profundidad el


uso de métodos multivariados como análisis de cluster y componentes principales,
nos quedaremos acá con un “tipo” de análisis multivariado básico y de uso común,
las correlaciones y el cálculo de sus coeficientes.

- Se han medido las concentraciones


de dos compuestos (ej. atrazina y
nitratos) en aguas subterráneas en
varios pozos en un área dada. Para
cada muestra, se ha graficado la
concentración de un compuesto vs. la
concentración del otro. Se advierte
que en la medida que aumentan las
concentraciones de atrazina, también
lo hacen las de nitrato. Pero ¿cómo
podemos evaluar (estadísticamente)
la “fuerza” de esta asociación?.
219

Otra situación: Los ríos que drenan


una zona suelen recibir (la zona)
menos precipitación en noviembre, en
comparación a los otros meses. ¿Ha
disminuido en forma significativa la
cantidad de precipitación en
noviembre en los últimos 70 años?
¿Cómo podemos evaluar ésto?

- Preguntas como las recién expuestas requieren una determinación de la “fuerza”


de asociación entre dos variables (continuas), por ejemplo entre dos
concentraciones, o entre las cantidades de precipitación y el tiempo. En otras
palabras, como “co-varían” estas variables? Una forma de medir esta relación es
a través de los coeficientes de correlación. En general resulta buena práctica (si
no imprescindible) el graficar los datos en scatterplots siempre que se calculan
coeficientes de correlación. Eso sí, resulta importante reconocer que diferentes
tipos de patrón pueden producir el mismo coeficiente de correlación, y similares
relaciones pueden producir diferentes coeficientes, dependiendo de la curvatura
de la relación, tal como se muestra en la siguiente figura.
220

- Como hemos dicho, el coeficiente de correlación mide la “fuerza” en la relación


entre dos variables (continuas), es decir, si una aumenta la otra también, la otra
disminuye, o la otra no cambia. En otras palabras, mide la co-variación. Sin
embargo, es importante tener presente que NO entrega una evidencia de una
relación causal entre las dos variables!. Es decir, puede que una sea la causa de
la otra (ej. precipitación/escorrentía). Pero también pueden estar las dos variables
correlacionadas compartiendo una misma causa (ej. SO4 y CE en aguas como
consecuencia de los vertidos de un proceso minero). Así, si queremos buscar
221

evidencia de una causa, debemos ir más allá del análisis estadístico de


correlación, partiendo por conocer los procesos involucrados y bajo estudio!

- La medida de correlación, que representaremos por la letra/símbolo , es


adimensional, y se ubica en el rango -1 1. Cuando no hay correlación entre
dos variables, = 0. Si una variable aumenta en la medida que la otra aumenta (o
ambas disminuyen su valor), > 0, mientras que si las dos variables cambian en
sentido opuesto, < 0. Tal como hemos visto ya en estas notas, nos interesa
evaluar la significancia de una correlación. Para ello, el test de hipótesis a usar es:

- Finalmente, resulta interesante advertir ya a este nivel que si una variable es una
medida de tiempo o ubicación, la correlación se vuelve un test de tendencia
temporal o espacial

- Los datos pueden correlacionarse en forma lineal o no lineal. Cuando y


generalmente aumenta o disminuye en la medida que x aumenta, se dice que las
dos variables tienen una correlación monotónica. Este tipo de correlación puede
ser no lineal, ej. con patrones exponenciales u otros, o lineal. En la siguiente figura
se da un ejemplo.
222

- Evidentemente en la medida que x crece, y crece. Pero se advierte que la


relación no es lineal ni constante, es decir, en la medida que x crece y aumenta a
una tasa cada vez mayor. Así, como consecuencia de esta (evidente) no
linealidad, el uso de un coeficiente de correlación lineal sería inadecuado! La
“fuerza” en la relación lineal se verá “diluida” por la no-linearidad, resultando en un
menor coeficiente de correlación y una menos significancia para un mismo patrón
de dispersión de los datos.

- Existen (de uso común) tres


medidas de correlación: tau ( )
de Kendall, rho de Spearman, y
r de Pearson. Los dos primeros
se basan en rankings, y miden
relaciones monotónicas como
las descritas en la figura
(arriba). Son además
resistentes al efecto de outliers.
Por otro lado, el más
comúnmente usado coeficiente
r de Pearson es una medida de
223

la correlación lineal entre dos variables, es decir, un caso específico de correlación


monotónica.

Sin embargo, ninguna de las tres medidas de correlación sirve para detectar
relaciones no-monotónicas como las de la figura anterior (abajo)

- Kendall´s Tau: Tau mide la fuerza de una relación monotónica entre x e y. Es un


procedimiento basado en ranking (posición) y, por lo tanto, es resistente al efecto
de un pequeño número de valores inusuales. Es adecuado también para variables
que exhiben sesgo. Dado que tau ( ) depende sólo de los rankings (ubicación) y
no de los valores propiamente tal, puede ser usado incluso en casos donde parte
de los datos son censurados. será generalmente menor que los valores del más
común coeficiente r de Pearson para relaciones lineales de la misma fuerza. Estos
“menores valores” no significan que sea menos sensible que r, simplemente
sucede que está siendo usada una escala de correlación diferente.

- Spearman´s Rho: Es una


forma alternativa al de
Kendall. A diferencia de
éste, en el Rho de
Spearman las diferencias
entre los valores de datos
que se ubican (“rankean”)
más alejados reciben más
peso.

En todo caso, y rho usan diferentes escalas para medir la misma correlación,
como sería por ejemplo en el caso de la temperatura con los ºC y los ºF. Aunque
es generalmente menor que rho en magnitud, sus valores de p deben ser bastante
similares cuando se calculan a partir de los mismos datos.

- El r de Pearson no es resistente a outliers (a diferencia de tau o rho) debido a


que es obtenido a partir de mediciones no resistentes, la media y la desviación
224

estándar. Asume además que los datos siguen una distribución normal bivariada.
Con esta distribución, no sólo las variables individuales siguen una distribución
normal, si no que su variación conjunta también sigue dicho patrón. Así, este
supuesto hace descartar el uso del coeficiente de Pearson cuando los datos
presenta una variación en aumento (o no constante), como lo que se observa en la
siguiente figura (abajo). Variables sesgadas a menudo muestran outliers y
varianza en aumento.

1.7. Geoestadística

- A continuación abordaremos un tema de especial importancia para el tratamiento


de información espacial, de común uso en Ciencias de la Tierra, la geoestadística.
Por cierto, estos apuntes no pretenden cubrir exhaustivamente el tema, sino más
bien presentar una visión general y simplificada del mismo que permita al lector
entender las ventajas y requerimientos de una metodología que gran interés y uso
en la actualidad.
225

- Dado un set de datos, obtenido de


una población espacialmente
distribuida (ej. Leyes de una
prospección minera, información
química de una red de drenaje, etc…),
surge la pregunta acerca de cómo
poder estimar el valor en lugares
donde no tengo muestras.

- Es importante entonces destacar la palabra estimación, ya que es eso lo que


haremos. Evidentemente, lo “ideal” sería tener un alto número de muestras, lo que
nos permitiría “conocer” el valor de la variable de interés en lugares no
muestreados con mayor confianza. Pero dado que esto es caro (obtención y
análisis de muestras), podemos recurrir a técnicas estadísticas que nos permitan
ayudar en esta tarea, y mejor aun, tener una idea de la incertidumbre o errores
posibles asociados al proceso de estimación.

- Volviendo a la pregunta (cómo conocer el


valor de la variable de interés en lugares no
muestreados), podemos utilizar diferentes
aproximaciones (que van a diferir por
supuesto en su complejidad y nivel de
confianza que entregan):

a) Promedio simple. Podemos estimar que


el valor en un lugar no muestreado
corresponde al promedio de los valores
determinados en los lugares muestreados
cercanos.

b) Regresiones múltiples, análisis de tendencia de superficie. Consiste en


“describir” matemáticamente la mejor superficie que “pasa a través” de la nube de
puntos (en otras palabras, podemos hacer la analogía a un mapa topográfico, en
226

que la variable de interés, ej. concentraciones, son similares a las cotas o alturas
del terreno). El valor estimado en una localidad no muestreada debe ubicarse en
esta superficie

c) Interpolación espacial. Nos basamos en algún


algoritmo que usa los valores en el vecindario
espacial (cercanías) a la localidad no muestreada
para la cual queremos hacer la estimación, en base
a un conocimiento adicional del set de datos.

- Con respecto a esto último, existen diversas aproximaciones, siendo una de ellas
la geoestadística. A diferencia de otros enfoques (ej. “inverso de la distancia al
cuadrado”), la geoestadística se basa en la caracterización de la dependencia
espacial de cierto atributo cuyo valor varía en el espacio (nuestra variable de
interés), y en el uso de dicha dependencia espacial (que se entiende que existe y
ha podido ser caracterizada) para predecir los valores en las localidades no
muestreadas.

- Así entonces, el análisis geoestadístico consta de dos etapas mínimas: (a)


caracterización de la dependencia espacial (que incluye conceptos asociados
como distancia y dirección en dicha dependencia), y (b) estimación en la localidad
no muestreada. Luego requiere un trabajo mayor que otras técnicas de
227

interpolación espacial más simples, y no necesariamente su uso se va a justificar


en todos los casos.

- La noción de dependencia espacial se


basa en que “los valores de localidades
cercanas serán más parecidos entre sí
que los valores en localidades más
alejadas”.

- Sin embargo, un estudio geoestadístico “completo” considera las siguientes


etapas: (a) diseño; (b) análisis exploratorio de datos; (c) análisis y modelación de
la dependencia espacial; (d) mapeo. Analizaremos un poco más en detalle estas
etapas a continuación.

- Diseño del muestreo: es tal vez una etapa muchas veces olvidada del análisis de
datos en general y del análisis geoestadístico en particular, pero ciertamente que
un buen diseño nos permitirá realizar un buen análisis posterior y, lo que más nos
interesa, una buena estimación (y al revés, un diseño ineficiente puede hacer inútil
el gastar energía en un análisis complejo como el gesoestadístico).

- Ciertamente a mayor cantidad de datos (lugares muestreados), mayor


“confiabilidad” debiésemos esperar en los resultados a obtener en las
estimaciones. Pero por otro lado mientras mayor es la cantidad de lugares
muestreados, mayor es el costo de la campaña!. Además, ¿es sólo un problema
de cantidad? ¿Qué hay acerca de la ubicación de los lugares a muestrear?

- Con respecto a la cantidad de lugares a muestrear, un “número mágico” en


estadística en general (ya comentado previamente) es 30. Por extensión entonces,
en geoestadística también podemos decir que un número “mínimo” de lugares
muestreados debiese andar en el rango 25 a 30. Ciertamente a mayor extensión
del área de estudio, mayor será la cantidad mínima deseable de lugares a
muestrear. En todo caso, este número mínimo de 25 a 30 observaciones no es tan
aleatorio ni arbitrario como puede parecer.
228

Recordemos que la base de la


geoestadística se basa en reconocer la
dependencia espacial, es decir, el
identificar que tan parecidos (o no) son
los valores obtenidos en lugares
cercanos, y comparar eso con los
valores obtenidos en lugares más
alejados.

Es decir, debemos comparar pares de puntos!. Así entonces, con 25 a 30 puntos


(lugares muestreados) podemos realizar n(n-1)/2 combinaciones de pares de
puntos (si n = 30, tendremos 435 pares a comparar)

- Ahora bien, no es sólo un tema de cantidad, sino también de ubicación y, por lo


tanto, de separación entre los lugares a muestrear! Así entonces, no sacamos
nada con tener una aparente elevada cantidad de lugares muestreados si estos
están muy separados entre sí. ¿Por qué?

Nuevamente volvemos al
concepto básico: dependencia
espacial, “valores de lugares más
cercanos entre si son más
parecidos que valores de lugares
más lejanos”.

Pero si esa dependencia es de corta escala (ej. 30 m), y los lugares muestreados
están separados entre sí a una distancia mínima de 40 m, ¿detectaremos esa
dependencia espacial? Por supuesto que no!.
229

- Análisis exploratorio de
datos: Antes de ponernos
a determinar si existe o no
dependencia espacial (y si
existe, a caracterizarla), es
buena práctica ver los
datos!

Algo similar se comentó en secciones previas desde los básicos y simples


histogramas. Así entonces, un post plot (o “ploteo”) de los datos, para ver la
ubicación de los lugares muestreados, los máximos, los mínimos, etc., es
altamente recomendable.

- Además, en una simple figura como ésta podemos ver la continuidad y la


regularidad espacial (potenciales cluster) del atributo espacial de interés, así como
revelar la presencia de tendencias. Con respecto a esto último, es importante
aclarar ya acá que tendencia no es sinónimo de dependencia espacial. De hecho,
el que exista una tendencia en los datos puede ser perjudicial para el análisis
geoestadístico (especialmente si no se ha identificado esta situación en este
análisis exploratorio).

- Una forma simple de evaluar la existencia de tendencia en el set de datos es


usar ventanas móviles para el cálculo de medias locales. En forma paralela,
podemos ir calculando desviaciones estándares locales, lo cual nos permite
identificar lugares con valores altos o bajos y en los cuales es posible esperar un
mayor error en la interpolación a realizar
230

Ejemplo de medias y desviaciones estándar


locales (no exactamente lo representado en la
figura de la izquierda)

- La siguiente figura muestra en forma esquemática cuatro posibles situaciones


que se pueden dar considerando las medias locales (línea sólida sin cruces) y
variabilidad local (línea con cruces). Por ejemplo, el identificar zonas donde la
variabilidad es alta puede sugerirnos el tomar muestras adicionales, previo a
cualquier análisis espacial (geoestadístico)
231

- Otro tema que podemos identificar a partir de una relación entre las medias y la
variabilidad (ej. desviación estándar) locales es el llamado efecto proporcional. Tal
como hemos señalado, la presencia de anomalías en el vecindario de una muestra
(variabilidad local) va a tener un impacto en la exactitud de las estimaciones que
se realicen en dicha zona, al contrario de lo que ocurre en una zona con valores
más uniformes, lo que nos permite tener una mejor estimación local. Además, si
los datos muestras importantes fluctuaciones, nuestras opciones de obtener
estimaciones locales confiables será menor. Esto no tiene nada que ver con el
método de estimación que se use.
232

- Si un análisis de medias y variabilidades


locales muestra que para aquellos mayores
promedios es mayor la variabilidad, estamos
en presencia de lo que se conoce como
efecto proporcional, lo que se ejemplifica en
la figura de la derecha.

- El problema de ésto es que cuando existe efecto proporcional y el muestreo


tiende a concentrarse en lugares de altos valores (ej. para mostrar resultados
optimistas a quien solicita un trabajo de prospección en un lugar dado),
terminamos obteniendo variogramas que no pueden ser interpretados. Los
variogramas corresponden al diagrama más importante del análisis
gesoestadístico por cuanto es a partir de lo cual podemos inferir la existencia o no
de dependencia espacial (y de existir, sus características). Si bien hablaremos
más adelante en específico acerca de estos diagramas (dada su importancia ya
mencionada), es importante recordar esta situación y de ahí la importancia de
estos análisis exploratorios simples (pero muchas veces olvidados!).

- Otros análisis estadísticos “básicos”


discutidos en secciones previas tales
como histogramas, cálculo de
estadística básica, gráficos de
frecuencia relativa acumulada (donde
Una distribución con una línea recta
indica una distribución de datos
bastante uniforme, mientras que una

distribución en forma de S indica una distribución simétrica con una concentración


de valores centrales y pocos valores hacia los extremos), gráficos de boxplots,
etc…, son nuevamente recomendables (y hasta imprescindibles, como veremos
para el caso de la desviación estándar). Igualmente
233

- Por cierto, un punto básico pero no por ello menos importante de mencionar (y
que se aplica igualmente para todo lo ya comentado) se refiere a las unidades y
los decimales. Con respecto a lo primero, es central no olvidar que valores como
el promedio, la varianza y la desviación estándar tienen unidades! (las mismas de
los datos para el promedio y la desviación de los datos; la de los datos al cuadrado
para varianza). Con respecto al segundo, si estamos trabajando con datos que
tienen uno o dos decimales, no tiene sentido algún presentar resultados
(promedios, varianzas, etc..) con 3, 4, 5 o más decimales. Esta situación que
puede ser obvia es sin embargo comúnmente olvidada, y es frecuente encontrar
resultados que se presentan con una cantidad exagerada de decimales. Esto
representa una información inexistente y da la idea de una mayor exactitud en los
resultados, lo cual suele ser falso.

- Finalmente, es importante señalar que los métodos de interpolación


geoestadística (Kriging) se basan en que los datos presentan una distribución
normal. Si bien esto puede no ser cierto, al menos es necesario hacer la
evaluación de esta situación en las formas que ya se han discutido previamente (e
intentar su “corrección” por medio de transformaciones en caso de ser necesario y
moderadamente posible)

- Un tipo de análisis “gráfico” interesante de mencionar también es el histograma


de espaciamientos. Como ya hemos indicado brevemente, para poder evaluar la
existencia de dependencia espacial y poder lograr su caracterización adecuada,
es importante disponer de una “adecuada” cantidad de pares de puntos (que son
comparados en términos de que tan parecidos o diferentes son, lo que veremos
más adelante en el variograma) a diferentes distancias. Este análisis entrega una
importante información respecto a la distribución, y más específicamente la
distancia (lags) entre los puntos (en el espacio), lo cual puede ser de especial
relevancia especialmente si estamos en la fase de planificación de una campaña
de muestreo!
234

- Por ejemplo, un histograma de


lags que muestre un fuerte sesgo
(strong skew) a la izquierda indica
que probablemente no tendremos
suficientes pares de puntos para
lags pequeños (distancias de
separación cortas) disponibles en el
set de datos
(nota: en el eje X está la distancia de separación, h,
de pares de puntos, y en eje Y la cantidad de pares
de puntos para cada h)

Igualmente, gaps o saltos en el


rcfp plot indica la ausencia de
lags en algunas categorías.

Así, en muchos casos la


efectividad de un plan de
muestreo puede ser evaluada
antes del trabajo de muestreo

mismo, completando un análisis simple (univariado) de los lags que resultan del
plan de muestreo propuesto!

- Diagramas de dispersión de espaciamientos (lag scatterplots): También


conocidos como h-scatterplots, se incluyen en el gráfico los valores de pares de
datos que están localizados a una separación (lag) dada. Por lo tanto, se pueden
producir tantos gráficos como separaciones haya. Más aun, aparte de considerar
todos los lugares de muestreo, este análisis puede ser desarrollado en forma
selectiva para diferentes orientaciones. En la siguiente figura se muestra un
ejemplo de las nubes de puntos que se generan para diferentes espaciamientos
(distanciamientos) entre pares de puntos (h = 10, 20, 30, y 40 m). Cada cruz
235

representa un par de lugares de muestreo, el valor en la posición x (cualquiera


esta sea) y el valor de una segunda muestra separada a una distancia x + h.

Si los puntos se disponen centrados en torno a la línea 45º en un h-scatterplot


dado, es un indicador de una dependencia espacial fuerte a ese lag h. En efecto,
la forma de la nube de puntos en un h-scatterplot nos indica cuan continuos son
los valores (datos) sobre una cierta distancia en una dirección en particular. Si los
valores en ubicaciones (lugares de muestreo) separadas por una distancia h son
muy similares entonces el punto en el gráfico se ubicará cerca de la línea x = y
(diagonal de 45º). En la medida que los valores se vuelven más diferentes (para
una cierta distancia de separación), la nube de puntos se dispersa, se aleja de la
línea x = y. Si esto ocurre, es una señal de existencia de dependencia espacial
236

(nuevamente, que puntos más cercanos son más parecidos que puntos más
lejanos), principio básico de la geoestadística (y de ahí el valor de este tipo de
análisis gráfico simple).

- Estas figuras son también útiles para


obtener en forma rápida y en forma
visual información acerca de la
existencia de outliers (como lo que se
muestra en la figura con los círculos
rojos, valores muy distintos entre sí
para una distancia h de separación).
En algunos casos, el remover (o
ignorar) ciertos outliers puede ser una
importante ayuda en los análisis
subsiguientes de dependencia
espacial; sin embargo, en la mayoría
de los casos los outliers deben ser re-
introducidos al set de datos antes de
estimar y simular el atributo espacial.

- Hasta ahora hemos discutido análisis “previos” al proceso de estimación


propiamente tal. Son, como se ha visto, análisis importantes por cuanto permiten
evaluar la “calidad” de la información, tanto en términos de su abundancia como
de la distribución de lugares muestreados. Ahora veremos en mayor profundidad
el proceso de determinación de dependencia espacial, la confección de
variogramas y su significado, la interpolación mediante geoestadística (Krigin) y
algunos elementos adicionales complementarios.

- Le geoestadística se basa, en su fundamento teórico, en considerar que el


proceso natural que determina la distribución de la variable de interés (cuya
estructura espacial tratamos de capturar e identificar a partir del muestreo) es un
proceso aleatorio (“random process”). Habiendo escogido visualizar
(conceptualizar) nuestros datos como el resultado de un proceso aleatorio,
237

necesitamos definir sólo ciertos parámetros de dicho proceso. Para ello se vuelve
de utilidad el concepto de variable aleatoria “random variable”), es decir, una
variable cuyos valores son aleatoriamente generados de acuerdo con algún
mecanismo probabilístico. En otras palabras, una variable que toma diferentes
valores de acuerdo a los resultados de experimentos repetidos, eventos de
muestreo. Finalmente, debemos considerar el concepto de variable regionalizada,
es decir, lo que se refiere a una variable aleatoria que está distribuida en el
espacio.

- En términos generales, el atributo espacial de


interés es modelado como una función aleatoria.
Debemos entender una función aleatoria como un
conjunto de variables aleatorias que poseen cierta
ubicación espacial y cuya dependencia entre ellas
está especificada por algún mecanismo probabilístico.

- Existen diferentes indicadores estadísticos de dependencia espacial. Para


efectos prácticos de estos apuntes, nos enfocaremos en la “herramienta” más
comúnmente usada, el variograma. Para su derivación (y comprensión), debemos
considerar el “momento de inercia” de una nube de puntos (Xi, Xi+h) en torno a la
línea de 45º (y de ahí la importancia de comprender conceptualmente los
diagramas h-scatterplot vistos recién!).

- Si di es la distancia perpendicular del


punto i-ésimo hasta la línea xi = xi+h,
entonces el momento de inercia Im de
los puntos en torno a dicha línea
puede ser obtenido como
238

- Este momento de inercia es lo que se conoce como variograma o


semivariograma (es lo mismo), y que se describe en términos geoestadísticos
como

En el fondo, es una medida de que tan parecidos o no son los valores de pares de
puntos (muestras) ubicados a ciertas distancias de separación entre sí. En el
fondo, si existe dependencia espacial, “muestras más cercas son más parecidas
que muestras más distanciadas” o, en otras palabras, el valor del variograma ( (h))

aumenta en la medida que aumenta h.

- En un sentido estadístico tradicional, se requerirían muchas “realizaciones” del


par [Xu, Xu+h] para recién poder hacer inferencias estadísticas. Sin embargo, esto
es ciertamente imposible en la práctica. En vez de esto, debemos depender del
promedio de pares de puntos en ciertos rangos de distancias separados por h.
Para “confiar” en este promedio, se deben aceptar algunos supuestos básicos,
entre ellos el de estacionaridad. Sin entrar en un análisis detallado que escaparía
al alcance de estas notas, este supuesto considera que la media y la varianza no
cambia en diferentes partes del espacio, del área de estudio.
239

- El concepto de estacionaridad es
una propiedad matemática del
modelo, no de los datos.
Normalmente se cumple si los datos
muestran una distribución normal o
estos no muestran una clara
tendencia espacial en el área de
estudio.

- En la práctica es difícil que esta situación se dé en muchas situaciones reales.


En efecto, muchas veces un set de datos contendrá anomalías locales que
pueden ser de interés, pero que parecen contradecir el supuesto de
estacionalidad. A pesar de esto, de todas formas el análisis geoestadístico puede
ser llevado a cabo si consideramos vecindarios limitados de búsqueda en el
proceso de interpolación de valores (que discutiremos más adelante), es decir, si
asumimos que al menos existe una estacionaridad local. En otras palabras, aún en
la eventualidad de que el supuesto de estacionaridad global no sea adecuado, se
puede realizar un análisis geoestadístico ajustado. Por ejemplo, es posible
subdividir el set de datos en poblaciones separadas, regiones más pequeñas en
las cuales el principio de estacionaridad es más adecuado o plausible. Por
supuesto que esto sólo será posible en la medida que tenemos una “adecuada”
densidad de muestras en nuestro sitio de interés!. De todas formas, ya en este
punto debe ser más clara aun la importancia del análisis exploratorio descrito
previamente (ej. medias y desviaciones estándar locales).

- Para poder llegar a la etapa de estimación de valores en lugares no


muestreados, en base al análisis geoestadístico, debemos entonces caracterizar
la dependencia espacial/variabilidad de los datos, es decir, confeccionar el
variograma, es decir, calcular el h, el comparar pares de puntos ubicados a
diferentes distancias. Su obtención es algo trivial en los softwares geoestadísticos,
pero resulta importante identificar y discutir brevemente acerca de sus
componentes y los modelos asociados.
240

- El nugget (o “efecto pepita”)


corresponde a la variabilidad de
corta distancia (recordemos que,
de haber dependencia espacial,
debiésemos esperar que muestras
cercanas, para un pequeño h,
fuesen muy parecidas entre sí,
luego el valor de variograma
debiese ser cero o muy cercano a
cero)

- La escala corresponde a la diferencia entre el nugget y el máximo valor del


variograma, conocido como sill (o cima), y que corresponde a la varianza de la
muestra. El rango (o length) es la distancia (de separación de pares de puntos)
hasta donde se determina que existe dependencia espacial. En otras palabras,
más allá del rango, la variabilidad de pares de puntos (valor del variograma) no
continúa aumentando sino que se vuelve constante (en la práctica, se pueden
obtener valores erráticos, mayores y menores que el sill, pero se entiende que de
todas formas se deja de observar el comportamiento típico para distancias de
separación menores al rango).

- Como curva del modelo se denomina a una función matemática que se ajusta al
variograma experimental (nube de pares) y que incluye en forma implícita la
dependencia espacial del set de datos. Existen diferentes tipos de modelos de
variogramas, como el gaussiano, el esférico, el lineal, etc... . Lo importante de
aclarar eso si es que dichos modelos han sido desarrollados en base a ciertos
supuestos (ej. que son funciones “positivas-definidas”). Sin entrar en ese detalle,
lo importante es que el ajuste del modelo del variograma debe restringirse a
dichas funciones existentes. En otras palabras, no es correcto realizar una
regresión polinómica, por ejemplo, para determinar el modelo del variograma.
241

- Es importante acá retomar un tema que fue descrito previamente, el del efecto
proporcional. Tal como se señaló, si la variable de interés presenta este
comportamiento, la estimación de la dependencia espacial se ve complicada. En
términos simples, se dificulta enormemente el obtener un variograma
experimental, y a partir de éste, ajustar un modelo de variograma. Luego si esto no
puede ser realizado, y en definitiva no es posible obtener los parámetros de
nugget, escala, y rango, cualquier interpolación posterior carece de sentido
242

- Hasta acá hemos descrito la obtención de


lo que se conoce como variograma
omnidireccional, es decir, considerando
todos los pares de puntos separados a
distancias dadas en todas las direcciones.

- En la medida que disponemos de una “elevada” cantidad de lugares


muestreados, podremos definir variogramas direccionales, es decir, restringiendo
nuestro análisis considerando pares de puntos separados a distancias dadas en
ciertas direcciones excluyentes entre si (ej. N-S, E-O, N45E, etc…).

- La utilidad de este tipo de análisis es que nos permite identificar la variabilidad


direccional de la dependencia espacial. En otras palabras, nuestra variable de
interés (ej. concentraciones de Cu en sedimentos y suelos) puede tener una
mayor dependencia espacial en un sentido que en otro. Ciertamente el hecho de
poder identificar esta situación mejorará nuestra capacidad de estimar los valores
en lugares no muestreados. Sin embargo, al mismo tiempo, para poder
confeccionar este tipo de diagramas requerimos de una cantidad “suficiente de
muestras”, ya que si no terminaremos con variogramas con muchos vacios (en
otras palabras, inexistencia de pares de puntos a ciertas distancias y para ciertas
243

direcciones), lo que vuelve más complejo (o incluso inútil) el tratar de ajustar


modelos de variogramas a nuestros datos de terreno.

- En base a los resultados antes descritos, podremos conocer la extensión de la


dependencia espacial del set de datos (variable de interés), ya sea en todas las
direcciones al mismo tiempo o en forma direccional selectiva. Con esto, podremos
condicionar en forma adecuada el proceso de interpolación. En otras palabras, la
interpolación de un valor en un lugar no muestreado, a partir de la información
disponible en lugares muestreados, considerará esta dependencia espacial, y
dejará fuera del cálculo matemático aquellos puntos (lugares de muestreo) que se
encuentren más distantes que el rango de influencia con respecto al lugar donde
estoy realizando la estimación. Igualmente, la asignación del peso (ponderación) a
los valores conocidos que utiliza la técnica para realizar la estimación en el lugar
de interés se basará en esta dependencia espacial ya identificada. Este proceso
de estimación es lo que se conoce como Krigik, en honor a Daniel Krige, ingeniero
sudafricano quien desarrolló las bases empíricas de los métodos geoestadísticos

- En términos muy simples, lo que hace el método es definir una grilla, considerar
los valores conocidos (círculos rojos de la siguiente figura) y la dependencia
espacial determinada (variograma), y estimar matemáticamente los valores en los
244

nodos de la grilla definida (cruces en la figura). En base a dichos valores


estimados, se pueden obtener mapas (de iso-concentraciones, iso-niveles, etc..).

- Finalmente, resulta de interés el mencionar algunos aspectos adicionales de


interés de la técnica geoestadística de Kriging que le diferencian de otros métodos
de interpolación más simples. En primer lugar, Kriging “honra” los valores reales.
Es decir, si al confeccionar la grilla de estimación un nodo coincide con un lugar
muestreado, el método no calcula ningún valor si no que se queda con el valor
real. En segundo lugar, tal como se ha indicado, es posible incluir elementos de
direccionalidad en el proceso de interpolación (estimación) de valores (lo que no
ocurre en métodos como el inverso al cuadrado de la distancia).

En tercer lugar, entre diversas opciones,


existe la posibilidad de realizar una
interpolación continua o una interpolación
en bloques (lo que se conoce como Block
Kriging). Este último tipo de estimación de
valores puede tener aplicaciones prácticas
(por ejemplo, en minería, donde una
máquina tiene un volumen mínimo de
operación, no tendría mayor sentido realizar
una interpolación más fina que esa escala)

Finalmente, el método de Kriging entrega, junto con la estimación de los valores,


una estimación del error de interpolación (en términos simples, que tan confiable
245

es la estimación en el área de interés). Ciertamente esto está relacionado con los


aspectos previamente discutidos (ej. densidad de muestreo, presencia de
máximos o mínimos locales, etc..), pero puede ser una herramienta de interés en
una campaña de exploración o muestreo para complementar una campaña
preliminar o re-direccionar recursos con el objetivo de realizar muestreos
complementarios en lugares con alta incertidumbre de estimación.

- Ciertamente, kriging es un método útil y que tiene sus ventajas sobre otros
métodos de interpolación, pero no es mágico ni universal para todos los casos. Así
entonces, si estamos analizando una variable que no muestra una dependencia
espacial fuerte, o tenemos pocos datos, o estos presentan una distribución
altamente sesgada, o no se dan las condiciones en general para su uso, será de
sentido común el no forzar su utilización sino más bien considerar otros métodos
de interpolación más simples (y cuyo uso “exitoso” no se base en tantos supuestos
y características!).
246

Bibliografía.

Davis, J.C. Statistics and Data Analysis in Geology. Wyley, 3rd Edition, pp. 638

Goovaerts, P. 1997. Geostatistics for Natural Resources Evaluation (Applied


Geostatistics Series). Oxford University Press, USA, 496 p.

Helsel, D.R. y Hirsch, R.M. 2002. Statistical Methods in Water Resources. USGS,
510 p. Disponible en: pubs.usgs.gov/twri/twri4a3/pdf/twri4a3-new.pdf . Consultado
en Julio, 2012

Isaaks, E.H., Srivastava, R.M. 1990. An Introduction to Applied Geostatistics.


Oxford University Press, USA p.

Kottegoda, N.T., Rosso, R. 2008. Applied Statistics for Civil and Environmental
Engineers. Blackwell Publishing, 2nd Edition, pp. 718.

Manly, B.F. 2009. Statistics for Environmental Science and Management. CRC
Press, 2nd Edition, pp. 295.

Murphy, T. y Lau, A.T. 2008. Manejo de valores atípicos. Disponible en:


http://www.astm.org/SNEWS/SPANISH/SPND08/datapoints_spnd08.html.
Consultado en Julio 2012.

Schuenemeyer, J.H., Drew, L.J.2011. Statistics for Earth and Environmental


Scientists. Wiley, pp. 407.

Spearman Rank Correlation. Handbook of Biological Statistics. Disponible en


http://udel.edu/~mcdonald/statspearman.html Consultado en Octubre 2012.

Thyne, G., Guller, C., Poeter, E. 2004. Sequential analysis of hydrochemical data
for watershed characterization. Groundwater 42(5): 711-723
247

CAPÍTULO 7: “EXPLORACIÓN MEDIANTE ANOMALÍAS


GEOQUÍMICAS ENDÓGENAS”

http://seia.sea.gob.cl/documentos/documento.php?idDocumento=3201870

http://www.redcoglobal.com/servicios-evaluacion-
de-recursos.php

http://www.miningclub.com/nota/435

http://www.candentegold.com/esp/home.asp http://informaticaminera.blogspot.com/
248

7.1 Conceptos y Relaciones Generales

Este capítulo del curso sigue en parte el texto de Dhana Raju (2009, pp.
253 – 276) y el capítulo de Pellicer, en el libro de Lunar y Oyarzun (1991,
pp. 819 – 835), los que que a su vez están basados, entre otros autores, en
Beus y Grigorian (1977) y Govett (1983). Naturalmente, como en otros
capítulos, incluye también las apreciaciones del autor del presente texto, de
las cuales asume responsabilidad. Su base conceptual general comprende
dos argumentos centrales. El primero es que probablemente existe una
relación entre la composición química de los cuerpos magmáticos y los
tipos de mineralización que generan, vale decir que existe una
“productividad” de esos cuerpos que en algunos casos puede ser inferida
de su análisis geoquímico. El segundo es que el paso de los fluidos
mineralizadores puede generar en las rocas encajadoras, anomalías o
“halos” geoquímicos de mayor volumen que el depósito, las cuales son
potencialmente útiles en su detección.

Como se mencionó en el capítulo 4, las diferentes provincias magmáticas


se expresan en términos de provincias geoquímicas y de provincias
metalogénicas. Por otra parte, esas provincias magmáticas dan lugar a
rocas sedimentarias y metamórficas que retienen parte de sus
características, composicionales, lo cual determina también su
metalogénesis exógena. Por ejemplo, la formación de suelos lateríticos en
condiciones tropicales, puede dar lugar a la formación de depósitos de
bauxita, de óxido de hierro o de silicato de níquel según la composición
félsica, máfica o komatítica.de las rocas magmáticas meteorizadas.

Sin embargo, es importante señalar que las relaciones magmatismo –


metalogénesis no deben ser vistas sólo en términos de la composición
metálica de las mismas, y que su contenido de agua, azufre y halógenos
puede ser tanto o más importante. Por ejemplo, en el caso de los pórfidos
249

cupríferos, el principal elemento concentrado no es el cobre sino el azufre


(tanto en términos de masa como de enriquecimiento geoquímico) y el
contenido de agua del magma, así como sus condiciones de ascenso,
juegan un rol importante en los resultados metalogénicos.

En consecuencia, una provincia metalogénica puede tener su explicación


en la combinación de dos factores principales: a) la anormal concentración
de uno o varios metales en los magmas dominantes b) la acción
consistente de procesos físicos y químicos favorables para que elementos
químicos normalmente dispersos en el magma den lugar a concentraciones
importantes.

En relación con el tema anterior conviene recordar que, según su


abundancia en las rocas corticales, los elemento químicos se clasifican en
“mayores” cuyo contenido medio es 1% o más: O, Si, Al, Fe, Ca, Mg, Na y
K; “menores” (>1% - >0.1%): Ti Mn, Pe, H, y elementos “en trazas” (>0.1%)
que es el caso de todos los demás elementos. Respecto a estos últimos,
hay grandes diferencias en su concentración, que va desde los cientos de
g/t (por ejemplo Ba, Sr) a unos pocos mg/t (Au, Hg). Por otra parte, en
términos de su afinidad geoquímica, los elementos se clasifican en:
siderófilos (afines al Fe), como Co, Ni, Pt, Pd, Os, etc.; sulfófilos (también
denominados calcófilos, afines al Cu y que tienden a formar sulfuros, como
Cu, Ag, Zn, Hg, Pb, etc.; litófilos (que se unen al oxígeno y se concentran
en los silicatos) como Na, Li, K, Ca, Sr, Al, etc.; y atmórfilos (O, N, Ar y
otros gases). Sin embargo, un elemento puede pertenecer a más de un
grupo (por ejemplo, el Fe es tanto siderófilo como sulfófilo y litófilo).
250

(Wedepohl, p. 65)

(Levinson, p. 62)
251

La formación de yacimientos vinculados a rocas magmáticas puede ocurrir


a través de distintos procesos o mecanismos, entre ellos: a) El cuerpo
magmático libera fases neumatofilicas (gas) o hidrotermales enriquecidos
en los componentes de la mena, las que depositan metales en niveles ya
cristalizados del mismo cuerpo o en rocas encajadoras preexistentes (caso
de los pórfidos cupríferos) b) El magma y el líquido mineralizador tienen un
origen común profundo, por ejemplo, el líquido puede una mena sulfurada u
oxidada, separada por desmezcla en profundidad de un cuerpo magmático
(origen propuesto, aunque discutido, para algunos yacimientos de
magnetita o sulfuros masivos) c) La mineralización se produce por
lixiviación de metales de un cuerpo de roca ya cristalizado (caso de los
“black smokers” de las dorsales oceánicas).

Con respecto al mismo punto, es importante considerar que la relación de


un yacimiento hidrotermal con un cuerpo magmático puede ser muy
compleja, y que se deben considerar al respecto cuatro elementos básicos:
1. Metales; 2. Elementos “mineralizadores” (azufre, halógenos); 3. Agua; 4.
Energía térmica. Al respecto puede ocurrir, por ejemplo, qué el cuerpo
magmático haya entregado sólo calor, qué el agua sea de origen meteórico
o diagenético, y qué los metales y algunos elementos mineralizadores
hayan sido lixiviados de una roca preexistente. Naturalmente, puede haber
otras combinaciones de estos factores, así como participaciones
combinadas (por ejemplo, de agua magmática, diagenética y meteórica).

Lo anterior implica que no necesariamente existe una relación directa entre


el contenido de metales del cuerpo magmático y la composición de las
menas que se asocian genéticamente a dicho cuerpo. En todo caso, esa
relación es seguramente más estrecha en los yacimientos de mayor
temperatura, más directamente ligados espacial y temporalmente a los
magmas. En consecuencia, la consideración del modelo de yacimiento es
importante en la interpretación de las relaciones entre la geoquímica de los
252

plutones y su probable “productividad”. Como veremos más adelante, en el


caso de distritos estañíferos asociados a fluidos neumatolíticos
desprendidos de cuerpos graníticos, esa relación ha sido establecida
positiva y consistente. No así en el caso de yacimientos cupríferos
porfíricos, donde los resultados no presentan un grado suficiente, de
consistencia (aunque se han obtenido resultados interesantes utilizando el
contenido de cobre de la biotita).

Respecto al mismo tema, el texto de Dhana Raju recomienda utilizar cinco


criterios geoquímicos de reconocimiento de tipos de mineralización, a
saber: 1°: Estudios isotópicos de Pb en rocas y menas. Puesto que la
corteza superior está enriquecida en isótopos de Pb radiogénicos
(derivados de la desintegración de U y Th), su mayor abundancia sugiere
un origen diagenético, como el propuesto para las menas de Pb – Zn del
tipo Mississippi Valley. Por el contrario, si está empobrecida en ellos, un
origen ligado a magmas de origen profundo es más probable (aunque
tampoco seguro, porque, Pb podría haber sido lixiviado desde rocas
volcánicas máficas por soluciones de origen meteórico).

32 34
El 2° criterio está dado por el estudio de la razón isotópica S / S, ya
explicado en el capítulo 5. El 3° concierne a las asociaciones entre
elementos, como el contenido de Re en las molibdenitas asociadas a
pórfidos cupríferos (superior al de molibdenitas de otros tipos de depósitos).
Un 4° criterio considera relaciones empíricas entre el contenido de
elementos en trazas y la magnitud de algunos tipos de yacimientos, como la
que ha sido observada entre el de Y, Na, Zn y Mn y la magnitud de los
yacimientos de uranio en areniscas. El 5° y último criterio propuesto se
refiere a la salinidad y contenido de gases en inclusiones fluidas de los
minerales de ganga. Por ejemplo, yacimientos pórfidos de cobre del tipo
chimenea de brecha presentan inclusiones fluidas de elevada salinidad.
253

La Tabla 9.2 (Dhana Raju, p.260) presenta ejemplos de asociación de


menas a plutones específicos y las guías que se desprenden de ellos,
tomado de Rose et. al., 1979, los cuales son muy útiles en estudios de
orientación. Ellos se complementan con las Tablas 1 a 6 del capítulo antes
citado de M.J. Pellicer (1991).

(Dhana Raju, p. 260)


254

(Pellicer, p. 821)

(Pellicer, p. 821)

(Pellicer, p. 822)
255

(Pellicer, p. 823)

Un criterio general útil es relacionar la etapa de evolución y diferenciación


del cuerpo magmático con el momento en que se genera la mineralización.
Así, en el caso de una mineralización ligada a cristalización fraccionada de
rocas máficas, ella corresponde a una etapa temprana, a diferencia de
mineralizaciones ligadas a rocas ácidas generadas en etapas avanzadas de
diferenciación (ver Fig. 19A). Para el segundo caso, el enriquecimiento en
elementos en trazas que reemplazan tardíamente a elementos mayores
puede ser utilizado con fines prospectivos. Por ejemplo, Rb+ reemplaza a K+
en feldespatos y micas. Sin embargo, su radio iónico es ligeramente mayor.
En consecuencia se enriquece respecto al K en los últimos diferenciados
magmáticos y en las soluciones hidrotermales (Oyarzún, 1974; Armbrust et
al, 1979). Algo similar ocurre con las relaciones Rb/Ba , Li/Mg, (Na + K) /
(Ca + Mg) y (Na + K)/Fe, que son indicativas del grado de diferenciación
magmática.
256

(Pellicer, p. 824)

En el caso de los pórfidos cupríferos se observan relaciones como el


incremento de Rb en la zona potásica, de Ca y Sr en la zona propilítica, de
Zn y Mn en zonas periféricas y de Mo en la parte central del depósito. A
nivel mineralógicos, se ha observado que el contenido de Cu en biotitas de
rocas mineralizadas puede superar por 10 o más veces el que presentan
las rocas asociadas a mineralización. En cambio no se ha observado una
relación similar para los contenidos de Cu de la roca total.

(Pellicer, p. 825)
257

Una materia de mucha importancia práctica en exploración litogeoquímica y


que puede ser muy útil en la interpretación de resultados de sondajes, es la
relativa a la formación de anomalías epigenéticas en las rocas encajadoras.
Ellas son producto de la migración de fluidos neumatolíticos o hidrotermales
a través de las estructuras de permeabilidad primaria o secundaria de esas
rocas, y se clasifican en aureolas de difusión y en anomalías o aureolas de
fuga, respectivamente.

Las aureolas de difusión se atribuyen a dispersión de metales en régimen


estacionario del fluido, producida por gradientes de concentración en la
solución hidrotermal presente en poros o fracturas interconectadas a la
roca. Esta forma de dispersión no requiere que el fluido se encuentra en
movimiento. La Fig. 1 de Pellicer muestra el decrecimiento del contenido
metálico de la roca a partir de una veta, en el caso de anomalías de
difusión. En cambio, en las anomalías de fugas es el movimiento del fluido
el que dispersa los metales. En ambos casos se entiende que éstos son
precipitados o adsorbidos por la roca.

(Granier, p. 81)
258

(Granier, p. 86)

(Pellicer, p. 827)
259

Naturalmente, como se desprende de las ecuaciones que describen el


proceso de difusión, su efectividad depende del gradiente de concentración.
En cambio, en el caso de las anomalías de fuga, su desarrollo depende del
gradiente hidráulico, en parte convectivo, así como de la presencia de
estructuras que favorezcan el paso de los fluidos más allá de la zona del
depósito. En ambos casos, la “receptividad” de la roca respecto a los
metales en solución, en términos de adsorción o precipitación, es también
importante. Mientras las aureolas de difusión no sobrepasan unos 30 m.
respecto a su fuente, las de fuga se pueden extender por cientos de metros.

En algunos casos, un yacimiento menor puede representar una especie de


“anomalía de fuga”. De hecho, siempre conviene analizar la posibilidad de
que pequeños yacimientos se hayan formado por los restos de una solución
hidrotermal, la mayor parte de cuyo contenido metálico se pueda haber
depositado en un nivel inferior, ya sea por razones físico químicas
(temperatura/presión) o por la presencia de litologías favorables. En
consecuencia, siempre habría que contemplar la posibilidad de que esos
yacimientos menores constituyan guías de exploración para otros mayores
(como en el caso de Candelaria en el distrito Punta del Cobre, Copiapó).

Los conceptos y criterios examinados deben ser analizados en conjunto con


las secuencias de zonación, que describen la depositación secuencial de
minerales (y en consecuencia, de sus elementos químicos). En general,
partiendo desde el centro mineralizador profundo hacia su periferia, ese
esquema zonación ideal sitúa los elementos metálico así:

W – Be – Sn – U – Mo – Co – Ni – Bi – Cu – Au – Zn – Pb – Ag – Cd – (Hg, As, Sb) – Ba.

Las Figs. 3 y 4 del capítulo de Pellicer (p. 829 – 830), tomadas del texto de
Beus y Grigorian (1977), ilustran una serie de halos primarios, definidos
tanto en base a elementos individuales como a combinaciones de ellos, y
260

formados en torno a un depósito aurífero. Por su extensión, corresponden


principalmente a anomalías de fuga. A este respecto es importante resaltar
el hecho de que si bien los sondajes podrían no cortar el cuerpo
mineralizado, sí pueden intersectar sus halos primarios, lo que puede ser
utilizado para definir la dirección de nuevos sondajes.

(Pellicer, p. 829)
261

(Pellicer, p. 830)

7.2 Secuencia y Ejecución de Estudios Litogeoquímicos

Si el área a explorar carece de estudios previos conviene partir realizando


una prospección orientativa. En el caso que se conozca la presencia de
yacimientos, ella puede partir por un muestreo de su entorno, de manera de
constatar si tal presencia se expresa a través de contenidos anómalos en
las rocas de su periferia, comparándolos con los contenidos de rocas
alejadas de ellos. El estudio puede ser ejecutado a través de perfiles o
redes, así como de muestras específicas para evaluar el contenido medio
de los distintos tipos litológicos presentes. Se recomienda acompañar la
ejecución de estos muestreos con mediciones de radiación gamma.
También puede ser recomendable colectar muestras con el fin de separar
minerales específicos para su análisis (entre los silicatos, biotita es
especialmente conveniente, por su mayor “cercanía temporal” respecto a
262

las soluciones hidrotermales, así como por su favorable estructura


cristalina).

Los estudios litogeoquímicos en zonas profundamente meteorizadas o


cubiertas pueden requerir del uso de sondajes, para los cuales se
recomienda contar con maquinarias livianas y de fácil transporte, capaces
de perforar algunas decenas de metros. En general, es recomendable
muestrear en la cercanía de estructuras (fallas, zonas de cizalla) así como
en zonas que presentan alteración hidrotermal o indicios de boxworks
(celdillas oxidadas). También es importante muestrear niveles
estratigráficos que presenten contrastes de coloración indicativos de
cambios de Eh (redox), que puedan implicar “barreras geoquímicas”. Estos
colores son el rojo o violáceo (presencia de hematita, oxidantes) y el negro
(presencia de materia carbonosa, reductores), y su decoloración puede
constituir una importante guía).

Los estudios litogeoquímicos son útiles para detectar anomalías asociadas


a cuerpos satélites menores relacionados con cuerpos mineralizados
principales, facilitando por lo tanto el descubrimiento de los segundos (al
agrandar el “blanco” de la exploración). Por otra parte, estos blancos
“ampliados” son más precisos en posición y menos alterados por
distorsiones que los obtenidos de anomalías secundarias (afectadas por la
erosión, efectos hidrogeológicos, contaminación, etc.).

En los estudios litogeoquímicos detallados se puede trabajar tanto con


aureolas correspondientes a elementos mayores como a elementos
menores y en trazas. Las primeras dan cuenta de las alteraciones
hidrotermales y otros efectos metasomáticos que acompañan a la
mineralización, así como de cambios secundarios producto de la oxidación
de minerales sulfurados. Entre las principales alteraciones hidrotermales
que afectan la mineralogía y la composición química de las rocas están: a)
263

Alteración calco- sódica, presente en yacimientos ferríferos tipo Kiruna, con


formación de actinolita, escapolita, etc. b) Alteración potásica (con
formación de biotita o feldespato potásico hidrotermal) c) Alteración quarzo
– sericítica d) Albitización (agregado de Na en reemplazo del Ca de la
plagioclasa) e) Alteración propilítica (formación de clorita, epidota, albita,
calcita, hematita) f) Silicificación g) Dolomitización (agregado de Mg) h)
Alteración argílica i) Alteración argílica avanzada (que incluye alunita) j)
Piritización.

En exploración litogeoquímica se puede tomar dos tipos de muestras. Unas


corresponden a aquellas extraídas por su posición espacial, conforme al
plan de muestreo establecido, con independencia de sus características
específicas. Naturalmente, si pertenecen a litologías distintas, será
necesario considerarlo en su tratamiento estadístico e interpretación. El otro
tipo corresponde a muestras tomadas por sus características particulares
(de mineralogía, alteración, etc.,). Es importante no mezclarlas con las
provenientes del muestreo sistemático.

Las alteraciones hidrotermales (que son un efecto “colateral” del paso de


los fluidos hidrotermales que generan las mineralizaciones de ese origen)
implican reemplazos o enriquecimientos residuales en el grupo de
elementos mayores: Si, Al, Fe, Ca, Mg, Na y K. Así, silicio se enriquece por
la silicificación o la alteración cuarzo – sericítica, aluminio se concentra
residualmente por alteración argílica o argílica avanzada; hierro lo hace en
la piritización o hematitización, calcio se concentra por alteración calco –
sódica y la alteración carbonatica, magnesio lo hace por efecto de la
cloritización y de la dolomitización, sodio por albitización y K, por alteración
potásica. En consecuencia razones como Na/Ca, Na/K, Si/C etc.
(normalmente en forma de óxidos) pueden ser útiles en su estudio. Su
relación con la mineralización es bien conocida, por ejemplo, en casos
como la vinculación de las mayores leyes de Cu primario con la alteración
264

potásica en pórfidos cupríferos, o de la relación de las leyes de cobre de


algunos depósitos de ese metal con el contenido de sodio de la roca. Esto
último es notable en algunos yacimientos situados en estratos de rocas
volcánicas, como El Soldado, Región de Valparaiso.

Respecto a las aureolas de elementos menores y en trazas existe una


importante bibliografía. Dhana Raju cita al respecto las siguientes, tomadas
de Boyle (1982), para depósitos de Th y U:
a) Pegmatitas con Th-U: B, Sc, Y, REE (tierras raras), Zr, P, Nb, Ta, Mo, P
y F.
b) U en stockworks y vetas en rocas graníticas: Cu, Pb, Mo.
c) Th – U en yacimientos tipo skarn: Cu, B, Sc, Y, REE, Pb, Zr, P, Mo, F.
d) Th – U en vetas en rocas alcalinas: Cu, B, Pb, P, Bi, S, Mo, F.
e) U en areniscas (red beds): Cu, Zn, Pb, P, As, V, Se, Mo, F.

La Tabla 2.2 del texto de Dhana Raju, pp. 54 y 55 entrega otras importantes
relaciones entre tipos de depósitos y sus asociaciones geoquímicas,
compiladas por distintos autores.
265

(Dhana Raju, p. 54)


266

(Dhana Raju, p. 55)

También es importante estudiar el posible efecto de procesos supérgenos,


como la oxidación de sulfuros sobre las aureolas litogeoquímicas primarias
en particular en términos de la formación de minerales equivalentes a los
generados por alteración hidrotermal (caso de las arcillas) como de la
lixiviación o adición de metales de mena.

Igualmente es importante tener en consideración que la preparación de


rocas para análisis puede implicar mayores riesgos de contaminación por
las características del proceso de molienda, los que naturalmente requieren
especial cuidado del laboratorio responsable de esa operación.
267
268

CAPÍTULO 8: “GEOQUÍMICA DE SUELOS Y DEL DRENAJE”

http://elsueloequipo4.blogspot.com/2009_02_01_archive.htm
l http://www.aulados.net/GEMM/Documentos/San_Quintin_In
nova/index.html

http://www.loganresources.ca/index.php/shell-creek

http://www.laconia.com.au/projects/project_view/seven_zero_one/

http://www.faqs.org/sec-filings/110118/SILVERADO-GOLD- http://www.uclm.es/users/higueras/mam/MMAM6.htm
MINES-LTD_8-K/exhibit99-2.htm
269

8.1 Geoquímica Regional, Estratégica y Táctica

Los estudios de geoquímica regional son realizados por los servicios


geológicos o sus equivalentes, a escalas que pueden situarse entre
1:20.000 y 1:250.000. Su objetivo principal puede ser el de entregar una
base de información que facilite u oriente la exploración de recursos
minerales por empresas privadas. También, como en el caso de Polonia,
pueden ser realizados para fines de ordenación del territorio. Esto,
considerando que la contaminación industrial puede excluir el uso agrícola
o habitacional de algunos sectores, los que deberían ser objeto de limpieza
ambiental previa o dedicados a otras actividades.

Se entiende por exploración geoquímica estratégica aquella que tiene por


objeto, detectar y evaluar anomalías geoquímicas. Puesto que el drenaje
ejecuta una especie de muestreo natural, tanto las aguas como los
sedimentos del drenaje, así como el muestreo de cuerpos de agua como
pequeños lagos, pueden ser utilizados con este propósito. Detectadas y
definidas las anomalías, se pasa a la etapa siguiente.
270

(Granier, p. 31)

Dicha etapa corresponde a la prospección táctica, que tiene por finalidad


detectar el depósito responsable de la anomalía encontrada. donde el
método más utilizado es el muestreo sistemático de suelos a lo largo de
perfiles paralelos. Se utilizan suelos (o “talus”, fragmentos de rocas
producto de la meteorización física cuando no hay suelos propiamente
tales), debido al carácter más puntual de la información que es necesario
en esta etapa de trabajo. La geoquímica táctica, es el paso anterior a la
realización de sondajes o piques, cuando sus resultados son positivos. Sin
embargo generalmente se pasa por una etapa intermedia de excavación de
trincheras, para verificación más profunda de los resultados superficiales.
271

8.2 Prospección Geoquímica en Suelos o Talus. Conceptos


Básicos

Se entiende por suelo el producto final de la meteorización, que


generalmente presenta una diferenciación en horizontes, la cual es
consecuencia de su proceso de formación. Por meteorización se entiende
el conjunto de procesos que tienden a alcanzar un cierto grado de equilibrio
termodinámico de los minerales de las rocas y sedimentos respecto a las
condiciones específicas del lugar de la superficie de la Tierra en el que se
encuentran. Al respecto, el clima y la topografía del sitio tienen un control
dominante, tanto directamente como a través de los procesos biológicos y
sus efectos físicos, químicos y bioquímicos (bacterias).

Las reacciones químicas y los cambios mineralógicos dependen tanto de


factores termodinámicos como cinéticos. Los primeros permiten interpretar
y predecir el estado de equilibrio de un sistema sobre la base de sus
parámetros físicos (T, P) y químicos. Sin embargo, no entregan información
directa respecto a la velocidad de aproximación a ese equilibrio, lo cual es
materia de la cinética. En consecuencia, las características de un suelo
pueden no corresponden a aquellas de su ambiente actual. En cambio, el
estudio de un suelo “fósil” nos permite deducir las condiciones climáticas,
topográficas, etc. bajo las cuales se formó.

Mientras mayor sea la diferencia entre las condiciones de formación de una


roca y el medio en que se encuentra, mayor es el potencial termodinámico
para su alteración. Así, una roca volcánica máfica, constituida por silicatos
anhidros de alta temperatura de cristalización, será especialmente inestable
en condiciones de clima tropical lluvioso. En esas condiciones, la alta
fugacidad de oxígeno de la superficie de la Tierra, junto con la presencia de
agua líquida y la actividad biológica, favorecen la rápida conversión de
afloramientos rocosos y sedimentos en suelos profundos.
272

Por definición, los suelos se forman “in situ”. Sin embargo, se habla de
suelos “residuales”, formados sobre afloramientos rocosos y suelos
“transportados” formados en sedimentos. El termino más correcto para los
segundos sería el de “suelos formados sobre materiales transportados”.

Cuatro factores principales determinan las características de un suelo. Ellos


son la litología del material en el que se desarrolla (así como su estado de
agregación), el clima bajo el cual se ha formado, la topografía y altitud del
lugar específico considerado y el tiempo durante el cual ha evolucionado.
Bajo condiciones naturales, esos factores determinan también la
importancia de la contribución biológica a las características que el suelo
presenta (las cuales pueden ser modificadas seriamente por la actividad
antrópica: suelos agrícolas, etc.).

La litología expresa la composición mineralógica y por lo tanto la


composición química del suelo. Sin embargo, la presencia de los elementos
en distintos minerales implica diferentes comportamientos frente a la
“agresión” del medio. Por ejemplo, el Si presente en forma de cuarzo
pasará muy difícilmente al agua, por la alta resistencia a la meteorización
que presenta ese mineral. En cambio, el Si presente en silicatos como
olivino o piroxeno, se disuelve fácilmente: MgSiO3 + 2H+ = Mg2+ + H2SiO3,
H2SiO3 = H+ + HSiO-3. Otro tanto ocurre con el Fe, fácil de disolver en su
forma silicatada pero muy resistente en forma de magnetita o hematita.

También el estado de agregación es importante, puesto que un material


particulado como lapilli o ceniza volcánica es más fácil de alterar que una
roca de igual mineralogía, por la extensa superficie de ataque que implica
su granulometría. En términos agrícolas y ambientales, los suelos formados
sobre productos del volcanismo cacoalcalino tienen especial valor respecto
a aquellos suelos empobrecidos en nutrientes formados sobre rocas
273

sedimentarias, los que han perdido por la meteorización sus principales


“nutrientes”, como K, Mg y P.

El clima influye en las características de los suelos a través de su control


sobre el agua y su forma física (líquida o sólida), así como sobre la
actividad biológica, igualmente dependiente de la presencia de agua líquida
y de la temperatura. Así, los suelos menos desarrollados, como los
constituidos por simples acumulaciones de fragmentos de rocas, producto
de su meteorización física denominados “talus”, se forman en condiciones
extremadamente áridas o frías, donde el agua líquida es muy escasa. En el
extremo opuesto se encuentran los suelos lateríticos, con decenas de
metros de espesor, formados en condiciones de clima cálido y lluvioso.

La topografía influye tanto en términos de altura (y por lo tanto de la


temperatura ambiente) como respecto a su control sobre los procesos de
erosión/depositación. Así, un suelo formado en un terreno de alta pendiente
tendrá menos desarrollo por el efecto de la erosión, que remueve
continuamente los materiales meteorizados. Otro suelo, formado en una
depresión, puede experimentar las consecuencias de la falta de drenaje y el
predominio de condiciones pantanosas reductoras, resultante de esa falta.,
etc.

Finalmente, el tiempo de evolución de un suelo bajo determinadas


condiciones climáticas le permitirá alcanzar un menor o mayor grado de
equilibrio respecto a ellas. Al respecto, un cambio en esas condiciones
obligará al suelo a un nuevo reequilibrio, impidiendo en consecuencia que
alcance “madurez” respecto al medio en que se encuentra.
.
Una clasificación principal de los suelos es aquella que los divide en
pedocales y pedalferes. Los pedocales se forman bajo clima árido y los
pedalferes en clima lluvioso, situándose su límite en 625 mm., de
274

precipitación anual. Naturalmente no sólo influye al respecto dicha


magnitud, sino también, la temperatura “del sitio” y especialmente la
distribución anual de la precipitación.

En principio, la alteración química de los silicatos es un proceso hidrolítico,


puesto que los silicatos pueden ser considerados como “sales” de cationes
fuertes (Na, K, Ca, Mg) y un ácido débil, el “ácido silícico” (H2SiO3):
MgSiO3 + 2H2O = Mg2+ + H2SiO3 + 2OH-

En consecuencia, todos los suelos deberían tener carácter alcalino, si no


existiera el efecto acidificante del CO2 atmosférico. Éste puede incorporarse
al agua directamente desde la atmósfera o bien ser intermediado por la
materia orgánica vegetal, que lo incorpora desde la atmósfera a través de la
fotosíntesis y lo libera al respirar, así como por efecto de su
descomposición.. La disolución y reacción de CO2 con el agua, da lugar a:
CO2 + H2O = HCO-3 + H+

(Oyarzún y Oyarzun, p. 838)


275

Por lo tanto hay dos procesos en competencia, uno que produce


alcalinidad, el otro genera acidez. Cuando las precipitaciones atmosféricas
permiten un desarrollo abundante de la vegetación, predomina el segundo,
mientras el primero domina en condiciones áridas. El pH del suelo es
importante, porque controla la solubilidad de los metales pesados,
hidrolizables, y se comunica también a las aguas del drenaje. Sus
consecuencias serán examinadas en el capítulo 9 respecto al importante
tema del drenaje ácido. Sin embargo, también es una materia muy
importante con relación a la exploración geoquímica de metales como Cu,
Zn, Pb, etc., tanto en suelos como en aguas y sedimentos del drenaje,
debido a su efecto en la movilidad de esos metales, que se reduce mucho
en condiciones alcalinas.

Pedocales y pedalferes se subdividen a su vez considerando tanto la


cuantía de la precipitación como el clima bajo el cual se desarrollan. En el
cuadro siguiente, los pedocales salinos y los suelos lateríticos constituyen
los dos extremos de una amplia gama de condiciones de formación.

Pedocales Pedalferes

Desérticos o salinos (<250 mm/año) Tundra (clima frio)

Castaños (250 – 375 mm/año) Podzoles (clima temperado)

Chernozem (300 – 675 mm/año) Lateríticos (clima tropical)

El perfil de un suelo se desarrolla como consecuencia de los procesos, de


lixiviación y depositación química producto de la meteorización, así como
del efecto de la concentración de materia orgánica. Naturalmente es muy
distinto según el tipo de suelo de que se trate y de las condiciones
específicas bajo las cuales se desarrolló. En un caso extremo, puede no
existir en absoluto (como en los materiales tipo talus, formados por
276

fragmentos de rocas poco meteorizados). En el otro, puede haber


desarrollado perfectamente el perfil correspondiente al tipo de suelo en
cuestión.

Aparte de las arcillas (como esmectitas en el caso de pedocales y


caolinitas en los pedalferes), existen dos componentes mineralógicos
principales en el desarrollo de los perfiles de suelo: el carbonato de calcio
y el hidróxido de hierro. El primero es dominante en los pedocales (de ahí
su nombre) y el segundo en los pedalferes. En el primer caso, se trata de
la acumulación de CaCO3 debida a la débil concentración de CO2
(producto de la escasez de materia orgánica), así como del régimen
hídrico seco. En efecto, el Kps de CaCO3 es bajo comparado con el de
Ca(HCO3)2, el cual requiere tanto de la presencia de agua como del CO2
para su formación :

CaCO3 + H2O + CO2 = Ca (HCO3)2 = Ca2+ + 2HCO-3

Por lo tanto, los pedocales presentan un horizonte subsuperficial de CaCO3.


En sus casos más extremos (suelos salinos), ese horizonte puede incluir
también sales muy solubles como cloruros y sulfatos.

En cambio, en los suelos tipo pedalferes, CO2 y agua abundantes impiden


la formación de ese horizonte. Sin embargo, el hierro presente en los
silicatos, disuelto inicialmente con Fe2+, al oxidarse forma Fe (OH)3 que se
acumula en el denominado “Horizonte B” de los podzoles, y otros suelos
tipo pedalfer. En los suelos laterílicos pueden llegar a formarse incluso
yacimientos residuales de Fe por efecto de este proceso, que da un color
rojizo al horizonte B de los pedalferes.

FeSiO3 + 2H+ = Fe2+ + H2SiO3 Fe2+ = Fe3+ + e Fe3+ + 3OH- = Fe (OH)3


277

El perfil “ideal” de un suelo incluye un horizonte A u horizonte de lixiviación,


donde se acumula materia orgánica, en parte carbonosa. Lo sigue en
profundidad el horizonte B u horizonte de concentración, donde se
concentran minerales de arcilla e hidróxido de Fe. Un tercer horizonte, el C,
está constituido por material parental meteorizado. Esta versión simplificada
se ajusta bien a los suelos tipo podzol. Hay otras divisiones del perfil más
complejas y detalladas. Sin embargo, para los fines prospectivos
geoquímicos, lo importante es reconocer las características del perfil y
especialmente determinar que horizonte conviene muestrear para obtener
el mayor contraste en la dilección de anomalías (que puede ser distinto
para diferentes elementos químicos).

8.3 Prospección Geoquímica por Muestreo de Suelos. Ejecución


de los Muestreos.

Como en toda prospección geoquímica, aquella basada en muestras de


suelos persigue primero detectar anomalías relacionadas con la presencia
de yacimientos y luego orientar las operaciones dirigidas a su hallazgo
efectivo (sondajes o labores de reconocimiento).Dichas anomalías pueden
consistir en la concentración anormal de un elemento en particular o de
combinaciones de elementos (sumas, diferencias, razones, etc.). Por otra
parte tal concentración se determina normalmente en un nivel determinado
del perfil del suelo y en una fracción granulométrica seleccionada (que
puede ser distinta para dos elementos, según sea su comportamiento
geoquímico).

Por otra parte, el análisis químico puede estar dirigido al total (o a la mayor
parte) del contenido de los elementos o sólo a parte de él, lo que se maneja
a través del método de ataque químico utilizado, cuando la técnica de
análisis implica dicha operación. Al respecto, cabe destacar que lo
278

importante no es obtener los valoras más altos posibles, sino el mejor


contraste entre lo “normal” y lo “anormal” (con todas las ambigüedades que
ello pueda implicar).

(Levinson, p. 121)

(Spark, p. 82)
279

(Roseen y Lange, p. 278)

En la selección de las distintas opciones mencionadas, se puede utilizar


tanto la experiencia, previa de anteriores campañas realizadas en la zona o
distrito, así como la obtenida de estudios de orientación, cuando se conoce
280

la presencia de un yacimiento en el área. Sin embargo, en este último caso,


se debe cuidar el efecto de la probable contaminación por trabajos previos.
Una tercera posibilidad consiste en recurrir a “estudios de casos” de
situaciones análogas (en términos del tipo de yacimiento buscado, contexto
geológico, fisiográfico y pedológico) descritas en revistas o en libros
especializados, o disponibles en informes de anteriores campañas (como
las realizadas por Naciones Unidas en Chile en los 1960’s y 1970’s).

Un tema central a considerar en el posible origen de las anomalías


geoquímicas en suelos, es que puede ser muy variado. Si se trata un suelo
residual, la anomalía puede corresponder a una de origen primario
hidrotermal, posteriormente transformada por efecto de la meteorización y
formación del suelo. Si el suelo se formó sobre material transportado, la
anomalía puede provenir desde la roca subyacente, a través de procesos
de ascenso capilar de soluciones, del efecto de raíces profundas, que
permiten el ascenso de metales hasta las hojas de los árboles, que
después lo retornan al suelo, etc. Un tema de importancia central en países
con larga historia minera es el riesgo que implica la contaminación, que
puede dar lugar a anomalías importantes, sin relación directa con la
presencia de yacimientos.
281

(Granier, p. 53)
282

Otro riesgo en geoquímica de suelos es que los metales tengan un origen


distante y hayan sido transportado por agua subterránea. En tal sentido, la
posición topográfica del punto muestreado y el régimen hidrológico local
inferido deben ser considerados en la interpretación.

(Levinson, p. 353)
283

(Levinson, p. 381)

Un caso anecdótico en materia de contaminación por faenas mineras


antiguas pero directamente relacionada con la presencia de un yacimiento
oculto, fue la detección por parte del B.R.G.M., en los 1960`s, de una
interesante anomalía de Pb-Zn, en un sector agrícola, sin afloramientos, de
la campiña francesa. Realizados sondajes y un pique se descubrió una
mina de plata (asociada al Pb) explotada en la Edad Media, de cuya
presencia nadie sospechaba. Desde luego, la contaminación por antiguos
trabajos mineros debe ser siempre evaluada, especialmente en países
como Chile (por ejemplo, existe una aureola geoquímica de cobre, de varias
decenas de km., en torno a la fundición de Potrerillos).

También se pueden generar anomalías geoquímicas por concentración de


contenidos metálicos normales de las rocas debido al efecto del clima o de
ambientes locales acumuladores de metales. Así, en las exploraciones
realizadas en el Copperbelt africano, se detectaron algunas áreas de
284

contenidos superficiales elevados de cobre, generados por efecto de


estaciones lluviosas y secas alternadas, lo que favorece el ascenso capilar
del metal, lixiviado desde rocas no mineralizadas. Igualmente, una zona
pantanosa, rica en materia orgánica y reductora, puede muy efectiva en
acumular metales pesados, captados desde fuentes normales, no
relacionadas con yacimientos.

(Granier, p. 102)

(Granier, p. 64)
285

Aparte de la estabilidad de los minerales bajo distintas condiciones


ambientales, el desarrollo de aureolas geoquímicas en suelos depende de
las propiedades químicas de los distintos metales bajo las condiciones del
ciclo exógeno. Al respecto, son de especial importancia sus productos de
solubilidad, sus potenciales iónicos, comportamiento en diagramas Eh – pH,
etc.

Ejemplificando lo anterior, es importante considerar que la movilidad


química de los elementos metálicos contenidos en sulfuros y sulfosales
depende del a oxidación de estos minerales, la cual se dificulta en
ambientes en los que el agua está congelada gran parte del año. Oxidados
los sulfuros o sulfosales, la solubilidad de los metales depende del Kps. de
las respectivas sales. Por ejemplo, el sulfato de plomo tiene un Kps. bajo, lo
cual limita la movilidad del Pb, respecto a metales como el Cu o el Zn. En el
caso del Mo, su movilidad se ve muy limitada por su absorción en limonita,
lo cual lleva a permanecer en ambientes lixiviantes en los cuales el Cu
migra en profundidad (por lo cual es Mo es mejor indicador que el Cu en la
definición de la anomalía central de pórfidos cupríferos).

Entre las situaciones más complejas que se pueden enfrentar en


geoquímica de suelos está el caso de la prospección en zonas afectadas
por glaciación, cuando se debe trabajar con suelos transportados. Si ese
transporte ha sido importante (y en algunos casos, como en las
glaciaciones continentales puede alcanzar cientos de km.) es conveniente s
contar con mapas de los “trenes de dispersión” seguidos por el till. En todo
caso, en terrenos glaciares la geoquímica está orientada a “seguir el rastro”
de anomalías generadas a grandes distancias del sitio donde han sido
detectadas.
286

Otra situación compleja surge en los casos en que la roca mineralizada está
separada de la superficie por un gran espesor de sedimentos o incluso por
estratos de rocas volcánicas o sedimentarias que actúan como verdaderas
“pantallas” respecto a la posible migración de contenidos metálicos a la
superficie a través de agua subterránea. En esos casos conviene orientar la
exploración geoquímica conforme a la presencia de zonas de fractura que
puedan haber provisto canales de acceso a las soluciones con metales.

También se ha recomendado utilizar el “método enzimático” en estos casos,


consistente en un ataque muy débil de la muestra, que se supone destaca
cualquier contenido metálico producto de su acceso a la superficie a través
de procesos aún indeterminados (posibles “celdas electroquímicas” o
asociación al ascenso de micro burbujas de gases). Aunque las razones
causa – efecto son algo enigmáticas, el método parece haber tenido
algunos éxitos, generando anomalías laterales respecto a su fuente.
287

(Oyarzun, p. 815)

Respecto a la planificación y ejecución del muestreo de suelos, conviene


recordar, que la prospección geoquímica guarda importantes similitudes
con la pesca con red, la que naturalmente se ajusta al tamaño del pez que
se desea capturar. Así, no se requiere una malla cerrada si se está
prospectando depósitos porfíricos de cobre. Por el contrario, ella puede ser
muy necesaria en el caso de depósitos vetiformes. Pero en este último caso
288

podemos usar una disposición rectangular, donde la mayor separación es


paralela a las direcciones estructurales dominantes. El mismo
procedimiento vale para el caso yacimientos estratoligados en rocas
estratificadas, donde se requiere una menor separación en la dirección
perpendicular al rumbo de las capas, debido a la necesidad de considerar
los cambios litológicos entre estas, que puedan haber favorecido su
mineralización.

(Oyarzun y Oyarzún, p. 842)

En algunas situaciones puede ser conveniente remover la cubierta


superficial y llegar a exponer la roca meteorizada (horizonte C). En una
prospección dirigida por el Prof. Ing. Héctor Flores, en el distrito de Michilla,
Antofagasta, a fines de los 1960’s, esto se realizó mediante el uso de
buldozers, procediendo posteriormente al muestreo. El éxito del
procedimiento utilizado llevó a su amplio uso en otras exploraciones en la
Cordillera de la Costa de Antofagasta.

Por otra parte, es frecuente que las condiciones ideales de muestreo de


suelos sean difíciles de cumplir. Ello en particular en lo referente al
horizonte seleccionado y la profundidad de muestreo, por cuanto en las
condiciones semi áridas de buena aparte de Chile, la topografía es
289

determinante en la profundidad del suelo y se puede pasar fácilmente de un


suelo de moderada profundidad a otro de unos pocos centímetros y escaso
material fino. Ahí se aplica nuestra popular frase “Es lo que hay…”, pero se
debe dejar constancia en la libreta de terreno o en su equivalente
informático.

Esta materia se relaciona con lo referente al tema de los “protocolos de


muestreo” elaborados para estandarizar los procedimientos utilizados.
Naturalmente ellos son útiles para evitar desviaciones individuales que
resten validez al proceso, pero no deben hacerlo excesivamente rígido. En
cambio, es importante dejar constancia de cualquier desviación motivada
por las condiciones del terreno.

Detectada una anomalía, corresponde en seguida definirla con detalle,


estrechando la malla de muestro, así como procurando tomar muestras
más profundas, ya sea mediante “taladros pedológicos” o de la excavación
de trincheras o pequeños piques. Si los resultados son positivos se puede
pasar entonces a la etapa de sondajes preliminares de exploración.

El advenimiento de la metodología ICP – AES hace actualmente posible


disponer del análisis sensibles y precisos de muchos elementos a bajo
costo, seleccionando el tipo de ataque químico que se estime más
conveniente. Ello tiene su complemento en análisis matemáticos
multivariados de la información y otros refinamientos estadísticos,
facilitados por los actuales softwares (capítulo 6) que permiten obtener
mayor provecho de los múltiples elementos analizados . Sin embargo no se
debe dejar de lado el entendimiento de los elementos como tales y las
características del tipo de yacimientos buscados. Por ejemplo, es normal
que Zn entregue anomalías mayores que Pb, pero que Pb, por su menor
movilidad sea mejor indicador del centro de la mineralización (como
también ocurre respecto a Cu y Mo en yacimientos porfíricos).
290

Finalmente, conviene reconocer que, más que un científico, el prospector


es una especie de cazador o pescador, que tiene que aprender a conocer a
su presa y sus tácticas para disimularse. La ciencia, y la tecnología están
de su parte, pero al fin de cuenta debe aprender a confiar en su
experiencia, sus instintos y su tenacidad. En las palabras de un gran
exploracionista como D. Lowell, debe acostumbrarse también a estar
equivocado (porque la mayoría de las veces lo estará) así como a aprender
de cada error y a perseverar en la búsqueda del gran depósito que espera
algún día descubrir. Naturalmente, ese prospector necesita estar
respaldado por ejecutivos de la empresa que entiendan que el éxito de la
exploración minera radica tanto en el trabajo duro, perseverante y
profesional como en la disposición a arriesgarse cuando es necesario
invertir en campañas de sondajes. De otra manera, siempre los éxitos serán
de los otros que sí se atrevieron.

8.4 Prospección Geoquímica por el Drenaje. Conceptos


Generales

La forma ramificada del drenaje superficial lo constituye en una notable


herramienta del muestreo y detección de anomalías especialmente útil en
las etapas de reconocimiento preliminar y estratégico. Si se cuenta con
métodos analíticos de terreno o con un laboratorio químico cercano, la
geoquímica del drenaje permite también ir descartando ya sea la corriente
principal o los sucesivos afluentes de la corriente principal, a medida que se
asciende hacia los nacimientos de la red de drenaje. Naturalmente, ello
implica obtener una información cada vez más precisa sobre un área más
pequeña, pero siempre más extensa que la que entrega una muestra de
suelos o rocas.
291

(Spark, p. 24)

(Spark, p. 25)
292

(Oyarzun y Oyarzún, p. 846)

El muestreo del drenaje puede incluir cuatro tipos de materiales. En los


párrafos siguientes discutiremos la utilidad, ventajas y limitaciones de cada
uno de ellos, así como las complicaciones que puede implicar su muestreo
“en el mundo real”.

El muestreo de agua presenta una gran ventaja, que es su homogeneidad y


una gran limitación, que está dada por la baja solubilidad de algunos
elementos, ya sea por efecto del Kps. de algunas de sus sales, por los
efectos hidrolíticos del pH del agua, etc. A ello se debe agregar que las
concentraciones de los metales “más buscados” se sitúan en el rango de
293

los mg/t en el agua de los ríos, contra los g/t que alcanzan en los
sedimentos. Por otra parte, es raro que elementos detectados en el agua no
se encuentren en los sedimentos, pero el caso contrario es frecuente.
Finalmente, habría que agregar que prácticamente todas las quebradas o
cauces fluviales tienen sedimentos, pero no siempre llevan agua.

(Oyarzun y Oyarzún, p. 844)

El muestro de sedimentos activos, vale decir de aquellos en contacto con


la corriente de agua es el que normalmente implica mayores ventajas.
Idealmente, se recomienda tomarlos de tramos rectos del borde de la
corriente (para evitar distorsiones por efecto hidráulico). El material más
indicado es el que incluye fracciones de limo – arcilla. Si el material
muestreado contiene suficientes finos, 100 – 200 g son suficientes. La
conveniencia de muestrear sedimentos activos radica en que en ellos se
equilibra el contenido metálico del agua con el de los sedimentos finos.
Éstos contienen minerales de arcilla, materia orgánica y óxidos hidratados
de Fe y Mn, materiales que son buenos captadores de los metales pesados
disueltos o precipitados del agua.
294

Aguas y sedimentos finos, en particular aquellos de la fracción consistente


en arcillas orgánicas y óxidos hidratados de Fe y Mn se encuentran en
permanente interacción y, a lo largo del año, se modifica la relación de
distribución del contenido metálico entre la fase líquida y la base sólida fina,
con una sub – fase coloidal jugando un rol de intermediaria entre ambas. En
este proceso interviene de modo importante el ciclo estacional. En el caso
del territorio chileno, desde la región de Atacama al sur el deshielo de
primavera entrega contenidos metálicos “frescos” a los ríos, los que
ingresan tanto en solución como en la fase fina de los sedimentos. En los
ríos de Chile central y nord central, el pH alcalino de las aguas produce la
precipitación como hidróxido de los metales hidrolizables como Cu y Zn, los
cuales son transferidos masivamente a los sedimentos finos (Oyarzún et al,
2003). Sin embargo, río abajo, el efecto de la oxidación o de la disminución
del pH, puede revertir ese proceso, pasando los metales del sedimento fino
al agua del río.

El muestreo de sedimentos no activos, vale decir de quebradas o cauces


fluviales secos, es una alternativa necesaria cuando estos no llevan agua.
Se trata de un material de menor “calidad muestreal” en cuanto a que no
representan el equilibrio agua/fase fina del sedimento. Sin embargo vale la
pena muestrearlos y utilizarlos, dejando constancia de su distinta
característica. Por otra parte, en muchos casos son los únicos sedimentos
disponibles. Si el cauce seco a muestrear es ancho, y ha dado lugar a más
de un curso esporádico de agua (lo que se deduce al observar sus
sedimentos), conviene realizar un muestreo compuesto, llenando la bolsa
en distintos puntos de una línea perpendicular al cauce principal.

El muestreo de sedimentos de terrazas fluviales puede ser útil con fines


complementarios y en casos especiales, naturalmente evitando mezclarlos
con los sedimentos del cauce de los ríos o quebradas. En un estudio
realizado en la cuenca del río Elqui (Oyarzun et al, 2004), se detectó un
295

nivel rico en materia orgánica y cristales de yeso, en una terraza de su


afluente cordillerano el Río Turbio. Analizado el sedimento, mostró elevados
14
contenidos de Cu, Zn y As, mientras su datación por C reveló una edad
cercana a 10 mil años. Si ese muestreo se hubiera realizado algunas
décadas atrás, habría revelado la posible presencia, aguas arriba, de un
yacimiento como El Indio (descubierto en los 1970´s, del cual efectivamente
provinieron los metales contenidos en el horizonte anómalo).

8.5 Planificación y Ejecución de Prospecciones Geoquímicas


por Muestreo del Drenaje.

De todas las metodologías usadas en exploración minera, las basadas en el


muestreo del drenaje son de las más utilizadas y productivas. Esto, bajo
condiciones geológicas, climáticas y topográficas muy variadas, que van
desde la selva tropical de Panamá (descubrimiento de Cerro Colorado) al
desierto de Antofagasta (proyecto Atacama de D. Lowell). Al respecto
existen casos anecdóticos, como el del geoquímico que se propuso
descubrir un pórfido cuprífero en sus vacaciones, seleccionó Nueva
Zelanda por motivos geológicos y prácticos, arrendó un automóvil,
muestreó los sedimentos de los ríos siguiendo caminos periféricos de la isla
sur y finalmente logró su objetivo (aunque el descubrimiento no alcanzó
valor económico).

El muestreo de agua debe efectuarse preferentemente en el centro de la


corriente (lo que no siempre es factible) y es conveniente que la persona
que lo realiza lleve botas de goma altas o, mejor aún, un traje de pescador
de río. Las muestras de agua se toman en botellas de polietileno de 0.5 o
1L (que deben ser marcadas con tinta indeleble y protegidas), a las que
previamente se agrega (cuidadosamente) alrededor de 1cc de ácido nítrico.
296

Esto, para evitar la precipitación o coprecipitación de metales hidrolizables


como Cu. Transportar las botellas con agua puede ser molesto cuando se
necesita muestrear a pie y en condiciones de topografía difícil. Una opción
alternativa es adsorber los metales del agua en resinas de intercambio
iónico, pero ello implica incrementar mucho el tiempo de muestreo. Algunos
textos recomiendan microfiltrar las muestras de agua en terreno. Sin
embargo, en el caso de prospecciones geoquímicas que naturalmente
persiguen fines prácticos, ello constituye un serio error, porque equivale a
eliminar evidencia importante (aparte del tiempo consumido por esa tarea).

Las muestras de sedimentos activos deben ser secadas, preferentemente a


temperatura ambiente o moderada, a lo que sigue su tamizado a la malla -
60 Tyler o más fina y su posterior cuarteo, lo cual debe ser realizado en un
ambiente limpio y ojalá supervisado por el profesional responsable del
estudio. Se recomienda preparar dos bolsitas con 10 – 20g de cada
muestra y conservar una de ellas para comprobaciones posteriores.
Desgraciadamente no siempre se encuentra en el cauce del rio el material
sedimentario adecuado, puesto que los tramos de mayor turbulencia
pueden carecer de material fino. En tal caso se puede utilizar en subsidio
sedimentos finos no activos de anterior depositación, dejando constancia de
ello para considerarlo en la interpretación.
297

(Oyarzun, p. 814)

Detectada una anomalía, ella se puede definir mejor usando primero un


muestreo más detallado, el que puede utilizar material coluvial de las
laderas, si se trata de un muestreo de sedimentos. La siguiente etapa
correspondería a un muestreo sistemático (según una malla prefijada) de
suelos, talus o rocas, según sea el material disponible en el área anómala
definida.

En regiones afectadas por glaciaciones continentales, donde el retiro de los


hielos ha dado lugar a la presencia de cientos o miles de pequeños lagos,
el muestreo de sus aguas o de los sedimentos finos de su orilla ha
mostrado ser efectivo. Al respecto hay interesantes historias de casos, en
particular de Canadá, donde ese tipo de muestreo ha conducido a
descubrimientos exitosos.
298

8.6. Importancia de los estudios de orientación: Dos casos de


estudio

La detección de mineralizaciones ocultas por espesores de cubiertas


aluviales de metros a decenas de metros de espesor es un tema de
especial interés. Igualmente lo es la realización de estudios de orientación
que permitan establecer las formas de muestreo más adecuadas para
realizar prospección geoquímica bajo determinadas condiciones. Al
respecto, el trabajo realizado por Muntean y Taufen es especialmente
valioso.

Su estudio de orientación fue realizado en el área de la mina Cortez,


yacimiento aurífero del tipo Carlin e incluyó tests orientativo para evaluar la
utilidad de aplicaciones geoquímicas a varias escalas de exploración. Con
tal fin se efectuaron estudios detallados sobre el depósito cubierto de Gap,
adyacente a otro depósito tipo Carlin de gran magnitud: Pipeline. Tanto
ambos depósitos, como algunos cuerpos menores con mineralización tipo
skarn fueron detectados a través de muestras de suelos, de gas en el suelo
y de vegetación. Los suelos tipo “loam” de 6 a 12 cm de profundidad
desarrollados sobre materiales aluviales probaron ser un medio uniforme y
adecuado de muestreo. La presencia de oro bajo una cubierta aluvial de 10
m en la parte norte del depósito Gap fue rápidamente detectada mediante
muestras analizadas a fuego , así como mediante ataque con agua regia en
la fracción -80 mallas de los suelos tipo loam (suelos ricos en CaCO3).

Tanto en la parte norte y central sobre el depósito de Gap, el espesor de la


cubierta aluvial es de 25 a 50 m. Las anomalías de Zn en esos sectores
mostraron la mejor correlación espacial con el depósito de oro presente en
profundidad. En cambio, los tests tipo Enzyme Leach no mostraron ventajas
respecto a los tests con agua regia. La presencia de CO2 y de O2 en los
299

suelos coincidió con la de fallas y de capas de carbonatos. Los tests


biogeoquímicos mostraron elevados contenidos elevados de Au y As en la
salvia, con buena correlación con los cuerpos auríferos principales.
También la presencia de Zn en la vegetación se correlacionó bien con los
depósitos subyacentes.

La realización de 1859 sondajes mostró una anomalía de 4 a 5 km2 con


valores sobre 50 ppb Au en la base de los sedimentos aluviales, centrada
en el depósito Pipeline.

Las anomalías metálicas superficiales son consistentes con el ascenso de


metales a través de fracturas en la cubierta aluvial. Los mecanismos de
transporte más probable incluye el bombeo “barométrico” (por diferencia de
presión) de gases, o el bombeo sísmico del agua subterránea. Al respecto,
es interesante relacionar esta materia con la hipótesis planteada por Kelly
Cluer (2012) relativa a la removilización de anomalías geoquímicas en el
Carlin Trend (parte norte, propiedad Ren) donde fracturas de 0.2 a 2 cm de
potencia rellenas con montmorillonita contienen concentraciones anómalas
de Au, As, Sb, Hg, Tl y S. Estas fracturas se encuentran en tobas, 800
sobre la zona mineralizada. Su removilización fue atribuida por el autor
citado a un evento paleogeotermal, que habría tenido efecto sísmico,
debido a la dinámica del hotsport de Yellowstone. Cualquiera sea la causa,
el efecto de removilización de anomalías a través de materiales estériles y
por decenas a cientos de metros en la vertical, es de indudable interés. Por
otra parte, las anomalías parecen haberse desarrollado durante millones de
años, en un sitio donde las condiciones desérticas (como en el norte de
Chile) contribuyeron a su preservación. Puesto que esos contenidos
metálicos están probablemente asociados a minerales resistentes, el
ataque con agua regia parece preferible a otros más suaves.
300

Los muestreos de suelos y de gas en el suelo, se mostraron apropiados a la


escala de definición de sondajes. La vegetación sería aconsejable donde
faltan suelos consistentes. La cifra umbral de > 50 ppb Au, tanto en la base
de la cubierta aluvial como en la parte superior de la roca subyacente, fue
adecuada para definir ubicaciones de sondajes. El agua subterránea
alcalina (enriquecida en As, Tl, K y F) se demostró como un medio útil de
muestreo, por ahora sub-utilizado. El Au es probablemente soluble en esas
condiciones y puede entregar una indicación directa en la presencia de
yacimientos no aflorantes.

Finalmente, es importante señalar que el trabajo reseñado es valioso, tanto


como un ejemplo de estudio de orientación para realizar una prospección
geoquímica racional, como por la interesante información específica que
entrega.
301

Las conclusiones del estudio recién reseñado pueden ser contrastados con
las de Eppinger et al (2013; Econ. Geol. 108, pp 495 – 527) concernientes
al depósito de cobre porfírico Giant Pebble (Cu- Au- Mo) ubicado en
terrenos de Alaska, parcialmente cubierto por materiales de origen glacial.
302

Entre dichas conclusiones está la dificultad de detectar anomalías


geoquímicas en la zona Este del depósito, cubierta por depósitos glaciales
y una cubierta de roca estéril, lo cual dificulta la oxidación de los sulfuros en
la mineralización subyacente. Sin embargo, se detectaron anomalías de
bajo nivel en vertientes y pequeños lagos, que requirieron utilizar ICP con
niveles de sensibilidad 2 o 3 órdenes de magnitud menores de lo normal.
También se obtuvo anomalías débiles en algunos suelos, que fueron
asociadas al ascenso de aguas subterráneas a través de “efectos sifón”
controlado por fallas y por la topografía.

En contraste, en la zona Oeste donde existe una cubierta delgada de


materiales glaciales y el cuerpo mineralizado aflora en parte, la oxidación
de pirita y otros sulfuros ha generado anomalías importantes en aguas
acidificadas, sedimentos y suelos.

Los minerales indicadores: oro, jarosita y andradita revelan una anomalía


desplazada al oeste y al sur del yacimiento, asociadas al efecto del hielo
que “raspo” parte del yacimiento y lo depósito como till. Ello, a su vez,
generó anomalías desplazadas en aguas y sedimentos. El estudio de
orientación demostró un fuerte control geológico en la efectividad de las
metodologías geoquímicas de exploración.
303
304
305
306
307
308

CAPÍTULO 9: “PROSPECCIÓN GEOQUÍMICA MEDIANTE AGUAS


SUBTERRÁNEAS”

http://livingwatersmart.ca/water-act/groundwater.html

http://oceanworld.tamu.edu/resources/environment-
book/groundwatercontamination.html

http://www.enviroblog.org/2007/11/in-neodesha-bp-
stands-for-big-problems.html
http://www.wrl.unsw.edu.au/site/projects/potenti
al-impacts-of-effluent-re-use-on-groundwater-at-
tamworth/

http://www.thebowriver.com/bow_river_basin_waterscape.htm
http://www.water.wa.gov.au/sites/gss/ggs.html
309

9.1 Controles Físicos del Agua Subterránea

Parte importante del drenaje escurre en forma subterránea y si se compara


su volumen total, en un instante dado, con el del agua superficial, lo supera.
Sin embargo, dada su baja velocidad de flujo su contribución al reciclaje
total del agua, es muy inferior a la del drenaje superficial. El agua que se
infiltra desde la superficie en las rocas, sedimentos o suelos, pasa primero
por una zona denominada “vadosa” en la cual no alcanza a saturar los
espacios interconectados y por lo tanto coexiste con el aire en esas
cavidades. Alcanzado cierto nivel de profundidad, variable según el clima y
las condiciones geológicas del sitio, el agua llega a saturar esos espacios.
El nivel en que ello ocurre se denomina “nivel freático” y el cuerpo de roca o
sedimento que contiene el agua y permite su transporte se designa como
“acuífero”.

Un acuífero puede extenderse en profundidad hasta que las rocas pierden


paulatinamente su porosidad y permeabilidad. También puede ocurrir que
sea interrumpido por un nivel impermeable, bajo el cual se encuentra un
segundo acuífero. En tal caso se denomina al primero “acuífero colgante”.

(Hasan, p. 121)
310

La porosidad de un sedimento o una roca que depende de los espacios


entre los granos o clastos se denomina “porosidad primaria”. Aquella
producto de efectos tectónicos como diaclasas o fallas, se designa como
“porosidad secundaria”, la cual también puede ser producida por disolución
de la roca, como en el caso de los fenómenos kársticos en rocas
carbonatadas. La porosidad primaria puede ser alta en rocas sedimentarias
como areniscas o conglomerados y prácticamente nula en rocas plutónicas.
En el caso de rocas volcánicas como los basaltos se genera un tipo de
porosidad especial por cuanto es secundaria pero contemporánea a su
cristalización, dada por los espacios entre las estructuras columnares así
como de los “túneles” formados en la lava durante su flujo, poco antes de
completar su solidificación..

La permeabilidad de un sedimento o roca depende de su porosidad pero


también de las conexiones entre los espacios abiertos. Junto con el
gradiente hidráulico, determina el flujo de agua subterránea que puede
conducir un acuífero bajo determinadas condiciones. La fórmula q = k ∆h /
∆l, derivada de la expresión de D’Arcy, señala que la velocidad del agua
entre dos puntos cuya diferencia de altura es ∆h es igual al producto del
coeficiente de permeabilidad del acuífero multiplicado por la razón entre ∆h
y el camino que efectivamente recorre el agua entre dichos puntos (∆l).
311

(Hasan, p. 124)

La expresión anterior se aplica a aquellos acuíferos denominados “libres”,


vale decir en los que el agua puede situarse a la altura que físicamente le
corresponde. En el caso de acuíferos constreñidos por un nivel superior
impermeable (como los de tipo artesiano), es necesario considerar, en lugar
de la altura efectiva de un punto, su nivel “piezométrico”, vale decir el nivel
al que le correspondería situarse conforme a su presión, si no existiera la
barrera impermeable que se lo impide.
312

En el caso de nuestra geología, tan rica en rocas ígneas y relativamente


pobre en rocas sedimentarias, las fracturas juegan un rol principal en el
transporte del agua at través de macizos rocosos, y el efecto de las fallas
mayores es muy importante. Sin embargo, esas fracturas, si son
perpendiculares al gradiente hidráulico, no conducen agua y sólo pasan a
hacerlo en la medida en que su actitud se va haciendo más paralela
respecto a la dirección del gradiente.

9.2 Características Químicas del Agua Subterránea

Como se explica en el capítulo 3, las características químicas de las aguas


naturales están controladas por factores como el potencial de reducción-
oxidación, el pH, las propiedades de los elementos disueltos (en cuanto a
su tendencia a hidrolizarse) y otros factores. Estos a su vez dependen en
parte de la interacción del agua con el aire (cuya riqueza en oxígeno es
determinante del Eh del agua), de la materia orgánica (ya sea por su
actividad reductora o por el efecto del CO2 sobre el pH del agua) y de su
reacción con los minerales y rocas (en particular por el efecto de la
hidrólisis de los silicatos y de la oxidación de los sulfuros en el pH).

Al respecto el agua subterránea presenta varias características particulares.


En primer lugar, su relativo aislamiento respecto al oxígeno atmosférico,
excepto en la zona vadosa. En el caso del enriquecimiento secundario de
minerales de cobre, eso explica la formación de una zona oxidante en los
niveles de la zona vadosa y de una zona reductora o de “cementación” de
sulfuros, bajo ella.

El mismo efecto permite también que Fe y Mn se puedan movilizar en el


agua subterránea bajo su valencia menor: +2, lo que evita su hidrólisis y
313

precipitación (así como su consiguiente efecto co-precipitador sobre otros


metales). Este hecho explica, por ejemplo, la formación de “costras” de Fe
(OH)3 en los sitios de “afloramiento” de agua subterránea, debido a que el
Fe2+ transportado se oxida e hidroliza al aflorar el agua a la superficie.

También es propio del agua subterránea su íntimo contacto con los


minerales de rocas y sedimentos. De dicho contacto resulta un equilibrio
favorecido por la lentitud de su movimiento, así como una mutua
transferencia de materia. Es así que el agua subterránea puede ser
despojada de algunos contaminantes (y por ello se utiliza en algunos casos
como filtro para agua superficial destinada al consumo humano) o, bien
puede ser contaminada debido a ese contacto, como se relata más
adelante.

Una tercera característica del agua subterránea, la lentitud de su flujo,


permite un mayor desarrollo de fenómenos como la difusión (movilidad de
iones o moléculas debida a gradientes de concentración). Por otra parte, su
relativa “protección” respecto a la superficie la hace menos sensibles a los
cambios estacionales, tendiendo a conservar su composición a lo largo del
año, en comparación con las aguas superficiales. Igualmente su
temperatura es más estable (lo que se aplica actualmente en su uso como
“refrigerante” de edificios en verano y para ayudar a calefaccionarlos en
invierno.

9.3 Formación de Yacimientos y Anomalías Geoquímicas en


Acuíferos

Dos tipos importantes de yacimientos formados en acuíferos ilustran su


capacidad para permitir la movilización de metales y en consecuencia para
la generación de aureolas de dispersión geoquímica utilizables en
314

exploración. De hecho estos yacimientos representan anomalías de


dispersión geoquímica de magnitud tal que constituyen depósitos
explotables. Ellos corresponden a los depósitos exóticos de cobre y a los
denominados yacimientos de uranio y vanadio en capas rojas.

Los depósitos exóticos de cobre como Mina Sur, en Chuquicamata (ex


Exótica) y Sagasca (Tarapacá), se forman por migración lateral de cobre
movilizado desde la zona de oxidación de pórfidos cupríferos bajo
condiciones áridas a semi – áridas. A diferencia de las zonas de
cementación a sulfuros ricos de los mismos yacimientos, que se originan
por descenso vertical y reemplazo de Fe por Cu en los sulfuros hipógenos,
estos depósitos están constituidos por minerales oxidados como crisocola,
atacamita y wad (óxidos hidratados de Mn-Cu). Las soluciones ricas en Cu,
pueden transportarlo mientras conserven su pH ácido, el que evita que el
metal se hidrolice y precipite Cu2+ + 2OH- = Cu (OH)2. Este efecto es
precisamente el que caracteriza al denominado “drenaje ácido”, uno de
cuyos efectos ambientales negativos es su capacidad para transportar
metales pesados en solución.

Sin embargo, al pasar la solución ácida a través de las rocas o sedimentos


del acuífero, se produce su reacción con ellas, lo que conlleva su
progresiva neutralización y la liberación de SiO2, a través de reacciones
como:
MgSiO3 + 2H+ = Mg2+ + H2SiO3 Cu2+ + “OH = Cu (OH) 2
Cu (OH)2 + H2SiO3 = CuSiO3 + 2H2O. Es frecuente que el acuífero en
cuestión está constituido por el relleno de un paleocanal, lo que explica la
forma alargada de estos depósitos..
315

(Munchmeyer, 1996)

(Munchmeyer, 1996)
316

(Munchmeyer, 1996)

Los yacimientos de uranio y vanadio en capas rojas se forman también en


acuíferos, aunque el origen de los metales y el mecanismo de precipitación
es distinto. En el caso del uranio, este puede provenir de rocas ígneas,
317

ricas en U (que normalmente son rocas félsicas con alto contenido de K),,
donde las condiciones de meteorización en la zona vadosa permiten que el
U migre bajo la forma del complejo uranilo, con valencia 6: UO2+2. Esta
migración ocurre bajo condiciones poco profundas que permiten mantener
un ambiente moderadamente oxidante, como puede ser el caso de un
paleocanal relleno de material detrítico permeable.

(Brookins, p. 153)

Si en ese acuífero existen materiales capaces de inducir condiciones


reductoras locales, como un antiguo tronco de árbol arrastrado por la
corriente, cuya descomposición bacteriana consume el oxígeno del agua
318

en su entorno, la “barrera geoquímica reductora” generada induce la


precipitación del uranio. Ello debido a que el complejo hexavalente pierde
estabilidad y precipita óxido de U tetravalente: UO22+ + 2e = UO2(s). En
terreno, estas barreras reductoras se pueden visualizar a través de los
cambios de coloración que se producen al reducirse el Fe3+ de la hematita,
que comunica un color rojizo – violáceo a las rocas y sedimentos
“oxidados”.

(Oyarzún, p. 501)
319

El concepto de barrera geoquímica recién mencionado se aplica a las


distintas condiciones que pueden llevar a la precipitación de metales
transportados en solución. Así, existen “barreras oxidantes” para
elementos cuya oxidación conlleva directa o indirectamente su
precipitación (como Fe y Mn), barreras ácidas o alcalinas, barreras
carbonaticas y sulfáticas (ésta última para elementos como Ba y Pb, cuyos
sulfatos tienen bajo kps.). También la materia orgánica puede representar
una barrera, tanto por su efecto reductor como por su capacidad de
adsorber metales pesados a través de un fenómeno análogo al cambio de
bases de las arcillas. Un efecto parecido tienen los óxidos hidratados de Fe
y de Mn.

(Rosler y Lange, p. 385)

El agua subterránea puede constituir un medio valioso de prospección


minera, en particular cuando los yacimientos están asociados a rocas
sedimentarias permeables con actitud horizontal o sub – horizontal. Este es
el caso, por ejemplo, de muchos yacimientos de Pb – Zn de origen
320

diagenético presentes en rocas carbonatadas, como los del extenso distrito


del Valle del Mississippi, en EEUU. En su exploración se ha utilizado el
análisis de agua de los numerosos pozos de los agricultores de la zona
para la detección de anomalías generadas de yacimientos no aflorantes.

Sin embargo, la presencia de contenidos anómalos de metales o


metaloides en el agua subterránea no siempre se asocia a la presencia de
yacimientos metalíferos. Por ejemplo, las elevadas concentraciones de As
presentes en aguas subterráneas en Bangladesh proceden de niveles
sedimentarios en los que As probablemente coprecipitó primero en los
sedimentos fluviales con limonita y se depositó con ese mineral en los
sedimentos del delta. Posteriormente pasó junto con Fe a una fase
sulfurada, derivada de la reducción de SO42- por actividad bacteriana. Al
descender el nivel freático local por efecto de la sobre explotación de los
acuíferos, se produjo la oxidación de la fase sulfurada, lo que liberó el As,
que paso a contaminar el agua subterránea.

Una forma indirecta de utilizar el agua subterránea en prospección


geoquímica es reconocer sus efectos en sedimentos o rocas por las que
circuló en el pasado. Al respecto los mejores indicadores pueden ser los
minerales de baja temperatura precipitados en cavidades de la roca o
sedimento, por efecto de “barreras geoquímicas”. Otro importante criterio
son los cambios de coloración debidos al efecto de barreras oxidantes o
reductoras (Chavez, 2011). Al respecto, el Fe es un importante colorante
de las rocas y sedimentos, indicando el rojo-violáceo condiciones oxidantes
y el verde (Fe2+) condiciones transicionales. Por su parte, el color negro es
propio de la materia orgánica carbonosa (ambientes reductores). En
consecuencia la decoloración del rojo debe interpretarse como un efecto
de reducción, y la del negro, como uno de oxidación. Naturalmente, vale la
pena muestrear y analizar las rocas a ambos lados de estas transiciones.
321

CAPÍTULO 10: “GEOQUÍMICA DE GASES, BIOGEOQUÍMICA Y


GEOBOTÁNICA”

http://ciencialandia.blogspot.com/20
08/08/ciclos-biogeoquimicos-y-su-
relacion-con.html
http://www.floradeguinea.com/guinea/fitogeografia/

http://es.wikipedia.org/wiki/Geob
ot%C3%A1nica

http://snap-ecuador.wikispaces.com/Reservas
http://frodo.diicc.uda.cl/cidiicc/2010/07/13/geoquimica-de-
gases-y-percepcion-remota/

http://www.gore.com/es_es/products/geoch http://www.sciencemag.org/cont
emical/reconocimientos_geoquimicos.html ent/328/5985/1512/F1.expansion
http://www.facebook.com/event.php?ei
d=192660357425139
322

10.1 Exploración por Geoquímica de Gases

Varios gases han sido utilizados con resultados positivos en exploración


geoquímica. En esta sección consideraremos aquellos cuyo análisis no
ofrece dificultades tales que hagan poco práctica su aplicación. Este grupo
incluye SO2 y H2S, Hg y 222Rn.
Tanto SO2 como H2S tienen su origen en emanaciones de origen volcánico
o geotérmico, así como en la oxidación de yacimientos sulfurados. En
términos de exploración geoquímica de minerales, son éstos últimos los
que revisten mayor interés. Aunque la oxidación de sulfuros da origen a
SO2, que a su vez se disuelve en agua y puede oxidarse a SO4=, en la parte
inferior de la zona de oxidación, existen condiciones transicionales de
equilibrio que pueden llevar el S a su forma sulfurada. Conforme a la
compilación de experiencias presentada por el texto de Dhana Raju, el uso
de ambos gases no ha sido práctico, excepto en zonas áridas, por la
facilidad de ambos gases para disolverse en agua. Su captación en el
terreno se realiza a través de tamices moleculares.

El estudio de las aplicaciones del vapor de mercurio en exploración minera


se inició en Chile a principios de los 1970’s en el Instituto de
Investigaciones Geológicas (actual SERNAGEOMIN) contando con la
asesoría del Servicio Geológico Británico. El método utilizado era bastante
engorroso e incluía un sistema de aspiración del aire del suelo, el que se
hacía pasar por un tubo, donde una fina lámina de platino adsorbía el
mercurio presente. Posteriormente esa lámina era calentada en laboratorio,
y el metal analizado en fase vapor por absorción atómica. A lo engorroso y
lento del método se sumaba la bajísima concentración que alcanza el
mercurio en el aire, cuyo valor de fondo se sitúa entre 2 y 8 ng/m3
(nanogramos/m3), alrededor de 0.5 x 10-12 en término de relación
volumétrica. Actualmente, se cuenta con instrumentos de alta sensibilidad,
capaces de realizar mediciones de mercurio instantáneas, incluso donde
323

vehículo en movimiento, lo cual ha impulsado notablemente sus


aplicaciones de carácter exploratorio y en estudios ambientales.

La base conceptual del uso del mercurio en exploración radica en la


presencia de mercurio en distintos tipos de menas, en particular en aquellas
de tipo hidrotermal, acompañando metales como Au y Ag, así como en la
relativamente alta presión de vapor de este metal, que se presenta como
líquido a la temperatura ambiente. Por otra parte, el mercurio contenido con
HgS y en otros sulfuros o sulfosales, pasa fácilmente al estado elemental
durante la oxidación de ellos, lo cual facilita su transferencia a la fase gas.

En consecuencia, si la roca es porosa, o presenta fracturamiento (esto


último siempre presente en nuestra geología) el mercurio tiene la
oportunidad de ascender hacia la superficie, en especial si el nivel freático
es profundo, como ocurre en el norte de Chile. Aunque las mediciones de
mercurio pueden acompañar a cualquier tipo de prospección geoquímica, al
igual que el uso de espectrometría gamma, el método se adecúa
especialmente para la exploración de yacimiento epitermales. El Chile, ha
sido utilizado preferentemente para explorar áreas cubiertas por rocas
volcánicas del Terciario Superior y Cuaternario, bajo las cuales se
sospecha la presencia de yacimientos porfíricos. Esto, asumiendo que el
vapor de mercurio puede ascender a través de de las fracturas en dichas
rocas.

222 238
Rn es un producto radioactivo de la serie de decaimiento de U, cuya
vida media es de 3.8 días. En consecuencia puede ser utilizado en la
exploración de yacimientos que contienen uranio, ya sea como metal
principal o acompañante (por ejemplo, IOCGs del tipo Olympic Dam). Radón
puede ser detectado ya sea en la cubierta superficial (rocas, sedimentos o
suelos) o en agua subterránea. En el primero caso se utiliza un sistema de
negativos fotográficos que se colocan en tubos enterrados en la cubierta,
324

donde se dejan algún tiempo (días o semanas) de manera que sean


impresionadas por el efecto de su radioactividad. Esos negativos son
recogidos y enviados a laboratorios especializados, que entregan
posteriormente mapas de concentración de gas. Autores citados por Dhana
Raju estiman que los halos de radón se extienden hasta 100m sobre
yacimientos de uranio. El radón puede ser analizado también en muestras
de agua subterránea, para lo cual se dispone actualmente de equipos
sensibles y de costo moderado (alrededor de US$ 5000). Naturalmente, la
corta vida media del radón es una limitante de su utilidad en prospección
geoquímica.

10.2 Exploración Biogeoquímica

El término biogeoquímica, propuesto por el ruso Vernadsky se aplica


principalmente al estudio de las concentraciones metálicas en las plantas.
Su uso en prospección minera se justifica en tres casos generales: a)
Cuando la planta es capaz de extraer contenidos metálicos de niveles
profundos del subsuelo (las raíces de las plantas freatófitas pueden
alcanzar longitudes de decenas de metros) b) Cuando la planta es capaz
de concentrar el metal prospectado de tal manera que permite detectar
contenidos que pasarían desapercibidos si se muestrea el suelo sobre el
que ella crece (éste podría ser el caso de los equisetos, que presentan
una facilidad especial para concentrar oro) c) Cuando sus anomalías
permiten lograr una mejor definición de la ubicación del depósito que las
entregadas por los suelos o sedimentos. De otra manera no se justifica
emplear esta metodología, que es más engorrosa que el muestreo y
análisis de materiales inorgánicos. Esto, especialmente cuando las plantas
o árboles entregan los contenidos metálicos al suelo a través de la caída
de sus hojas (mecanismo que no es efectivo en zonas áridas).
325

(Oyarzún y Oyarzun, p. 839)

(Oyarzún y Oyarzun, p. 839)


326

Las plantas pueden concentrar metales porque los necesitan, pero esto
sólo en pequeñas cantidades. Concentraciones mayores son simplemente
consecuencia de factores físicos, cuya acción es permitida por la
tolerancia de la planta a esas concentraciones. Los metales son captados
de los minerales del suelo o la roca a través de la acción disolvente y
acomplejante de compuestos orgánicos ácidos, generados por las raíces
de la planta. Después de pasar por barreras selectivas de las mismas
raíces, los metales ascienden a través de las estructuras capilares del tallo
o tronco hasta las ramas y las hojas, cuya evaporación contribuye a ese
ascenso, al mismo tiempo que da lugar a la concentración de los metales.

(Oyarzún y Oyarzun, p. 851)


327

(Rosler y Lange, p. 366)

Respecto al material a muestrear, las hojas ofrecen las mayores


concentraciones metálicas. Sin embargo, tienden a presentar más
variabilidad entre distintas estaciones del año, de manera que algunos
especialistas prefieren utilizar las ramas. El material muestreado debe ser
incinerado en laboratorio, pasando a continuación las cenizas al ataque
químico y análisis.

La realización de una prospección biogeoquímica en una nueva zona


debería partir por un estudio piloto de orientación. Tal estudio debería a su
vez establecer, los siguientes puntos (Dhana Raju, p. 340): a) Especies
óptimas a muestrear, considerando amplitud de distribución, contraste de
sus anomalías, facilidad para su reconocimiento y muestreo y profundidad
de sus raíces b) Parte de la planta a muestrear c) Mejor(es) elementos(s)
indicador(es). d) Efectos locales que pueden influir (por ejemplo, posición
de la ladera respecto al sol y su influencia esperada) e) Cantidad de
vegetación necesaria, para generar la masa de cenizas requerida f)
Efectos contaminantes locales g) Patrón e intervalos de muestreo.
328

(Granier, p. 111)

(Levinson, p. 390)
329

La biogeoquímica ha sido utilizada con especial éxito en regiones


densamente cubiertas de vegetación, y se le atribuyen descubrimientos
importantes, como los logrados en exploración de cobre en Zambia
mediante la planta Becium homblei. En Chile se han realizado algunos
estudios con resultados positivos, tal como el efectuado en el entorno del
depósito de cobre de Cutter Cove, en Magallanes, en suelos orgánicos de
tipo turba. En general, su uso es también razonable en zonas áridas con
presencia de freatófitas, puesto que esas plantas o árboles como el
Tamarugo extienden sus raíces hasta el nivel freático (no así las xerofitas
como las cactáceas que se defienden de la aridez minimizando la
evaporación). También lo es en zonas del sur del país, donde el tipo de
suelo pantanoso puede constituir una barrera para el ascenso de metales.
Finalmente, cabe mencionar que también se ha estudiado la posibilidad de
utilizar organismos marinos del tipo “filtradores”, como los mitilidus en los
fiordos australes, al parecer con resultados promisorios.

10.3 Exploración Mediante Geobotánica

A diferencia de la biogeoquímica, la geobotánica no utiliza análisis


químicos y no constituye propiamente una herramienta de exploración
geoquímica, al menos en términos directos. Sin embargo, indirectamente
indica la presencia de contenidos químicos anómalos y por ello se
considera en conjunto con la biogeoquímica.

Las “anomalías” geobotánicas se expresan de varias maneras. En casos


extremos pueden implicar la ausencia o notable escasez de vegetación en
un área, debido a las condiciones negativas del sitio, producto de
concentraciones nocivas de elementos o iones complejos, o de su elevada
acidez o alcalinidad.
330

También se pueden expresar en la escasez de una o varias especies poco


tolerantes a determinadas concentraciones de elementos o iones
complejos, mientras que otras especies las resisten sin mayores
problemas. Por otra parte, estas últimas, al disfrutar de menor
competencia pueden prosperar de manera notable bajo esas condiciones
especiales.

(Levinson, p. 388)

Otra posibilidad es que una especie requiera especialmente el elemento


que abunda en el área en cuestión y que su sola presencia indique que él
se encuentra en concentraciones superiores a la normal. Todos los casos
antes mencionados implican alteraciones de carácter ecológico en la
población vegetal, respecto a las relaciones cuantitativas normales entre
las diversas especies que comparten el hábitat.
331

También las anomalías geobotánicas se pueden expresar en términos de


alteraciones de color o forma de las especies vegetales. Por ejemplo, la
decoloración denominada clorosis que afecta a las hojas se explica por la
interferencia de metales que afectan el desarrollo de la clorofila (una
porfirina, vale decir un compuesto órgano – metálico estructurado en torno
a un átomo de Mg). La deformación de las plantas se observa, por
ejemplo, en las cactáceas, cuya talla disminuye, aumentando su ancho por
efecto de altas concentraciones de boro.

El texto de Hawkes y Webb (1962) cita los siguientes efectos de metales


que presentan aplicaciones en prospección geobotánica:

Co: Manchas blancas en las hojas.


Cr: Hojas amarillentas, con guías verdosas.
Cu: Clorosis. Manchas blancas en hojas inferiores.
Mo: Coloración amarillo – anaranjada de las hojas.
Ni: Manchas blancas en las hojas.
U: Frutos de formas anormales. Formas estériles sin pétalos.
Zn: Clorosis en las hojas, zonas muertas.

En cambio, una planta: Viola calaminaria , se desarrolla preferentemente en


suelos ricos en Zn, como los desmontes de antiguas explotaciones mineras
y la planta Becium homblei requiere para su normal desarrollo que la
concentración de Cu del suelo supere los 100 g/t. Al respecto, se denomina
indicadores universales a aquellas plantas que indican siempre la presencia
abundante de un metal, e indicadores locales a aquellas que pueden ser
usadas con tal fin al interior de un determinado distrito. La Tabla 6 (Oyarzún
y Oyarzun, 1991) entrega un listado de indicadores universales y locales
basado en Siegel, (1974).
332

(Dhana Raju, p. 343)

Un estudio geobotánico puede iniciarse en áreas con mineralizaciones


presentes, haya o no sido explotada, así como en áreas donde han sido
depositados desmontes u otros materiales producto de la explotación. La
distribución o características especiales de las plantas, se compara con la
de áreas estériles y no intervenidas. Establecidas las diferencias, si ellas
existen, se puede pasar a la siguiente etapa de “mapeo” de las anomalías
encontradas, la cual debe realizarse conforme a las metodologías de
cuadrículas utilizadas por los ecólogos. Naturalmente, una persona con
formación en botánica y ecología es la más competente para realizar esta
tarea.

Sin embargo, lo anterior no implica que el geólogo o geoquímico de


exploración no deba observar y anotar en su “libreta de terreno” (o su
equivalente digital) aquellas características de la vegetación que llamen su
atención, las cuales pueden justificar más adelante la realización de una
prospección geobotánica formal.
333

(Oyarzún y Oyarzun, p. 853)


334

(Oyarzún y Oyarzun, p. 854)


335

CAPÍTULO 11: LA EXPLORACIÓN GEOQUÍMICA EN CHILE

http://www.telesurtv.net/secciones/noticias
/95876-NN/mineros-del-yacimiento-
collahuasi-en-chile-anuncian-paro-de-24-
http://www.mch.cl/revistas/index_neo.php
horas/
?id=318

http://www.barricksudamerica.com/proyec
tos/pascualama_preguntas.php

http://www.chilesustentable.net/web/2011/07/25/
estudio-de-greenpeace-argentina-asegura-que- http://latercera.com/contenido/655_163483_9.shtml
barrick-ya-destruyo-glaciales/

http://www.mecanicaderocas.cl/paginas/clientes1.htm
http://www.todomonografias.com/geologia-
topografia-y-minas/el-cobre-parte-1/
336

11.1 Reseña Histórica de la Geoquímica en Chile

Los primeros estudios geoquímicos en nuestro país se efectuaran a fines


de los 1950’s en el Instituto Geofísico de la Universidad de Chile, que
contrató a la especialista de nacionalidad sudafricana Anne de Grys, la que
había cursado estudios de M.Sc en el Imperial College de Londres, bajo la
dirección del Prof. J.S. Webb. Utilizando métodos de análisis
colorimétricos, de Grys investigó sistemáticamente las distribuciones de
cobre y otros metales en suelos, sedimentos y aguas del drenaje,
especialmente en la zona central de Chile. También realizó otros tipos de
investigaciones, incluida una sobre las aguas termales de Chile. Sin
embargo, sus estudios se centraron en las aplicaciones prospectivas de la
geoquímica y en las variaciones estacionales de los contenidos metálicos
del drenaje, así como en la distribución de metales en el entorno de
depósitos metalíferos. Parte de su investigación de efectuó a través de
memorias de título, contribuyendo además a difundir esta ciencia aplicada
a través de sus cursos en la Universidad. Anne de Grys abandonó el país
a fines de los 1960’s, incorporándose a Naciones unidas y participó en
diversos programas internacionales, partiendo por la exploración de
pórfidos cupríferos en Argentina.

Paralelamente, el geoquímico francés Claude Lepeltier realizó una


importante labor como integrante de una misión de Naciones Unidas que
colaboró con el Instituto de investigaciones geológicas (I.I.G, actual
SERNAGEOMIN) en una serie de exploraciones que se realizaron en el
norte del país, las que incluyeron principalmente el estudio de prospectos
de pórfidos cupríferos (Mocha, Lomas Bayas, Domeyko) y de yacimientos
epitermales (Guantajaya, Chimberos, Punitaqui, y otros). Sólo entre 1961 y
1962, unas 11 mil muestras de suelos y sedimentos fueron analizadas por
Cu, Mo, Zn, As y Sb. Por otra parte, Lepeltier fue conocido
337

internacionalmente por su publicación en Economic Geology (1969) sobre


el uso de gráficos log – probabilidad en la interpretación de anomalías
geoquímicas (ver capitulo 6), método que ha sido muy utilizado en
prospección geoquímica.

Naciones Unidas colaboró con el país en un segundo estudio a fines de los


1960’s, centrado en las regiones de Atacama y Coquimbo. Por otra parte,
el I.I.G., que contaba con un completo laboratorio geoquímico incorporó la
geoquímica a sus estudios exploratorios de manera sistemática, contando
a principios de los 1970’s con la cooperación del Servicio Geológico
Británico. En esa cooperación tuvo un rol principal el Dr. Barry Page, quien
lideró las aplicaciones de la informática, tanto en la recolección de
información durante el muestreo geoquímico como en la etapa del
procesamiento de la información. La colaboración británica también se
manifestó en materia de geoquímica de gases, y condujo al desarrollo de
una tesis doctoral (Imperial College) realizada por la contraparte chilena
del proyecto (Jaime Arias).

Posteriormente a la nacionalización del cobre, correspondió al I.I.G.


realizar estudios geoquímicos en numerosas áreas de interés prospectivo
en el norte de Chile, las que incluyeron los distritos de Quebrada Blanca y
de El Abra, ambos en actual producción , así como el área donde se
encuentran actualmente las explotaciones de Escondida y Zaldívar. Sin
embargo, la situación económica del país no permitía realizar sondajes de
exploración y el interés del Gobierno se centraba en aquellas áreas del
entorno cercano de los depósitos en producción. Por otra parte, esa
campaña exploratoria no continuó después de 1973, dado el interés del
Gobierno de la época en impulsar la inversión privada externa en las
nuevas explotaciones mineras, y por lo tanto abandonó por algunos años
la participación activa de las empresas y organismos del Estado en
exploración .
338

En materia de litogeoquímica, en 1971 se presentó el primer estudio


comprensivo sobre elementos en trazas en rocas volcánicas y plutónicas
de Chile, en forma de una tesis doctoral (J. Oyarzún), que relacionó los
resultados obtenidos con la metalogénesis andina y la entonces nueva
tectónica de placas. Posteriormente, la litogeoquímica, en particular de
rocas volcánicas fue desarrollada por el Prof. Leopoldo López, que utilizó
sus resultados en modelos petrogenéticos, en particular sobre la
generación de magmas calcoalcalinos.

También a principios de los 1970’s, la Universidad del Norte dictó el primer


programa de postgrado en geoquímica (M.Sc.), cuya primera versión
graduó a tres especialistas (H. Alonso, P. Campaña y N. Guerra), quienes
posteriormente se doctoraron en Europa y pasaron a integrar la planta de
académicos del Departamento de Geología de esa Universidad. Ello ha
permitido un continuo desarrollo de la disciplina, facilitado por la
adquisición posterior de instrumental analítico avanzado.

En los años 1980’s el centro de gravedad de las actividades de exploración


pasa a las empresas mineras privadas que retornan al país, y que obtienen
importantes logros en materia de descubrimientos, los que serán tratados
en la próxima sección. También una empresa organizada en Chile, la
actual Antofagasta Minerals, obtiene importantes logros en esta nueva
etapa, los que incluyen la puesta en explotación del primer yacimiento
porfírico de cobre desarrollado “desde el país” (Los Pelambres), así como
posteriormente éxitos en materia de exploración de nuevos distritos.

En cuanto al desarrollo científico – aplicado de la geoquímica, la fundación


del instituto GEA en la Universidad de Concepción, posibilitada, por un
importante apoyo de la cooperación técnica de Japón, constituye el hito
339

más importante. Ello, porque permitió reunir un importante grupo de


investigadores, dotados de las tecnologías analíticas más modernas, los
que han sido exitosos en responder a las necesidades de investigación
geoquímica y mineralógica de la minería nacional. Ello, sin dejar de lado la
continua e importante labor científica del Departamento de Geología de la
Universidad de Chile.

11.2 Contribución de la Geoquímica a la Exploración Minera en


Chile 1975 – 2010

La presente sección está basada en la exposición del Profesor V. Maksaw


en el Congreso de Minería de Colombia (2011), la cual a su vez considera
a su vez las contribuciones de Sillitoe (1995, 2000 y 2004), Sillitoe y Perelló
(2005) y Sillitoe y Thompson (2006). También recoge las conclusiones de
S. Rivera (1991) respecto al descubrimiento de La Coipa.

Chile es, indudablemente, un país rico en recursos minerales, pero estos


corresponden a un grupo pequeño de metales y de minerales “no
metálicos”. En el caso de los metales, esto se explica principalmente
porque todo su magmatismo es de carácter calcoalcalino, lo cual excluye la
presencia de metales asociados a otras series magmáticas. Tampoco ha
existido un desarrollo importante de episodios, sedimentarios marinos
como en el caso de Perú, lo que puede explicar la pobreza en Zn y Pb
(excepto en la zona austral, donde la paleogeografía fue diferente). En
cuanto a los no-metálicos, muchos de los cuales están directa o
indirectamente ligados a episodios sedimentarios, ambas razones son
también válidas, en particular la paleogeografía. En consecuencia, los
únicos no-metálicos importantes son los yacimientos de nitratos, yodatos,
boratos, etc. de los salares o depósitos evaporíticos del norte del país,
340

donde hoy se destaca la producción de litio, y cuyo origen es seguramente


tributario de la confluencia del volcanismo con factores tectónicos y
climáticos (Mueller, 1960; Oyarzún y Oyarzun, 2007).

Consecuencia de lo expuesto, nuestra metalogénesis se ha caracterizado


por la presencia de yacimientos de cobre, cobre-molibdeno, plata, oro y
hierro y la exploración minera se ha centrado históricamente en el cobre, el
oro y la plata (actualmente, sólo en los dos primeros).

Chile aporta un 36% de la producción mundial de cobre y cuenta con unos


175 Mt de reservas (Cu metálico eq.), lo que representa un tercio de las
reservas mundiales. A ellos se agrega su importancia como productor de
Mo, metal asociado a sus depósitos porfíricos. Al ritmo actual de consumo,
las reservas mundiales actuales garantizan las necesidades por 30 años.
No se trata de horizonte muy largo, y en consecuencia existe interés en
desarrollar reservas mayores. Chile ofrece un ambiente geológico óptimo
para la presencia de yacimientos de cobre, así como garantías en términos
de retorno de inversiones. En consecuencia se entiende que sea uno de
los destinos principales de la inversión en exploración a nivel mundial,
aunque la “madurez” de la exploración realizada hasta hoy sea un factor
negativo, al igual que la escasa disponibilidad de áreas libres de
pertenencias mineras.

En materia de producción y reservas auríferas, Chile ha tenido un rol


menor a nivel mundial. Su actual producción del metal, unas 40 t/año
representa un 1.5% de la mundial, contra 6.8% de la participación del Perú.
Tampoco Chile cuenta con yacimientos de la magnitud de Yanacocha
(Perú), aunque el depósito de Pascua- Lama, que comparte con Argentina
y está pronto a entrar en producción, es importante. La exploración aurífera
en Chile cobró interés después del descubrimiento del distrito de El Indio a
341

fines de los 1970’s y actualmente está impulsada por los elevados precios
del metal, producto de crisis de confianza que atraviesa la economía
mundial desde hace ya algunos años.

En 2010, se invirtieron en Chile unos 545 M de dólares, algo más que en


Rusia (427 M) pero algo menos que en Perú (574 M). Al respecto, Chile se
sitúa entre los principales destinos de la exploración minera, pero lejos de
sus focos principales: Canadá (2029 M) y Australia (1281 M., todas cifras
de 2010).

Los primeros éxitos de la geoquímica en exploración minera a nivel de


andino datan de los años 1970’s e incluyen su contribución al
descubrimiento del pórfido cuprífero de Chaucha (Ecuador) y a los de La
Granja, Chañarico y otros en Perú. También se detectó una anomalía de
Pb-Zn-Ag en Perú, la que a fines de los 1980’s condujo al descubrimiento
del gran depósito aurífero de Yanacocha. En Chile, entre otros resultados
(incluida la anomalía geoquímica de Mo del futuro distrito Escondida-
Zaldívar) la exploración realizada en el distrito Quebrada Blanca condujo al
descubrimiento del pórfido Rosario de Collahuasi, en 1979.

Entre 1974 y 1976, estudios realizados por ENAMI, a raíz de resultados


previos obtenidos por pirquineros, condujeron al descubrimiento del
depósito epitermal de Au-Cu-Ag-As de El Indio en la cuenca del río Elqui.
Lo curioso del caso es que ese yacimiento habría podido ser fácilmente
descubierto mediante geoquímica de sedimentos fluviales, prácticamente
partiendo desde la ciudad de Vicuña.

El hallazgo de El Indio motivó un gran interés por los terrenos con


afloramientos de rocas volcánicas cenozoicas con extensas zonas de
alteración hidrotermal de las regiones de Coquimbo y Atacama y
342

condujeron rápidamente al descubrimiento de los depósitos de Ag-Au y Cu-


Au asociados al extenso distrito de Maricunga, en la cordillera andina de
Atacama. Ellos incluyen la Coipa, Nevada (inicio del descubrimiento de
Pascua – Lama), el pórfido de Cu-Au de Cerro Casale y los pórfidos
auríferos de Refugio, Lobo y Marte.

La relativa facilidad con la que ocurrieran estos descubrimientos y el rol


desempeñado por la geoquímica está muy bien descrita en el capítulo
redactado por Sergio Rivera, del libro de Lunar y Oyarzun (1991). El área
del descubrimiento se seleccionó mediante observación de imágenes
satelitales que mostraron el efecto de la alteración hidrotermal presente de
tipo argílico avanzado, propia del carácter ácido – sulfático de la
mineralización. De una zona alterada de unos 25 km2 se seleccionaron tres
prospectos, los que fueron evaluados por geoquímica de suelos, cortes
mediante bulldozer y sondajes en dos de ellos.

El descubrimiento se produjo en un área de 2x3 km, de la cual se


colectaron 1750 muestras de talus, siguiendo perfiles separados por 100m,
con toma de muestras cada 50m, las que se analizaron por Au y Ag. Los
sectores mineralizados correspondieron a valores de Ag, sobre 5 g/t, cifras
que subían a 60-70 g/t y hasta 900 g/t de Ag en uno de los sectores
(Ladera). Vale decir que los contenidos de Ag de las muestras se
encontraban prácticamente niveles propios de una mena, lo cual es
notable. El descubrimiento fue realizado por Exploraciones y Minerales
Sierra Morena, que partió como subsidiaria de Phelps Dodge. Al igual que
en el caso de El Indio, muestra la facilidad abierta a los descubrimientos en
zonas ignoradas por la “minería oficial” hasta ese momento, y el rol que
puede desempeñar la geoquímica en esas situaciones. Sin embargo, la
Coipa fue descubierta en un área cuya alteración había llamado la atención
de un ingeniero y geólogo del siglo 19 (F. San Román, 1884),
y donde pequeños mineros había solicitado pertenencias (aunque sin
343

reconocer la naturaleza ni la importancia del distrito, cuya mineralización


económica principal es diseminada y prácticamente invisible en la roca
fuertemente alterada).

El descubrimiento de Escondida en 1982 y dos años más tarde los de


Zaldívar y Escondida Norte fue el logro de un equipo liderado por David
Lowell, secundado por Francisco Ortiz. Aunque la decisión de realizar
sondajes en el área del descubrimiento fue la culminación de un extenso
programa de muestreo de sedimentos en una faja N-S situada entre los
distritos de Chuquicamata y El Salvador, el área seleccionada no era
nueva. Antes había sido evaluado por otras empresas y el I.I.G había
realizado muestreos geoquímicos, que entregaron contenidos de Cu y Mo
entre las decenas y los cientos de g/t. Esos valores eran moderados para
el Cu pero bastante interesantes respecto al Mo.

Un mérito principal de Lowell radicó en su notable historia anterior de éxitos


como exploracionista, incluida su célebre participación en el caso San
Manuel – Kulamazoo, que condujo al descubrimiento de la parte oculta del
depósito, al posterior reconocimiento de la importancia del fallamiento
“lístrico” y al célebre modelo de pórfidos cupríferos de Lowell y Guilbert
(1970).

Fue su prestigio y capacidad emprendedora lo que le permitió obtener el


financiamiento para su proyecto de exploración en el norte de Chile, en
particular para la realización de los sondajes, la etapa más cara del
proyecto. Un detalle interesante: el conocimiento preciso de la geología fue
posterior al descubrimiento, en el cual la geoquímica desempeñó el rol
principal. Respecto a los moderados valores anómalos de Cu, comparados
con las importantes anomalías de Mo, ellos confirman la facilidad con la
que el Cu es lixiviado de la zona de oxidación, así como la persistencia del
Mo, que es fijado debido a presencia de limonita.
344

(D. Rojas, p. 343)


345

Entre 1981 y 1984 se estableció la presencia de unos 70 t de oro en el


prospecto Nevada (hoy Esperanza de Pascua Lama) y en 1996, la del
depósito adyacente de Pascua-Lama, con 225 Mt de mena, con ley 1.98 g/t
Au, 66 g/t, Ag y 0.05% Cu, 80% de cuya mineralización se encuentra en
Chile y el 20% en Argentina. La geoquímica fue importante en el
descubrimiento de Nevada.

Otro importante descubrimiento de los 1980’s fue el de Candelaria, en el


distrito Punta del Cobre, Copiapó (1986). La exploración de un yacimiento
mediano de cobre por Phelps Dodge en ese antiguo distrito, condujo al
descubrimiento de un rico yacimiento tipo IOCG (Cu-Au-Fe) al profundizar
uno de los sondajes por 70m en andesitas estériles. La afortunada decisión
muestra el valor de los sondajes como instrumentos de exploración (más
allá de su valor en la comprobación de hipótesis de exploración y en la
medición de concentraciones metálicas). También ilustra la naturaleza
“estratificada” que puede tener la mineralización en terrenos volcánico –
sedimentarios, donde distintos niveles de la pila rocosa pueden albergar
diferentes tipos de mineralización. Este enfoque ha sido poco aplicado en
Chile.

Alrededor de 25 depósitos importantes fueron descubiertos en los Andes


centrales (norte de Chile y Perú) en los 1990’s. Sin embargo, a mediados
de la década la situación de los precios de los metales fue muy
desfavorable, a consecuencia de lo cual se produjeron muchas fusiones y
ventas de empresas, y cayeron las inversiones en exploración minera.

El trabajo de Maksaev presenta un cuadro con los 50 descubrimientos más


importantes realizados en los Andes centrales entre los 1970’s y los 2000’s
de los cuales 25 casos corresponden a los 1990’s y 12 a los 2000’s.
Aunque varios de estos descubrimientos ocurrieron en áreas ya conocidas,
346

donde fueron encontrados nuevos cuerpos o se reveló la efectiva magnitud


de los ya conocidos, ciertamente ilustran los importantes resultados
obtenidos en los últimos 20 años.

El competente ingeniero y geólogo Francisco Ortiz acuñó una interesante


aseveración: “Los grandes yacimientos deben ser buscados junto a los
caminos o a las vías férreas”. El caso de Escondida, donde él tuvo
importante participación cumplía ambas condiciones. Sin embargo, su
validez quedó de manifiesto especialmente con el posterior descubrimiento
de Spence, que obligó a replantear un tramo del camino Antofagasta-
Calama, el que justamente sigue una mega estructura de dirección NE,
curiosamente omitida de algunos mapas sobre alineamientos tectónico-
metalogénicos en el norte de Chile y Argentina.

La aseveración de Ortiz, aparte de su contenido humorístico, tiene un


fundamento geológico sólido en que caminos y vías férreas siguen de
preferencia terrenos planos y líneas rectas, que en muchos casos son el
producto de grandes fallas geológicas que han debilitado las rocas y
favorecido su erosión. A ello se agrega el posible efecto de subsidencia
asociado a algunas situaciones tectónicas de cizalla simple y que favorece
su posterior relleno por gravas y otros sedimentos.

El yacimiento de Spence, en cuyo descubrimiento participó también la


geofísica de I.P., requirió efectuar sondajes poco profundos a través de la
cubierta de gravas que lo ocultaba. Su caso ilustra la necesidad de
considerar la geoquímica de sub – superficie como una futura metodología
estándar de explotación de yacimientos cubiertos por capas de sedimentos
o de rocas volcánicas cenozoicas de moderado espesor. Al respecto, los
sitios para ubicación de esos sondajes pueden surgir de criterios tectónicos
(intersecciones de alineamientos estructurales) o geofísicos. Un factor que
347

facilita esta tarea en Chile es la distribución de los principales yacimientos


en fajas N – S de edad decreciente de W a E, así como el efecto de los
alineamientos tectónicos NE y NW que cortan dichas fajas.

Conforme a las cifras presentadas por Maksaev, los descubrimientos del


período 1991-2001 muestran un incremento notable de la razón entre
yacimientos cubiertos y ciegos (17 y 4 respectivamente) y a aquellos
aflorantes (14), en comparación con las cifras de 1975-1990 (3 y 1, contra
11 respectivamente). Son cifras promisorias y necesarias, porque los
descubrimientos del futuro necesariamente deberán corresponder a
cuerpos no aflorantes. Si se consideran los 50 principales descubrimientos
tabulados por Maksaev (últimos 35 años), se observa un empate entre
cubiertos (20) y ciegos (5) respectos a los aflorantes (25).

(Maksaev, 2011)
348

En términos de la tipología de los mismos 50 yacimientos, 21 son pórfidos


de Cu-Mo, 11 pórfidos de Cu-Au-Mo, 8 epitermales de Au-Ag-Cu, 4
pórfidos de Au, 4 IOCG’s de Cu-Au y 3 exóticos de Cu. En consecuencia,
un 70% corresponden a depósitos porfíricos, cuya magnitud y alteración
asociada favorecen sus descubrimientos y para los cuales la geofísica I.P
ha demostrado su utilidad. Por otra parte, los depósitos porfíricos generan
extremas anomalías geoquímicas y se distribuyen en fajas o alineamientos
conspicuos.

(Maksaev, 2011)

Otro dato interesante es la ubicación de esos depósitos respecto a minas


en operación o a la presencia de mineralización ya conocida. La segunda
situación corresponde a 22 de los descubrimientos y la primera a 10. En
consecuencia sólo 18 ocurrieron en “áreas vírgenes”. Igualmente, varios
349

hallazgos ocurrieron (como en el caso de la Escondida) en áreas antes


exploradas por otras empresas, que no llegaron a alcanzar resultados
positivos en su búsqueda (en muchos casos porque no llegaron a decidirse
a hacer sondajes).

(Maksaev, 2011)

Respecto al importante tema de la metodología principal que condujo al


descubrimiento, Maksaev señala la geología y la geoquímica en 23 de los
casos, la geología “convencional” en 11, la geología más geofísica en 8, la
suma de geología, geoquímica y geofísica en 3, los sondajes en 3 y la
suerte en 2. Los últimos dos casos merecen una reflexión: los sondajes
ciertamente deben haber sido hechos por alguna razón (como la
prolongación del sondaje en estéril que llevó a descubrir Candelaria, o las
perforaciones que permitieran descubrir Spence). Más enigmático es el
tema de la suerte… pero la suerte difícilmente llega sola y hay mérito en
saber atraerla y aprovecharla.
350

(Maksaev, 2011)
Maksaev atribuye a la geología (probablemente a la apreciación del
contexto geológico) y al mapeo de alteraciones hidrotermales, vetillas, etc.,
una contribución importante en el 90% de los casos. Igualmente valora la
ayuda que implica contar con un buen modelo geológico para aplicar
adecuadamente los modelos metalogénicos, ya sean estos empíricos o
conceptuales. En cuanto a la geoquímica, en particular aquella de suelos,
rocas, talus y minerales pesados, Maksaev le atribuye participación directa
en 52% de los hallazgos realizados en los Andes centrales, y en 70% de
los logrados en la región Circum-Pacífica.

Para el caso del oro, el procedimiento de extracción BLEG (Bulk Leach


Extractable Gold) aparece como efectivo para reconocimiento regional, al
igual que la malla – 200 en sedimentos aluviales. En cambio, gases, agua
subterránea y vegetación han sido poco utilizados y no han tenido mayor
éxito en los Andes Centrales o en el borde Circum Pacífico en general.
351

Respecto a los minerales indicadores (turmalina, granate, etc.),


probablemente no han sido utilizados en la medida de su potencial.

Tampoco la geoquímica de extracción selectiva enzimática ha sido exitosa


y presenta problemas de reproductibilidad, aparte de generar falsas
anomalías debido a las variadas características de los suelos. En general,
tiende a producir anomalías en los flancos o bordes de los yacimientos
conocidos donde ha sido probada. El “funcionamiento” de esta metodología
se atribuye a celdas electroquímicas formadas sobre depósitos ocultos en
oxidación, pero también se ha mencionado otros mecanismos que
contribuyen a la dispersión de esta especial fase metálica, de muy baja
concentración.

En suma, la geoquímica “tradicional” ha contribuido de manera importante,


junto a la geología y al mapeo de alteraciones hidrotermales, así como la
aplicación bien fundamentada de modelos metalogénicos. Respecto a la
geofísica, ha sido valiosa en cuanto a entregar información
complementaria. Finalmente, Maksaev destaca la perseverancia y la
disposición a ser exitosos donde otros han fracasado como un factor de
logro importante. Al respecto, destaca el éxito de Antofagasta Minerals en
el distrito Centinela (Antofagasta).

Sin duda, el uso riguroso e imaginativo de la geología, la calidad del mapeo


de terreno, el buen uso de herramientas como la geoquímica, junto a las
perspectivas abiertas por los modelos metalogénicos y la actitud
perseverante serán condiciones necesarias para seguir siendo exitosos en
exploración minera. Ello, junto a la disposición a correr riesgos, como los
que permitieron descubrir Olympic Dam en Australia y Candelaria y Spence
en Chile. Eso y un poco o mucho de suerte… pero la suerte acude cuando
se une un trabajo serio con la aceptación de los inevitables riesgos que
implica toda exploración.
352

11.3-Caso de estudio: El descubrimiento de La Escondida y la


exploración minera regional*

*Basado en una conferencia ofrecida por D. Francisco Ortiz en La Serena el 21 de


Diciembre de 2012 (redactado por Jorge Oyarzún).

Introducción

La conferencia aquí comentada fue realizada gracias a una excelente iniciativa


corporativa de Teck ─ Carmen de Andacollo, y revistió un interés singular por la
trascendencia del descubrimiento de La Escondida (Fig. 1), seguramente el más
importante realizado en la Cadena Andina durante el siglo 20, y dejó importantes
lecciones para los geólogos de exploración y otros responsables de esta actividad
minera básica. Igualmente importante fue el profundo, sistemático y ameno
análisis realizado por el conferencista (F. Ortiz), protagonista junto a David Lowell
del descubrimiento realizado. La exposición trascendió los aspectos científicos y
técnicos, a través de su relato del contexto en que se logró el descubrimiento, de
la filosofía básica de su enfoque y de los ricos aspectos humanos involucrados.
Más allá de todo lo señalado, la historia relatada tiene todos los ingredientes de
una novela de aventuras, incluido el suspenso y el final feliz.
353

Fig. 1. La Escondida. A) Fajas metalogénicas en el norte de Chile (Oyarzun & Lillo,


2012). B) Mina La Escondida (II Región - Chile), imagen Aster en el espectro
visible e infrarrojo cercano.(NASA, 2000).

El contexto

A fines de los años 1970’s existía una escasa actividad exploratoria de cobre en
Sudamérica, situación que se prolongaba desde hacía varias décadas y que
obedecía a distintas razones. Entre ellas estaba un cierto pesimismo relativo al
crecimiento de la demanda de cobre así como el interés despertado por los
grandes y ricos yacimientos porfíricos de cobre con oro de los arcos de islas del
Pacífico occidental. Por otra parte, el ambiente político favorable a las
nacionalizaciones contribuía a alejar el interés privado. Pese a todo, se realizaba
una cierta actividad de exploración y se habían detectado varias áreas de interés,
incluida aquella donde se realizó el descubrimiento. Sin embargo, la prospección
354

rara vez llegaba hasta la fase de realización de campañas de sondajes para su


comprobación. En ese contexto, y pese a las incertidumbres que aún mantenían
alejadas a las empresas mineras internacionales de Chile, Lowell estimó que se
daban las condiciones adecuadas para asumir el riesgo de un programa de
exploraciones económico y de corta duración, pero con fuerte énfasis en sondajes.

Los protagonistas

David Lowell, geólogo e ingeniero, había alcanzado ya fama por sus


contribuciones científicas y sus logros efectivos en el diseño y ejecución de
campañas de exploración de depósitos porfíricos de cobre. Junto al Profesor John
Guilbert de la Universidad de Arizona, había elaborado el célebre modelo sobre la
distribución de la zonación metálica e hidrotermal en pórfidos cupríferos (Lowell y
Guilbert, 1970), aplicado por el propio Lowell en el descubrimiento de la mitad
oculta del yacimiento de San Manuel (Arizona) (Fig. 2).

Fig. 2. Fragmento del clásico y brillante trabajo de Lowell sobre el descubrimiento


de la “otra mitad” del pórfido San Manuel: Kalamazoo.
355

También Lowell había obtenido logros importantes en campañas de exploración


en el SW de los EEUU y en los yacimientos porfíricos del Pacífico occidental. Lo
señalado avalaba largamente la propuesta relativamente modesta que permitió la
realización del Proyecto Atacama y que condujo al descubrimiento de Escondida.

Francisco Ortiz, que fue el responsable de la ejecución en terreno del proyecto, es


un ingeniero de minas con estudios de postgrado en geología en la Escuela de
Minas de Colorado. Contaba con una excelente reputación como geólogo de
minas y había desempeñado la jefatura de la División Pequeña y Mediana Minería
del Instituto de Investigaciones Geológicas, actual SERNAGEOMIN.

Junto a ambos protagonistas, colaboró un esforzado grupo de geólogos e


ingenieros, entre los cuales el conferencista destacó a Donaldo Rojas, ingeniero
que abogó por el interés prospectivo del área donde finalmente se realizó el
descubrimiento.

El proyecto

El proyecto que Lowell presentó para financiamiento a las empresas Utah Mining y
Getty Oil consistía en la exploración de una faja N-S de unos 20-30 km de ancho
por 350 km de largo, comprendida entre Calama (Chuquicamata) y El Salvador
(Fig. 1). Su costo, 4.5 millones de dólares era relativamente modesto y su duración
acotada a unos tres años. La idea geológica era sencilla: explorar áreas cubiertas
por depósitos poco profundos de gravas, esperando que fuera posible detectar
anomalías geoquímicas o patrones laterales de alteración hidrotermal. El objetivo
seleccionado eran los cuerpos de calcosina producto del enriquecimiento
secundario de yacimientos porfíricos, de manera que la presencia de
mineralización exótica (oxidada) debía constituir un rasgo diagnóstico favorable. El
uso de geofísica no estaba considerado (excepto para medir espesores de
gravas), pero en cambio los sondajes tenían un papel esencial, e idealmente la
máquina alquilada debía estar en actividad permanente. La austeridad marcó al
programa, tanto en la decisión de situar las oficinas en un barrio modesto de
356

Antofagasta, como en la instalación semi-artesanal de su laboratorio geoquímico


por colorimetría (cuando ya existían técnicas más sofisticadas pero de mayor
costo). El proyecto fue propuesto por Lowell en 1978 y el 14 de Marzo de 1981 el
sondaje 6 cortó 52 m con 1.51% de Cu de ley media, lo que constituyó el
descubrimiento del yacimiento de La Escondida, ubicado cerca de la Estación
Zaldívar del antiguo ferrocarril Antofagasta –Salta. Al respecto, un adagio de
Francisco Ortiz es que los grandes yacimientos deben buscarse junto a los
caminos o a las líneas férrea. Su confirmación posterior en el caso de Spence
(Fig. 1), obligó a desviar el curso local del camino Antofagasta-Calama). El
proyecto fue dirigido desde el extranjero por David Lowell, correspondiendo a
Francisco Ortiz la dirección de las labores en Chile.

Resultados del Proyecto

El modelo de mineralización definido, sumado a la evidencia geoquímica y de


alteración esperada, dio lugar a la definición de varias zonas de interés, entre ellas
las de Tesoro y Sagasca (mineralización exótica), la de Guanaco, y la que
contenía el yacimiento de Escondida.

Sin embargo el proyecto implicaba dos condiciones que dificultaban su éxito. La


primera era la ley (sobre 1%) y la magnitud mínima (cientos de Mt), definidas para
el depósito objetivo de la búsqueda. La segunda, el escaso tiempo disponible para
tal logro. Así, en la zona de Tesoro, de la cual el proyecto se retiró sin resultados
positivos, la empresa Antofagasta Minerals logró posteriormente el descubrimiento
de una serie de yacimientos, que suman cuantiosos recursos. Sin embargo ello
requirió años de paciente búsqueda y la aceptación de leyes que están por debajo
del yacimiento buscado por Lowell. Tampoco los resultados iniciales en la zona de
Zaldívar fueron prometedores y como señaló posteriormente Richard Sillitoe, el
yacimiento descubierto no correspondió exactamente al tipo de blanco definido.
Sin embargo, tanto la dedicación del equipo de exploración como el buen instinto y
sentido geológico de Lowell y de Ortiz, contribuyeron a un éxito que terminó
357

sobrepasando las esperanzas más optimistas que hubieran podido plantearse.


Como es normal en estos casos, la riqueza del distrito se fue manifestando
paulatinamente en los años siguientes, y continúa creciendo, si bien ya a
mediados de los años 1980’s se habían comprobado reservas por1800 Mt, con ley
media de 1.6% y ley de corte 0.7% Cu.

Fig. 3. Localización de La Escondida y Zaldivar (Richards et al., 2001).

El prospecto desarrollado difería del modelo planteado en cuanto una parte


importante de él correspondía a un área rocosa aflorante, el cerro Colorado
Grande. En cuanto a los contenidos de cobre determinados en esa área ellos eran
relativamente bajos, predominando aquellos situados entre 100 y 200 ppm (unas 2
a 4 veces el valor de fondo), no así los de molibdeno, entre los que predominaban
contenidos de 10 a 50 ppm, vale decir 5 a 25 veces el respectivo valor de fondo.
Ello se entiende por la alta movilidad del Cu en ambiente ácido, la que contrasta
358

con la tendencia del Mo a ser fijado por la limonita, que permanece in situ. Aunque
la opinión del experto en cubiertas lixiviadas que examinó las muestras de roca no
fue muy favorable, su recomendación respecto a la situación de los posibles
sondajes a realizar fue la acertada, e incluyó la del sondaje “descubridor”.

Como señaló Francisco Ortiz en su conferencia, el tema del aseguramiento de la


propiedad minera fue una materia esencial para su éxito, porque existían muchos
interesados en aprovechar cualquier resultado favorable de la competencia. Es
otro mérito que también corresponde a la labor cumplida en el proyecto por
Francisco Ortiz.

Fig. 4. La Escondida (The Australian, 2012).

¿Por qué el proyecto fue un éxito?

Las exploraciones mineras tienen mucho en común con las de la búsqueda de un


supuesto tesoro, partiendo por el hecho de que ese tesoro puede o no existir. En
359

el caso considerado, las condiciones mínimas impuestas al posible yacimiento así


como el limitado tiempo disponible implicaban una arriesgada apuesta, como lo
demuestra el hecho de que ningún yacimiento que cumpla esas exigentes
condiciones ha sido encontrado posteriormente en la faja explorada. A favor de la
apuesta contaba el hecho de la falta de sondajes realizados en la misma faja,
producto del ambiente desfavorable a la exploración que había predominado. En
ello se manifestó tanto la visión como el sentido de la oportunidad de Lowell, así
como su capacidad para convencer a otros de sus ideas, respaldado por su
notable record profesional. A lo anterior se agrega el diseño del proyecto, una
notable síntesis de aplicaciones teóricas y pragmatismo, junto con la decisión de
dar más importancia a los sondajes que las divagaciones geológicas.

En síntesis: si había un yacimiento como el imaginado, el momento y el modo


elegido para buscarlo fueron los correctos, aunque se estuvo cerca de no lograrlo.
Otro factor destacable fue el buen criterio de Lowell en cuanto a confiar la
dirección del proyecto en Chile a Francisco Ortiz, vale decir a una persona
conocedora del medio nacional, que unió a su competencia profesional una
capacidad de liderazgo y buen criterio para aprovechar las aptitudes individuales,
sin descuidar el resultado de la búsqueda, que podía fácilmente perderse por
factores legales. Así, todo colaboró para que la búsqueda culminara con el
descubrimiento del tesoro, y los 4.5 millones de dólares invertidos se convirtieron
en 50 millones cuando la sociedad vendió sus derechos. Desde luego Escondida
ha seguido creciendo en magnitud y valor, de una manera que sus propios
descubridores difícilmente podrían haber llegado a imaginar.

Otros contextos

El descubrimiento de La Escondida, junto con el de El Indio a principios de los


1970’s, relanzaron a Chile como terreno privilegiado para exploraciones mineras.
Ambos, por otra parte, resultaron ser depósitos excepcionales (en el caso de El
Indio por su elevada ley de oro), que exploraciones posteriores no lograron igualar.
360

Otro éxito que generó naturales expectativas fue el descubrimiento de Candelaria


a fines de los 1980`s, realizado por la empresa Phelps Dodge en el antiguo distrito
de Punta del Cobre, Copiapó. Aparte de la favorable magnitud y ley del yacimiento
(470 Mt, con ley media 0.95% de Cu), Candelaria encendió en Chile el interés por
los yacimientos tipo IOCG, motivado a su vez por el descubrimiento en Australia
del gigantesco yacimiento de Olympic Dam en 1975. El descubrimiento de
Candelaria se produjo de una manera muy diferente al de Escondida: una
conocida empresa minera internacional alquiló una mina en un antiguo distrito y
lanzó un sondaje, el que después de atravezar varias decenas de metros en estéril
logró el descubrimiento.

En Chile existe un importante potencial para la exploración de yacimientos


emplazados en las secuencias de rocas volcánicas y sedimentarias mesozoicas,
ligados a rocas que presentan notable metasomatismo sódico-potásico, como las
de Punta del Cobre y de El Soldado. No obstante, en este caso la exploración
yacimientos no aflorantes requiere de una aproximación distinta de la que permitió
el descubrimiento de Escondida.

Fig. 5 Secuencia volcano-sedimentaria andesítica del Cretácico Inferior


(Formación Quebrada Marquesa) cerca del Distrito Minero de Talcuna (La
Serena).

Algunas lavas andesítico-basálticas de estas secuencias se encuentran


enriquecidas en materia orgánica asfáltica, lo que indica que se comportaron a la
manera de niveles permeables respecto a los fluidos que participaron en su
alteración y mineralización. Desde luego, la exploración de estas secuencias, que
361

presentan un desarrollo muy favorable entre las latitudes 26º y 34ºS, necesita
conjugar criterios estratigráficos y estructurales con la alteración hidrotermal y la
geoquímica de los estratos. Igualmente puede ser realizada con ventaja desde
minas subterráneas. Al respecto, Francisco Ortiz destacó también la importancia
que puede tener ese tipo de exploración, citando el caso de un importante pero
profundo yacimiento, detectado en los EEUU mediante los sondajes realizados
desde las labores de una mina subterránea.

Referencias

NASA, 2000. Escondida Mine, Chile. NASA Earth Observatory,


http://earthobservatory.nasa.gov/IOTD/view.php?id=1000

Oyarzun, R. & Lillo, J., 2012. Size matters: Understanding why some Andean ore
deposits are so huge. GEOTEMAS, 13, 2012 ISSN:1576-5172 - VIII Congreso
Geológico de España (Oviedo 2012) - Resumen Expandido.

Richards, J.P., Boyce, J. & Pringle, M.S. 2001. Geologic evolution of the
Escondida area, northern Chile: A model for spatial and Ttemporal localization of
porphyry Cu mineralization. Economic Geology, 96: 271305.

The Australian, 2011. BHP prepared for long conflict in labour dispute at Escondida
mine in Chile. Business, http://www.theaustralian.com.au/business/mining-
energy/bhp-prepared-for-long-conflict -in-labour-dispute-at-escondida-mine-in-
chile/story-e6frg9df-1226102444669
362

CAPITULO 12: LA EXPLORACIÓN MINERA Y LA


GEOQUÍMICA. REFLEXIONES GENERALES.

http://www.mch.cl/revistas/index_neo.php?id=392

http://elquiglobal.blogspot.com/2010/04/presentan-proyectos-de-exploracion.html

http://www.electrosector.com/comienza-pampa-energia-a-
http://www.mch.cl/revistas/index_neo.php?id=825 cotizar-en-wall-street/

http://www.romeresources.com/es/proyectos/don-luis-sonora-mexico
363

12.1 Presente y Futuro de la Exploración Minera: Los Desafíos


Geológicos y el Rol de la Geoquímica.

Vivimos un período histórico complejo y contradictorio. Desde luego lo


mismo deben haber pensado generaciones anteriores, pero es indudable
que la velocidad de los cambios de todo tipo se acelera a un ritmo antes no
conocido y que continuará haciéndolo en el futuro previsible. Ciencia,
tecnología y comunicaciones avanzan a un paso que la economía sigue
con dificultades, mientras el crecimiento poblacional y las aspiraciones
sociales agregan presión al sistema. En tanto la economía de Norte
América y Europa ha buscado salidas fallidas a través de la especulación
financiera, la manufactura y el consumo principal de metales se localiza
principalmente en China, Japón, Corea, India y otros países asiáticos. En
particular, el notable desarrollo de China ha mantenido alta la demanda (y
los precios) de metales como el cobre y el hierro, pero la mirada de los
productores de metales es de nerviosismo frente a cualquier índice de
debilitamiento en su tasa de crecimiento o a un eventual conflicto bélico
que pudiera detenerlo. En tanto, África es mirado (en particular por China)
como un interesante proveedor de metales estratégicos, pero que no
consigue superar sus crisis políticas, guerras internas y corrupción. Queda
Sud América, y en particular Brasil, que ya es potencia económica mundial,
pero su efecto en la economía mundial es todavía secundario.

En consecuencia, el mensaje es simple pero provisorio. Por ahora hay una


importante demanda de metales que satisfacer. Si todo va bien, ella puede
robustecerse con la demanda de India y otras potencias emergentes, pero
nada es seguro. En la perspectiva positiva ello implica la necesidad de
contar con geólogos de exploración y con ingenieros de minas y
metalurgistas para encontrar y desarrollar nuevos yacimientos, así como de
lograr avances científicos y tecnológicos para hacerlo en condiciones
crecientemente difíciles. Ello considerando que será necesario descubrirlos
364

y explotarlos a mayor profundidad así como respondiendo a crecientes


exigencias de la población en materias sociales y ambientales.

Respecto a este desafío, un artículo de G. Brown (2012) de Anglo American


Exploration (AAE) destaca tres retos principales a enfrentar. El primero,
mejorar la tasa declinante de descubrimientos de las últimas décadas. El
segundo, revertir la tendencia al crecimiento de los costos y tiempos
requeridos para convertir descubrimientos en nuevas operaciones mineras.
El tercero: mantener la licencia social para operar. Al respecto, las graves
dificultades que ha atravesado el proyecto Pascua-Lama de Barrick, son
una clara ilustración de los dos últimos.

En cuanto al primero de los retos, directamente relacionado con los


objetivos de este curso, es interesante considerar los factores principales
que han incidido en los descubrimientos realizados en el pasado. Ellos
incluyen: a) Nuevos territorios: Es evidente que la apertura de nuevos
territorios a la exploración ha sido un factor principal de descubrimiento. En
la actualidad, ello ocurre para las empresas occidentales en las ex
repúblicas soviéticas del Asia Central. Sin embargo, al mismo tiempo la
guerrilla cierra espacios de exploración en África, como ocurre actualmente
en Mali; b) Nuevas tecnologías de exploración, principalmente de carácter
geofísico, pero también geoquímico; c) Nuevas tecnologías minero-
metalúrgicas, que hagan explotables recursos antes inútiles; d) Nuevos
conceptos metalogénicos, incluidos nuevos tipos de yacimientos, como el
caso de los IOCGs.

Aunque la geoquímica es percibida como una herramienta de menor poder


penetrativo en comparación con la geofísica, lo cual disminuiría su rol en la
exploración de yacimientos profundos, estudios como el realizado por
Kelly Cluer (2012, ver 9.4) abren perspectivas interesantes. Otro tanto se
puede esperar de la geoquímica en terrenos de litología volcánica-
365

sedimentaria cortados por la erosión, donde la presencia de anomalías en


estratos inferiores puede ayudar a detectar depósitos situados en
profundidad.

En el curso del presente capítulo analizaremos la manera en que las


empresas mineras y de exploración, junto con los centros de investigación
científica procuran responder a los retos planteados, en particular, a
encontrar yacimientos cada vez más profundos y difíciles de detectar. Ello,
en un ambiente social crecientemente reticente a la actividad de
exploración, percibida como una amenaza para la calidad de vida de las
poblaciones locales.

12.2 Exploración Minera y Desarrollo Sustentable:


Propósitos Comunes, pero Contradicciones Prácticas.

La literatura y el cine han mostrado reiteradamente las penosas condiciones


bajo las cuales se inició la industrialización en Europa entre fines del siglo
18 e inicios del siglo 19 (ciudades contaminadas por el humo del carbón,
pobreza y hacinamiento, trabajo infantil, etc.). Sin embargo, las personas
que las padecían venían de vivir en los campos en condiciones todavía
más duras, y aceptaban ese duro precio a cambio de contar con alimento
insuficiente pero seguro. En la actualidad, en países como el nuestro, el
acceso a la educación, alimentación, trabajos y remuneraciones
aceptables, etc. son considerados derechos fundamentales y se
responsabiliza a los gobiernos de que esos bienes se encuentren
efectivamente disponibles. Por otra parte, no se acepta que la
contaminación puede ser un precio a pagar por disfrutar de ellos. La
definición de desarrollo sustentable por la Comisión Brundtand, pone
exigencias serias para reconocerlo como tal, vale decir, que no agote
irreversiblemente los recursos naturales sobre los que se basa, que no
366

impide el desarrollo de otros sectores o actividad económica (p ej, minería


– agricultura) ni cree inequidades económicas que puedan conducir a
problemas sociales. En cuanto al ciudadano medio, naturalmente espera
vivir en un país que se desarrolla sustentablemente y rechaza toda forma
de contaminación o alteración del medio natural. Sin embargo, está poco
dispuesto a discutir los costos económicos o de donde saldrán los recursos
económicos que ello requiera.

Richards, (2002) destaca las exigencias materiales que implica el


crecimiento de la población mundial, para la cual se estima una cifra de 9
mil millones de personas alrededor de 2050. Seguramente serán personas
más comunicadas y exigentes en términos de los adelantos tecnológicos
que la industria no cesa de crear y publicitar y que demandarán crecientes
y cada vez más variados volúmenes de metales y minerales. Suministrarlos
de manera sustentable, implica para la industria minera la necesidad de
contar con las condiciones económicas, ambientales, de licencia social y
gobernancia que lo hagan efectivamente posible.

La sustentabilidad económica de una operación minera, que años atrás


respondía a una ecuación sencilla (ingresos – costos de inversiones y
operación) es hoy un tema bastante más complejo, porque debe ser
compatibilizada con los costos presentes y futuros del cierre de la
operación, así como con los costos no previstos de las nuevas
regulaciones ambientales, y de aquellas relativas al uso del agua y la
energía que puedan surgir durante la explotación. En particular, los costos
por demandas relacionadas con riesgos ambientales u otros tipos de
riesgos de la operación no deben ser ignorados. Desde luego, si esos
costos afectaran de manera pareja a la minería mundial, ello se traduciría
simplemente en un ajuste del precio de metales y minerales. Sin embargo,
si sólo afectan a algunos países cuya legislación es más exigente,
entonces su competitividad disminuirá. Al respecto, Richards cita el caso
367

de Canadá, cuya legislación de provisiones económicas para el cierre es


más exigente, lo que ha afectado la competitividad su industria minera
respecto a la de otros países de legislación más blanda..

La sustentabilidad ambiental de una operación minera es actualmente una


exigencia a nivel mundial, aunque no siempre la letra se traduzca
efectivamente en la realidad. Ello es en parte producto de los grandes
desastres ambientales que han resultado como efectos colaterales de
operaciones mineras por lo demás exitosas (e incluso técnicamente
admirables), como las de los pórfidos cupríferos con oro de los arcos de
islas del Pacífico Occidental (Panguna, Ok Tedi etc.). En el caso de una de
ellas (Bougainville – Panguna) el desastre ambiental motivó una guerra
civil en los 1990’s que duró 10 años. Tales desastres han afectado también
a países desarrollados, como es el caso del drenaje ácido en las antiguas
operaciones cupríferas de Montana. Por su parte, la industria minera hace
ver que su huella ecológica es mínima comparada con la de otras
explotaciones de recursos naturales (como las forestales y de la agricultura
extensiva). En particular, los costos ambientales de la minería bajos
comparados con la extensa devastación causada por la industria petrolera
en la Amazonia de Ecuador o en los terrenos con arenas alquitranadas de
Alberta, Canadá, pero esa constatación es actualmente insuficiente.

Los impactos ambientales de la minería metálica se traducen en 1) La


alteración e inestabilidad del paisaje natural así como en el necesario
abandono de depósitos de materiales estériles o de baja ley, de embalses
con relaves de flotación (algunas de tamaño gigante), de pilas de lixiviación
ácida o alcalina y de restos de los materiales usados en la operación. En
regiones de alta pluviosidad, ello implica altos riesgos de remoción en
masa, tanto en las pendientes de las labores mineras como en los
depósitos de residuos dejados por la explotación minera. 2) Las posibles
emisiones de soluciones contaminantes provenientes de las antiguas
368

labores de la operación (que en el caso de la minería subterránea


incrementan la superficie de reacción roca/ agua/ aire) así como de los
depósitos generados por la misma explotación. Al respecto, en el caso de
los rajos (open pit) se pueden formar lagos que se convierten en efectivos
reactores químicos y en fuentes de contaminación del drenaje subterráneo,
que interactúa con el agua del lago. También hay que agregar el efecto
contaminante del polvo fino, arrastrado por el viento desde los depósitos
dejados por la explotación. 3) El efecto de la explotación en el drenaje
local, tanto en términos cuantitativos como de la calidad del agua
superficial y subterránea, lo que puede dañar drásticamente la calidad y los
medios de vida de la población local (un daño principal causado por las
operaciones de Papúa – Nueva Guinea, Filipinas, etc.).

Un geólogo está especialmente calificado para apreciar, desde la etapa de


exploración, los impactos ambientales que pueden resultar de la eventual
explotación de un yacimiento en la zona explorada. Sus conocimientos
sobre geomorfología y procesos de erosión y remoción en masa le
permiten inferir la estabilidad o inestabilidad de las nuevas superficies
(faenas y depósitos) bajo las condiciones locales de topografía y
pluviosidad. Igualmente, sus conocimientos de mineralogía y geoquímica,
junto con su apreciación respecto al régimen hidrológico superficial y
subterráneo, le advertirán sobre los riesgos de generación de drenaje
ácido.

Persistir, contra toda evidencia desfavorable, en desarrollar una operación


en condiciones naturales claramente desfavorables, puede ser una
demostración de voluntarismo y empeño admirable pero en extremo
peligrosa. Ello, porque en último término será un mal negocio para todos y
dejará un nuevo testimonio que hará más difícil todavía desarrollar minería
en otros sitios, donde las condiciones naturales son más propicias para
hacerlo.
369

El concepto y la expresión práctica de lo que se entiende por


sustentabilidad social y por licencia social constituyen, seguramente el
mayor problema que enfrenta la minería a nivel mundial. En principio
implica el cumplimiento de la segunda y tercera condiciones del desarrollo
sustentable plantadas por la Comisión Brundtland: en cuanto la actividad
minera no debe afectar a otras actividades económicas ni conllevar
inequidades sociales que sean causa de conflictos. En principio, una
operación minera respetuosa del ambiente y que ofrezca las necesarias
compensaciones y oportunidades de progreso a la comunidad local,
debería contar con su acuerdo, expresado en la denominada “licencia
social” para operar. Sin embargo, dicha licencia no constituye un
documento ni un compromiso legal y en cualquier momento puede
perderse por efecto de cambios generacionales, conflictos personales o
políticos etc. al interior de esa comunidad, o generados externamente a
ella. Si en el acuerdo inicial existieron transferencias de dinero, éstas
pueden ser causa de querellas producto de su reparto, las que se
prolongan por largos años y generan nuevo reclamos. Por otra parte, la
comunidad local, en particular a través de las nuevas generaciones más
comunicadas con el medio externo, es permeable a los nuevos
movimientos ideológicos, que unen conceptos históricos con otros de
carácter religioso o semi religioso a las realidades ambientales. En Chile
ello ocurrió en el curso de pocos años con respecto a la energía
hidroeléctrica, que pasó de ser un orgullo nacional a convertirse en
“anatema” en el curso de los 1980’s (con expresiones del tipo “el agua es
sagrada” en la discusión del proyecto Hidroaysén). Recientemente, la sola
idea de vender agua dulce de la sobreabundante provisión de la Región de
Aysén provocó una rápida reacción contraria (Francia ha vendido y vende
grandes cantidades de agua embotellada al exterior, incluida aquella de la
famosa marca Perrier, una fuente de ingreso que no ha llegado a mermar
370

sus reservas hídricas…pero en Chile ya es difícil incluso discutir esa


posibilidad).

No hay recetas sencillas efectivas para enfrentar los problemas planteados,


que pueden afectar en particular a las empresas mineras transnacionales,
que enfrentan una carga histórica pesada en las ex colonias de Sud
América, África y Asia Oriental. Sin embargo, puede ayudar una política
abierta, honesta y realista de la empresa minera, así como su énfasis en el
cumplimiento de compromisos y en el cuidado ambiental. Aunque hoy
existen competentes grupos de especialistas en materias como sicología,
sociología, etc., que manejan estos asuntos, es posible que un ingeniero o
un geólogo en el terreno, pueda entenderse de manera más abierta y
directa con los líderes de la comunidad. Por otra parte, podría ser
conveniente que las empresas produjeran informes corporativos menos
lujosos y voluminosos y en general no hicieran ostentaciones de riqueza,
que al final pueden incentivar la ambición de los líderes locales. Desde
luego, el énfasis debería estar en presentarse como un socio confiable, que
ofrece un buen negocio (incluidos costos y beneficios), no como un
repartidor de dádivas cuyo efecto puede ser negativo a corto plazo.
Finalmente, lo más importante: no olvidar que el geólogo de exploraciones
constituye la vanguardia del posible emprendimiento minero. Tanto su
actitud, ojalá prudente, respetuosa, cordial y sincera, como la
comunicación franca de sus impresiones a la empresa, pueden ser claves
en el desarrollo posterior de la relación con la comunidad local.

Por último, en lo que se refiere a gobernancia, las cosas serán mejores y


más seguros para la empresa si ésta tiene como interlocutor y fiscalizador
a funcionarios de gobierno honestos, competentes y centrados en lo que
realmente importa. Ojalá esos funcionarios vean en la gestión pública una
carrera atractiva y bien remunerada y entiendan que su labor frente a las
empresas incluye tanto la cooperación como la fiscalización estricta, pero
371

realizada con criterio. Si su formación profesional es la adecuada, podrán


distinguir lo esencial de lo accesorio. Si no lo es, podrán insistir en materias
sin mayor importancia mientras otras esenciales se les escapan. Al
respecto nuestra vocación burocrática, construida sólidamente desde
tiempos coloniales, puede ser un serio obstáculo, que debemos hacer lo
posible por superar. Ello, considerando que no es el número ni la
complejidad de las leyes lo que cuenta, sino su buena formulación y la
seriedad con la que se aplican. Finalmente, es importante que el
fiscalizador público no discrimine en estas materias entre las empresas
nacionales (en particular si pertenecen al propio Estado) y las extranjeras.
De otra manera, perderá buena parte del ascendiente ético que dichas
labores requieren.

En términos del conocimiento de los procesos geoquímicos, es muy


importante que pueda establecer un diálogo informado entre evaluadores o
fiscalizadores y los geólogos e ingenieros de la empresa. Ello,
considerando que gran parte de los principales problemas que aparecen en
el desempeño ambiental de las mineras se relaciona con la contaminación
por metales pesados, producto de drenaje ácido o de la lixiviación de
desechos o residuos mineros, y que el mismo problema será una materia
central del futuro plan de cierre de la faena.

12.3 Aspectos Económicos, de Gestión y de Innovación en la


Exploración Minera.

En este subcapítulo destacaremos cuatro estudios, que analizan


respectivamente la fragilidad económica de la exploración minera frente a
otras actividades económicas (Stanley), la necesidad de innovación
(Enders y Saunders; Hall) y la importancia de una buena gestión en el éxito
de una empresa mayor en esta actividad (Brown).
372

En su artículo, Stanley (2007) sitúa la exploración minera en la perspectiva


de Wall Street. Al respecto señala que en 2005 toda la industria de la
exploración minera invertía anualmente unos 5 mil millones de dólares, una
suma que Bill Gates habría podido financiar de su propio bolsillo durante 10
años…!. En consecuencia, hay que partir reconociendo que se trata de una
industria modesta, que sin embargo tiene a su cargo la reposición del
inventario de reservas minerales sobre el cual descansa la parte principal
de la industria manufacturera y de la construcción. Para las firmas de
inversiones de Wall Street se trata, sin embargo, de un sector muy
pequeño, al que dedican poco interés (tal vez un analista de inversiones de
cada 100). Puesto que las sumas involucradas son menores, el poco
interés que suscita se relaciona al efecto multiplicador que puede tener un
descubrimiento exitoso en el precio de las acciones. Desde luego la
situación es distinta en mercados accionarios como los de Canadá,
Australia y Sudáfrica. En total, Stanley estimaba una capitalización de 20
mil millones de dólares para el conjunto de las empresas de exploración.

Considerando el relativamente modesto nivel financiero de las empresas de


exploración, un descubrimiento exitoso puede convertirse a corto plazo en
menores ganancias. Esto, porque las disposiciones accionarias obligan a
financiar los gastos de exploración previos a la realización del estudio
factibilidad, con las ganancias obtenidas durante el año por la empresa
descubridora.

La disponibilidad de las empresas mineras y de las fuentes externas de


financiamiento a invertir en exploración es, naturalmente, dependiente del
ciclo de precios de los metales. Al respecto, los mejores períodos son los
de recuperación del precio de los metales, cuando se revitaliza tanto la
exploración como la adquisición de propiedades mineras. Luego, en la
parte alta del ciclo de precios, dicha adquisición declina tanto por el mayor
373

valor que ellas alcanzan como por la mayor cantidad de dinero proveniente
de las ganancias que se destina a exploración. Cuando los precios
declinan, también lo hacen las fuentes externas de capital, como Wall
Street (pese a que los menores costos de la exploración y la adquisición de
propiedades en esos períodos ofrecen claras ventajas).

En general, las metodologías de evaluación económica de los presupuestos


de exploración tienden a favorecer a los metales preciosos sobre otros
metales. Ello se atribuye en parte a una reacción más rápida en el precio
de las acciones si los resultados son positivos, así como a las barreras más
bajas de ingreso que implica esa exploración (al respecto el caso Bre-X es
ilustrativo). También puede influir en ello la mejor expresión superficial que
tienen los depósitos epitermales, la que facilita su detección. Comparando
cifras, el coste promedio en Australia por descubrimiento entre 1955 y 1986
fue de US$ 153 millones para yacimientos de metales de base no
aflorantes contra solo US$ 12 millones para yacimientos de oro de similar
carácter (aunque más cercanos a la superficie y con indicadores
superficiales más efectivos).

El artículo de Hall (2006), aborda el tema de la exploración y


descubrimiento en la industria minera en términos equivalentes al que tiene
la investigación y desarrollo en otro tipo de industrias. Considerando el rol
esencial de la minería en la economía global (aunque su participación en
ella sea relativamente pequeña,) así como las ganancias record de muchas
compañías durante las etapas de altos precios de metales, los recursos
destinados a exploración han sido relativamente modestos. Ello se explica
por el comportamiento errático de las ganancias vs las inversiones durante
las etapas de precios declinantes (durante las cuales la minería ha llegado
a “destruir capitales”, según propia confesión de sus principales ejecutivos).
Lo anterior incide en que el presupuesto de exploración esté siempre en
374

cuestión y sometido a eventuales rebajas para compensar el crecimiento


de otros costos.

El autor citado menciona también como un factor explicativo las diferencias


de carácter entre el negocio minero de producción y el de exploración. El
primero, más metódico y planificable, atrae a personas cuyo carácter se
adapta mejor a las horas de trabajo regulares y que prefieren un progreso
tranquilo más que el exceso de agitación y la oscilación entre la “agonía y
éxtasis” que implica la exploración. Así, el geólogo de exploración suele
sentirse más cercano al antiguo prospector que al funcionario corporativo y
suele disfrutar más los desafíos de su oficio que las recompensas, llegando
a menudo a arriesgar su vida en procura del logro, lo que lo aproxima a
deportistas como los escaladores de montañas.

Por otra parte, las empresas en general están siendo manejadas por
personas formadas en las disciplinas de la administración de empresas, las
finanzas y la ingeniería industrial, que basan sus decisiones en los
números que pueden introducir en su calculadora. Aunque en empresas
como CODELCO los geólogos han procurado adaptarse al nuevo estado
de cosas, desarrollando modelos que permitan cuantificar la cantidad de
dinero a invertir en cada etapa conforme a los resultados positivos o
negativos alcanzados, ello tendrá siempre sus límites. De hecho, es muy
difícil pensar que descubrimientos como Olympic Dam pudieron haber sido
alcanzados con ese enfoque.

Lo anterior no implica que no deba existir racionalidad ni buena gestión en


el negocio de la exploración. Sin embargo, mucho de ello estará siempre
subordinado al “factor humano” que tanto perturba a los administradores. Al
respecto, Hall recoge las conclusiones de un grupo de exploracionistas
exitosos relativos a 54 de los más importantes descubrimientos realizados
375

en la región Circum-Pacífica entre 1970 y 1995. Conforme a ese estudio,


los elementos claves del éxito incluyeron los siguientes.

- Investigaciones a largo término, sistemáticas y bien planificadas.


- Programas con seria base científica, llevados a cabo por
geólogos competentes.
- Remuneraciones del staff geológico que garantizaron su
estabilidad.

La importancia del recurso humano es esencial. En las palabras de Stevens


(1996): “…la mejor gente es, conforme a mi experiencia, la única ventaja
competitiva real en el negocio de la exploración”. Al respecto, varios
factores están jugando en sentido opuesto y dañarán las exploraciones
futuras, al menos en el mundo occidental. Entre ellos, el desamparo en que
quedan los geólogos competentes en las etapas de decaimiento de la
actividad de exploración, así como el creciente desmantelamiento de la
enseñanza de la geología económica en las universidades de EE.UU. y
Europa.

Por otra parte, no sería suficiente contar con un buen equipo de exploración
si éste no tiene la oportunidad de tener contacto con el terreno y comprobar
sus ideas y conclusiones mediante reconocimiento tridimensional (una
etapa cara de la exploración minera). Otra dificultad: la creciente oposición
de las poblaciones locales a la actividad minera, que puede presentarse
ahora desde la etapa de exploración pero también complicar la operación
en un estado avanzado de la misma.

En sus líneas generales estas ideas concuerdan con las de Dan Wood
(2010), que enfatiza que la exploración minera “es un arte, informado por la
ciencia” y que no todos los geólogos ni todas las empresas consiguen
realizar descubrimientos”. Aunque la razón de ello es elusiva y puede
376

explicarse en parte por la baja probabilidad estadística de realizar


descubrimientos y por la “suerte”, Wood destaca algunos factores que
pueden contribuir a explicarlo.

Entre los ingredientes que conducen al descubrimiento, Wood señala 10


principales: 1) las personas, 2) buena aplicación del conocimiento
científico, 3) experiencia, 4) intuición, 5) creatividad, 6) perseverancia, 7)
capacidad de visualización, 8) suerte, 9) aproximación sistemática, 10)
disposición a realizar sondajes.

Wood señala que es muy importante que en la empresa exista una “cultura
del descubrimiento” que puede ser muy distinta del normal énfasis de la
gerencia en los aspectos de producción y comercialización que son
naturales de su labor y enfoque. En consecuencia puede ser positivo
separar tanto como sea posible la exploración de las demás actividades de
la empresa minera. En el fondo no es algo tan diferente de lo que
constituyen los departamentos de I + D de otro tipo de empresas respecto
a la administración. En general, se trata de personas con distinto carácter y
metas y que rara vez “encajan” en el ambiente corporativo típico (al
respecto vale la pena leer la biografía de Steve Jobs)

La estrategia es naturalmente importante, debe ser simple, flexible y con


capacidad de respuesta y reacción. Se dice que la mejor manera de
fracasar es hacer muy bien algo que no se debió hacer. Al respecto, es
importante partir sabiendo que buscar y donde buscarlo (cuidado con las
exploraciones en Paquistán, por ejemplo).

Respecto a los niveles de riesgo asociados a una exploración minera, Wood


los clasifica entre moderados (A) y extremadamente altos (D).Los primeros
corresponden a extensiones de un depósito conocido y su probabilidad de
éxito va de 1 en 5 a 1 en 10, en plazos de 1 a 2 años. La búsqueda de un
377

depósito no aflorante en las cercanías de otro conocido ( B, caso


Candelaria) implica un riesgo mayor (probabilidad de 1 en 10 o menor), en
un plazo de 3 a 5 años. Otro situado en el mismo distrito pero más alejado
(C), baja las probabilidades de éxito a 1 en 100 o menores, en plazos de 5
a 10 años. Finalmente, un logro como el de Olympic Dam (caso D), tiene
probabilidades de éxito demasiado bajas para poder estimarlas. Al
respecto, Wood aconseja involucrarse en proyectos situados entre los
casos B y C. Ellos implican riesgo lo suficientemente altos como para
obtener una recompensa que valga la pena, pero no tan exagerados como
para hacerla demasiado improbable.

Tratar de escapar de lo obvio, en palabras de J. M. Keynes: “la dificultad no


radica tanto en desarrollar nuevas ideas sino en escapar de las ideas
viejas” es importante, al igual que impulsar la capacidad de atreverse, de
asumir riesgos. En palabras de D. Lowell: “el geólogo (y su empresa) debe
estar dispuesto a equivocarse, porque la mayoría de las veces lo estará”.
Lo que importa es que esté equivocado por buenas razones! Por supuesto
ello implica estar dispuesto a hacer sondajes - a veces profundos, pero
también a aprovechar sus resultados si no dieron en el blanco y repensar
el problema, lo que tan valioso ha sido en casos importantes.

Enders y Saunders (2011) enfocan el tema de la innovación en exploración


minera en términos de la necesidad general de desarrollar nuevos modelos
de negocios para la industria minera, donde la exploración y el
descubrimiento estén basados en colaboración, más que en competencia.
Al respecto, la innovación y el desarrollo de nueva tecnología deberían
estar orientados a lo que necesitamos para transformar el negocio para el
mañana, además de en lo que podemos hacer hoy. En esa tarea, el
aprendizaje basado en simulación de negocios debería tener un rol central.
378

Los autores citados parten constatando que pese a la larga historia de


innovación en la industria minera en los últimos 150 años, la minería es
aun lenta para desarrollar y adoptar nuevas tecnologías así como la
búsqueda de ventajas competitivas en comparación con otras industrias.
Ello puede ser visualizado a través de lo relativo al descubrimiento,
innovación y aprendizaje. En materia de descubrimiento, es patente la falta
de hallazgos de yacimientos valiosos en los últimos años, como se observa
en la Fig. 1. Ello no implica que no existan descubrimientos, pero hay
pocos productos “robustos” en el inventario. En consecuencia, la
producción minera está dependiendo cada vez más de yacimientos viejos,
con leyes declinantes, alta tasa de stripping y características metalúrgicas
menos favorables. A ello se suma un clima global marcado por los desafíos
del tema ambiental, la energía y los problemas sociales.

Actualmente las grandes compañías parecen reticentes a explorar, en la


idea que bastará dejarles la tarea a las empresas junior, las que también
atraviesan por problemas de inefectividad. Un serio argumento contra el
negocio de la exploración es la baja probabilidad de éxito. Por ejemplo,
considerando la distribución de magnitudes de 5000 depósitos conocidos
de Au a través del mundo, se observa que sólo un 10% de ellos contiene
más de 4 M OZ , vale decir más de 124 t de Au. Puesto que la probabilidad
de descubrimiento se estima en 1 en 1000, la de encontrar un depósito con
más de 124 t Au es de 1 en 10.000. No es el tipo de apuesta que atrae a
los administradores profesionales.

Al respecto, considerando la improbabilidad de lograr éxito, los autores


plantean la necesidad de pasar del actual clima de competencia a uno de
cooperación. En materias de exploración minera ello involucraría colaborar
entre las empresas competidoras, así como entre éstas y las instituciones
379

de investigación. Ello, en materias como la exploración bajo cubiertas de


rocas y a profundidades mayores de 1 km y en lo relativo a materias
metalogénicas como fuentes, transporte y “trampas” geológicas para los
fluidos mineralizadores. También en el desarrollo de métodos geofísicos y
geoquímicos con mayor poder de penetración. Otro campo importante es el
de las metodologías de sondajes, para conseguir menores costos y
métodos más rápidos y seguros, así como sondas que se puedan introducir
en el perforación para entregar información relativa a contenidos metálicos,
mineralogía, litología y estructuras de los niveles alcanzados.
380

La misma visión es compartida por Michel Jébrack (2011), que resalta la


necesidad de innovación en tres líneas principales: 1) El “modelado” de los
blancos de exploración, 2) Las metodologías y tecnologías para descubrir y
definir el depósito descubierto y 3) La organización del proceso de la
exploración minera. Jébrak coincide con Enders y Saunders respecto a la
necesidad de lograr avances importantes en materia de sondajes ( una
metodología que la minería recibió de la industria petrolera). También es
necesario avanzar en lo referente a la descripción de los sondajes de
exploración, una tarea en la cual muchos geólogos aun inexpertos,
trabajan bajo presión sin mayor oportunidad de aprender y deducir más
sobre las unidades geológicas descritas y su alteración. Al respecto es
esencial encontrar mejores maneras de transformar información
cuantitativa en otra con efectivo significado geológico. Finalmente, plantea
que importantes avances pueden venir, como en el pasado de disciplinas
externas a la “comunidad de los geólogos de exploración”.
381

En cambio, para Brown (2012), es clave el concepto de “exploración


sustentable”, que consiste en entregar descubrimientos, asegurar el acceso
a los terrenos de exploración, a los recursos y al talento, adecuándose al
ciclo de la demanda de minerales y su efecto en los precios. Brown dirige
la rama de exploraciones de Anglo American, que en la última década ha
descubierto 15 yacimientos de metales de base y ha sido reconocida como
uno de los grupos más exitosos (en general, sus descubrimientos implican
costos bajos de desarrollo, problemas moderados en general, y alto
tonelaje y ley. Para Brown, los ingredientes principales del éxito incluyen:
a) “Registros de ruta” de los descubrimientos, b) Fuerte apoyo gerencial, c)
Cuidado en conservar la licencia social y d) Continuo avance hacia las
fronteras geográficas, científicas y técnicas de la exploración. Su éxito ha
mostrado que en este terreno también una empresa grande puede ser
competitiva.

En esta tarea, Brown identifica tres retos principales a enfrentar: 1) Mejorar


la declinante tasa de descubrimientos. 2) Revertir la tendencia a mayores
costos. 3) Mantener la licencia para operar. El éxito que se obtenga
dependerá de contar con gente decidida y con equipos esforzados (o como
diría Pep Guardiola, con los mejores profesionales del mundo, que jueguen
con el entusiasmo de amateurs). Respecto a la licencia social y a donde
explorar, Brown recomienda balancear las cosas, conjugando riesgo con
oportunidad y buen manejo Este es un punto que merece ser destacado,
considerando los errores de otras empresas que han procurando
desarrollar buenos yacimientos pero en terrenos políticamente
equivocados, o en ambientes naturales que hacían imposible una
explotación sustentable, y acabaron en desastres.

Una empresa puede incrementar sus reservas minerales de tres maneras:


a) Descubriendo. b) Adquiriendo y c) Innovando (muchos yacimientos
382

“duermen” por problemas de tipo mineralógico u otras dificultades, que


pueden ser superadas con investigación).

Como “strategic drivers” Brown enfatiza: 1) Reemplazo de reservas para


extender la vida de sus operaciones mineras. 2) Mejora en la estimación de
reservas y recursos, para incrementar la calidad de los proyectos. 3)
Mitigación de riesgos a través de la distribución mundial de inversiones en
términos de geografía y tipo de minerales (AAE es activa en Asia, África,
Australia, Europa, Norte y Sud América).

AAE practica exploraciones del tipo green y brownfield y usa una


combinación de métodos tradicionales e innovativos, en parte
desarrollados por la propia empresa en colaboración con la industria.

Un logro muy importante de AAE fue el descubrimiento de Los Sulfatos


(brownfield) mediante un túnel de 8 km desde la mina Los Bronces a 4 mil
metros de altura perforado con una “tunelera” (tunnel boring machine),lo
que permitió desarrollar los sondajes desde una plataforma subterránea (
evitando así suspensiones estacionales y otorgando mayor seguridad a la
operación).

De ser 15 yacimientos descubrimientos en la última década, 10 de ellos


afloraban y fueron explorados mediante métodos tradicionales. 7 de ellos
se desarrollaron en Chile (país considerado “maduro” en términos de
exploración). No hay que pensar que todo lo aflorante ya fue descubierto!!

Otras 3 recomendaciones de Brown: 1) Desarrollar un pensamiento


geológico innovador 2) Contar con herramientas adecuadas para la
exploración y la evaluación. 3) Buen apoyo gerencial – incluidos recursos
económicos y 4) Tiempo para construir conocimiento local y capacidades
383

operacionales (¿No es lo mismo que pediría un entrenador de fútbol


serio?).

Algo más: El record de AAE es de 1 en 100 (10 veces mejor que el


promedio mundial de 1 en 1000 de la industria). La venta de propiedades
descubiertas pero no retenidas por AA les significó un ingreso de 600
millones de dólares, anuales.

Aunque los descubrimientos de yacimientos minerales importantes han


sido el resultado de circunstancias y estrategias muy diferentes, incluida la
casualidad y la aplicación afortunada de hipótesis equivocadas ( caso de
Olympic Dam), la exploración minera moderna necesita un enfoque formal
al igual que, como plantea Brown, racionalidad y voluntad de éxito. En el
aspecto racional, es valiosa la visión integrada de otros especialistas. Al
respecto, R. Woodall (1993), entonces Director de Exploración de Western
Mining Co, Australia, señalaba que la exploración minera había dejado de
ser un asunto simple de “ir y mirar”. Primero, porque es necesario pensar
bien donde ir y segundo porque “se necesita más que los ojos y la mente
del geólogo. También se requieren los ojos y la mente del geoquímico y
del geofísico, trabajando como un efectivo equipo”. El trabajo de los
geoquímicos incluye, en particular en Australia, el estudio y comprensión
de la evolución del regolito, que en algunas superficies puede ser el
producto complejo de varios ciclos de meteorización. También el de usar
adecuadamente los avances en química analítica y software de tratamiento
de información para interpretar la migración de los elementos químicos en
materiales meteorizados y transportados, y distinguir los halos geoquímicos
primarios y secundarios asociados con mineralización. Igualmente
importante es su participación en el uso integral de los materiales producto
de sondajes, que deberían ser considerados como muestras geoquímicas
(puesto que pueden cortar aureolas anómalas que rodean al depósito,
aunque no hayan cortado propiamente la mineralización). Otro tanto puede
384

decirse respecto a utilizar “los ojos del geofísico”, esenciales si se pretende


encontrar yacimientos profundos, sin manifestaciones superficiales
utilizables, como en el caso de Olympic Dam.
385

REFERENCIAS

Armbrust, G.A., Oyarzún, J. y Arias, J. (1977). Rubidium as a guide to ore in


Chilean porphyry copper deposits. Econ. Geol.,v 72, pp 1086-1100.
Barker, S.L., Dipple, G.M., Hickey, K.A., et al (2013). Applying stable
isotopes to mineral exploration: Teaching an old dog new tricks. Econ.
Geol., 108, pp 1-9.
Barnes, H.L. (Ed.1967). Geochemistry of Hydrothermal Ore Deposits. Holt,
Rinehart and Winston, New York, 670p.
Bedell, R. (2004). Remote sensing in mineral exploration. SEG Newsletter
58, pp 1 y 8-14.
Beus, A.A y Gregorian, S.V. (1977). Geochemical Exploration Methods for
Mineral Deposits. Applied Publ. Co., Illinois, 287 p.
Brookins, D.G. (1988). Eh–pH Diagrams for Geochemistry. Springer, Berlin,
176 p.
Brown,G. (2012). Sustainable exploration in perspective. SEG Newsletter,
91, p 1-7
Burnham,C.E. y Ohmoto,H. (1980). Late stage processesof felsic
magmatism. In: Granitic Magmatism and Related Mineralization. Mining
Geology sp issue 8: 1-12.
Carranza, E.J.M. (2009). Geochemical Anomaly and Mineral Prospectivity
Mapping in G.I.S. Handbook of Exploration and Environmental
Geochemistry, V II (M. Hale, Ed.), 320 p.
Chavez, W.X. (2000) Supergene oxidation of copper deposits: Zoning and
distribution of copper oxide minerals. SEG Newsletter, 41, pp 1 y 10-21.
Chavez, W.X. (2011). Exploración mundial: La importancia de yacimientos
grandes y fuentes actuales de metales. Presentación power point disponible
en www.congresocolombianodemineria.com/# Memorias_Metalogenesis.
Colley, H., y Greenbaum, D. (1980). The mineral deposits and
metallogenesis of the Fiji Platform. Econ. Geol., v 75, pp 807-829.
386

Cox, D.P., y Singer, D.A. (1986). Mineral Deposit Models. USGS Bull 1693,
Denver, CO., 379p.
Craig, J.R., Vaugh, D.J. y Skinner, B.J. (2007). Recursos de la Tierra:
Origen, uso e impacto ambiental. Ed. Pearson Prentice Hall, Madrid, 636 p.
Dhana Raju, R. (2009). Handbook of Geochemistry. Geological Society of
India, Bangalore, 520 p.
Djouka-Fonkwe, M.L., Kyser, K., Clark, A.H. et al (2012) Recognizing
propylitic alteration associated with porphyry Cu-Mo deposits in Lower
Greenschist facies metamorphic terrain of the Collahuasi District, Northern
Chile – Implications of petrographic and carbon isotope relationships. Econ.
Geol., 107, pp1457-1478.
Duncan, R.J., Stein, H.J., Evans, K.A. et al (2011) A new geochronological
framework for mineralization and alteration in the Selwyn-Mout Dore
Corridor, Eastern Fold Belt, Mount Isa Inlier, Australia: Genetic implications
for Iron Oxide Copper-Gold deposits. Econ. Geol. 106, pp169-192.
Enders, M.S., y Saunders, C. (2011) Discovery, innovation, an learning in
the mining business-New ways forward for an old industry. SEG Newsletter
86, pp 1 y 16-22.
Fletcher, W.K., Hoffman, S.J., Mehrtens, M.B., Sinclair, A.J. y Thompson, I
(1987). Exploration Geochemistry: Design and Interpretation of Soil
Surveys. Soc. Econ. Geol., Reviews in Economic Geology, v.3, 180 p.
Goldschimidt, V.M. (1954). Geochemistry. Clarendon Press, Oxford, 730 p.
Govett, G.J.S. (1981 – 1994). Handbook of Exploration Geochemistry, v 1 y
v.2, Elsevier, Amsterdam.
Granier, C.L. (1973). Introduction à la Prospection Géochemique des Gites
Métalliferes. Ed. Mason, Paris, 143 p.
Hall, D.J. (2006) The mineral exploration business: Innovation required.
SEG Newsletter 65, pp1 y 9-15.
Hasan, S.E. (1996). Geology and Hazardous Waste Management. Prentice
Hall, New Jersey, 387 p.
387

Hawkes, H.E. y Webb, J.S. (1962). Geochemistry in Mineral Exploration.


Harper and Row, New York, 415 p.
Ishihara, (1977). The magnetite series and ilmenite series granitic rocks.
Mining Geology, Tokyo, 27, pp293-305.
Jacobson, M.C. Charlson, R.J., Rodhe, H. y Orians, G.H. (2000). Earth
System Science. Academic Press, New York, 527 p.
Jensen, M.L. (1967). Sulfur isotopes and mineral genesis en: Barnes, H.L.
(Ed), Geochemistry of Hidrotermal Ore Deposits. Holt, Rinehart and
Winston, New York, pp. 143 – 165.
Johnson, c.a., Bookstrom, A.A., y Slack, J.F. (2012) Sulfur, carbon,
hydrogen, and oxygen isotope geochemistry of the Idaho Cobalt Belt. Econ.
Geol., 107, pp 1207-1221.
Kelley, K.D. (2010) Exploration geochemistry at the Giant Pebble Porphyry
Cu-Au-Mo deposit, Alaska. SEG Newsletter 80, p 1 y 18-23.
Kelly Cluer, J. (2012) Remobilized geochemical anomalies related to deep
gold zones, Carlin Trend, Nevada. Econ Geol., 107, pp1343-1349.
Khorasanipour, M., Tangestani, M.H., Naseh, R., et al (2012), Chemical
fractionation and contamination intensity of the trace elements in stream
sediments al the Sarcheshmeh Porphyry Copper Mine. Mine Water and the
Environment, 31, pp 199-213.
40 39
Kosku, I., Yilmazer, E., Gulec., N., et al (2011) U-Pb and Ar – Ar
geochronology and isotopic contraints on the genesis of copper-gold-
bearing iron oxide deposits in the Hasancelebi District, Eastern Turkey.
Econ. Geol., 106, pp 261-288.
Krauskopf, K.B. (1967). Introduction to Geochemistry. McGraw Hill, New
York, 721 p.
Lepeltier C. (1969). A simplified statistical treatment of geochemical data by
graphical representation. Econ. Geol., v. 64, pp. 538 – 550.
Levinson, A.A. (1974). Introduction to Exploration Geochemistry. Applied
Publ. Co. Illinois, 614 p.
388

Losert, J. (1973).Genesis of copper mineralizations and associated


alterations in the Jurassic volcanic rocks of the Buena Esperanza mining
area (Antofagasta province, northern Chile). Publ. 41 Depto Geología
Universidad de Chile, pp 51-85.
Lowell, J.D., y Guilbert, J.M., (1970). Lateral and vertical alteration-
mineralization zoning in porphyry ore deposits. Econ. Geol., v 65, pp373-
408.
Lunar, R.,y Oyarzun, R. (1991). Yacimientos Minerales. Ed. R. Areces S.A.,
Madrid, 938 p.
Marjoribanks, R. (2010).Geological Methods in Mineral Exploration and
Mining. Ed. Springer, Heidelberg, 238 p.
Maksaev, V. (2011). Exploración de Cu – Au en Chile. Presentación power
point disponible en: www.congresocolombianodemineria.com/#
Memorias_Metalogenesis.
Mitchel, A.H.G., y Garson, M.S. (1972).Relationship of porphyry copper and
Circumpacific tin deposits to palaeo Benioff zones.Trans. Inst. Mining and
Metallurgy, London, pp B10-B25.
Mueller, G.(1960). The theory of formation Chilean nitrate deposits through
capillary concentration. 21st Int. Geological Congress. Part 1,pp 76-86.
Munchmeyer, C. (1996). Exotic deposits – product of lateral migration of
supergene solutions from porphyry copper deposits. En: Andean Deposits:
New Discoveries, Mineralization Styles and Metallogeny. Soc. Econ. Geol.,
Spec. Publ. N°5, pp. 43 – 58.
Muntean, J. y Taufen, P. (2011). Geochemical exploration for gold through
transported alluvial cover in Nevada: Examples from the Cortez Mine. Econ.
Geol., 106, pp809-833.
Nesbitt, B.E. (1996) Applications of oxygen and hydrogen isotopes to
exploration for hydrothermal mineralization. SEG Newsletter, 27, pp1 y 8-13.
Ohmoto, H. y Lasaga, A.C. (1982) Kinetic of reractions between sulfates
and sulfides in hydrothermal systems: Geochim. Cosmiochim. Acta, 46,
p1727-1745.
389

Oyarzún, J. (1971). Contribution a l`Étude Geochimique des Roches


Volcaniques et Plutoniques du Chili. Tesis Doct. Univ. Paris Sud, 195 p.
Oyarzún, J. (1974). Rubidium and strontium as guides to copper
mineralization emplaced in some Chilean andesitic rocks. En: Geochemical
Exploration 1974, Elsevier, pp333-338.
Oyarzún, J. (1985). La Métallogenie Andine: Cadre Géologique,
Pétrologique et Géochimique, et Essai d´Interpretation. Tesis Doct. Estado
Sci.Nat. Univ. Paris Sud, 864p.
Oyarzún, J. (1991). La evolución geológica y metalogénica de un orógeno:
La Cadena Andina. En: Lunar, R. y Oyarzun, R. Yacimientos Minerales (op
cit), pp 695-807.
Oyarzún, J. (2000). Andean metallogenesis: a synoptical review and
interpretation. En: Tectonic Evolution of South America. 31st Int. Geol.
Congress, U.G. Cordani et al, Eds, pp725-753.
Oyarzún, J. (2006) El modelo IOCG y el potencial para exploración minera
de la Cordillera de la Costa: Reflexiones en torno al descubrimiento de
Olympic Dam (Australia), 8 p. En http://www.aulados.net.
Oyarzún, J. (2012) el descubrimiento del pórfido cuprífero La Escondida
(Chile) y la exploración minera regional, 7p. En http://www.aulados.net.
Oyarzún, J., y Frutos, J. (1974). Porphyry copper and tin-bearing porphyries.
A discussion of genetic models. Phys. Earth. Planet. Interiors, 9, pp259-263.
Oyarzún, J., y Oyarzun, R. (1991). Geoquímica de suelos, sedimentos
fluviales, aguas, biogeoquímica y geobotánica. En: Lunar, R., y Oyarzun, R.
“Yacimientos Minerales” (op cit), pp 837-855.
Oyarzún, J., y Oyarzun, R. (2007). Massive volcanism in the Altiplano-Puna
volcanic plateau and formation of the huge Atacama Desert nitrate deposits:
A case for termal and electric fixation of atmospheric nitrogen. Int. Geology
Reviews, 49, pp962-968.
Oyarzún, J., Maturana, H., Paulo, A. y Pasieczna, A. (2003). Heavy metals
in stream sediments from the Coquimbo Region (Chile): Effects of sustained
390

mining and natural processes in a semi-arid basin. Mine Water and the
Environment, 22, pp155-161.
Oyarzún, R. (1991). Yacimientos de uranio. En: Lunar, R. y Oyarzun, R.
“Yacimientos Minerales” pp. 493 – 507.
Oyarzún, R. (1991). Prospección geoquímica. Conceptos básicos. En:
Lunar R. y Oyarzún, R. “Yacimientos Minerales” (op cit), pp. 811 – 817.
Oyarzun, R,. Lillo, J., Higueras, P., Oyarzún, J., y Maturanas, H. (2004)
Strong arsenic enrichment in sediments of the Elqui watershed, northern
Chile: industrial (gold mining at the El Indio-Tambo district) vs geologic
processes. Journal of Geochemical Exploration, 84, pp 53-64.
Pelissonnier, H. (1997). Réflexions sur la Métallogénie. Socité de l’ Industrie
Minérale, Francia, 431 p.
Péllicer, M.J. (1991). Geoquímica de rocas. En: Lunar, R., y Oyarzun, R.
“Yacimientos Minerales” (op cit), pp 819-835.
Pokrovski, G. (2011) A new form of sulfur al high temperaturas and
pressures: Implications for metal trasnsport in the lithosphere. SEG
Newsletter 86, pp 14-15.
Rankama, K. y Sahama, Th. G. (1954). Geoquímica. Ed. Aguilar, Madrid,
862 p.
Richards, J.P. (2000) Lineaments revisited. SEG Newsletter 42, pp 1 y 14-
19.
Richards, J.P. (2002). Sustainable development and the mineral industry.
SEG Newsletter, 48, pp 1 y 8-12.
Rosler, H.J. y Lange, H. (1972). Geochemical Tables. Ed. Elsevier,
Amsterdam, 468 p.
Rivera, S. (1991). La exploración del yacimiento epitermal de plata-oro La
Coipa, Chile: antecedentes históricos y geológicos de un caso real.En:
Lunar, R., y Oyarzun, R. “Yacimientos Minerales” (op cit), pp 405-415.
Sasso , A.M., y Clark, A.H. (1998). The Farallon Negro Group, Northwest
Argentina: Magmatic, hydrothermal and tectonic evolution and implications
391

for Cu-Au metallogeny in the Andean Back-arc. SEG Newsletter, 34, pp 1 y


8-18.
Sillitoe, R. (1972). Relation of metal provinces in western America to
subduction of oceanic lithosphere. Bull. Geologic Society America. 83, pp
813-818.
Soloviev, S.G., Geology, mineralization, and fluid inclusion characteristics of
the Kensu W-Mo skarn and Mo-W-Cu-Au alkali porphyry deposit, Tien
Shan, Kyrgyzstan. Econ. Geol., 106, pp 193-222.
Sparks, D.L. (1995). Environmental Soil Chemistry. Academic Press, New
York, 267 p.
Siegel, G.F. (1974). Applied Geochemistry. John Wiley and Sons, New
York, 353p.
Siegel, F.R (2002) Environmental Geochemistry of Potentially Toxic Metals.
Springer, Berlin, 218 p.
Stanley, G. (2007) Putting exploration into Wall Street`s perspective. SEG
Newsletter, 68, pp 1 y 10-18.
Tarbuck, E.J. y Lutgens, F.K. (2000). Ciencias de la Tierra. Ed. Prentice
Hall, Madrid, 540.
Thompson, A. J.B., Hauff, P.L. y Robitaille, A.J. (1999) Alteration mapping in
exploration: Application of Short-Wave Infrared (SWIR) Spectroscopy. SEG
Newsletter, 39, pp 1 y 16-27.
Wedepohl, K.H. (1970). Geochemistry. Holt, Reinhart and Winston, New
York, 231 p.
Wood, D. (1970). Mineral Resource Discovery – Science, Art and Business.
SEG Newsletter, 80, pp 12-17.
Woodall, R. (1993) The multidisciplinary team approach to successful
mineral exploration. SEG Newsletter, 14, pp 1 y 6-11.
Young, L.E. (1995) Empirical applications of common lead-isotope ratios to
exploration. SEG Newsletter, 22, pp 1 y 7-11.
392

Prof. Jorge Oyarzún - Curriculum Vitae

Es Profesor Titular del Depto. Ingeniería de Minas de la Universidad de La Serena,


Chile y Coordinador Académico del Programa de Diplomado en Sustentabilidad
Ambiental Minera de la misma Universidad. Obtuvo el título de Geólogo en la
Universidad de Chile, y posteriormente el Doctorado de la Universidad de París XI
(Geoquímica) y el Doctorado de Estado en Ciencias (Metalogénesis Andina) por la
misma Universidad. También realizó un post doctorado Humboldt (Metalogénesis)
en la Universidad de Heidelberg. Ha sido Jefe de la División Geoquímica del actual
Servicio Geológico Minero de Chile (ex I.I.G), profesor de las universidades de
Chile, del Norte y de Concepción, profesor invitado en universidades de
Sudamérica y Europa, y consultor de empresas mineras chilenas (CODELCO,
ENAMI) y extranjeras. Es autor o coautor de más de cien publicaciones y capítulos
de libros y el año 2002 compartió el premio de investigación Wardell Armstrong de
la institución de Minería y Metalurgia de Gran Bretaña. Sus líneas de investigación
incluyen Geoquímica, Metalogénesis y Gestión Ambiental Minera. Es Fellow de la
Society of Economic Geologists y miembro de la International Mine Water
Association. Varias de sus monografías sobre temas metalogénicos y ambientales
están disponibles en el sitio www.aulados.net, al igual que el texto “Minería
Sostenible: Principios y Prácticas” (480p), realizado en colaboración con el Prof. R.
Oyarzun (Universidad Complutense de Madrid).

La Serena, Junio 2013.

También podría gustarte