Está en la página 1de 11

Mineralogía experimental y ambiental

TEMA 12: MINERALOGÍA EXPERIMENTAL Y AMBIENTAL. MÉTODOS DE MUESTREO


Y ANÁLISIS.

La mineralogía es la rama de la geología que estudia y clasifica las especies minerales mediante la
observación de sus propiedades físicas y químicas y de las condiciones de su formación. A su vez,
un mineral es una sustancia natural, homogénea, con composición química perfectamente definida
y que se presenta siempre bajo la misma forma. Ya que la constitución de un mineral depende de la
temperatura, presión y composición química del entorno durante su génesis, que se encuentre o no
en una roca ofrece información sobre las condiciones de formación de la misma.

Mientras que puede decirse que la mineralogía experimental, manifestada en actividades como la
búsqueda de yacimientos de minerales y su explotación, en lo que se conoce como mineralurgia y
minería, tiene un cuerpo establecido como ciencia desde hace mucho tiempo, la mineralogía
ambiental es una disciplina nueva, que no tiene todavía límites definidos ni un cuerpo de literatura
establecido. De hecho, los primeros libros que tratan el nuevo campo de la mineralogía ambiental
datan de la segunda mitad de la década de los 90, siendo más abundantes en los años 98 y
siguientes.

Sin embargo, los problemas estudiados por la mineralogía ambiental no son nuevos, sino que
simplemente se estudiaban dentro de otras disciplinas o con otra perspectiva. La mineralogía
ambiental pretende el estudio de la interacción de los minerales con el medio ambiente, bien desde
una perspectiva amplia, que abarcaría prácticamente toda la mineralogía, como otra más aplicada a
los problemas ambientales que, o bien surgen por la explotación de los minerales (estrategias para
remediación de contaminación ácida debida a residuos mineros) o bien pueden ser solucionados
con ayuda de la mineralogía, como el diseño de blindajes y barreras adecuadas para la contención
de residuos nucleares. Entre estos dos ejemplos existen otros campos tratados por la mineralogía
ambiental, como son la formación y degradación de los suelos, el efecto de los microorganismos
en la mineralización y viceversa, las partículas minerales en la atmósfera y sus actividades, la
utilización de los conocimientos mineralógicos en la conservación de monumentos y restos
prehistóricos, así como las relaciones de los minerales con la salud humana, es decir, los
minerales que forman parte de nuestro cuerpo y sus interacciones con los procesos patológicos.

En este marco de trabajo tan diverso, las técnicas de muestreo y análisis van a depender de un modo
muy directo del tipo de estudio concreto. Así, tanto la metodología de muestreo como el volumen
de muestra y el grado de precisión que se busca en los resultados va a ser muy distinta si
pretendemos estudiar la riqueza en minerales de un territorio determinado, si nos encontramos ante
la necesidad de estudiar las consecuencias del drenaje ácido debidas a las explotaciones mineras, y
las estrategias para regenerar las zonas afectadas o si la cuestión es determinar los problemas de
salud como consecuencia de una alteración en la deposición del fósforo en el ser humano.

De esta forma, aunque pueden establecerse unos métodos generales de muestreo y obtención de
datos, que son comunes tanto para la mineralogía experimental como para la mineralogía ambiental,
el empleo de unos u otros se ajustará a cada caso concreto, y la elección se realizará mediante un
estudio previo de la situación a estudiar, teniendo en cuenta que la mineralogía ambiental es un
campo interdisciplinar en el que en ocasiones hay que tener presentes las limitaciones impuestas por
los métodos de trabajo vigentes en otras disciplinas, como la microbiología, la medicina, la
arqueología, etc.

1
Mineralogía experimental y ambiental

MÉTODOS DE MUESTREO

. INTRODUCCIÓN.
1.1 Muestreos probabilísticos y no probabilísticos.
2. CONCEPTOS GENERALES.
2.1. El problema del soporte.
2.2. Sesgo, precisión y exactitud.
3. DISEÑOS CLÁSICOS DE MUESTREO.
3.1. Muestreo aleatorio simple.
3.2. Muestreo estratificado aleatorio.
3.2.1. El problema de la “asignación”.
Fracción uniforme o proporcional
Óptimo o de mínima varianza
Valoral
Mínimo coste
3.3. Muestreo por conglomerados.
3.4. Muestreo sistemático. Series temporales.
3.5 .Determinación del tamaño total de la muestra, n.
4. METODOLOGÍA DE VISMAN PARA LA ESTIMACIÓN DEL VALOR MEDIO.
a)Varianza de composición:
b)Varianza de distribución (o segregación).
c) Varianzas de preparación y análisis.

1. INTRODUCCIÓN.

Se denomina muestreo al procedimiento por el cual, mediante el estudio de una fracción de un


colectivo, se extraen conclusiones cualitativas y cuantitativas acerca de la totalidad del mismo.
Si se dispusiese de los medios necesarios para investigar absolutamente todas las unidades que
constituyen el colectivo, puede aceptarse que, en ausencia de errores de los propios medios de
investigación (manejo de muestras, instrumentos de medida, etc.), la característica de interés que
estuviese siendo estudiada se conocería exactamente. El problema del muestreo reside en que, al ser
necesario seleccionar sólo una parte de las unidades que constituyen el colectivo, la estimación de la
característica investigada depende de cuáles sean las unidades que pasen a constituir la muestra. Un
buen diseño del muestreo será aquel en el que se cumpla que, cualquiera que sea la muestra
elegida, el resultado obtenido es siempre similar y próximo al valor real del parámetro que se quiere
estudiar.

1.1 Muestreos probabilísticos y no probabilísticos.

Se denomina “muestreo probabilístico” a aquel en que la selección de la fracción del colectivo que
se va a estudiar para caracterizar el conjunto se realiza según criterios basados en la teoría de
probabilidades. Este tipo de muestreos, a diferencia de los no probabilísticos, permite evaluar la
bondad del procedimiento de muestreo empleado.

El desconocimiento de la calidad del método utilizado no implica, sin embargo, que los muestreos
no probabilísticos conduzcan necesariamente a resultados erróneos. Un tipo de muestreo no
probabilístico relativamente extendido es aquel en el cual se caracteriza todo el colectivo a partir
de una única unidad del mismo considerada representativa del conjunto por uno o varios expertos.

2. CONCEPTOS GENERALES.

Se denomina población a la totalidad del colectivo que se pretende estudiar. Desde el punto de
vista del diseño del muestreo, se considera que la población se compone de un número N, finito o
infinito, de unidades muestrales. Cada unidad muestral tiene asociado un valor, y, de la variable
que interesa investigar.
2
Mineralogía experimental y ambiental

La relación de todas las unidades muestrales constituye el marco del muestreo. En el caso de
colectivos finitos o numerables (habitantes de una ciudad, piezas fabricadas en un taller, etc.) es
sencilla la determinación del marco. Sin embargo, en estudios ambientales la población es, a
menudo, un continuo en el que no existen unidades muestrales predeterminadas. A fin de poder
realizar el muestreo, se habrá de proceder a la definición arbitraria de dichas unidades, siendo
necesario, para ello, especificar un soporte de la unidad muestral.

A modo de ejemplo, en el caso del muestreo de suelos o rocas, el soporte de la unidad muestral lo
constituye el volumen elemental de suelo o roca que se asocia a cada punto del terreno al que se
asigna un valor de la variable que se está muestreando.

Se denomina muestra al conjunto de n unidades muestrales seleccionadas de entre las N posibles, a


partir del cual se va a extraer conclusiones acerca de todo el colectivo. Cuando las n unidades que
constituyen la muestra están destinadas a ser mezcladas y homogeneizadas para formar una muestra
compuesta, suelen recibir el nombre de incrementos muestrales.

Por último, se conoce como diseño del muestreo al proceso mediante el cual se define la unidad
muestral (si ello fuese necesario) y se seleccionan las n de entre todas ellas que constituyen la muestra.

2.1. El problema del soporte.

En ocasiones, la definición de un valor medio global de una magnitud química-física para un


terreno puede ser de escasa utilidad. Baste considerar que una manera de disminuir el valor medio
de un contaminante en una parcela de suelo sería comprar extensiones de terreno limpio adyacentes
y anexionarlas a la parcela original. En estos casos, parece más informativo intentar determinar en
cuántas ubicaciones del terreno original se supera un determinado valor límite marcado por la
legislación ambiental o por otras instancias (problema de distribución de frecuencias).

2.2. Sesgo, precisión y exactitud.

Se denomina sesgo a la desviación sistemática de las estimaciones realizadas a partir del muestreo
respecto a la realidad que se pretende conocer. La aparición de sesgo en los resultados de un muestreo
puede ser debida, tanto a un mal diseño del mismo (incorrecta ubicación de las unidades muestrales en
un muestreo no probabilístico, soporte de la unidad muestral inadecuado, etc.), como a la elección de
un estadístico inapropiado para la estimación del parámetro poblacional que se desea caracterizar (bien
porque el estadístico estime un parámetro diferente del perseguido, bien porque tenga sesgo como
estimador de tal parámetro).
Se denomina precisión a una medida del grado de agrupamiento de las estimaciones obtenidas a partir
del muestreo. En el ámbito del muestreo, se va a caracterizar la precisión de cada conjunto de
estimaciones por el grado de agrupamiento de las mismas en torno a su valor promedio, medido
como varianza o como su raíz cuadrada, la desviación típica. Cuanto mayor sea la varianza o
desviación típica del conjunto de resultados, tanto mayor será la imprecisión de las estimaciones
realizadas.

Algunos autores califican un muestreo insesgado como exacto; otros, sin embargo, reservan el término
exactitud para designar un muestreo cuyos resultados son a la vez insesgados y precisos.

3
Mineralogía experimental y ambiental

3. DISEÑOS CLÁSICOS DE MUESTREO.

La distribución espacial de las magnitudes físicas o químicas en un terreno, una masa de agua o una
atmósfera rara vez es regular u homogénea en toda la zona sometida a estudio. Este hecho
condiciona el planteamiento de la toma de muestras, fundamentalmente en cuanto a la densidad y
criterio de ubicación de las mismas. El diseño del muestreo por el que se opte debe garantizar la
ausencia de sesgo en los resultados, el nivel de precisión requerido y el mínimo coste para
asegurar el cumplimiento de las dos exigencias anteriores.

A continuación se recogen desde un punto de vista meramente conceptual, y de forma muy breve,
algunas de las principales estrategias de muestreo, referidas al problema de la estimación del valor
medio de una variable en la zona investigada.

3.1. Muestreo aleatorio simple.


3.2. Muestreo estratificado aleatorio.
3.3. Muestreo por conglomerados.
3.4. Muestreo sistemático. Series temporales.

3.1. Muestreo aleatorio simple.

Las n unidades muestrales que constituyen la muestra se seleccionan al azar entre las N totales posible
que constituyen el terreno investigado. Se hace la suposición de que todas las unidades muestrales
tienen la misma probabilidad de ser elegidas, y que la elección de cada una de ellas no afecta a la
posible selección de las demás.

3.2. Muestreo estratificado aleatorio.

Se aplica en aquellas ocasiones en que existe información previa a la realización del muestreo, a
partir de la cual se puede suponer que existe una segregación de la magnitud en estudio según
dominios espaciales o “estratos”, cada uno de ellos relativamente homogéneo internamente. En
estas circunstancias, se puede considerar que el conjunto, N, de unidades muestrales que constituyen la
población está dividido en L estratos no solapados, cada uno de ellos compuesto por Nh unidades
muestrales (N = N1 + N2 + … + NL).

3.2.1. El problema de la “asignación”.

En el caso del muestreo aleatorio estratificado, no basta con determinar el tamaño, n, de la muestra
total, sino que ha de especificarse, además, qué proporción de esas n unidades muestrales proceden de
cada estrato. Este reparto puede realizarse según diversos criterios:

Fracción uniforme o proporcional: El número de muestras, nh, que se recogen de cada estrato es
proporcional a la proporción de área (o volumen) que dicho estrato ocupa respecto al total de la zona
de estudio.

Óptimo o de mínima varianza: Si dos estratos de igual tamaño presentan variabilidades internas
diferentes, es lógico pensar que se necesitan menos unidades muestrales del más homogéneo para
caracterizar, con la misma precisión, los valores medios de los dos estratos. De acuerdo con este
razonamiento, el criterio óptimo o de mínima varianza consiste en hacer proporcional el número de
unidades muestrales que se recogen de cada estrato, no sólo a su tamaño, sino también a su
heterogeneidad interna.

4
Mineralogía experimental y ambiental

Valoral: Es un caso particular del anterior. En este caso, el número de unidades muestrales que se
recogen en cada estrato se hace proporcional a su tamaño y al valor medio de la magnitud
investigada en ese estrato (en lugar de a su desviación típica), ya que, en numerosas ocasiones, la
variabilidad del estimador de un valor medio es proporcional a la magnitud de dicho valor medio, lo
que se corrige mediante el coeficiente de variación, CV.

Mínimo coste: Se utiliza cuando se trabaja, no con número total de unidades muestrales constante,
sino con coste total de la campaña de muestreo fijo. Se hace la suposición de que el coste total de
una campaña de muestreo es la suma de unos costes fijos (desplazamiento hasta la zona, adquisición
de un equipo de muestreo, etc.) y unos costes variables, dependientes del coste unitario por unidad
muestral recogida en cada estrato. En este caso, el número óptimo de unidades muestrales por
estrato resulta ser proporcional a su tamaño y a su heterogeneidad interna, e inversamente
proporcional a la raíz cuadrada del coste por muestra extraída en ese estrato.

3.3. Muestreo por conglomerados.

La zona de estudio se considera dividida en Nc “conglomerados” (agrupaciones, conjuntos), cada uno


de ellos constituido por Nu unidades muestrales (de forma que N = Nc x Nu). La estrategia de muestreo
por conglomerados consiste en la selección al azar de nc conglomerados, de entre los Nc posibles, y en
el estudio de todas las Nu unidades muestrales de cada uno de ellos (tamaño de muestra, n = nc x Nu).

Es conveniente señalar que, si todas las unidades muestrales que constituyen un conglomerado están
próximas en el espacio (o, incluso, son adyacentes, como ocurre con frecuencia), cabe suponer que
exista algún tipo de relación entre los valores que toma la magnitud investigada en cada una de
dichas unidades.

3.4. Muestreo sistemático.

Como se ha señalado previamente, si los incrementos muestrales de un conglomerado se recogen


adyacentes unos a otros, la variabilidad entre los mismos será pequeña y no tiene por qué ser
representativa de la variabilidad de la población total, en contra de lo que parece aconsejable. Por
ello, una estrategia más adecuada es repartir los incrementos muestrales que constituyen cada
conglomerado por toda la zona investigada, con objeto de maximizar su variabilidad interna y
minimizar la variabilidad entre los valores medios de los conglomerados. Cuando este reparto se
realiza siguiendo un esquema regular a partir de una posición inicial, el muestreo realizado se
denomina “muestreo sistemático replicado”. Las expresiones que permiten estimar el valor medio
en toda la zona de estudio y la precisión del estimador de ese valor medio son las siguientes:

Tradicionalmente, se reserva la denominación “muestreo sistemático” para el caso particular en que el


número de replicaciones (de conglomerados) es igual a 1 (nc = 1).

Este último esquema de muestreo, probablemente el más utilizado, puede conducir a resultados
imprecisos si existen variaciones periódicas en la distribución de la magnitud química-física cuyo
valor medio se pretende determinar, ya que puede producirse coincidencia con el período (o
múltiplos del mismo) de la malla de muestreo. El problema desaparece si el muestreo sistemático se
replica, aleatorizando el punto de arranque.

Aunque tradicionalmente en mineralogía se utilizan muestreos estáticos (todas las muestras se


recogen al mismo tiempo) en ocasiones en mineralogía ambiental es necesario llevar a cabo
estudios cinéticos en los que se debe evaluar la evolución de un parámetro a lo largo del tiempo.
Este es el caso de los estudios de acidificación como consecuencia de la actividad minera. Esta

5
Mineralogía experimental y ambiental

acidificación se produce por el incremento de exposición de rocas con sulfuros que son susceptibles
de oxidación atmosférica y la consecuente generación de ácido. La liberación de este ácido puede
dañar directamente la vida acuática, y también los hábitats subacuáticos y subáreos. Además, al
bajar el pH también se incrementa la solubilización de metales pesados y semimetales como el Pb,
Zn, Cu, Cd, Cr, Ni, Co, Al, Sb y As. Mientras que el tratamiento de los efluentes ácidos
superficiales es posible (mediante la adición de limos) aunque sea caro, el control del nivel de los
metales disueltos es más complejo. En la predicción de la peligrosidad de una actividad minera en
relación a la deposición ácida hay que determinar el potencial de producción de ácido (AP) y el
potencial de neutralización (NP).

Los valores de AP y NP varían según la composición mineralógica de la zona. Se asume que


además de los minerales de, por ejemplo, pirita, que se oxidarán produciendo acidificación, existen
otros que reaccionarán para neutralizar o atenuar la acidez, normalmente los minerales carbonatados
excluyendo a la siderita. La relación NP/AP debería estar entre 3 y 2. Cuando es más baja se deben
tomar medidas de control.

Para la determinación de la relación NP/AP pueden usarse tests estáticos, es decir, realizar la toma
de muestras en una única ocasión antes de comenzar la explotación minera. Sin embargo, estos tests
no tienen en cuenta que los minerales reaccionan de forma distinta cuando están expuestos a la
meteorización o a condiciones de pH bajo. De este modo deben realizarse muestreos sistemáticos
distribuidos a lo largo de una serie temporal, o bien los tests cinéticos en el laboratorio, que
pretenden descifrar el comportamiento de los minerales a lo largo del tiempo. Estos tests implican
numerosos ciclos de lavado ácido de muestras seleccionadas en aparatos como células o columnas
de humidificación, seguido del análisis químico del lixiviado después de cada uno de los ciclos. Al
eliminar los productos de oxidación de cada ciclo, estos sistemas no tienen en cuenta las
consecuencias de la acumulación de materiales de desecho que acompaña a la oxidación de los
sulfuros, por lo que es necesario establecer lo que sucede en condiciones naturales.

DETERMINACIÓN DEL TAMAÑO TOTAL DE LA MUESTRA, N.

Es inmediato observar que cuanto mayor sea el tamaño de la muestra, n, tanto más precisas serán las
estimaciones del valor medio que se realicen; o también, cuanto más homogénea sea la zona
investigada, menor número de unidades muestrales tendrán que entrar a formar parte de la muestra
para conseguir una precisión determinada.

Cada tipo de muestreo presenta una expresión particular para la estima del valor medio y varianza de la
población, y a partir de estas expresiones se puede determinar cuál ha de ser el tamaño de la muestra
(es decir, el valor de n) en función de la precisión que se desee conseguir. El objetivo buscado puede
ser no superar un valor de varianza previamente especificado o no superar un margen de error
predeterminado. Para estos cálculos existen fórmulas específicas de cada caso y valores tabulados para
cada rango de medidas.

Para calcular estos valores es necesario, en primer lugar, disponer de una estimación, s2, de la
varianza, σ 2; y, en segundo lugar, que el valor n buscado ha de obtenerse de forma iterativa. En la
práctica la estimación s se realizará a partir de los resultados de un muestreo piloto previo al
definitivo

6
Mineralogía experimental y ambiental

4. METODOLOGÍA DE VISMAN PARA LA ESTIMACIÓN DEL VALOR MEDIO.

Hasta ahora se ha considerado que los únicos errores cometidos en la estimación del valor de la
variable de interés eran errores de muestreo, es decir, provenían del hecho de que sólo se incluía en la
muestra una porción del total de unidades muestrales que constituyen la población bajo estudio. Es más
frecuente, sin embargo, que se produzcan, además, otros errores (no de muestreo) provenientes de las
operaciones necesarias para averiguar el valor de la magnitud que se investiga en la muestra recogida.
En estudios ambientales son inevitables los errores achacables al procedimiento de toma de muestras
en campo, al modo de almacenamiento y transporte de la muestra, al tipo de preparación física y
química de la misma en el laboratorio y al método y equipo de análisis o medida empleado.

En cuanto a los errores propiamente de muestreo, los diseños clásicos consideran que la
incertidumbre asociada a cada estrategia de muestreo depende, exclusivamente, del número de
unidades muestrales que componen la muestra. No consideran el problema de la indefinición del
soporte para la unidad muestral (generalizado en estudios ambientales, como se ha discutido
previamente) y el efecto que el tamaño de la misma tiene sobre la precisión de las estimaciones que se
realicen, sobre todo en investigaciones de materiales granulados (suelos, partículas en suspensión, etc.).

La metodología de Visman, desarrollada para el muestreo de graneles en actividades mineras y


mineralúrgicas, sí incorpora estos aspectos en su formulación y resulta de especial utilidad, por
tanto, en estudios ambientales.

4.2. Formulación de Visman.

La metodología de muestreo de Visman, se construye a partir del principio de la aditividad de las


varianzas: Considera que la varianza total del estimador del valor medio (obtenido a partir de n
incrementos muestrales de masa m) de la concentración química elemental en una unidad de superficie
o volumen puede descomponerse en la suma de cuatro términos: varianza de composición, varianza de
distribución, varianza de preparación y varianza de análisis.

a) Varianza de composición:

Este parámetro mide la heterogeneidad o variabilidad de los resultados que es consecuencia de


diferencias de composición entre partículas. Se refiere, pues, a “micropropiedades” o propiedades
de las distintas partículas consideradas individualmente.

La contribución a la varianza total asignable a la heterogeneidad de composición de una muestra


(formada por la reunión de n incrementos) es función de la masa de la misma. Esta dependencia
inversa con la masa de la varianza de composición queda reflejada en la fórmula de Visman, donde
var COMP i aparece dividida por el producto m x n.

b) Varianza de distribución (o segregación).

Este parámetro mide la contribución a la varianza total asignable al hecho de que los incrementos
muestrales están tomados en distintos puntos del espacio. La varianza de distribución da idea de la
importancia del fenómeno de la segregación dentro del área sometida a estudio. Por segregación se
entiende, como se expuso anteriormente, la diferente distribución de las partículas, siguiendo pautas
determinadas, debido a la acción de un factor físico-químico, o de otro tipo, subyacente.

7
Mineralogía experimental y ambiental

La única manera de hacer disminuir el valor de la varianza de distribución es aumentar el número de


incrementos muestrales tomados, de modo que la totalidad de la cuadrícula muestral queda bien
representada.

Es interesante resaltar que, aunque ambas metodologías fueron diseñadas independientemente, las
varianzas de distribución y de composición definidas por Visman pueden considerarse dos niveles
anidados de un diseño ANOVA y las fórmulas del método de Visman se deducen inmediatamente a
partir del desarrollo matemático del análisis de la varianza.

c) Varianzas de preparación y análisis.

La suma de las varianzas de composición y distribución se denomina, en algunas ocasiones,


“varianza de muestreo”, en oposición a las varianzas de preparación y análisis, generadas en el
laboratorio.

La varianza de preparación cuantifica la contribución a la varianza total de todos aquellos factores


que intervienen en el proceso de transformar la muestra que llega al laboratorio en una muestra
de análisis (operario de laboratorio, calidad de los reactivos utilizados, grado de contaminación de
la atmósfera de laboratorio, etc...). Los procesos de reducción de la masa y del tamaño de partícula
de la muestra de campo son de especial relevancia en este conjunto de factores.

La varianza de análisis cuantifica la contribución a la varianza total del método de análisis


empleado, y se estima a partir de la repetición de la medida analítica de una misma muestra.
Esta estimación es proporcionada, generalmente, por el propio equipo de análisis. La estimación de
la varianza de preparación suele realizarse por sustracción del valor de la estimación de la varianza
de análisis del valor de la estimación de la varianza conjunta de preparación y análisis. Para la
estimación de esta varianza conjunta se divide la muestra de campo que llega al laboratorio en
varias submuestras iguales y se lleva a cabo, con cada una de ellas, todo el proceso de preparación
y análisis.

Es común en investigación de suelos que la contribución a la varianza total de las varianzas de


preparación y análisis sea despreciable frente a la de la varianza de muestreo. Frecuentemente, la
varianza de análisis es mucho menor que la de preparación.

8
Mineralogía experimental y ambiental

MÉTODOS ANALÍTICOS EN ESTUDIOS MINERALÓGICOS.

Los estudios mineralógicos comienzan necesariamente por utilizar los métodos de caracterización
de minerales y sus fases relacionadas. Dicha caracterización implica la identificación de los
minerales, la determinación cuantitativa de sus fases, así como la información sobre textura y
composición química. En ocasiones se necesita además realizar estudios más detallados, como la
microtextura o la química de superficie del mineral, mediante estudios específicos de laboratorio, a
veces a escala molecular o incluso atómica.

Caracterización de minerales.

Los métodos más empleados en mineralogía son:

1- Microscopio óptico

El microscopio óptico tradicional consta de una fuente de luz, que se enfoca por una lente
condensadora sobre el plano de la muestra. La luz atraviesa la muestra y se enfoca por medio de
las lentes del objetivo y del ocular, de modo que la imagen se amplía unas 1000 veces. Puede
conseguirse una amplificación aún mayor, pero esto no sería útil si no aumentase también la
resolución, es decir, la capacidad para distinguir dos objetos muy cercanos. La distancia mínima a
la que se pueden diferenciar dos objetos es función de λ , (la longitud de onda de la radiación
utilizada), n (el índice de refracción del medio que se halla sobre la muestra) y α (el ángulo de
abertura), del siguiente modo:

d= 0,6λ / n sen α

La resolución de un microscopio óptico puede aumentarse incrementando el índice de refracción


del medio pero la limitación más importante es la λ de la radiación incidente. El microscopio
óptico utiliza luz visible, cuya λ está entre 700 y 400 nm, de modo que la resolución máxima que
puede alcanzarse es del orden de 0.2µ m.

2- Técnicas basadas en el uso de haces de electrones (SEM, TEM...) y en el estudio de su


dispersión en las muestras de materiales.

El límite de resolución impuesto por la longitud de onda de la radiación luminosa puede reducirse
usando un haz de electrones en lugar de luz, lo que da lugar al microscopio electrónico. De este
modo se puede aumentar la resolución cien veces más que con el microscopio óptico, según la
energía de los electrones utilizados.

El microscopio electrónico de transmisión (TEM) consta de un filamento o cátodo que emite


electrones desde la parte superior de un cilindro de unos 2 m. Para obtener un haz lineal de
electrones toda la columna debe estar sometida a un alto vacío. Este haz pasa por lentes
electromagnéticas (campos magnéticos producidos por solenoides) que lo dirigen hacia la muestra,
situada también en vacío. La imagen formada por los electrones que la atraviesan se enfoca
mediante dos lentes, la lente del objetivo y la de un proyector, sobre una emulsión fotográfica o
una pantalla fosforescente.

Otro tipo de microscopio electrónico es el de barrido (SEM) En este, el haz de electrones es


reflejado por la superficie de la muestra en lugar de pasar a través de ella. Cuando el haz alcanza la
muestra y choca contra ella, se producen electrones secundarios que se detectan y convierten en una
imagen tridimensional.
9
Mineralogía experimental y ambiental

Aparte de la microscopía de barrido y la de transmisión, la difracción de electrones a través de


muestras ultrafinas permite también establecer la estructura cristalina del mineral. Por otra parte, las
técnicas de back-scattering de electrones unidas a la espectroscopia de éstos (medida de la energía
de los electrones dispersados) arroja información que permite determinar la composición química
punto a punto de la muestra.

3. Técnicas basadas en el uso de haces de rayos X.

Dentro de estas, destaca por lo frecuente de su uso la difracción de rayos X.

Si se dirige un haz de estos rayos sobre una muestra cristalina, algunos de ellos pasarán a su través,
pero los que choquen con los átomos de la muestra serán desviados y recogidos por un detector.
Realizando este proceso desde distintos ángulos se obtienen patrones de difracción que permiten
reconstruir su estructura tridimensional, aunque en moléculas complejas como las proteínas se
necesita también disponer de otros datos como su secuencia de aminoácidos.

La expresión que relaciona el ángulo de difracción con la distancia entre los átomos de la molécula
está recogida en la ley de Bragg: sen θ = nλ /2 d

siendo θ el ángulo, n el orden de difracción, d el espaciado de la red cristalina y λ la longitud de


la radiación incidente. Por eso es necesaria la utilización de rayos X, ya que las radiaciones vis y uv
no son suficientemente energéticas para resolver estructuras moleculares, porque sus λ son
demasiado grandes; en cambio las de los rayos X coinciden con las distancias atómicas o iónicas de
las sustancias cristalinas.

Aunque el método tradicional de obtención de rayos X era precisamente un tubo de rayos X,


donde se aceleran electrones y se hacen chocar contra un blanco para producir radiación en el
proceso de desaceleración, en la actualidad se utilizan también los sincrotrones, donde se aceleran
los electrones haciendo que se muevan en círculos de cientos de metros de radio. De este modo se
obtienen haces de rayos más uniformes e intensos, que permiten incrementar la resolución de la
técnica.

Un campo de aplicación muy importante es el estudio de las arcillas. En algunos casos es necesario
recurrir a una preparación especial de la muestra denominada agregado orientado, sometiendo a la
muestra a tratamientos térmicos y de humectación que separan sus características de otras similares
en estado natural.

Otros métodos basados en el uso de rayos X consisten en analizar tanto la fluorescencia


secundaria del material irradiado (emisión de fotones por la muestra) como las propiedades de
dispersión de la muestra del haz de rayos X. Ésta última técnica se basa normalmente en lo que se
conoce como dispersión a bajo ángulo de los rayos X y se parte de un haz monocromático de
rayos X (se monocromatiza mediante dispersión de Bragg en un cristal). Haciendo espectroscopia
del haz dispersado se puede obtener información sobre la composición de la muestra.

Otra técnica consiste en el estudio de las propiedades de absorción de los rayos X por la
muestra, y debido a la necesidad de haces de rayos X muy intensos se suele usar radiación de
sincrotrón.

Finalmente tenemos los métodos híbridos que estudian los electrones emitidos por la muestra al
iluminarla por rayos X. Si el fotón es completamente absorbido por un electrón se dice que se
produce efecto fotoeléctrico y, por razones históricas, se conoce como fotoelectrón. Otro
10
Mineralogía experimental y ambiental

mecanismo de producción de electrones es el efecto Auger donde el electrón es excitado dentro del
átomo y su posterior desexcitación produce la emisión de un fotón que ioniza al átomo a través de la
emisión de otro electrón de una capa más externa. También se puede producir efecto Compton,
esto es la absorción de parte de la energía del fotón incidente que es dispersado saliendo con una
longitud de onda mayor. En cualquier caso para átomos de Z alto el efecto dominante a energías
moderadas (<100 KeV) es el fotoeléctrico. Si estudiamos la proporción de rayos X absorbidos y la
energía de los fotoelectrones se obtiene información de la muestra.

4. Técnicas de microscopía avanzadas como la microscopía de efecto túnel y la microscopía de


fuerza atómica que son capaces de revelar estructuras de escala atómica.

Estas dos técnicas usan muestras muy bien pulidas. El microscopio de efecto túnel se basa en una
punta de extrema calidad (acaba en un vértice del tamaño de un átomo) que se mueve sobre la
superficie. Se establece una moderada diferencia de potencial entre la punta y la superficie. Aunque
los electrones del material no tendrían (en teoría) energía para atravesar la barrera de potencial y
llegar a la punta si ésta se sitúa a distancias de la escala atómica, algunos electrones pueden llegar a
la punta del microscopio dependiendo de la distancia y de la energía con que están ligados a los
átomos de la muestra. Así al desplazar con extrema precisión la punta podemos obtener un mapa de
la corriente detectada que permite estudiar los átomos presentes en la muestra. La microscopía de
fuerza atómica usa una punta también pero detecta la fuerza electrostática entre ésta y los átomos
de la superficie de la muestra. Ambas técnicas están limitadas a laboratorios con instrumentación
avanzada y a estudios muy específicos (sobre zonas muy pequeñas).

11

También podría gustarte