Está en la página 1de 121

4 Edad de la Tierra, propiedades térmicas y eléctricas.

4.1 GEOCRONOLOGÍA
4.1.1 Tiempo

El tiempo es un concepto filosófico y físico. Nuestro


la conciencia del tiempo radica en la capacidad de determinar cuál de las
siguientes opciones
dos eventos ocurrieron antes que el otro. Somos conscientes de
un presente en el que vivimos y que reemplaza continuamente una
pasado del que tenemos memoria; también somos conscientes de
un futuro, en algunos aspectos predecibles, que sustituirá a la
presente. El progreso del tiempo fue visualizado por Sir Isaac
Newton como un río que fluye involuntariamente a un ritmo uniforme.
tasa de interés. La presunción de que el tiempo es una entidad independiente
subyace a toda la física clásica. A pesar de que Einstein
La Teoría de la Relatividad muestra que dos observadores que se mueven uno
con respecto al otro tendrán diferentes percepciones del tiempo,
los fenómenos físicos están influenciados por esta relación
sólo cuando las velocidades se acercan a la velocidad de la luz. En el uso
cotidiano y en la ciencia no relativista el Newtoniano
prevalece la noción de tiempo como cantidad absoluta.
La medición del tiempo se basa en ciclos de conteo
(y porciones de un ciclo) de fenómenos repetitivos.
El hombre prehistórico distinguió las diferencias entre el día
y la noche, observaba las fases de la Luna y estaba
consciente de la repetición regular de las estaciones del año.
A partir de estas observaciones, el día, el mes y el año
emergieron como unidades de tiempo. Sólo después del desarrollo
del reloj podría subdividirse el día en horas,
minutos y segundos.

4.1.1.1 El reloj
Los primeros relojes fueron desarrollados por los egipcios y
fueron luego introducidos en Grecia y de allí a Roma.
Alrededor del año 2000 a.C. los egipcios inventaron el reloj de agua.
(o clepsidra). En su forma primitiva consistía en una
recipiente del que el agua podría escapar lentamente por un
un pequeño agujero. El progreso del tiempo podría medirse por
observar el cambio de profundidad del agua en el recipiente (utilizando
graduaciones en sus lados) o recogiendo y recogiendo
midiendo la cantidad de agua que se escapó. El
A los egipcios (o quizás a los mesopotámicos) también se les atribuye la invención
del reloj de sol. Los primeros relojes de sol consistían
de dispositivos - postes, piedras verticales, pirámides u obeliscos -
que proyectan una sombra; el paso del tiempo fue observado por
la dirección cambiante y la longitud de la sombra. Después se desarrolló la
trigonometría, los cuadrantes podían ser exactos.
graduado y medido con precisión. Mecánico
se inventaron alrededor del año 1000 d.C., pero los relojes de péndulo de
precisión fiable se utilizaron por primera vez en el siglo XVII. Relojes de sol
precisos, en los que la sombra
fue fundido por un alambre fino, se utilizaron para comprobar el ajuste y
calibración de los relojes mecánicos hasta el día diecinueve
siglo.
4.1.1.2 Unidades de tiempo
El día se define por la rotación de la Tierra en torno a su
eje. El día se puede definir en relación con las estrellas o con la
Sol (Fig. 4.1). El tiempo necesario para que la Tierra gire
a través de 360 sobre su eje y volver a la misma
El meridiano relativo a una estrella fija define el día sideral.
Todos los días sidéreos tienen la misma duración. El tiempo sideral debe
ser utilizado en cálculos científicos que requieren rotación
velocidad relativa al marco absoluto de las estrellas.
El tiempo necesario para que la Tierra gire sobre su eje
y volver al mismo meridiano relativo al Sol
define el día solar. Mientras la Tierra gira en torno a su
también se está moviendo hacia adelante a lo largo de su órbita. La órbita
movimiento sobre el Sol cubre 360 en unos 365 días, así que
que en un día la Tierra avanza en su órbita por
aproximadamente 1. Volver al meridiano solar el
La Tierra debe girar este grado extra. El día solar es por lo tanto ligeramente más
largo que el día sideral. Los días solares son
no es igual en longitud. Por ejemplo, en el perihelio de la Tierra
se está moviendo más rápido en su órbita que en aphelion (ver
Fig. 1.2). En el perihelio, la tasa angular más alta sobre el
El Sol significa que la Tierra tiene que rotar a través de una superficie más grande.
que el ángulo promedio para alcanzar el meridiano solar.
Así, en el perihelio el día solar es más largo que el promedio; en el perihelio el día
solar es más largo que el promedio; en el perihelio el día solar es más largo que el
promedio.
l caso es el contrario. La oblicuidad de la
la eclíptica causa una mayor variación en la longitud del
día solar. El tiempo solar medio se define en términos de la media
duración del día solar. Se utiliza para la mayoría de los propósitos prácticos en la
Tierra, y es la base para la definición de la hora,
minuto y segundo. Un día solar medio es igual a exactamente
86.400 segundos. La duración del día sideral es de aproximadamente 86.164
segundos.
El mes sideral se define como el tiempo necesario para
la Luna para rodear la Tierra y regresar a lo celestial
longitud de una estrella dada. Es igual a 27,32166 (solar)
días. Para describir el movimiento de la Luna en relación con el
Sol, tenemos que tener en cuenta el movimiento de la Tierra
alrededor de su órbita. El tiempo entre alineaciones sucesivas
del Sol, la Tierra y la Luna en el mismo meridiano es la
mes sinódico. Equivale a 29.530 59 días.
El año sideral se define como el tiempo que transcurre
entre las sucesivas ocupaciones por la Tierra de la misma
apuntan en su órbita con respecto a las estrellas. Es igual a
365.256 días solares medios. Dos veces al año, en primavera
y el otoño, la Tierra ocupa posiciones en su órbita
alrededor del Sol donde las longitudes del día y de la noche son
igual en cualquier punto de la Tierra. La ocurrencia del resorte es
llamado el equinoccio de primavera; que en el otoño es el
equinoccio de otoño. El año solar (correctamente llamado el año
año tropical) se define como el tiempo que transcurre entre sucesivas
equinoccios de primavera. Equivale a 365.242 días solares medios,
un poco menos que el año sideral. La pequeña diferencia
(0,014 días, unos 20 minutos) se debe a la precesión de
los equinoccios, que tienen lugar en sentido retrógrado
(es decir, lo opuesto a la revolución de la Tierra sobre la
Sol) y por lo tanto reduce la duración del año tropical.
Desafortunadamente, la longitud de las
Los años no son constantes, sino que cambian lenta pero mensurablemente.
Para tener un estándar mundial, la unidad fundamental de
el tiempo científico se definió en 1956 en términos de la duración
del año tropical 1900, que fue establecido igual a
31.556.925.9747 segundos de tiempo de efemérides. Incluso esta definición de la
segunda no es lo suficientemente constante para las necesidades
de la física moderna. Los relojes atómicos altamente estables han sido
que son capaces de ofrecer una precisión excepcional. Para
ejemplo, el álcali metal cesio tiene una definición muy definida
línea espectral atómica cuya frecuencia puede determinarse
con precisión por resonancia con una radiofrecuencia sintonizada
circuito. Esto proporciona la definición física de la segunda
de tiempo de efemérides como la duración de 9.192.631.770 ciclos
del reloj atómico de cesio.
Otras unidades de tiempo se utilizan para fines específicos.
Los astrónomos usan una práctica unidad de tiempo sincronizada para
la rotación de la Tierra. Esto da una escala de tiempo uniforme llamada
tiempo universal y denominado UT2; está definido para un año determinado por el
Royal Observatory de Greenwich, Inglaterra. Las formas particulares de definir las
unidades básicas
de tiempo son importantes para analizar algunos problemas en
astronomía y geodesia satelital, pero para la mayoría de los
las pequeñas diferencias entre las diferentes aplicaciones
las definiciones son insignificantes.
4.1.1.3 La escala temporal geológica
Mientras que las rocas ígneas se forman en rocas discretas de corta duración
erupciones de magma, secuencias de rocas sedimentarias
tardan mucho tiempo en formarse. Muchas formaciones sedimentarias contienen
fósiles, es decir, reliquias de criaturas.
que vivían en o cerca de la cuenca en la que se encontraban los sedimentos
depositado. La evolución da un carácter particularmente identificable a los fósiles
de una determinada formación, de modo que es posible rastrear la evolución de
diferentes familias de fósiles, y
correlacionan sus comienzos y extinciones. Estas características permiten que la
formación de la roca huésped se correlacione con otras que contienen parte o la
totalidad del mismo fósil.
y permitir el desarrollo de un esquema para
sedimentos de datación en relación con otras formaciones. Poco a poco
se ha elaborado una escala de tiempo bioestratigráfica, la cual
permite la determinación precisa de la edad relativa de un
secuencia sedimentaria. Esta información es intrínseca a cualquier
escala temporal geológica.
Una escala de tiempo geológica combina dos tipos diferentes de
información. Su registro básico es un registro crono-estratigráfico
que muestra la relación entre las secuencias de rocas.
Éstos se describen en detalle en secciones estratigráficas
que se cree que tienen sedimentación continua y
para contener ensamblajes completos de fósiles. El límite
entre dos secuencias sirve como estándar de referencia
y la sección en la que ocurre se llama un límite
estratotipo. Cuando las edades están asociadas a la referencia
la escala se convierte en una escala de tiempo geológica. El tiempo es
dividido en unidades mayores llamadas eones, que se subdividen en eras; éstas a
su vez se subdividen en períodos
que contiene varias épocas. Las longitudes de las unidades de tiempo en
antes de que se determinaran las edades con
isótopos radioactivos, se expresaron como múltiplos de los
duración de la época del Eoceno. Geología moderna
se basan en edades isotópicas, que se calibran en unidades de tiempo normales.
La escala de tiempo geológica se revisa constantemente
y actualizado. Descripciones mejoradas de límites importantes en secciones de
estratotipos globales, correlación más refinada con otras unidades
cronoestratigráficas, y mejor
mediante una datación isotópica más precisa conducen a revisiones frecuentes.
La figura 4.2 muestra un ejemplo de un sistema de
escala temporal geológica.
4.1.2 Estimación de la edad de la Tierra
Las primeras estimaciones de la edad de la Tierra estaban dominadas por
creencias religiosas. Algunos filósofos orientales en la antigüedad
creía que el mundo había existido durante millones de años.
años. Sin embargo, el pensamiento occidental sobre este tema estaba dominado
durante siglos por los principios de la religión judía y cristiana.
fe. Las estimaciones bíblicas de la edad del mundo fueron hechas en
la base de la genealogía al sumar la duración de las vidas
y generaciones mencionadas en el Antiguo Testamento. Algunos
las estimaciones también incorporan información de otros estudios
escrituras o fuentes relacionadas. La edad calculada de
La creación invariablemente dio a una edad de la Tierra menos de
10.000 años.
La estimación bíblica más conocida de la fecha de la
La creación fue hecha por James Ussher (1581-1656), un irlandés
arzobispo. Su análisis de los acontecimientos registrados en el Antiguo
Testamento
El testamento y los pergaminos antiguos contemporáneos llevaron a Ussher a
proclamar que el momento exacto de la Creación fue a principios de la noche del
22 de octubre, en el año 4004 a.C., que
hace que la edad de la Tierra sea de aproximadamente 6000 años. Otros
los eruditos bíblicos dedujeron edades similares. Este tipo de estimación
"creacionista" de la edad es todavía favorecida por muchos cristianos
fundamentalistas, cuya fe se fundamenta en la fe literalmente
interpretación de la Biblia. Sin embargo, los eruditos bíblicos
con una fe de base más amplia, reconocer las estimaciones de edad
basado en la metodología científica y la medición.
A finales del siglo XIX, el crecimiento de los recursos naturales
(como se llamaba entonces a la física) fomentaba los cálculos de la edad de la
Tierra a partir de las propiedades físicas del
sistema solar. Entre ellos se encontraban las estimaciones basadas en la
el enfriamiento del Sol, el enfriamiento de la Tierra, y el lento
aumento de la distancia Tierra-Luna. Los químicos trataron de
datar la Tierra estableciendo el tiempo necesario para los mares
para adquirir su salinidad, mientras que los geólogos conjeturaban cómo
que los sedimentos y las rocas sedimentarias tardarían en
se acumulan.
4.1.2.1 Enfriamiento del Sol
Dejando a un lado la "secuencia" bíblica que se narra en el
de Génesis, los filósofos de hoy en día opinan que la
La Tierra no puede ser más vieja que el Sol. Enfriamiento del Sol
tiene lugar por radiación continua de energía en el espacio.
La cantidad de energía solar que cae sobre un metro cuadrado por día.
segundo a la distancia de la Tierra del Sol (1 UA) es
llamada la constante solar; equivale a 1360 W m2. El
se obtiene la cantidad de energía perdida por el Sol por segundo
multiplicando este valor por la superficie de una esfera
cuyo radio es una unidad astronómica. Este simple cálculo muestra que el Sol está
perdiendo energía a un ritmo de
de 3.831026 W. En el siglo XIX, antes del descubrimiento de la radiactividad y de
las reacciones nucleares, la fuente
de esta energía no era conocida. Un científico alemán,
H. L. F. von Helmholtz, sugirió en 1856 que podría
resultado del cambio de energía potencial debido a la condensación gravitacional
del Sol de una temperatura originalmente más alta que la de la Tierra.
cuerpo distendido. La energía de condensación Es de una masa
La Sra. de densidad y radio uniformes Rs viene dada por

En esta ecuación G es la constante gravitacional (ver


Sección 2.2.1). El factor 3/5 en el resultado se deriva de la
de una distribución uniforme de la densidad en el interior de la
Sol. Dividiendo la energía de condensación entre la tasa de
la pérdida de energía da una edad de 19 millones de años para el Sol.
Permitiendo el aumento de la densidad hacia el centro causa un aumento de
aproximadamente el triple de la energía gravitacional y de la edad inferida del Sol.
4.1.2.2 Enfriamiento de la Tierra
En 1862 William Thomson, que más tarde se convirtió en Lord
Kelvin, examinó el enfriamiento del Sol con más detalle.
Inconsciente (aunque sospechoso) de otras fuentes de energía solar
energía, llegó a la conclusión de que la condensación gravitacional
podría suministrar la energía radiante del Sol durante al menos 10
millones de años pero no más de 500 millones de años
(500 Ma). En el mismo año investigó el enfriamiento
historia de la Tierra. Mediciones en pozos profundos y
ha demostrado que la temperatura aumenta con la profundidad.
La tasa de aumento, o gradiente de temperatura, se conocía
pero pareció ser variable, pero pareció promediar alrededor de 1F por cada
50 pies (0,036 C m1). Kelvin infería que la Tierra era
lentamente perdiendo calor y asumió que lo había hecho por la
proceso de conducción por sí solo (Sección 4.2.4). Esto permitió
para deducir la edad de la Tierra a partir de una solución de la ecuación
unidimensional de la conducción de calor (véase la Ecuación 4.57
y Cuadro 4.2), que relaciona la temperatura T en el tiempo t
y la profundidad z a las propiedades físicas del cuerpo de enfriamiento,
como su densidad (r), calor específico (c) y conductividad térmica (k).
Estos parámetros son conocidos para determinados tipos de rocas,
pero Kelvin tuvo que adoptar valores generalizados para toda la
La Tierra. El modelo asume que la Tierra inicialmente tuvo un
temperatura uniforme T0 en todo momento, y que se haya enfriado
desde el exterior dejando las temperaturas internas actuales
más alta que la temperatura de la superficie. Después de un tiempo t tiene
el gradiente de temperatura en la superficie de la superficie de los parámetros de
la tierra dados por:

4.1.2.3 Aumento de la separación Tierra-Luna


El origen de la Luna es aún incierto. George H.
Darwin, hijo del más famoso Charles Darwin y
un pionero de la teoría de las mareas, especuló que era
arrancada de la Tierra por una rápida rotación. Como otros clásicos
teorías sobre el origen de la Luna (por ejemplo, la captura de la Luna
de otras partes del sistema solar, o la acreción en la Tierra
órbita) la teoría es defectuosa. En 1898 Darwin intentó
explicar la edad de la Tierra por los efectos de la fricción de la marea lunar. Las
protuberancias de la marea en la Tierra interactúan con el
La gravitación de la luna para producir un par de desaceleración que
ralentiza la rotación de la Tierra y por lo tanto causa un aumento
en todo el día. La reacción igual y opuesta es un par ejercido por la Tierra en la
órbita de la Luna que
aumenta su momento angular. Como se explica en la sección
2.3.4.2, esto se consigue mediante un aumento de la distancia
entre la Luna y la Tierra y una disminución en el número de
velocidad de rotación de la Luna alrededor de la Tierra, que
aumenta la duración del mes. La rotación de la Tierra
se desacelera más rápidamente que la de la Luna, de modo que
eventualmente las velocidades angulares de la Tierra y la Luna
serán iguales. En este estado sincrónico, el día y la noche
mes durará cada uno alrededor de 47 de nuestros días actuales y los
La distancia Tierra-Luna será de unos 87 radios de la Tierra; el
La separación es actualmente de 60,3 radios terrestres.
Razones similares sugieren que antes en la Tierra
la historia, cuando la Luna estaba mucho más cerca de la Tierra,
ambos cuerpos rotaron más rápido para que una sincronía más temprana
puede ser conjeturado. El día y el mes cada uno
han durado alrededor de 5 de nuestras horas actuales y el
La distancia Tierra-Luna habría sido de unos 2,3 metros.
radios. Sin embargo, a esta distancia la Luna estaría dentro
el límite de Roche, alrededor de 3 radios de la Tierra, en el que la Tierra
la gravitación lo destrozaría. Por lo tanto, es poco probable que
esta condición nunca se ha cumplido.
Darwin calculó el tiempo necesario para la Tierra y
Luna para progresar de una relación cercana inicialmente inestable a sus
velocidades actuales de separación y rotación,
y concluyó que un mínimo de 56 Ma serían
necesario. Esto proporcionó una estimación independiente del
La edad de la Tierra, pero desafortunadamente es tan imperfecta en sus
suposiciones subyacentes como otros modelos.
4.1.2.4 Salinidad oceánica
Varias determinaciones de la edad de la Tierra han sido
hecho sobre la base de la química del agua de mar. El razonamiento es que la sal
es recogida por los ríos y transportada
en lagos y mares; la evaporación elimina el agua, pero la
el vapor es fresco, por lo que la sal se deja atrás y se acumula
con el tiempo. Si se mide la tasa de acumulación, y si la
la concentración inicial de sal era cero, la edad del mar y,
por inferencia, la Tierra puede ser calculada dividiendo el
concentración actual por la tasa de acumulación.
Se han investigado diferentes versiones de este método. El más destacado es el
de un geólogo irlandés, John
Joly, en 1899. En lugar de medir la sal, utilizó la concentración de un elemento
puro, el sodio. Joly determinó que el
cantidad total de sodio en los océanos y la cantidad anual de
cantidad aportada por los ríos. Concluyó que la edad máxima probable de la Tierra
era de 89 Ma. Las estimaciones posteriores incluyeron correcciones por posibles
pérdidas de sodio y
acumulación no lineal, pero con edades similares menores que
unos 100 Ma.
La principal falla en los argumentos químicos es el
suposición de que el sodio se acumula continuamente en el
océano. De hecho, todos los elementos son retirados del océano
más o menos al mismo ritmo que los traen. Como resultado,
el agua de mar tiene una composición químicamente estable, que es
no cambia significativamente. Los métodos químicos no
210 Edad de la Tierra, propiedades térmicas y eléctricas
medir la edad del océano o de la Tierra, pero sólo el
duración media del tiempo que el sodio reside en los mares
antes de que sea removido.
4.1.2.5 Acumulación sedimentaria
Para no ser superado por los físicos y químicos, tarde.
los geólogos del siglo XIX trataron de estimar la edad de la Tierra
usando evidencia estratigráfica para la acumulación de
sedimentos. El primer paso consistió en determinar el espesor de los sedimentos
depositados durante cada unidad de tiempo geológico. El segundo paso fue
encontrar el correspondiente
de sedimentación. Cuando se conocen estos parámetros,
se puede calcular el tiempo representado en cada unidad. La edad de la Tierra es
la suma de estos tiempos.
Las estimaciones geológicas están llenas de complicaciones. Sedimentos con una
matriz de silicato, como areniscas
y pizarras, se depositan mecánicamente, pero el carbonato
las rocas se forman por la precipitación del agua de mar. Para calcular el
velocidad mecánica de sedimentación la velocidad de entrada tiene que ser
ser conocido. Esto requiere conocer el área de la cuenca depositaria, el área que
abastece a los sedimentos y su velocidad.
de la erosión de la tierra. Las tasas utilizadas en los primeros estudios fueron en
gran medida
intuitivo. Los cálculos para las rocas carbonatadas requirieron
conocer la tasa de solución de carbonato de calcio de
la superficie de la tierra, pero no pudo corregir la variación de
solubilidad con profundidad en la cuenca de deposición. El número
de parámetros desconocidos o crudamente conocidos condujeron a numerosos
estimaciones geológicas divergentes para la edad de la Tierra, que van desde
de decenas de millones a cientos de millones de años.
4.1.3 Radioactividad
En 1896 un físico francés, Henri Becquerel, puso una muestra
de mineral de uranio en un papel fotográfico envuelto y sin revelar.
de la placa. Después del revelado, la película mostraba el contorno de
la muestra. La exposición se atribuyó a los rayos invisibles
emitidas por la muestra de uranio. El fenómeno, que
se conoció como radiactividad, proporciona la más fiable
métodos aún conocidos de datación de procesos geológicos y
calculando la edad de la Tierra y del sistema solar. Para
de la radiactividad, debemos considerar brevemente la
estructura del núcleo atómico.
El núcleo de un átomo contiene carga positiva
y neutrones eléctricamente neutros. El sistema electrostático
La fuerza de Coulomb hace que los protones se repelan entre sí. Se
disminuye a medida que el cuadrado inverso de la separación (véase
Sección 4.3.2) y por lo tanto puede actuar a grandes distancias
comparado con el tamaño del núcleo. Una fuerza nuclear aún más poderosa
mantiene unido el núcleo. Este atractivo
de fuerza entre protones, entre neutrones, y entre
protones y neutrones. Sólo es eficaz en distancias cortas,
para una separación de partículas inferior a unos 31015 m.
Supongamos que el núcleo de un átomo contiene Z
y está rodeado por un número igual de electrones cargados negativamente, de
modo que el átomo es eléctricamente
neutro; Z es el número atómico del elemento y define
su lugar en la tabla periódica. El número N de neutrones
en el núcleo es su número de neutrones, y el número total
A de protones y neutrones es el número de masa de los
átomo. Átomos del mismo elemento con diferentes neutrones
se llaman isótopos del elemento. Por ejemplo,
el uranio contiene 92 protones pero puede tener 142, 143, o
146 neutrones. Los diferentes isótopos se distinguen por
añadiendo el número de masa al símbolo químico,
dando 234U, 235U y 238U.
La fuerza de repulsión de Coulomb actúa entre cada
par de protones en un núcleo, mientras que el núcleo nuclear de corto alcance
sólo actúa sobre los protones y neutrones cercanos. Para evitar
se separan debido a la repulsión de Coulomb todos los núcleos con
el número atómico Z mayor que aproximadamente 20 tiene un exceso de
(NZ). Esto ayuda a diluir los efectos de la
protones productores de repulsión. Sin embargo, los núcleos con Z
83 son inestables y se desintegran por la desintegración radioactiva. Este
significa que se rompen espontáneamente al emitir partículas elementales y otras
radiaciones.
Al menos 28 partículas elementales distintas son conocidas por
física nuclear. Los más importantes corresponden a la
tres tipos de radiación identificados por los primeros investigadores
y llamó -, -, -, y - rayos. Un -rayo (o partícula) es un
núcleo de helio que ha sido despojado de su entorno
electrones; está formado por dos protones y dos neutrones
y también el número atómico 2 y la masa 4. A -
es un electrón. Algunas reacciones emiten
energía en forma de rayos, que tienen una duración muy corta.
longitud de onda y son similares en carácter a los rayos X
La ecuación (4.4) muestra que el número de desintegraciones nucleares por
segundo -la actividad del núcleo- es proporcional al número de núcleos padres. La
actividad A
en un momento dado está relacionada con la actividad inicial A0 de la siguiente
manera
una ecuación similar a la Ecuación (4.5)

La descripción experimental de la desintegración radioactiva por


Ernest (más tarde Lord) Rutherford y Frederick Soddy en
1902 se basó en las observaciones de los tiempos necesarios para el
actividad de los materiales radiactivos para disminuir por pasos de
la mitad. Este tiempo se conoce como la vida media de la descomposición. En
la primera semivida el número de nucleidos padres disminuye
a la mitad, en la segunda mitad a un cuarto, en la tercera a una
un octavo, etc. El número de nucleidos hijos aumenta
en la misma medida, de modo que la suma de padre e hija
es siempre igual al número original P0. Alquiler de
P/P0 es igual a 1/2 en la Ecuación (4.5) obtenemos la relación entre
vida media t1/2 y constante de deterioro l:
(4.9)
Las tasas de descomposición y semividas son conocidas por más de
1700 isótopos radioactivos. Algunos sólo se producen en
las explosiones nucleares y son tan efímeras que duran solamente
una fracción de segundo. Otros isótopos de vida corta son producidos por
colisiones entre los rayos cósmicos y los átomos en el
en la atmósfera superior y tienen una vida media corta que dura unos minutos
o días. Un número de isótopos que ocurren naturalmente tienen
de miles de años (kiloyeares, ka), millones de
años (mega-año, Ma) o miles de millones de años (giga-año, Ga),
y se puede utilizar para determinar las edades de los eventos geológicos.
4.1.4 Determinación de la edad radiométrica
Cada esquema de datación por edad implica una medición precisa de
la concentración de un isótopo. Esto suele ser muy
pequeño. Si la desintegración radiactiva ha avanzado demasiado, el
la resolución del método se deteriora. Los mejores resultados para
un determinado esquema de descomposición isotópica se obtiene para edades
menores
que unas cuantas vidas medias de la descomposición. Las constantes de
decadencia
y la vida media de algunos isótopos radioactivos, comúnmente
utilizados en la datación de eventos geológicos se enumeran en la Tabla 4.1, y
ilustrado en la Fig. 4.4. Los artefactos históricos y arqueológicos se pueden datar
por el método del carbono radioactivo.
4.1.4.1 Carbono radiactivo
La Tierra está siendo bombardeada constantemente por la radiación cósmica del
espacio exterior. Colisiones de partículas cósmicas con

átomos de oxígeno y nitrógeno en la atmósfera terrestre


producen neutrones de alta energía. Estos, a su vez, chocan con
núcleos de nitrógeno, transformándolos en 14C, una sustancia radioactiva
isótopo de carbono. 14C se descompone por emisión de partículas a
14N con una vida media de 5730 años La producción del nuevo 14C
se equilibra con la pérdida debida a la descomposición, de modo que existe un
equilibrio natural. Fotosíntesis en animales y plantas
repone el tejido vivo utilizando dióxido de carbono, que contiene una proporción
constante de 14C. Cuando un organismo muere,
la renovación se detiene y el 14C residual en el organismo
se descompone radiactivamente.
El método del carbono radiactivo es un simple análisis de descomposición basado
en la Ecuación (4.5). La proporción restante P de 14C
se mide contando la velocidad actual de -partícula
que es proporcional a P. Esto se compara a
la concentración de equilibrio original P0. El tiempo transcurrido desde
el inicio de la descomposición se calcula resolviendo la Ecuación (4.5) usando
la tasa de caída para 14C (l1.21104 año1)

El método del carbono radioactivo ha sido valioso en


acontecimientos de la datación en la época del Holoceno, que cubre el último
10.000 años de tiempo geológico, así como eventos relacionados con
prehistoria humana. Desafortunadamente, la actividad humana ha perturbado el
equilibrio natural del reabastecimiento, y
de decadencia. La concentración de 14C en la atmósfera
ha cambiado drásticamente desde el comienzo de la Conferencia de las Naciones
Unidas sobre el Medio Ambiente y el Desarrollo (COP16).
la era industrial. Esto se debe en parte a la combustión de
combustibles fósiles como el carbón y el petróleo como fuentes de energía; tienen
durante mucho tiempo perdió cualquier 14C y diluyó su presencia en la atmósfera
carbono. En el último medio siglo, las pruebas atmosféricas de
las armas nucleares duplicaron la concentración de 14C en el
de la atmósfera. Los materiales más antiguos pueden estar fechados por el 14C
aunque las fluctuaciones naturales en P0 deben ser
en cuenta. Esto se debe a las variaciones en la intensidad del campo
geomagnético, que actúa como un escudo parcial.
contra la radiación cósmica.
4.1.4.2 El espectrómetro de masas
En los años anteriores a la Segunda Guerra Mundial, los físicos inventaron el
espectrómetro de masas, un instrumento para medir la masa
de un ión. El instrumento se perfeccionó aún más durante el
desarrollo de la bomba atómica. Después de la guerra fue
adoptado en las ciencias de la tierra para determinar el isotópico
y se convirtió en una parte vital del proceso isotópico.
determinación de la edad.
El espectrómetro de masas (Fig. 4.5) utiliza los diferentes
efectos de los campos eléctricos y magnéticos en una partícula cargada o ión.
Primero, se extrae el elemento de interés
a partir de fracciones minerales seleccionadas o a partir de productos enteros
pulverizados
4.1 GEOCRONOLOGÍA 213
Tabla 4.1 Constantes de descomposición y semivida de algunas de ellas
que ocurren naturalmente, los isótopos radioactivos comúnmente usados en
geocronología
Madre Hija Decadencia constante Vida media
isótopo isótopo[1010 años1][Ga]
40K 89.5% 40Ca 5.543 1.25
10,5% 40Ar 87Rb 87Sr 0,1420 48,8 147Sm 143Nd 0,0654 106,0 232Th 208Pb
0,4948 14,01 235U 207Pb 9,8485 0,704 238U 206Pb 1,5513 4,468
1.0
0.5
0,0P/ P0
Edad (Ga)
0 2 1 345
U Pb 235 207
U Pb 238 206
Rb Sr 87 87
K Ar 40 40
1/2 t
= 1.25
1/2 t
= 0.70
Edad de la Tierra
4.56 Ga
t1/2= 48.8
t1/2= 4.47
Fig. 4.4 Curvas normalizadas de desintegración radiactiva de algunos importantes
isótopos para datar la Tierra y el sistema solar. Las flechas
indican los respectivos períodos de semidesintegración en 109 años (fuente de
datos: Dalrymple, 1991).
iónico
rayo
magnéticos
sector
embalse
derramar
pistola de iones
entrada de muestras
sistema
ionización
recinto
recolectora
para bombear
preamplificador
amplificador
Sr 88
Sr 86
Sr 87
Sr 84
Espectro de masas Sr
Fig. 4.5 Diseño esquemático de un espectrómetro de masas, e hipotético
espectro de masas para el análisis de isótopos de estroncio (después de York y de
Farquhar, 1972).
rock. El extracto se purifica químicamente antes de ser
introducido en el espectrómetro de masas, donde es ionizado.
Para el análisis de un gas como el argón, bombardeo por un
de electrones. Elementos sólidos, tales como
potasio, rubidio, estroncio o uranio, se vaporizan depositando una muestra en un
filamento calentado eléctricamente, o calentándola con un rayo láser de alta
energía de manera que
la muestra se vaporiza directamente. Este último proceso es
conocida como "ablación con láser". Los iones entonces entran en una cámara
evacuada y pasan a través de un "cañón de iones", donde
son acelerados por un campo eléctrico y filtrados por un
selector de velocidad. Este dispositivo utiliza un sistema eléctrico y magnético
en ángulo recto con el haz de iones para permitir que sólo el
paso de iones con una velocidad seleccionada v. El haz de iones es
a continuación, se somete a un campo magnético B potente y uniforme a
en ángulo recto con respecto a su dirección de movimiento. Un ión con carga
q experimenta una fuerza de Lorentz (ver Sección 5.2.4) igual a
(qvB) perpendicular a su velocidad y al magnético
campo. Su trayectoria se dobla para formar un arco de círculo de radio.
r; la fuerza centrífuga sobre la partícula es igual a (mv2/r).
El trayecto curvo enfoca el haz en un dispositivo colector
que mide la intensidad del rayo incidente. El
El radio del arco de círculo se obtiene equiparando el valor de Lorentz
y fuerzas centrífugas:
(4.10)
El punto focal del trayecto está determinado por la masa
del ión y la fuerza del campo magnético B. En el
en el caso de un análisis de estroncio, el haz de iones que sale del ión
contiene los cuatro isótopos 88Sr, 87Sr, 86Sr y 84Sr.
El haz se divide a lo largo de cuatro trayectorias, cada una de ellas con un
curvatura. El campo magnético se ajusta de modo que sólo una
el isótopo a la vez cae sobre el colector. El incidente
la corriente se amplifica electrónicamente y se registra. Se obtiene un espectro
con picos correspondientes a la incidencia de isótopos individuales (Fig. 4.5,
recuadro). El
intensidad de cada pico es proporcional a la abundancia
del isótopo, que puede ser medido con una precisión de
alrededor del 0,1%. Sin embargo, las alturas de pico relativas dan al
abundancia relativa de los isótopos con una precisión de
alrededor del 0,001%.
Las mejoras significativas en el diseño de los sistemas de espectrómetro de
masas han aumentado aún más su sensibilidad.
Después de la ablación con láser, las partículas submicrométricas vaporizadas se
mezclan con un plasma de argón. Esta es una
gas consistente en una carga positiva

La necesidad de saber la cantidad de hija inicial


D0 se obvia con el método analítico, que es el siguiente
utiliza un tercer isótopo del elemento hijo para
normalizar las concentraciones de isótopos hijos y padres. El método de rubidio-
estroncio ilustra esto
técnica.
El rubidio radioactivo (87Rb) se descompone por partículas
al estroncio radiogénico (87Sr). El isótopo estable y no radiogénico 86Sr tiene
aproximadamente el mismo
abundancia como el producto radiogénico 87Sr, y se elige
para la normalización. Escribir 87Rb para P, 87Sr para D en la Ec.
(4.11) y dividiendo ambos lados entre 86Sr da

El método del potasio-argón es una excepción al método


necesidad de usar isócronas. A veces se le llama un reloj de acumulación, porque
se basa en la cantidad de 40Ar que
se ha acumulado. Se trata de mediciones separadas de
las concentraciones de los isótopos padre e hijo.
los isótopos son químicamente idénticos (es decir, tienen la característica
mismo número atómico). Sin embargo, la proporción de la
diferentes elementos Rb y Sr varía de un mineral a otro.
otro. La ecuación (4.12) puede compararse con la ecuación de una recta, tal como
(4.13)
La relación 87Sr/86Sr es la variable dependiente, y, y, y la variable
(87Rb/86Sr) es la variable independiente, x. Si nosotros
medir las relaciones isotópicas en varias muestras de la roca
y graficar la relación 87Sr/86Sr contra la relación 87Rb/86Sr, nosotros
obtener una línea recta, llamada isócrona (Fig. 4.6). La intercepción con el eje de
ordenadas da la relación inicial de los
isótopo de hija. La pendiente (m) de la recta da la edad de
la roca, usando la conocida constante de descomposición l:
(4.14)
Debido a su larga vida media de 48,8 Ga (Fig. 4.4) el
El método Rb-Sr es muy adecuado para la datación de eventos muy antiguos en
La historia de la Tierra. Se ha utilizado para obtener las edades de
meteoritos y muestras lunares, así como algunas de las más antiguas
rocas de la Tierra. Por ejemplo, la pendiente de la Rb-Sr
en la Fig. 4.6 arroja una edad de 3,62 Ga para la diabetes temprana.
Precámbrico (Arcaico) Uivak gneisses del este
Labrador.
La Rb-Sr y otros métodos de datación isotópica pueden
se aplicará a muestras enteras de roca o a minerales individuales separados de la
roca. La ecuación de decaimiento se aplica
sólo a un sistema cerrado, es decir, a rocas o minerales que
no han sufrido ninguna pérdida o adición de la progenitora o
hija desde que se formaron. Un cambio es más
probablemente en un grano mineral pequeño que en la roca como un
todo. Los isocrones minerales individuales pueden expresar la edad de
metamorfismo postformacional, mientras que toda la roca
isochron da una edad más avanzada. Por otro lado, los espurios
las edades pueden ser el resultado de análisis de rocas enteras si las muestras de
de origen diferente, y por lo tanto de composición diferente, son
inadvertidamente usado para construir un isocrón.
4.1.4.4.4 Potasio-argón
Por varias razones el método potasio-argón (K-Ar)
es probablemente la técnica de datación por edad más comúnmente utilizada
por geólogos. El isótopo padre, el potasio, es común
en rocas y minerales, mientras que el isótopo de la hija, el argón,
es un gas inerte que no se combina con otros elementos.
La vida media de 1250 Ma (1.25 Ga) es muy conveniente. En
por un lado, la edad de la Tierra es igual a sólo unas pocas semividas, por lo que
el 40K radiogénico está todavía presente en las rocas más antiguas;
por otro lado, suficiente del isótopo hija 40Ar
se acumula en 104 años más o menos para dar una buena resolución. En el
a finales de la década de 1950, la sensibilidad de los espectrómetros de masas
era
mejorados mediante la construcción de instrumentos que puedan ser
precalentados a alta temperatura para evitar la contaminación.
argón atmosférico. Esto hizo posible el uso del K-Ar
método para fechar lavas tan joven como unos pocos millones de años.
El 40K radioactivo constituye sólo el 0,01167% de la K en Escollo

El método del potasio-argón es una excepción al método


necesidad de usar isócronas. A veces se le llama un reloj de acumulación, porque
se basa en la cantidad de 40Ar que
se ha acumulado. Se trata de mediciones separadas de
las concentraciones de los isótopos padre e hijo.
La cantidad de 40K es una pequeña pero constante fracción
(0.01167%) de la cantidad total de K, que puede ser medida químicamente. El
40Ar se determina mezclándolo con un
cantidad conocida de otro isótopo 38Ar antes de ser
introducido en el espectrómetro de masas. Se mide la abundancia relativa de los
dos isótopos de argón y se encuentra la concentración de 40Ar utilizando la
cantidad conocida de
38Ar. Reordenando la Ecuación (4.16) y sustituyendo la Ecuación de
constante de descomposición, la edad de la roca se obtiene a partir de la
Ecuación de la edad K-Ar:

El 40Ar en una roca fundida se escapa fácilmente del fundido. Se


puede ser asumido que todos los 40Ar radiogénicos ahora
presente en una roca se ha formado y acumulado desde que el
solidificación de la roca. El método funciona bien en
rocas ígneas que no han sido calentadas desde entonces
formado. No puede ser utilizado en rocas sedimentarias que
consisten en detritos de rocas más viejas. A menudo no tiene éxito en rocas
metamórficas, que pueden tener historias térmicas complicadas. Una fase de
calentamiento puede hacer que el
argón, reajustando así el reloj de acumulación. Este
limita la utilidad del método K-Ar para
meteoritos de datación (que tienen una entrada ardiente en la Tierra.
de la atmósfera) y rocas terrestres muy antiguas (a causa de
sus desconocidas historias térmicas). El método K-Ar puede
ser usado para datar basaltos lunares, ya que no han sido
recalentado desde su formación.
4.1.4.5 Argón-argón
Algunas incertidumbres relacionadas con el calentamiento post-formacional de
una roca se superan en una modificación de la K-Ar
que utiliza la relación isotópica 40Ar/39Ar. El
requiere la conversión de los 39K de la roca a 39Ar.
Esto se consigue irradiando la muestra con neutrones rápidos en un reactor
atómico.
Los términos lento y rápido se refieren a la energía de la
radiación de neutrones. La energía de los neutrones lentos es comparable a su
energía térmica a temperatura ambiente; son
también conocidos como neutrones térmicos. Los neutrones lentos pueden ser
capturado e incorporado en un núcleo, cambiando su tamaño
sin alterar su número atómico. La captura del lento
los neutrones pueden aumentar el tamaño de los núcleos inestables de uranio
más allá de un valor crítico e iniciar la fisión. Por el contrario, la rapidez
los neutrones actúan sobre un núcleo como los proyectiles. Cuando un ayuno
el neutrón choca con un núcleo puede expulsar un neutrón o
mientras es capturado. Si la partícula expulsada es
otro neutrón, no hay cambios efectivos. Pero si el
la partícula expulsada es un protón (con una partícula para conservar
), el número atómico del núcleo cambia. Para
por ejemplo, bombardear núcleos de 39K en una muestra de roca con una
velocidad
convierte una fracción de ellos en 39Ar.
Para determinar esta fracción, una muestra testigo de
la edad se irradia al mismo tiempo. Mediante la supervisión de la
cambio en las relaciones isotópicas en la muestra de control se puede deducir la
fracción de núcleos de 39K convertidos a 39Ar. El
es similar a la que se da en la Ecuación de la Ecuación de la edad (4.17).
Método K-Ar. Sin embargo, 39Ar reemplaza 40K y una constante empírica J
reemplaza la constante 9.54. El valor de J
se encuentra en la muestra de control cuya edad se conoce. El
La ecuación de edad de 40Ar/39Ar es:

En el método 40Ar/39Ar la muestra se calienta progresivamente para eliminar el


argón a temperaturas sucesivamente más altas. La relación isotópica 40Ar/39Ar
del argón liberado
a cada temperatura se determina en un espectrómetro de masas. Se traza la edad
calculada para cada incremento
contra el porcentaje de Ar liberado. Esto produce una edad
espectro. Si la roca no ha sido calentada desde que fue
los incrementos de argón que se desprenden en cada calentamiento.
la misma edad (Fig. 4.7a). Un isocrón puede
como en el método Rb-Sr mediante la medición de los
abundancia de una fracción no radiógena de 36Ar y comparación de las relaciones
isotópicas 40Ar/36Ar y 39Ar/36Ar. En un
muestra no calentada todos los puntos caen en la misma línea recta
(Fig. 4.7b).
Si la roca ha sufrido un calentamiento post-formacional,
el argón formado ya que el calentamiento se libera a una temperatura más baja
temperaturas que el argón original (Fig. 4.7c). No lo es
de por qué es así. El argón probablemente se desmaye
de la roca sólida por difusión, que es un proceso activado térmicamente que
depende tanto de la temperatura como de las condiciones ambientales.

la duración del calentamiento. A menos que el post-formacional


la calefacción es larga y completa, sólo las partes exteriores de
los granos pueden ser forzados a liberar el argón atrapado, mientras que los
granos pueden ser forzados a liberar el argón atrapado.
se retiene el argón que se encuentra en las regiones más profundas de los granos.
En una muestra que aún contiene argón original, los resultados
obtenidos a altas temperaturas forman una meseta de edades consistentes (Fig.
4.7c) a partir de las cuales la edad óptima y su
se puede calcular la incertidumbre. En un diagrama de isócronas
los puntos recalentados se desvían de la línea recta definida por
la relación isotópica de alta temperatura (Fig. 4.7d).
La alta precisión de la datación 40Ar/39Ar se demuestra por el análisis de
muestras de roca de fusión del
Cráter de impacto Chicxulub en la península de Yucatán de
México. El cráter es el candidato favorito para el impacto
sitio de un meteorito de 10 km de diámetro que causó la destrucción de
extinciones al final del período Cretácico. Láser
para liberar los isótopos de argón. La edad
de tres muestras no muestran ninguna pérdida de argón (Fig. 4.8).
Las edades de la meseta están definidas con precisión y dan un valor ponderado
de
edad media de 64,98 años
0,05 Ma para el impacto. Esto concuerda
estrechamente con el 65.01
0.08 Ma edad del vidrio de tektita encontrado
en una sección de la frontera entre el Cretácico y el Terciario en Haití, y
así que vincula la edad de impacto con las extinciones de la fauna.
El espectro de edad obtenido en la datación Ar-Ar del
El meteorito de Menow es más complicado y muestra el
efectos de la antigua pérdida de argón. Se obtienen diferentes edades
durante el calentamiento incremental por debajo de unos 1200 C (Fig. 4.9).
Las edades de la meseta por encima de esta temperatura indican una media de
edad de 4.48
0.06 Ga. La forma del espectro de edad sugiere que alrededor del 25% de la Ar se
perdió mucho más tarde, alrededor de un millón de años.
Hace 2.5 Ga.
4.1.4.6 Uranio-plomo: el diagrama concordia-discordia
Los isótopos de uranio se descomponen a través de una serie de procesos
intermedios.
productos radiactivos hijos, pero eventualmente resultan
en isótopos estables del producto final de plomo. Cada una de las caries
es un proceso de varias etapas, pero puede describirse como si se tratara de
tenía una sola constante de decaimiento.
Podemos describir la descomposición de 238U a 206Pb por

Las cantidades de los isótopos de plomo hijos se acumulan a diferentes


velocidades. El plomo es un elemento volátil y es
se pierde fácilmente de los minerales, pero esto no altera la proporción isotópica
del plomo que queda. La pérdida de plomo
causar que un punto se desvíe de la línea de Concordia. Sin embargo,
porque la relación isotópica se mantiene constante el desviado
se encuentra en una línea recta entre la antigüedad original y la
el momento de la pérdida de plomo. Esta línea corresponde a puntos
que no concuerdan con la curva de concordia; se llama la curva
línea discordia (Fig. 4.10). Diferentes granos minerales en el
la misma roca experimentan diferentes cantidades de pérdida de plomo, por lo que
las proporciones isotópicas en estos granos dan diferentes puntos B,
C y D en la discordia. La intersección de las líneas de concordia y discordia en A
da la edad original de la
o en el caso de que haya perdido todo su plomo original,
la edad de este evento. La intersección de las líneas en E
da la edad del evento que causó la pérdida de plomo.
El método U-Pb se ha utilizado hasta la fecha en algunos de los siguientes casos
más antiguas de la Tierra. La formación Duffer en el
Pilbara Supergroup en Australia Occidental contiene Early
Piedras verdes del Precámbrico. Relaciones isotópicas U-Pb para
granos de circonio separados de una roca volcánica en los
La formación de Duffer define una línea de discordia que intercepta
la curva teórica de concordia a 3.45
0.02 Ga
(Fig. 4.11).
4.1.5 Edades de la Tierra y del sistema solar
Una importante fuente de información sobre la
La edad de la Tierra es la fecha radiométrica de los meteoritos. A
el meteoro es un pedazo de materia sólida del espacio que penetra
la atmósfera de la Tierra a una velocidad hipersónica típica de
10-20 km s1. La fricción atmosférica hace que se vuelva
incandescente. Fuera de la atmósfera de la Tierra se sabe
como un meteoroide; cualquier parte que sobreviva al paso a través del
de la atmósfera y alcanza la superficie de la Tierra se llama
meteorito. Se cree que la mayoría de los meteoritos se originan en la
cinturón de asteroides entre las órbitas de Marte y Júpiter (ver
Sección 1.1.3.2), aunque el seguimiento de las vías de entrada muestra que
que antes de colisionar con la Tierra tienen una alta elipse
orbita en sentido contrario a las agujas del reloj alrededor del Sol (en el mismo
sentido
como los planetas). Los meteoritos a menudo llevan el nombre del lugar
en la Tierra donde se encuentran. Pueden ser más o menos
divididos en tres clases principales según su composición. Los meteoritos de
hierro consisten en una aleación de hierro y níquel;
los meteoritos pedregosos consisten en minerales de silicato; y
son una mezcla de los dos. El pedregoso
los meteoritos se subdividen a su vez en condritos y
acondriotas. Las Condritas contienen pequeñas esférulas de silicatos de alta
temperatura, y constituyen la fracción más grande.
(más del 85%) de los meteoritos recuperados. Los acondriotas
varían en su composición a partir de rocas compuestas esencialmente de
minerales simples como el olivino a rocas que se asemejan al basalto
la lava. Cada categoría se subdivide a su vez sobre la base de
composición química. Todos los tipos principales han sido fechados
radiométricamente, y la mayoría de los estudios se realizan en la fracción
dominante de condita. No hay una edad obvia
diferencias entre los meteoritos de los distintos grupos.
Condritas, acondriitas y meteoritos de hierro consistentemente
edades de rendimiento de alrededor de 4.45-4.50 Ga (Fig. 4.12).
En 1969, un gran meteorito condrítico carbonoso
entraron en la atmósfera de la Tierra y explotaron, dispersándose
sus fragmentos en una gran área alrededor de Pueblito de Allende
en México. El meteorito de Allende contenía refractarios
inclusiones enriquecidas con uranio en relación con el plomo. Refractario
las inclusiones son pequeños agregados de material que se solidifican
y se vaporizan a alta temperatura, y por lo tanto pueden preservar
información de la historia temprana del meteorito, y
por lo tanto del sistema solar. Las altas relaciones U/Pb de los
Las inclusiones de Allende dieron fechas precisas de 207Pb/206Pb con un
promedio de 4.566
0,002 Ga (Allègre et al., 1995), que es la
la mejor estimación actual de la edad del sistema solar.
Otro más atado a la edad de la Tierra es colocado por el
la edad de la Luna, que se cree que se formó durante
la acreción de la Tierra. Seis misiones tripuladas americanas
y tres misiones rusas no tripuladas obtuvieron muestras de
la superficie de la Luna, que ha sido datada por varias técnicas isotópicas. Las
edades obtenidas difieren en función de

áreas de origen de las rocas. Las áreas oscuras de la Luna


de la superficie, los llamados ormaria de los mares lunares, se formaron cuando
enormes desbordes de lava basáltica llenaron las tierras bajas
áreas - como los cráteres formados por grandes meteóricos
y así se crearon superficies planas. El volcanismo lunar
puede haber persistido hasta hace 1 Ga. Las áreas de luz en el
La superficie de la luna es áspera, con cráteres extensivos en las tierras altas.
que alcanzan elevaciones de 3000-4000 m sobre la maría. Ellos
representan la parte superior de la corteza lunar y son los más antiguos
regiones de la Luna. Las frecuentes colisiones con grandes asteroides a principios
de la historia de la Luna produjeron numerosos cráteres
y pulverizó la corteza lunar, dejando brecha de impacto, roca
y una capa de polvo de unos pocos metros de espesor, llamada
El lunarregolito. La edad de los grandes y angostura se extiende desde
alrededor de 3.5-4.5 Ga, pero la edad más avanzada reportada para una lunar
el rock es 4.51
0,07 Ga, obtenido por el método Rb-Sr.
En contraste con las edades de los meteoritos y la Luna,
ninguna roca de edad comparable ha sido preservada en el
La Tierra. Entre las rocas terrestres más antiguas se encuentran las Isua
metasedimentos del oeste de Groenlandia. Han sido
y producen una edad de 3.77 Ga que es
que concuerdan con diferentes esquemas de decadencia. Aún más viejo
son los gneisses del Acasta en la parte del noroeste del
Escudo canadiense, que dio una edad U-Pb de 3.96 Ga.
Rocas terrestres del escudo precámbrico más antiguo
en Australia, Sudáfrica, América del Sur y América del Sur.
La Antártida da edades máximas de 3.4-3.8 Ga.
Las edades más avanzadas se obtienen a partir de granos individuales de
zirconio (ZrSiO4), que se forma como un oligoelemento en granito
magmas. El circón es un mineral muy duradero y puede sobrevivir
erosión que destruye la roca original. Los granos de circón
y luego se incorporan a las rocas sedimentarias. Circón
granos de rocas sedimentarias en Australia han producido
U-Pb edades de 4.1-4.2 Ga; un fragmento de un grano de circonio,
sólo 200m de diámetro, ha sido fechado por el U-Pb
método a 4,404
0,008 Ga, lo que la convierte en la más antigua de la historia.
sólido terrestre. También es posible realizar análisis oxigenotópicos en estos
antiguos granos de circonio. Aunque
fragmentario, los resultados de los granos de circón son importantes
para entender las condiciones de la Tierra primitiva. El
La escasa evidencia sugiere una posible historia para el desarrollo de la Tierra
primitiva caliente, como sigue.
El Sol y su disco de acreción, desde el cual la energía solar
evolucionó, se formó hace 4.57 Ga. La acreción de la Tierra y la formación de su
núcleo de hierro duró para
sobre los primeros 100 Ma de la historia temprana de la Tierra. La acreción de
Marte, que sólo tiene alrededor de un noveno de la masa de
Tierra, se habría completado en los primeros 30 Ma. Más tarde
en la acreción de la Tierra, después de quizás 60 Ma, la Luna fue
formado como resultado de la colisión - llamado el "Gigante
Impacto" - de un planetesimal del tamaño de Marte con el protoTierra, que todavía
era mucho más pequeño que su tamaño actual. En
el intervalo hasta hace 4 Ga - llamado la era Hadeana (para la era infernal) - la
Tierra primitiva estaba caliente y cubierta de magma
océanos; cualquier costra se derretiría o sería destruida en el intenso
bombardeo meteorológico. El agua, si está presente, sería
se vaporizó. Después de unos 150 Ma el proto-Tierra podría
se han enfriado lo suficiente como para que se forme una corteza granítica precoz,
y
posiblemente agua líquida, podría formarse. Sólo unos pocos granos de circón
que sobrevivieron a este período permanecen como posibles testigos.
Los bombardeos repetidos pueden haber destruido la corteza
y vaporizó el agua repetidamente de la siguiente manera
400 Ma. Alrededor de 4 Ga, el continental más antiguo que se ha conservado.
se formó la corteza.
Este escenario es especulativo y no es único. Algunos
Los estudios de los isótopos de oxígeno en los granos de circón se han
interpretado como indicadores de una Tierra primitiva fría. Altos valores de 18O
(ver Cuadro 5.2) medidas en estos zircones implican temperaturas superficiales lo
suficientemente bajas para el agua líquida; las condiciones uniformes a lo largo de
la era Arcaica (4.4-2.6 Ga) fueron
deducido. Este modelo de la Tierra primitiva sugiere que los impactos
meteorológicos pueden haber sido menos intensos de lo normal.
con una hipótesis. El modelo de una Tierra primitiva caliente es más
popularmente aceptada, pero la verdadera historia aún no se conoce.
Los eventos que ocurrieron en los primeros cientos de millones
años de su historia están entre los secretos mejor guardados de la Tierra
4 Edad de la Tierra, propiedades térmicas y eléctricas
4.1 GEOCRONOLOGÍA
4.1.1 Tiempo
El tiempo es un concepto filosófico y físico. Nuestra conciencia del tiempo reside
en la capacidad de determinar cuál de los dos eventos ocurrió antes que el otro.
Somos conscientes de un presente en el que vivimos y que sustituye
continuamente a un pasado del que tenemos memoria; somos también
conscientes de un futuro, en algunos aspectos previsibles, que sustituirá al
presente. El progreso del tiempo fue visualizado por Sir Isaac Newton como un río
que fluye involuntariamente a una velocidad uniforme. La presunción de que el
tiempo es una entidad independiente subyace en toda la física clásica. Aunque la
Teoría de la Relatividad de Einstein muestra que dos observadores que se
mueven uno con respecto al otro tendrán diferentes percepciones del tiempo, los
fenómenos físicos son influenciados por esta relación sólo cuando las velocidades
se acercan a la velocidad de la luz. En el uso cotidiano y en la ciencia no relativista
prevalece la noción newtoniana del tiempo como cantidad absoluta.
La medición del tiempo se basa en el recuento de ciclos (y partes de un ciclo) de
fenómenos repetitivos. El hombre prehistórico distinguía las diferencias entre el
día y la noche, observaba las fases de la Luna y era consciente de la repetición
regular de las estaciones del año. De estas observaciones, el día, el mes y el año
surgieron como unidades de tiempo. Sólo después del desarrollo del reloj se podía
subdividir el día en horas, minutos y segundos.
4.1.1.1 El reloj
Los primeros relojes fueron desarrollados por los egipcios y más tarde fueron
introducidos en Grecia y de allí a Roma. Alrededor del año 2000 a.C. los egipcios
inventaron el reloj de agua (o clepsidra). En su forma primitiva consistía en un
contenedor del que el agua podía escapar lentamente por un pequeño agujero. El
progreso del tiempo puede medirse observando el cambio de profundidad del
agua en el contenedor (usando graduaciones en sus lados) o recogiendo y
midiendo la cantidad de agua que se escapó. A los egipcios (o quizás a los
mesopotámicos) también se les atribuye la invención del reloj de sol. Los primeros
relojes de sol consistían en dispositivos -postes, piedras verticales, pirámides u
obeliscos- que proyectaban una sombra; el paso del tiempo se observaba por el
cambio de dirección y la longitud de la sombra. Después de desarrollar la
trigonometría, los cuadrantes podían graduarse con precisión y medirse con
precisión en el tiempo. Los relojes mecánicos se inventaron alrededor del año
1000 d.C., pero los relojes de péndulo de precisión fiable comenzaron a utilizarse
por primera vez en el siglo XVII. Se utilizaron relojes de sol precisos, en los que la
sombra era proyectada por un fino alambre, para comprobar el ajuste y la
calibración de los relojes mecánicos hasta el siglo XIX.

Fig. 4.1 El día sideral es el tiempo que tarda la Tierra en girar 360º respecto a una
estrella fija; el día solar es el tiempo que tarda una rotación entre meridianos
respecto al Sol. Esto es un poco más de 360 con respecto a las estrellas, porque
la Tierra también está orbitando al Sol.
4.1.1.2 Unidades de tiempo
El día se define por la rotación de la Tierra sobre su eje. El día puede definirse en
relación con las estrellas o con el Sol (Fig. 4.1). El tiempo requerido para que la
Tierra gire 360º alrededor de su eje y regrese al mismo meridiano relativo a una
estrella fija define el día sideral. Todos los días sidéreos tienen la misma duración.
El tiempo sidéreo debe ser usado en cálculos científicos que requieren velocidad
rotacional relativa al marco absoluto de las estrellas. El tiempo necesario para que
la Tierra gire sobre su eje y regrese al mismo meridiano relativo al Sol define el día
solar. Mientras la Tierra gira en torno a su eje, también avanza a lo largo de su
órbita. El movimiento orbital alrededor del Sol cubre 360 en unos 365 días, de
modo que en un día la Tierra avanza en su órbita en aproximadamente 1. Para
regresar al meridiano solar la Tierra debe rotar este grado extra. El día solar es por
lo tanto ligeramente más largo que el día sideral. Los días solares no tienen la
misma duración. Por ejemplo, en el perihelio la Tierra se mueve más rápido en su
órbita que en el aphelio (ver Fig. 1.2). En el perihelio, la mayor tasa angular
alrededor del Sol significa que la Tierra tiene que rotar a través de un ángulo
mayor que el promedio para alcanzar el meridiano solar. Así, en el perihelio el día
solar es más largo que la media; en el aphelio ocurre lo contrario. La oblicuidad
de la eclíptica provoca una mayor variación en la duración de este día. El tiempo
solar medio se define en términos de la longitud media del día solar. Se utiliza
para la mayoría de los propósitos prácticos en la Tierra, y es la base para la
definición de la hora, minuto y segundo. Un día solar medio es igual a
exactamente 86.400 segundos. La duración del día sideral es de
aproximadamente 86.164 segundos.
El mes sideral se define como el tiempo requerido para que la Luna circule
alrededor de la Tierra y regrese a la longitud celestial de una estrella dada. Es
igual a 27.321 66 días (solar). Para describir el movimiento de la Luna en relación
con el Sol, debemos tener en cuenta el movimiento de la Tierra alrededor de su
órbita. El tiempo entre las alineaciones sucesivas del Sol, la Tierra y la Luna en el
mismo meridiano es el mes sinódico. Equivale a 29.530 59 días.
El año sideral se define como el tiempo que transcurre entre las sucesivas
ocupaciones de la Tierra del mismo punto en su órbita con respecto a las estrellas.
Es igual a 365.256 días solares medios. Dos veces al año, en primavera y otoño,
la Tierra ocupa posiciones en su órbita alrededor del Sol donde las longitudes del
día y de la noche son iguales en cualquier punto de la Tierra. La ocurrencia de la
primavera se llama equinoccio de primavera; eso en el otoño es el equinoccio de
otoño. El año solar (llamado correctamente el año tropical) se define como el
tiempo entre equinoccios vernales sucesivos. Equivale a 365.242 días solares
medios, un poco menos que el año sideral. La pequeña diferencia (0,014 días,
unos 20 minutos) se debe a la precesión de los equinoccios, que tiene lugar en
sentido retrógrado (es decir, contrario a la revolución de la Tierra alrededor del
Sol) y allí se reduce la duración del año tropical.
Desafortunadamente, la duración de los años sidéreos y tropicales no son
constantes, sino que cambian lenta pero mensurablemente. Para tener un
estándar mundial la unidad fundamental de tiempo científico fue definida en 1956
en términos de la duración del año tropical 1900, que se fijó en 31.556.925.9747
segundos de tiempo de efemérides. Ni siquiera esta definición de la segunda es lo
suficientemente constante para las necesidades de la física moderna. Se han
desarrollado relojes atómicos de alta estabilidad capaces de ofrecer una precisión
excepcional. Por ejemplo, el álcali metal cesio tiene una línea espectral atómica
muy definida cuya frecuencia puede determinarse con precisión por resonancia
con un circuito de radiofrecuencia sintonizado. Esto proporciona la definición física
del segundo de la efeméride como la duración de 9.192.631.770 ciclos del reloj
atómico del cesio.
Otras unidades de tiempo se utilizan para fines específicos. Los astrónomos
utilizan una unidad práctica de tiempo sincronizada con la rotación de la Tierra.
Esto da una escala de tiempo uniforme llamada tiempo universal y denominada
UT2; está definida para un año en particular por el Royal Observatory de
Greenwich, Inglaterra. Las formas particulares de definir las unidades básicas de
tiempo son importantes para analizar algunos problemas en astronomía y
geodesia satelital, pero para la mayoría de las aplicaciones geofísicas las
diferencias menores entre las diferentes definiciones son insignificantes.
4.1.1.3 La escala temporal geológica
Mientras que las rocas ígneas se forman en erupciones de magma de corta
duración, las secuencias de rocas sedimentarias tardan mucho tiempo en
formarse. Muchas formaciones sedimentarias contienen fósiles, es decir, reliquias
de criaturas que vivían en o cerca de la cuenca en la que se depositaron los
sedimentos. La evolución da un carácter particularmente identificable a los fósiles
de una determinada formación, de modo que es posible trazar la evolución de
diferentes familias fósiles y correlacionar sus comienzos y extinciones. Estas
características permiten que la formación de la roca huésped esté correlacionada
con otras que contienen parte o la totalidad del mismo ensamblaje fósil, y permiten
el desarrollo de un esquema de datación de sedimentos en relación con otras
formaciones. Gradualmente se ha elaborado una escala de tiempo
bioestratigráfica que permite determinar con precisión la edad relativa de una
secuencia sedimentaria. Esta información es intrínseca a cualquier escala de
tiempo geológica.
Una escala de tiempo geológica combina dos tipos diferentes de información. Su
registro básico es una escala cronoestratigráfica que muestra la relación entre las
secuencias de roca. Estos se describen en detalle en secciones estratigráficas que
se cree que tienen sedimentación continua y que contienen ensamblajes
completos de fósiles. El límite entre dos secuencias sirve como estándar de
referencia y la sección en la que se produce se denomina estratotipo de límite.
Cuando las edades se asocian a los puntos de referencia, la escala se convierte
en una escala de tiempo geológica. El tiempo se divide en grandes unidades
llamadas eones, que se subdividen en eras; éstas a su vez se subdividen en
períodos que contienen varias épocas. La duración de las unidades de tiempo en
escalas temporales tempranas, antes de que las edades fueran determinadas con
isótopos radioactivos, se expresaron como múltiplos de la duración de la época del
Eoceno. Las escalas de tiempo geológicas modernas se basan en edades
isotópicas, que se calibran en unidades de tiempo normales.
La escala de tiempo geológica se revisa y actualiza constantemente. Las
descripciones mejoradas de los límites importantes en las secciones de
estratotipos globales, una correlación más refinada con otras unidades
cronoestratigráficas y una mejor calibración mediante una datación isotópica más
precisa conducen a revisiones frecuentes. La figura 4.2 muestra un ejemplo de
una escala de tiempo geológica actual.
Fig. 4.2 Una versión simplificada de la escala de tiempo geológica de Harland et
al., 1990.
4.1.2 Estimación de la edad de la Tierra
Las primeras estimaciones de la edad de la Tierra estaban dominadas por
creencias religiosas. Algunos filósofos orientales de la antigüedad creían que el
mundo había existido durante millones de años. Sin embargo, el pensamiento
occidental sobre este tema estuvo dominado durante siglos por los principios de la
fe judía y cristiana. Las estimaciones bíblicas de la edad del mundo se hicieron
sobre la base de la genealogía, sumando la duración de las vidas y las
generaciones mencionadas en el Antiguo Testamento. Algunas estimaciones
también incorporan información de otras escrituras antiguas o fuentes
relacionadas. La edad computarizada de la Creación invariablemente dio una edad
de la Tierra de menos de 10.000 años.
La estimación bíblica más conocida de la fecha de la creación fue hecha por
James Ussher (1581-1656), un arzobispo irlandés. Su análisis de los
acontecimientos registrados en el Antiguo Testamento y en los pergaminos
antiguos contemporáneos llevó a Ussher a proclamar que la hora exacta de la
Creación era a principios de la noche del 22 de octubre del año 4004 a.C., lo que
hace que la edad de la Tierra sea de aproximadamente 6000 años. Otros eruditos
bíblicos dedujeron edades similares. Este tipo de estimación de edad
"creacionista" sigue siendo favorecida por muchos cristianos fundamentalistas,
cuya fe se basa en la interpretación literal de la Biblia. Sin embargo, los eruditos
bíblicos con una fe más amplia reconocen las estimaciones de edad basadas en la
metodología y medición científica.
A finales del siglo XIX, el crecimiento de la filosofía natural (como se llamaba
entonces a la física) favoreció los cálculos de la edad de la Tierra a partir de las
propiedades físicas del sistema solar. Entre éstas se encontraban estimaciones
basadas en el enfriamiento del Sol, el enfriamiento de la Tierra y el lento aumento
de la distancia Tierra-Luna. Los químicos trataron de datar la Tierra estableciendo
el tiempo necesario para que los mares adquirieran su salinidad, mientras que los
geólogos conjeturaban cuánto tiempo tardarían los sedimentos y las rocas
sedimentarias en acumularse.
4.1.2.1 Enfriamiento del Sol
Dejando a un lado la "secuencia" bíblica descrita en el libro del Génesis, los
filósofos modernos opinan que la Tierra no puede ser más antigua que el Sol. La
cantidad de energía solar que cae en un metro cuadrado por segundo a la
distancia de la Tierra del Sol (1 UA) se llama la constante solar; es igual a 1360 W
m-2. La cantidad de energía perdida por el Sol por segundo se obtiene
multiplicando este valor por la superficie de una esfera cuyo radio es una unidad
astronómica. Este simple cálculo muestra que el Sol está perdiendo energía a una
velocidad de 3.83X1026W. En el siglo XIX, antes del descubrimiento de la
radiactividad y las reacciones nucleares, se desconocía la fuente de esta energía.
Un científico alemán, H. L. F. von Helmholtz, sugirió en 1856 que podría resultar
del cambio de energía potencial debido a la condensación gravitacional del Sol
desde un cuerpo originalmente más distendido. La energía de condensación E s de
una masa Ms de densidad y radio uniformes Rs viene dada por

En esta ecuación G es la constante gravitacional (ver Sección 2.2.1). El factor 3/5


en el resultado surge de la suposición de una distribución uniforme de la densidad
dentro del Sol. Dividiendo la energía condensada por la tasa de pérdida de
energía se obtiene una edad de 19 millones de años para el Sol. Permitir el
aumento de la densidad hacia el centro causa un aumento de aproximadamente
tres veces en la energía gravitacional y la edad inferida del Sol.
4.1.2.2 Enfriamiento de la Tierra
En 1862 William Thomson, que más tarde se convirtió en Lord Kelvin, examinó el
enfriamiento del Sol con más detalle. Desconocido (aunque sospechoso) de otras
fuentes de energía solar, concluyó que la condensación gravitacional podría
suministrar la energía radiante del Sol durante al menos 10 millones de años, pero
no más de 500 millones de años (500 Ma). En el mismo año investigó la historia
del enfriamiento de la Tierra. Las mediciones en pozos profundos y minas han
demostrado que la temperatura aumenta con la profundidad. la tasa de aumento, o
gradiente de temperatura, se sabe que es variable, pero parece un promedio de
alrededor de 1F por cada 50 pies (0.036 C m1). Kelvin infería que la Tierra estaba
perdiendo calor lentamente y asumió que lo hacía sólo por el proceso de
conducción (Sección 4.2.4). Esto le permitió deducir la edad de la Tierra a partir de
una solución de la ecuación unidimensional de conducción de calor (ver Ec. 4.57 y
Cuadro 4.2), que relaciona la temperatura T en el momento t y la profundidad z
con las propiedades físicas del cuerpo de enfriamiento, tales como su densidad (r),
calor específico (c) y conductividad térmica (k).
Estos parámetros son conocidos para tipos particulares de rocas, pero Kelvin tuvo
que adoptar valores generalizados para toda la Tierra. El modelo asume que la
Tierra inicialmente tenía una temperatura uniforme de 0 en todo su perímetro, y
que se enfriaba desde el exterior dejando las temperaturas internas actuales más
altas que la temperatura de la superficie. Después de que haya transcurrido un
tiempo t, el gradiente de temperatura en la superficie de la Tierra viene dado por

Kelvin asumió una temperatura inicial de 7000F (3871C,4144 K) para la Tierra


caliente, y valores contemporáneos para el gradiente de temperatura de la
superficie y los parámetros térmicos. El cálculo de t arrojó una edad de unos 100
Ma para la Tierra en enfriamiento.
4.1.2.3 Aumento de la separación Tierra-Luna
El origen de la Luna es aún incierto. George H. Darwin, hijo del más famoso
Charles Darwin y pionero de la teoría de las mareas, especuló que fue arrancada
de la Tierra por una rápida rotación. Al igual que otras teorías clásicas del origen
de la Luna (por ejemplo, la captura de la Luna de otras partes del sistema solar, o
la acreción en la órbita de la Tierra) la teoría es defectuosa. En 1898 Darwin
intentó explicar la edad de la Tierra a partir de los efectos de la fricción de la
marea lunar. Las protuberancias de la marea en la Tierra interactúan con la
gravitación de la Luna para producir un par de desaceleración que ralentiza la
rotación de la Tierra y así causa un aumento en la duración del día. La reacción
igual y opuesta es un par ejercido por la Tierra en la órbita de la Luna que
aumenta su momento angular. Como se explica en la Sección 2.3.4.2, esto se
logra mediante un aumento en la distancia entre la Luna y la Tierra y una
disminución en la tasa de rotación de la Luna alrededor de la Tierra, lo que
aumenta la duración del mes. La rotación de la Tierra se desacelera más
rápidamente que la de la Luna, de modo que eventualmente las velocidades
angulares de la Tierra y la Luna serán iguales. En este estado sincrónico, el día y
el mes durarán aproximadamente 47 de nuestros días actuales y la distancia
Tierra-Luna será de aproximadamente 87 radios terrestres; la separación es
actualmente de 60,3 radios terrestres.
Razones similares sugieren que, al principio de la historia de la Tierra, cuando la
Luna estaba mucho más cerca de la Tierra, ambos cuerpos giraban más rápido
para que se pudiera conjeturar un estado sincrónico anterior. El día y el mes
habrían durado alrededor de 5 de nuestras horas actuales y la distancia Tierra-
Luna habría sido de alrededor de 2,3 radios terrestres. Sin embargo, a esta
distancia la Luna estaría dentro del límite de Roche, alrededor de 3 radios
terrestres, en los que la gravitación de la Tierra la destrozaría. Por lo tanto, es
poco probable que esta condición se haya cumplido.
Darwin calculó el tiempo necesario para que la Tierra y la Luna progresaran de
una relación cercana inicialmente inestable a sus actuales velocidades de
separación y rotación, y concluyó que se necesitaría un mínimo de 56 Ma. Esto
proporcionó una estimación independiente de la edad de la Tierra, pero
desafortunadamente es tan deficiente en sus suposiciones subyacentes como
otros modelos.
4.1.2.4 Salinidad oceánica
Se han hecho varias determinaciones de la edad de la Tierra sobre la base de la
química del agua de mar. El razonamiento es que la sal es recogida por los ríos y
transportada a lagos y mares; la evaporación elimina el agua, pero el vapor es
fresco, por lo que la sal se deja atrás y se acumula con el tiempo. Si se mide la
tasa de acumulación, y si la concentración inicial de sal era cero, la edad del mar
y, por inferencia, de la Tierra puede calcularse dividiendo la concentración actual
por la tasa de acumulación.
Se han investigado diferentes versiones de este método. El más conocido es el de
un geólogo irlandés, John Joly, en 1899. En lugar de medir la sal, utilizó la
concentración de un elemento puro, el sodio. Joly determinó la cantidad total de
sodio en los océanos y la cantidad anual que aportan los ríos. Concluyó que la
edad máxima probable de la Tierra era de 89 Ma. Las estimaciones posteriores
incluyeron correcciones por posibles pérdidas de sodio y acumulación no lineal,
pero dieron edades similares inferiores a unos 100 Ma.
La principal falla en los argumentos químicos es la suposición de que el sodio se
acumula continuamente en el océano. De hecho, todos los elementos son
extraídos del océano a la misma velocidad con la que son introducidos. Como
resultado, el agua de mar tiene una composición químicamente estable, que no
está cambiando significativamente. Los métodos químicos no miden la edad del
océano o de la Tierra, sino sólo el tiempo promedio que el sodio reside en los
mares antes de ser eliminado.
4.1.2.5 Acumulación sedimentaria
Para no ser superados por los físicos y químicos, los geólogos de finales del siglo
XIX trataron de estimar la edad de la Tierra utilizando pruebas estratigráficas de la
acumulación de sedimentos. El primer paso consistió en determinar el espesor de
los sedimentos depositados durante cada unidad de tiempo geológico. El segundo
paso fue encontrar la tasa de sedimentación correspondiente. Cuando se
conocen estos parámetros, se puede calcular el tiempo representado en cada
unidad. La edad de la Tierra es la suma de estos tiempos.
Las estimaciones geológicas están llenas de complicaciones. Los sedimentos con
una matriz de silicatos, como areniscas y pizarras, se depositan mecánicamente,
pero las rocas carbonatadas se forman por precipitación del agua de mar. Para
calcular la velocidad mecánica de sedimentación es necesario conocer la
velocidad de entrada. Esto requiere conocer el área de la cuenca depositaria, el
área que abastece los sedimentos y su tasa de erosión del suelo. Las tasas
utilizadas en los primeros estudios fueron en gran medida intuitivas. Los cálculos
para las rocas carbonatadas requerían conocer la tasa de solución de carbonato
de calcio de las superficies de la tierra, pero no pudieron corregir la variación de
solubilidad con la profundidad en la cuenca de depósito. El número de parámetros
desconocidos o crudamente conocidos dio lugar a numerosas estimaciones
geológicas divergentes para la edad de la Tierra, que oscilaban entre decenas de
millones y cientos de millones de años.
4.1.3 Radioactividad
En 1896, un físico francés, Henri Becquerel, colocó una muestra de mineral de
uranio sobre una placa fotográfica envuelta y sin revelar. Después del revelado, la
película mostraba el contorno de la muestra. La exposición se atribuyó a los rayos
invisibles emitidos por la muestra de uranio. El fenómeno, conocido como
radiactividad, proporciona los métodos más fiables hasta ahora conocidos para
fechar los procesos geológicos y calcular la edad de la Tierra y del sistema solar.
Para apreciar la radiactividad debemos considerar brevemente la estructura del
núcleo atómico.
El núcleo de un átomo contiene protones con carga positiva y neutrones
eléctricamente neutros. La fuerza electrostática de Coulomb hace que los protones
se repelan entre sí. Disminuye a medida que el cuadrado inverso de la separación
(ver Sección 4.3.2) y así puede actuar a distancias que son grandes en
comparación con el tamaño del núcleo. Una fuerza nuclear aún más poderosa
mantiene unido el núcleo. Esta fuerza atractiva actúa entre protones, entre
neutrones y entre protón y neutrón. Sólo es eficaz a distancias cortas, para una
separación de partículas inferior a unos 3X10 15m.
Supongamos que el núcleo de un átomo contiene protones Z y está rodeado por
un número igual de electrones cargados negativamente, de modo que el átomo es
eléctricamente neutro; Z es el número atómico del elemento y define su lugar en la
tabla periódica. El número N de neutrones en el núcleo es su número de
neutrones, y el número total A de protones y neutrones es el número de masa del
átomo. Los átomos del mismo elemento con diferentes números de neutrones se
denominan isótopos del elemento. Por ejemplo, el uranio contiene 92 protones,
pero puede tener 142, 143 o 146 neutrones. Los diferentes isótopos se distinguen
añadiendo el número de masa al símbolo químico, dando 234U, 235U y 238U.
La fuerza de repulsión de Coulomb actúa entre cada par de protones de un
núcleo, mientras que la fuerza nuclear de corto alcance actúa sólo sobre protones
y neutrones cercanos. Para evitar que se separen debido a la repulsión de
Coulomb, todos los núcleos con un número atómico Z superior a unos 20 tienen
un exceso de neutrones (N>Z). Esto ayuda a diluir los efectos de los protones que
producen repulsión. Sin embargo, los núcleos con Z≥83 son inestables y se
desintegran por descomposición radioactiva. Esto significa que se rompen
espontáneamente al emitir partículas elementales y otras radiaciones.
Por lo menos 28 partículas elementales distintas son conocidas por la física
nuclear. Los más importantes corresponden a los tres tipos de radiación
identificados por los primeros investigadores y llamados rayos α-, β-, y γ. Un rayo
α (o partícula) es un núcleo de helio que ha sido despojado de los electrones que
lo rodean; está compuesto por dos protones y dos neutrones y por lo tanto tiene el
número atómico 2 y la masa número 4. Una partícula β es un electrón. Algunas
reacciones emiten energía adicional en forma de rayos γ, que tienen una longitud
de onda muy corta y son similares en carácter a los rayos X.
4.1.3.1 Caída radiactiva
Un tipo común de descomposición radioactiva es cuando un neutrón n 0 en el
núcleo de un átomo cambia espontáneamente a un protón, p + y una partícula β
(electrón no orbital). La partícula es expulsada inmediatamente del núcleo junto
con otra partícula elemental llamada antineutrino, v, que no tiene masa ni carga y
que no necesita preocuparnos más aquí. La reacción puede ser escrita

La desintegración radiactiva es un proceso estadístico. Se acostumbra llamar al


núcleo que descompone al padre y al núcleo después de la descomposición a la
hija. No es posible decir de antemano qué núcleo se descompondrá
espontáneamente. Pero la probabilidad de que alguien decaiga por segundo es
una constante, llamada constante de decaimiento o tasa de decaimiento. El
número de desintegraciones por segundo se denomina actividad del núcleo. La
unidad de radiactividad derivada, correspondiente a una desintegración por
segundo, es el becquerel (Bq).
El comportamiento estadístico sólo es aplicable a grandes cantidades, pero el
proceso de desintegración radiactiva puede ilustrarse con un ejemplo sencillo.
Supongamos que empezamos con 1000 núcleos, y la probabilidad por segundo de
un decaimiento es de 1 en 10, o 0,1. En el primer segundo 10% de los núcleos
padres se descomponen espontáneamente (es decir, se producen 100
descomposiciones); el número de núcleos padres se reduce a 900. La
probabilidad de que cualquier padre decaiga en el siguiente segundo sigue siendo
de 1 en 10, por lo que se pueden esperar 90 decaimientos más. Así, después de 2
segundos el número de núcleos padres se reduce a 810, después de 3 segundos
a 729, y así sucesivamente. El número total de núcleos padres se reduce
constantemente, pero en principio nunca llega a cero, aunque después de mucho
tiempo se aproxima a cero asintóticamente. El decaimiento se describe mediante
una curva exponencial.
Si la tasa de decaimiento es igual a λ, entonces en un intervalo de tiempo corto dt
la probabilidad de que un núcleo dado decaiga es λdt; si en algún momento
tenemos núcleos padres P el número que decae en el intervalo siguiente dt es
P(λdt). El cambio dP en el número de núcleos padres de P en un intervalo de
tiempo dt debido a decaimientos espontáneos es

que tiene la solución

La ecuación (4.5) describe el decaimiento exponencial del número de nucleidos


parentales, a partir de un número inicial P0. Mientras que el número de nucleidos
padres disminuye, el número de nucleidos hijos D aumenta (Fig. 4.3). D es la
diferencia entre P y P0 y por lo tanto viene dada por

La cantidad original P0 del nucleido padre no se conoce; una muestra de roca


contiene una cantidad residual P del nucleido padre y una cantidad D del producto
hijo. Eliminando el P0 desconocido de la Ecuación (4.5) y la Ecuación (4.6) se
obtiene

La ecuación (4.4) muestra que el número de desintegraciones nucleares por


segundo -la actividad del núcleo- es proporcional al número de núcleos padres.
Por lo tanto, la actividad A en un momento dado está relacionada con la actividad
inicial A0 mediante una ecuación similar a la Ecuación (4.5).
La descripción experimental de la desintegración radioactiva realizada por Ernest
(posteriormente Lord) Rutherford y Frederick Soddy en 1902 se basó en las
observaciones de los tiempos necesarios para que la actividad de los materiales
radioactivos disminuyera en pasos de la mitad. Este tiempo se conoce como la
vida media de la descomposición. En la primera vida media el número de
nucleidos padres disminuye a la mitad, en la segunda vida media a un cuarto, en
la tercera a un octavo, etc. El número de nucleidos hijos aumenta en la misma
medida, de modo que la suma de los nucleidos padre e hijo es siempre igual al
número original P0. Dejando P/P0 igual a 1/2 en la Ecuación (4.5) obtenemos la
relación entre la vida media t1/2 y la constante de decaimiento λ:

Las tasas de descomposición y vida media son conocidas por más de 1700
isótopos radioactivos. Algunos sólo se producen en explosiones nucleares y tienen
una vida tan corta que sólo duran una fracción de segundo. Otros isótopos de vida
corta son producidos por colisiones entre los rayos cósmicos y los átomos en la
atmósfera superior y tienen una vida media corta que dura minutos o días. Varios
isótopos naturales tienen una vida media de miles de años (kilo año, ka), millones
de años (mega año, Ma) o miles de millones de años (giga año, Ga), y pueden ser
utilizados para determinar las edades de los eventos geológicos.
4.1.4 Determinación de la edad radiométrica
Cada esquema de datación por edad implica una medición precisa de la
concentración de un isótopo. Esto suele ser muy pequeño. Si la desintegración
radiactiva ha avanzado demasiado, la resolución del método se deteriora. Los
mejores resultados para un esquema de descomposición isotópica dado se
obtienen para edades inferiores a unas pocas vidas medias de la descomposición.
Las constantes de descomposición y la vida media de algunos isótopos radiactivos
que se utilizan habitualmente para datar eventos geológicos se enumeran en la
Tabla 4.1 y se ilustran en la Fig. 4.4. Los artefactos históricos y arqueológicos se
pueden datar por el método del carbono radioactivo.
Cuadro 4.1 Constantes de descomposición y vida media de algunos isótopos
radiactivos de origen natural comúnmente utilizados en geocronología.

Fig. 4.4 Curvas normalizadas de desintegración radiactiva de algunos isótopos


importantes para datar la Tierra y el sistema solar. Las flechas indican los
respectivos períodos de semidesintegración en 109 años (fuente de datos:
Dalrymple, 1991).
4.1.4.1 Carbono radiactivo
La Tierra está siendo bombardeada constantemente por la radiación cósmica del
espacio exterior. Las colisiones de partículas cósmicas con átomos de oxígeno y
nitrógeno en la atmósfera terrestre producen neutrones de alta energía. Estos a su
vez chocan con los núcleos de nitrógeno, transformándolos en 14C, un isótopo
radioactivo de carbono. 14C se descompone por emisión de partículas β a 14N con
una vida media de 5.730 años. La producción del nuevo 14C se equilibra con la
pérdida debida a la descomposición, de modo que existe un equilibrio natural. La
fotosíntesis en animales y plantas repone el tejido vivo utilizando dióxido de
carbono, que contiene una proporción constante de 14C. Cuando un organismo
muere, la renovación se detiene y el 14C residual en el organismo se descompone
radioactivamente.
El método del carbono radiactivo es un simple análisis de descomposición basado
en la Ecuación (4.5). La proporción restante P de 14C se mide contando la tasa
actual de actividad de las partículas, que es proporcional a P. Esto se compara
con la concentración de equilibrio original P 0. El tiempo transcurrido desde el
encendido del conjunto de la caída se calcula resolviendo la Ecuación (4.5)
utilizando la tasa de caída para 14C (λ1.21X10-4yr-1).
El método del carbono radioactivo ha sido valioso para datar eventos en la época
del Holoceno, que abarca los últimos 10.000 años de tiempo geológico, así como
eventos relacionados con la prehistoria humana. Desafortunadamente, la actividad
humana ha perturbado el equilibrio natural del esquema de reposición y
descomposición. La concentración de 14C en el carbono atmosférico ha cambiado
drásticamente desde el comienzo de la era industrial. Esto se debe en parte a la
combustión de combustibles fósiles como el carbón y el petróleo como fuentes de
energía; hace tiempo que perdieron cualquier 14C y diluyen su presencia en el
carbono atmosférico. En el último medio siglo, las pruebas atmosféricas de armas
nucleares duplicaron la concentración de 14C en la atmósfera. Los materiales más
antiguos aún pueden fecharse por el método 14C, aunque se deben tener en
cuenta las fluctuaciones naturales de P0. Éstos se deben a las variaciones en la
intensidad del campo geomagnético, que actúa como un escudo parcial contra la
radiación cósmica.
4.1.4.2 El espectrómetro de masas
En los años anteriores a la Segunda Guerra Mundial, los físicos inventaron el
espectrómetro de masas, un instrumento para medir la masa de un ión. El
instrumento fue perfeccionado durante el desarrollo de la bomba atómica.
Después de la guerra fue adoptado en las ciencias de la tierra para determinar las
proporciones isotópicas y se convirtió en una parte vital del proceso de
determinación de la edad isotópica.
El espectrómetro de masas (Fig. 4.5) utiliza los diferentes efectos de los campos
eléctricos y magnéticos sobre una partícula o ion cargado. En primer lugar, el
elemento de interés se extrae de fracciones minerales seleccionadas o de roca
entera pulverizada. El extracto se purifica químicamente antes de ser introducido
en el espectrómetro de masas, donde se ioniza. Para el análisis de un gas como el
argón, se puede utilizar el bombardeo por una corriente de electrones. Los
elementos sólidos, como el potasio, el rubidio, el estroncio o el uranio, se
vaporizan depositando una muestra en un filamento calentado eléctricamente, o
calentándola con un rayo láser de alta energía para que la muestra se vaporice
directamente. Este último proceso se conoce como "ablación con láser". Los iones
entran en una cámara evacuada y pasan a través de una "pistola de iones", donde
son acelerados por un campo eléctrico y filtrados por un selector de velocidad.
Este dispositivo utiliza campos eléctricos y magnéticos perpendiculares al haz de
iones para permitir únicamente el paso de iones con una velocidad seleccionada v.
A continuación, el haz de iones se somete a un potente campo magnético
uniforme B en ángulo recto con respecto a su dirección de movimiento. Un ión con
carga q experimenta una fuerza de Lorentz (ver Sección 5.2.4) igual a (qvB)
perpendicular a su velocidad y al campo magnético. Su trayectoria se dobla para
formar un arco de círculo de radio r; la fuerza centrífuga sobre la partícula es igual
a (mv2/r). El trayecto curvo enfoca el haz en un dispositivo colector que mide la
intensidad del haz incidente. El adiós del arco de círculo se da equiparando las
fuerzas de Lorentz y centrífugas:

El punto focal del trayecto viene determinado por la masa del ión y la intensidad
del campo magnético B. En el caso de un análisis de estroncio, el haz de iones
que sale de la pistola de iones contiene los cuatro isótopos 88Sr, 87Sr, 86Sr y
84Sr. El haz se divide a lo largo de cuatro trayectos, cada uno de ellos con una
curvatura diferente. El campo magnético se ajusta para que sólo un isótopo a la
vez caiga sobre el colector. La corriente incidente se amplifica electrónicamente y
se registra. Se obtiene un espectro con picos correspondientes a la incidencia de
isótopos individuales (Fig. 4.5, recuadro). La intensidad de cada pico es
proporcional a la abundancia del isótopo, que puede medirse con una precisión de
alrededor del 0,1%. Sin embargo, las alturas pico relativas dan las abundancias
relativas de los isótopos con una precisión de alrededor del 0,001%.
Las mejoras significativas en el diseño de los sistemas de espectrómetro de
masas han aumentado aún más su sensibilidad. Después de la ablación con láser,
las partículas vaporizadas del tamaño de un submicrómetro se mezclan con un
plasma de argón. Se trata de agas que consiste en iones de argón con carga
positiva y un número igual de electrones no ligados a una temperatura de 6000-
10.000 K. El plasma ioniza las partículas, que se extraen en un alto vacío antes de
pasar a través de una pistola de iones al espectrómetro de masas. Una desventaja
del diseño de colector único descrito anteriormente es que es vulnerable a las
fluctuaciones en la intensidad del haz. Este problema se ha superado con la
introducción de instrumentos de colectores múltiples, que permiten la medición
simultánea de los haces isotópicos divididos. El espectrómetro de masas de
plasma acoplado inductivamente (ICP-MS) es un instrumento altamente sensible y
versátil para determinar la abundancia de elementos traza con un nivel de
detección en la región de partes por trillón. Se puede utilizar para el análisis de
muestras líquidas y sólidas, y tiene muchas aplicaciones en campos fuera de las
ciencias de la tierra y del medio ambiente.
Un desarrollo importante en el campo de la espectrometría de masas es el
analizador de masas con microsonda de iones. En la espectrometría de masas
convencional, el análisis de un elemento particular es precedido por la separación
química de una muestra de roca. El estudio de minerales individuales o la
variación de la composición isotópica de un grano es muy difícil, la microsonda
iónica evita los problemas de contaminación que pueden surgir durante la
separación química y su alta resolución permite el análisis isotópico de volúmenes
muy pequeños. Antes de examinar una muestra en el instrumento, su superficie
está recubierta de oro o carbono. Un estrecho haz de iones de oxígeno cargados
negativamente, de unos 3-10 m de ancho, se concentra en un grano seleccionado.
Los iones son pulverizados fuera de la superficie del grano mineral por el haz de
iones de impacto, acelerado por un campo eléctrico y separado magnéticamente
como en un espectrómetro de masas convencional. La microsonda de iones
permite la descripción de las concentraciones y distribuciones isotópicas en la
capa superficial del grano y proporciona relaciones isotópicas. El instrumento
permite la datación isotópica de granos minerales individuales en una roca, y es
especialmente adecuado para el análisis de muestras muy pequeñas.
4.1.4.3 Rubidio-estroncio
El uso de un esquema de desintegración radiactiva según la Ecuación (4.7)
supone que la cantidad de isótopo hijo en la muestra ha sido creada sólo por la
desintegración de un isótopo padre en un sistema cerrado. Normalmente, sin
embargo, está presente una cantidad inicial desconocida del isótopo hijo, de modo
que la cantidad medida es la suma de la concentración inicial D 0 y la fracción
derivada de la descomposición del P0 padre. La ecuación de decaimiento se
modifica a

La necesidad de conocer la cantidad de isótopo hijo D 0 inicial se elimina mediante


el método analítico, que utiliza un tercer isótopo del elemento hijo para normalizar
las concentraciones de los isótopos hijo y padre. El método de rubidio-estroncio
ilustra esta técnica.
El rubidio radioactivo (87Rb) se descompone por emisión de partículas β al
estroncio radiogénico (87Sr). El isótopo estable y no radiogénico 86Sr tiene
aproximadamente la misma abundancia que el producto radiogénico 87Sr, y se
elige para la normalización. Escribir 87Rb para P,87Sr para la Ecuación Din (4.11) y
dividir ambos lados entre 86Sr da
En una roca magmática, la relación isotópica ( 87Sr/86Sr) 0 es uniforme en todos los
minerales precipitados del fundido porque los isótopos son químicamente idénticos
(es decir, tienen el mismo número atómico). Sin embargo, la proporción de los
diferentes elementos Rb y Sr varía de un mineral a otro. La ecuación (4.12) puede
compararse con la ecuación de una recta, tal como

La relación 87Sr/86Sr es la variable dependiente, y, y la relación ( 87Rb/86Sr) es la


variable independiente, x. Si medimos las relaciones isotópicas en varias muestras
de la roca y trazamos la relación 87Sr/86Sr contra la relación 87Rb/86Sr, obtenemos
una línea recta, llamada isocrón (Fig. 4.6). La intercepción con el eje de ordenadas
da la relación inicial del isótopo hijo. La pendiente (m) de la línea da la edad de la
roca, utilizando la conocida constante de decaimiento λ:

Debido a su larga vida media de 48.8 Ga (Fig. 4.4) el método Rb-Sr es muy
adecuado para datar eventos muy antiguos en la historia de la Tierra. Se ha
utilizado para obtener las edades de meteoritos y muestras lunares, así como
algunas de las rocas más antiguas de la Tierra. Por ejemplo, la pendiente del Rb-
Srisochron en la Fig. 4.6 arroja una edad de 3.62 Ga para los gneisses de
Precámbrica Temprana (Arcaica) Uivak del Labrador oriental.
El Rb-Sr y otros métodos de datación isotópica pueden aplicarse a muestras
enteras de roca o a minerales individuales separados de la roca. La ecuación de
descomposición se aplica sólo a un sistema cerrado, es decir, a rocas o minerales
que no han sufrido ninguna pérdida o adición del isótopo padre o hijo desde que
se formaron. Un cambio es más probable en un grano mineral pequeño que en la
roca en su conjunto. Los isocrones minerales individuales pueden expresar la
edad del metamorfismo postformacional, mientras que el isocrón de roca entero da
una edad más avanzada. Por otro lado, las edades espurias pueden ser el
resultado de análisis de rocas enteras si se utilizan muestras de diferente origen, y
por lo tanto de diferente composición, para construir un isocrón.
Fig. 4.6 Isocrón Rb/Sr para los gneisses de Uivak del Labrador oriental La
pendiente del isochron da una edad de 3.6220±072 Ga (después de Hurstet al.,
1975).
4.1.4.4.4 Potasio-argón
Por varias razones el método de potasio-argón (K-Ar) es probablemente la técnica
de datación por edad más comúnmente utilizada por los geólogos. El isótopo
padre, el potasio, es común en rocas y minerales, mientras que el isótopo hijo, el
argón, es un gas inerte que no se combina con otros elementos, la vida media de
1250 Ma (1.25 Ga) es muy conveniente. Por un lado, la edad de la Tierra es igual
a sólo unas pocas semividas, por lo que el 40K radiogénico todavía está presente
en las rocas más antiguas; por otro lado, se acumula suficiente del isótopo hijo
40
Ar en aproximadamente 104 años para dar una buena resolución. A finales de la
década de 1950, la sensibilidad de los espectrómetros de masas mejoró gracias a
la construcción de instrumentos que podían precalentarse a alta temperatura para
eliminar el argón atmosférico contaminante. Esto hizo posible el uso del método K-
Ar para datar lavas tan jóvenes como unos pocos millones de años.
El 40K radioactivo constituye sólo el 0,01167% del K en las rocas. Se descompone
de dos maneras diferentes: (a) por misión de partículas β a 40Ca20 con tasa de
decaimiento λCa=4.962X1010yr-1 y (b) por captura de electrones a 40Ar18 con tasa de
decaimiento λAr=0.581X1010yr-1. La constante de decaimiento combinada
(λ=λCa+λAr) es igual a 5,543X1010yr-1. Los esquemas de decaimiento son,
respectivamente:
La captura de electrones por un núcleo es más difícil y más rara que la emisión de
partículas β, por lo que la descomposición de 40K19 a 40Ca20 es más común que la
formación de 40Ar18. La relación entre la captura de electrones y la descomposición
de partículas β, λAr/λCa, se denomina relación de ramificación; es igual a 0,117. Así,
sólo la fracción λAr/(λAr+λCa), o 10,5%, de la fracción radiactiva inicial de potasio se
descompone en argón. La cantidad inicial de 40Ca radiogénica generalmente no se
puede determinar, por lo que no se utiliza la descomposición a Ca. Teniendo en
cuenta la relación de ramificación, la ecuación de decaimiento K-Ar es análoga a
la Ecuación (4.7) con 40Ar para la cantidad acumulada del producto hijo D y 40K
para la cantidad residual del producto padre P:

El método del potasio-argón es una excepción a la necesidad de usar isócrones. A


veces se le llama reloj de acumulación, porque se basa en la cantidad de 40Ar que
se ha acumulado. Se trata de mediciones separadas de las concentraciones de los
isótopos padre e hijo.
La cantidad de 40K es una fracción pequeña pero constante (0.01167%) de la
cantidad total de K, que puede ser medida químicamente. El 40Ar se determina
mezclándolo con una cantidad conocida de otro isótopo 38Ar antes de introducirlo
en el espectrómetro de masas. Se mide la abundancia relativa de los dos isótopos
de argón y la concentración de 40Ar se encuentra utilizando la cantidad conocida
de 38Ar. Al reordenar la Ecuación (4.16) y sustituir la constante de decaimiento, la
edad de la roca se obtiene a partir de la ecuación de la edad K-Ar:

El 40Ar en una roca fundida se escapa fácilmente del fundido. Se puede asumir
que todos los 40Ar radiogénicos ahora presentes en una roca se han formado y
acumulado desde la solidificación de la roca. El método funciona bien con rocas
onduladas que no han sido calentadas desde que se formaron. No puede ser
utilizado en rocas sedimentarias que consisten en detritos de rocas más viejas. A
menudo no tiene éxito en rocas metamórficas, que pueden tener historias térmicas
complicadas. Una fase de calentamiento puede expulsar el argón, reajustando el
reloj de acumulación. Este problema limita la utilidad del método K-Ar para
fordating meteoritos (que tienen una entrada ardiente en la atmósfera de la Tierra)
y rocas terrestres muy antiguas (debido a su historia térmica desconocida). El
método K-Ar se puede utilizar para datar basaltos lunares, ya que no han sido
recalentados desde su formación.
4.1.4.5 Argón-argón
Algunas incertidumbres relacionadas con el calentamiento post-formacional de
una roca se superan con una modificación del método K-Ar que utiliza la relación
isotópica 40Ar/39Ar. El método requiere la conversión de los 39K de la roca a 39Ar.
Esto se consigue irradiando la muestra con neutrones rápidos en un reactor
atómico.
Los términos lento y rápido se refieren a la energía de la radiación de neutrones.
La energía de los neutrones lentos es comparable a su energía térmica a
temperatura ambiente; también se les conoce como neutrones térmicos. Los
neutrones lentos pueden ser capturados e incorporados a un núcleo, cambiando
su tamaño sin alterar su número atómico. La captura de neutrones lentos puede
aumentar el tamaño de núcleos de uranio inestables más allá de un valor crítico e
iniciar la fisión. En contraste, los neutrones rápidos actúan sobre un núcleo como
los proyectiles. Cuando un neutrón rápido choca con un núcleo, puede expulsar
un neutrón o protón, mientras es capturado. Si la partícula expulsada es otro
neutrón, no se produce ningún cambio efectivo. Pero si la partícula expulsada es
un protón (con una partícula β para conservar la carga), el número atómico del
núcleo cambia. Por ejemplo, bombardear núcleos de 39K en una muestra de roca
con neutrones rápidos convierte una fracción de ellos en 39Ar.
Para determinar esta fracción se irradia al mismo tiempo una muestra testigo de
edad conocida. Al monitorear el cambio en las relaciones isotópicas en la muestra
de control, se puede deducir la fracción de núcleos de 39K convertidos a 39Ar. La
ecuación de la edad es similar a la que se da en la Ecuación (4.17) para el método
K-Ar. Sin embargo, 39Ar reemplaza 40K y una constante empírica J reemplaza la
constante 9.54. El valor de J se encuentra en la muestra de control cuya edad se
conoce. La ecuación de la edad de 40Ar/39Ar es

En el método 40Ar/39Ar la muestra se calienta progresivamente para eliminar el


argón a temperaturas sucesivamente más altas. La relación isotópica de 40Ar/39Ar
del argón liberado a cada temperatura se determina en un espectrómetro de
masas. La edad calculada para cada incremento se representa en relación con el
porcentaje de Ar liberado. Esto produce un espectro de edad. Si la roca no se ha
calentado desde que se formó, los incrementos de argón dados en cada etapa de
calentamiento producirán la misma edad (Fig. 4.7a). Se puede construir un isocrón
como en el método Rb-Sr midiendo la abundancia de una fracción no radiógena
de 36Ar y comparando las relaciones isotópicas 40Ar/36Ar y 39Ar/36Ar. En una
muestra sin calentar, todos los puntos caen en la misma línea recta (Fig. 4.7 b).

Fig. 4.7 a) Espectro de edad hipotético y b) isocrón de 40Ar/39Ar para una


muestra que no ha experimentado calentamiento secundario; c) espectro de edad
hipotético y d) isocrón de 40Ar/39Ar para una muestra que fue recalentada pero
conserva algo de argón original (después de Dalrymple, 1991).
Si la roca ha sido sometida a un calentamiento post-formacional, el argón se ha
formado ya que el calentamiento se libera a temperaturas más bajas que el argón
original (Fig. 4.7c). No se sabe con certeza por qué es así. El argón
probablemente sale de la roca sólida por difusión, que es un proceso activado
térmicamente que depende tanto de la temperatura como de la duración del
calentamiento. A menos que el calentamiento post-formacional sea largo y
completo, sólo las partes externas de los granos pueden ser forzadas a liberar el
argón atrapado, mientras que el argón localizado en las regiones más profundas
de los granos es retenido en una muestra que aún contiene argón original, los
resultados obtenidos a altas temperaturas forman una meseta de edades
consistentes (Fig. 4.7c) a partir de las cuales se puede calcular la edad óptima y
su incertidumbre. En un diagrama isocrónico, los puntos recalentados se desvían
de la línea recta definida por la relación isotópica de alta temperatura (Fig. 4.7d).
La alta precisión de la datación 40Ar/39Ar se demuestra por el análisis de muestras
de roca de fundido del cráter de impacto Chicxulub en la península de Yucatán,
México. El cráter es el candidato favorito para el sitio de impacto de un meteorito
de 10 km de diámetro que causó extinciones globales al final del período
Cretácico. El calentamiento por láser se utilizó para liberar los isótopos de argón.
El espectro de edad de tres muestras no muestra ninguna pérdida de argón (Fig.
4.8). Las edades de la meseta están definidas con precisión y dan una edad media
ponderada de 64,98±0,05 Ma para el impacto. Esto concuerda estrechamente con
la edad de 65.01±0.08 millones de años del vidrio de tektita encontrado en una
sección fronteriza del Cretácico-Terciario en Haití, y por lo tanto vincula la edad de
impacto a las extinciones de la fauna.
El espectro de edad obtenido en la datación Ar-Ar del meteorito de Menow es más
complicado y muestra los efectos de la antigua pérdida de argón. Se obtienen
diferentes edades durante el calentamiento incremental por debajo de unos
1200°C (Fig. 4.9). Las edades de la meseta por encima de esta temperatura
indican una edad media de 4.48±0.06 Ga. La forma del espectro de edad sugiere
que alrededor del 25% del Ar se perdió mucho más tarde, hace unos 2,5 Ga.

Fig. 4.8 Espectros de 40Ar/39Ar de edad para tres muestras de rocas de fusión del
cráter de impacto del Cretácico-Terciario del Chicxulub (después de Swisher et al.,
1992).
Fig. 4.9 Espectro de edad de 40Ar/39Ar para el meteorito de Menow, mostrando una
meseta a 4.48±0.06 Ga (después de Turner et al., 1978)
4.1.4.6 Uranio-plomo: el diagrama concordia-discordia
Los isótopos de uranio se descomponen a través de una serie de productos
secundarios radioactivos intermedios, pero finalmente dan lugar a isótopos de
plomo estables en el producto final. Cada uno de los decaimientos es un proceso
de varias etapas, pero puede describirse como si tuviera una sola constante de
decaimiento. Podemos describir la caída de 238U a 206Pb de la siguiente manera

Asimismo, se puede escribir el decaimiento de 235


U a 207Pb.

Los isótopos 235U y 238U tienen constantes de decaimiento bien conocidas:


λ235=9.8485x1010yr-1, λ238=1.55125X1010yr-1. Un gráfico de la relación 206Pb/238U
contra la relación 207Pb/235U es una curva, llamada la línea concordia (Fig.4.10).
Todos los puntos de esta línea satisfacen las ecuaciones (4.19) y (4.20)
simultáneamente. La línea concordia tiene una forma curva porque las tasas de
decaimiento de los isótopos de uranio, λ238 y λ235 respectivamente, son diferentes.
Los cálculos de las relaciones isotópicas dadas por las ecuaciones (4.19) y (4.20)
que definen la línea de concordia para las últimas 5 Ga se enumeran en la Tabla
4.2.
Tabla 4.2 Cálculo de los puntos de la curva de concordia
Las relaciones isotópicas Pb/U enumeradas a continuación definen el diagrama de
concordia para el último valor de 5 Ga. Se calcularon con λ 238=1.55125X1010yr-1 y
λ235=9.8485X1010yr-1 como constantes de decaimiento en las siguientes fórmulas:

Las cantidades de los isótopos de plomo hijos se acumulan a diferentes


velocidades. El plomo es un elemento volátil y se pierde fácilmente de los
minerales, pero esto no altera la proporción isotópica del plomo que queda. La
pérdida de plomo hará que un punto se desvíe de la línea de concordia. Sin
embargo, debido a que la relación isotópica permanece constante, el punto de
desviación se encuentra en una línea recta entre la edad original y el momento de
la pérdida de plomo. Esta línea corresponde a puntos que no concuerdan con la
curva de concordia; se llama línea de discordia (Fig. 4.10). Diferentes granos
minerales en la misma roca experimentan diferentes cantidades de pérdida de
plomo, por lo que las proporciones isotópicas en estos granos dan diferentes
puntos B, C y D en la discordia. La intersección de las líneas concordia y discordia
en A da la edad original de la roca, o en el caso de que haya perdido todo su
plomo original, la edad de este evento. La intersección de las líneas en E da la
edad del evento que causó la pérdida de plomo.
El método U-Pb se ha utilizado para datar algunas de las rocas más antiguas de la
Tierra. La formación Duffer en el Supergroup Pilbara en Australia Occidental
contiene piedras verdes del Precámbrico Temprano. Las relaciones isotópicas U-
Pb para granos de circón separados de una roca volcánica en la formación Duffer
definen una línea de discordia que intercepta la curva teórica de concordia a
3.450.02 Ga (Fig. 4.11).

Fig. 4.10 Ejemplo hipotético de un diagrama U-Pb concordia-discordia. La pérdida


de ventaja da puntos B, C y D en una línea de discordia. Intersecta la curva de
concordia en A, la edad de la roca, y en E, el momento del evento que causó la
pérdida de plomo. Las marcas en la curva de concordia indican la edad en Ga.
Fig. 4.11 Diagrama U-Pb concordia-discordia para granos de circón de una roca
volcánica en la formación Precambrian Duffer en el Bloque Pilbara, Australia
Occidental (después de Pidgeon, 1978).
4.1.4.7 Isocrones de plomo y plomo
Es posible construir diagramas de isocrón para los sistemas de decaimiento de U-
Pb. Esto se hace (como en el esquema de decaimiento Rb/Sr) expresando los
isótopos radiogénicos 206Pb y 207Pb como relaciones de 204Pb, el isótopo no
radiogénico del plomo. La caída de 238U a 206Pb (o de 235U a 207Pb) puede entonces
describirse como en la Ecuación (4.11), donde se desconoce el valor inicial del
producto hijo. Esto da las ecuaciones de decaimiento

Estas ecuaciones pueden combinarse en una sola ecuación de isocrón:

La relación de 235U a 238U medida hoy en día tiene un valor constante de 1/137,88
en rocas lunares y terrestres y en meteoritos. Las constantes de decaimiento son
bien conocidas, por lo que para una determinada edad t el lado derecho de la
Ecuación (4.23) es constante. La ecuación entonces tiene la forma

Esta es la ecuación de una recta de pendiente que atraviesa el punto (x 0 ,y0). No


se conocen los valores iniciales de las relaciones isotópicas de los isótopos de
plomo, pero un gráfico de la relación isotópica 207Pb/204Pb contra la relación
206
Pb/204Pb es una línea recta. La edad de la roca no se puede encontrar
algebraicamente. Los valores para t deben insertarse sucesivamente en el lado
derecho de la Ecuación (4.23) hasta que se obtenga la pendiente observada.
4.1.5 Edades de la Tierra y del sistema solar
Una fuente importante de información sobre la edad de la Tierra es la datación
radiométrica de los meteoritos. Un meteorito es un trozo de materia sólida del
espacio que penetra en la atmósfera de la Tierra a una velocidad hipersónica de
10-20 km s-1. La fricción atmosférica hace que se vuelva incandescente. Fuera de
la atmósfera de la Tierra se le conoce como meteoroide; cualquier parte que
sobreviva al paso a través de la atmósfera y llegue a la superficie de la Tierra se
llama meteorito. Se cree que la mayoría de los meteoritos se originan en el
cinturón de asteroides entre las órbitas de Marte y Júpiter (ver Sección 1.1.3.2),
aunque el seguimiento de los caminos de entrada muestra que antes de colisionar
con la Tierra tienen órbitas altamente elípticas en sentido contrario a las agujas del
reloj alrededor del Sol (en el mismo sentido que los planetas). Los meteoritos
suelen llevar el nombre del lugar de la Tierra donde se encuentran. Se pueden
dividir en tres clases principales según su composición. Los meteoritos de hierro
consisten en una aleación de hierro y níquel; los meteoritos de piedra consisten en
minerales de silicato; y los meteoritos de hierro y piedra son una mezcla de los
dos. Los condritos contienen pequeñas esférulas de silicatos de alta temperatura y
constituyen la fracción más grande (más del 85%) de los meteoritos recuperados.
Las acondrititas varían en su composición, desde rocas compuestas
esencialmente de minerales individuales como el olivino hasta rocas que se
asemejan a la lava basáltica. Cada categoría se subdivide en función de la
composición química. Todos los tipos principales han sido datados
radiométricamente, y la mayoría de los estudios se han realizado en la fracción
dominante de condita. No hay diferencias obvias de edad entre los meteoritos de
los distintos grupos. Condritas, acondriitas y meteoritos de hierro producen
consistentemente edades de alrededor de 4.45-4.50 Ga (Fig. 4.12).
Fig. 4.12 Rangos de edad radiométrica de las rocas terrestres y lunares y
meteoritos más antiguos (compilados a partir de Dalrymple, 1991 y Halliday,
2001).
En 1969, un gran meteorito condrítico carbonoso entró en la atmósfera terrestre y
explotó, dispersando sus fragmentos en una gran área alrededor del Pueblito de
Allende en México. El meteorito de Allende contenía inclusiones refractarias
enriquecidas con uranio en relación con el plomo. Las inclusiones refractarias son
pequeños agregados de material que se solidifican y vaporizan a alta temperatura,
y por lo tanto pueden preservar información de la historia temprana del meteorito,
y por lo tanto del sistema solar. La alta relación U/Pb de las inclusiones de Allende
dio fechas precisas de 207Pb/206Pb con un promedio de 4.566±0.002 Ga (Allègre et
al., 1995), que es la mejor estimación actual de la edad del sistema solar.
La edad de la Luna, que se cree que se formó durante la acreción de la Tierra,
coloca un límite adicional a la edad de la Tierra. Seis misiones tripuladas
americanas y tres rusas no tripuladas obtuvieron muestras de la superficie de la
Luna, que han sido fechadas mediante varias técnicas isotópicas. Las edades
obtenidas difieren según las zonas de origen de las rocas. Las áreas oscuras de la
superficie de la Luna, los llamados mares lunares o marías, se formaron cuando
enormes efusiones de lava basáltica llenaron las áreas bajas - como los cráteres
formados por grandes impactos meteorológicos - y así crearon superficies planas.
El volcanismo lunar puede haber persistido hasta hace 1 Ga. Las áreas claras en
la superficie de la Luna son tierras altas ásperas, extensivamente cráteres que
alcanzan elevaciones de 3.000-4.000 m sobre la maría. Representan la parte
superior de la corteza lunar y son las regiones más antiguas de la Luna.
Frecuentes colisiones con grandes asteroides a principios de la historia de la Luna
produjeron numerosos cráteres y pulverizaron la corteza lunar, dejando brechas
de impacto, fragmentos de roca y una capa de polvo de unos pocos metros de
espesor, llamada el regolito lunar. La edad de las rocas de las tierras altas oscila
entre 3.5-4.5 Ga, pero la edad más antigua reportada para una roca lunar es
4.51±0.07 Ga, obtenida por el método Rb-Sr.
En contraste con las edades de los meteoritos y la Luna, no se ha preservado
ninguna roca de edad comparable en la Tierra. Entre las rocas terrestres más
antiguas se encuentran los meta sedimentos Isua del oeste de Groenlandia. Han
sido ampliamente estudiados y producen una edad de 3.77 Ga que es consistente
con diferentes esquemas de decaimiento. Aún más antiguos son los gneisses de
Acasta en la parte noroeste del escudo canadiense, que dio una edad U-Pb de
3.96 Ga. Las rocas terrestres de las áreas más antiguas del escudo precámbrico
en Australia, Sudáfrica, Sudamérica y la Antártida tienen una edad máxima de 3.4-
3.8 Ga.
Las edades más avanzadas se obtienen a partir de granos individuales de zirconio
(ZrSiO4), que se forma como un oligoelemento en magmas graníticos. El circón es
un mineral muy duradero y puede sobrevivir a la erosión que destruye la roca
original. Los granos de circonio se incorporan a las rocas sedimentarias. Los
granos de zirconio de las rocas sedimentarias en Australia han dado una edad de
4.1-4.2 Ga; un fragmento de un grano de zirconio, de sólo 200μm de diámetro, ha
sido fechado por el método de U-Pb a 4.404±0.008 Ga, lo que lo convierte en el
sólido terrestre más antiguo. También es posible realizar análisis de isótopos de
oxígeno en estos antiguos granos de circonio. Aunque fragmentario, los resultados
de los granos de circón son importantes para entender las condiciones de la Tierra
primitiva. La escasa evidencia sugiere una posible historia para el desarrollo de la
Tierra primitiva caliente, como sigue.
El Sol y su disco acrecional, a partir del cual evolucionó el sistema solar, se
formaron hace 4,57 Ga. La acreción de la Tierra y la formación de su núcleo de
hierro duró aproximadamente los primeros 100 Ma de la historia temprana de la
Tierra. La acreción de Marte, que tiene sólo una novena parte de la masa de la
Tierra, se habría completado en los primeros 30 Ma. Más tarde en la acumulación
de la Tierra, después de quizás 60 Ma, la Luna se formó como resultado de la
colisión - llamada "Impacto Gigante" - de un planetesimal del tamaño de Marte con
el proto-Tierra, que todavía era mucho más pequeño que su tamaño actual. En el
intervalo hasta hace 4 Ga - llamado la era Hadeana (para la era infernal) - la Tierra
primitiva estaba caliente y cubierta por océanos de magma; cualquier corteza se
derretiría o sería destruida en el intenso bombardeo meteorológico. El agua, si
estuviera presente, se vaporizaría. Después de unos 150 Ma, el proto-Tierra
podría haberse enfriado lo suficiente como para que se formara una corteza
granítica temprana, y posiblemente agua líquida. Sólo unos pocos granos de
circón que sobrevivieron a este período permanecen como posibles testigos. Los
bombardeos repetidos pueden haber destruido la corteza y vaporizado el agua
repetidamente en los siguientes 400 Ma. Hace unos 4 años se formó la corteza
continental más antigua que se ha conservado.
Este escenario es especulativo y no es único. Algunos estudios de isótopos de
oxígeno en granos de circón han sido interpretados como indicadores de una
Tierra primitiva fría. Los valores altos de δ18O (ver Cuadro 5.2) medidos en estos
circones implican temperaturas superficiales suficientemente bajas para el agua
líquida; se dedujeron condiciones uniformes a lo largo de la era Arcaica (4.4-2.6
Ga). Este modelo de la Tierra primitiva sugiere que los impactos meteorológicos
pueden haber sido menos intensos de lo que se suele suponer. El modelo de una
Tierra primitiva caliente es más aceptado popularmente, pero la verdadera historia
aún no se conoce. los eventos que ocurrieron en los primeros cientos de millones
de años de su historia se encuentran entre los secretos mejor guardados de la
Tierra.

4.3 GEOELECTRICIDAD
4.3.1 Introducción
La carga eléctrica, junto con la masa, la longitud y el tiempo, es Una propiedad
fundamental de la naturaleza. El nombre electric deriva de la palabra griega para
ámbar ("elektron"), el Resina fosilizada natural de árboles coníferos. Que se ha
utilizado desde la antigüedad en la fabricación de joyería. El filósofo griego Thales
de Mileto (ca.600 aC) se le atribuye la primera información sobre el poder de
ámbar, cuando se frota con un paño, para atraer objetos ligeros. Los antiguos
sabios no podían entender este comportamiento en términos de su mundo
cotidiano, y así, junto con el poder del magnetismo poseído por piedra imán
natural (ver Sección 5.1.1), la electricidad siguió siendo una maravilla, pero
Fenómeno desconocido desde hace más de dos milenios. En
1600 dC, el médico inglés William Gilbert resumió las investigaciones anteriores y
el conocimiento existente en el Primer estudio sistemático de estos fenómenos.

En el siglo siguiente se estableció que allí Eran dos tipos de carga eléctrica, ahora
denominados positivos y negativos. Objetos que llevaban como tipos de carga. se
observó que se repelen entre sí, y los que llevaban Los tipos opuestos se atraían
entre sí. En 1752 el Estadista, diplomático y científico estadounidense benjamin
Franklin realizó un experimento celebrado; volando un cometa durante una
tormenta eléctrica, estableció que el rayo Es un fenómeno eléctrico. Habiendo
sobrevivido a este arriesgado esfuerzo Franklin desarrolló la teoría de largo
alcance que La electricidad consistía en un fluido omnipresente, y que los
Diferentes tipos de carga representaron excedentes y escasez. de este fluido. Esta
vista se parece sorprendentemente a la moderna. Teoría, en la que el "fluido"
consiste en electrones. Las leyes de atracción electrostática y repulsión. fueron
establecidos en 1785 como resultado de cuidadosos experimentos por un
científico francés, Charles Augustin de Coulomb (1736–1806), quien también
estableció las leyes de Fuerza magnetos tatica (sección 5.1.3). Coulomb inventó
un Sensible balance de torsión, con el que pudo medir. Precisamente la fuerza
entre esferas cargadas eléctricamente. Sus resultados representan la culminación
del conocimiento de Fenómenos electrostáticos.
El concepto del siglo XVIII de la electricidad como fluido. Encuentra expresión
adicional en la nomenclatura eléctrica. Se dice que la electricidad fluye entre
objetos cargados cuando se ponen en contacto, y la tasa de flujo se llama Una
corriente eléctrica. El estudio de las propiedades y efectos. de las corrientes
eléctricas se hizo posible alrededor de 1800, cuando un el físico italiano
Alessandro Volta (más tarde elevado por
Napoleón al rango de Conde), inventó una batería eléctrica primitiva, llamada pila
voltaica, en la cual la electricidad era producida por la acción química. La relación
entre La corriente eléctrica en un conductor y la tensión de la red. La batería fue
establecida en 1827 por Georg Ohm, un alemán.
físico. Los efectos magnéticos producidos por las corrientes eléctricas se
establecieron a principios del siglo XIX por Oersted, Ampère, Faraday y Lenz. Sus
contribuciones se discuten con más detalle en un capítulo posterior (Sección 5.1.3)
Sobre los orígenes físicos del magnetismo.
4.3.2 Principios eléctricos.

Coulomb estableció que la fuerza de atracción o repulsión entre dos esferas


cargadas era proporcional al producto de las cargas eléctricas individuales e
inversamente. proporcional al cuadrado de la distancia entre los centros de las
esferas. Su ley se puede escribir como la siguiente ecuación:

donde Q1 y Q2 son las cargas eléctricas, r es su separación y K es una constante.


Esta ley del cuadrado inverso fuertemente se asemeja a la ley de la gravitación
universal (Ec. (2.2)), formulada por Newton más de un siglo antes de que Coulomb
ley. Sin embargo, en la gravitación la fuerza siempre es atractiva,
Mientras que en electricidad puede ser atractivo o repulsivo, Dependiendo de la
naturaleza de los cargos. En la ley de la gravitación las unidades de masa,
distancia y fuerza ya están definido, de modo que la constante gravitacional está
predeterminada; solo era necesario medir su valor numérico. En La ley de
Coulomb, F y r se definen desde la mecánica (como el newton y meter,
respectivamente), pero las unidades de Q y K son indefinidos el valor de K se
estableció originalmente igual a Unidad, definiendo así la unidad de carga
eléctrica. Esta definición condujo a complicaciones desafortunadas cuando se
analizaron los efectos magnéticos de las corrientes eléctricas. La alternativa es
definir independientemente la unidad de carga, fijando así el significado de la
constante K. La unidad de carga es el coulomb (C), definido como el Cantidad de
carga que pasa un punto en una eléctrica. Circuito cuando fluye una corriente
eléctrica de un amperio (A).
durante un segundo (es decir, 1 C1 A s). A su vez, el ampère es definido a partir
de los efectos magnéticos de una corriente (ver Sección 5.2.4). Cuando una
corriente fluye en la misma dirección a través de dos conductores rectos largos
paralelos, se producen campos magnéticos alrededor de los conductores, que
hacer que se atraigan entre sí. Si la corriente fluye A través de los conductores en
direcciones opuestas se repelen. El uno al otro. El amperio se define como la
corriente que Produce una fuerza de 2 10 7 N por metro de longitud. Entre
conductores delgados infinitamente largos que son uno. metro aparte en vacío.
Así, la unidad de carga es Definido con precisión, si bien de manera indirecta. En
el sistema Las unidades K del sistema internacional (SI) se escriben como (4) 1,
de modo que La ley de Coulomb se convierte en

donde la constante se llama la permisividad constante. Es aproximadamente igual


a 8.854 187 10 12 C2 N 1 m 2. La teoría eléctrica moderna desciende del
descubrimiento. en 1897 por el físico inglés Joseph J. Thomson del electrón como
unidad elemental básica de carga eléctrica. Eso
tiene una carga negativa de 1.602 10 19 C. Un protón en el núcleo de un átomo
tiene una carga positiva igual. Normalmente un átomo contiene tantos electrones
como tiene protones en su núcleo y es eléctricamente neutro. Si un átomo o
molécula pierde uno o más electrones, tiene una red
Carga positiva y se llama ion positivo; De manera similar, un ion negativo es un
átomo o molécula con un excedente de electrones.
En los metales, algunos electrones están ligeramente ligados a los átomos
Pueden moverse con relativa facilidad a través del material, que se llama un
conductor eléctrico. Rieles como el cobre y la plata son buenos conductores. En
otros materiales, llamados aislantes, los electrones están estrechamente unidos a
los átomos El vidrio, el caucho y la madera seca son aisladores típicos. Un
aislante perfecto no permite que los electrones se muevan a través de él, mientras
que un conductor perfecto no se opone al paso de los electrones. Oferta de
conductores reales diferentes grados de oposición. Un flujo de carga, o corriente
eléctrica, resulta cuando los electrones libres en un conductor se mueven en una
dirección común. Una corriente de un amperio corresponde a un flujo de
aproximadamente 6,250,000,000,000,000,000 electrones por segundo más allá de
cualquier punto de un circuito la dirección de un eléctrico. La corriente se define
como la dirección del flujo de positivo. carga, que es opuesta a la dirección de
movimiento de los electrones

4.3.2.1 Campo eléctrico y potencial.


La fuerza ejercida sobre una unidad de carga eléctrica por otra. la carga Q se
llama el campo eléctrico de la carga Q. Así, si dejamos Q1Q y Q21 en Eq. (4.72),
obtenemos la ecuación para el campo eléctrico E a la distancia r desde la carga Q

Según esta definición E tiene las dimensiones de newton / coulomb (N C 1). El


término “campo” también tiene otra connotación, introducida por Michael Faraday
(1791–1867) para referirse a la
Geometría de las líneas de fuerza cerca de una carga. Alrededor de una carga
puntual positiva, las líneas de campo se dirigen radialmente hacia afuera,
describiendo la dirección (divergente) a lo largo de la cual una carga positiva libre
se movería (Fig. 4.39a); alrededor de una carga de punto negativo, se dirigen
radialmente hacia dentro (convergentes) (Fig. 4.39b). Las líneas de campo de un
par de opuestos. Las cargas puntuales divergen de la carga positiva, separadas y
convergen en la carga negativa (Fig. 4.39c); ellos dan la aparición de dibujar las
cargas opuestas juntas.
Fig. 4.39 Secciones transversales
planas de líneas de campo eléctrico
alrededor del punto cargas: (a) único
positivo, (b) único negativo, (c) dos
iguales y opuesto, y (d) dos cargas
positivas iguales.

El campo combinado de dos cargas


puntuales positivas se caracteriza
por líneas de campo que dejan cada
carga y divergen en el espacio entre
(Fig. 4.39d); las líneas de campo
aparecen visiblemente para separar
las cargas similares. La dirección de
la eléctrica. El campo en cualquier
punto es tangencial a la línea del
campo eléctrico.La fuerza del campo está representada por la concentración
espacial de las líneas de campo. Cerca de cualquiera de las cargas eléctricas el
campo es fuerte y se debilita al aumentar la distancia de la carga. En
consecuencia, se requiere trabajo para mover una partícula cargada de un punto
en el campo a otro. Esta el trabajo contribuye a la energía potencial del sistema.
Por ejemplo, a una distancia infinita de un positivo
carga Q la fuerza repulsiva en una unidad carga positiva es cero, pero a una
distancia r viene dada por la ec. (4.73). La energía potencial de la carga de la
unidad en r se denomina potencial eléctrico en r; lo denotaremos U. Las unidades
de U son energía por unidad de carga, es decir, julios / coulomb. Si nos movemos
una distancia dr contra el campo E, los cambios potenciales por una cantidad dU
igual al trabajo realizado contra E, que es (Edr). es decir, dU Edr, para que

Podemos calcular fácilmente el potencial eléctrico U en r por integración:


La energía necesaria para mover una unidad de carga de una. apuntar a otro en el
campo eléctrico de Q es la potencial diferencia entre los dos puntos. La unidad de
potencial la diferencia es la misma que la de U (es decir, julios / coulomb) y se
llama voltio. De la ec. (4.74) obtenemos más
unidades alternativas comunes de voltio / metro (V m 1) para el campo eléctrico E.
La carga eléctrica fluye desde un punto con mayor potencial hasta un punto con
menor potencial. La situación es análoga al flujo de agua a través de una tubería
desde un nivel a un nivel inferior. La tasa de flujo de agua a través de la tubería
está determinada por la diferencia en la gravedad.
Potencial entre los dos niveles. Asimismo, la eléctrica. La corriente en un circuito
depende de la diferencia potencial en el circuito.

4.3.2.2 Ley de Ohm

El científico alemán Georg Simon Ohm estableció en 1827 que la corriente


eléctrica I en un cable conductor es proporcional a la diferencia de potencial V a
través de ella. La relación lineal se expresa mediante la ecuación.

donde R es la resistencia del conductor. La unidad de la resistencia es el ohm ($).


Lo inverso de la resistencia es llamada la conductancia de un circuito; su unidad
es el ohmio recíproco ($ 1), también llamado mho o siemens (S). Observaciones
experimentales sobre diferentes hilos de la
el mismo material mostró que un cable largo tiene una resistencia más grande que
un cable corto, y un cable delgado tiene una resistencia más grande que un cable
grueso. Formulado más precisamente, para un dado el material la resistencia es
proporcional a la longitud. L e inversamente proporcional al área de la sección
transversal A del conductor (fig. 4.40). Estas relaciones son expresadas en la
ecuación

La constante de proporcionalidad r es la resistividad del conductor. Es una


propiedad física del material del conductor, que expresa su capacidad para
oponerse a un flujo de cargar. La inversa de ρ se llama la conductividad del
material, denotado δ. La unidad de resistividad es el óhm metro ( Ω m); La unidad
de conductividad es la recíproca. ohm-metro ( Ω−1 m−1). Si sustituimos la ec. (4.78)
para R en la ec. (4.77) y reorganizar los términos obtenemos la siguiente
expresión:
Fig. 4.40 Parámetros utilizados para
definir la ley de Ohm para una recta
conductor

La relación V / L en el lado izquierdo


de esta ecuación es, por
comparación con la ec. (4.74), el
campo eléctrico E (asumiendo el
gradiente potencial para ser
constante a lo largo de la longitud de
el conductor). La relación I / A es la corriente por unidad de área de sección
transversal del conductor; se llama la corriente densidad y denota J (Fig. 4.40).
Ahora podemos reescribir La ley de Ohm como

Este formulario es útil para calcular las fórmulas utilizadas en Métodos de


resistividad de topografía eléctrica. sin embargo, Las cantidades que se miden son
V y I.
4.3.2.3 Tipos de conducción eléctrica.

La corriente eléctrica pasa a través de un material por uno de tres. Diferentes


modos: por electrónico, dieléctrico o electrolítico. conducción. La conducción
electrónica (o óhmica) ocurre en
Metales y cristales, conducción dieléctrica en aislantes, y conducción electrolítica
en líquidos.
La conducción electrónica es típica de un metal. Los electrones libres en un metal
tienen una alta velocidad promedio (alrededor de 1.6 106 m s 1 en cobre). Chocan
con los átomos del metal,
que ocupan sitios de celosía fija, y rebotan en forma aleatoria direcciones. Cuando
se aplica un campo eléctrico, los electrones Adquirir una velocidad de deriva
común, que se superpone a
sus movimientos aleatorios, de modo que se mueven a una mucho menor
velocidad (aproximadamente 4 10 5 m s 1 en cobre) en la dirección del campo. La
resistividad está determinada por el tiempo libre medio. entre colisiones. Si la
disposición atómica causa colisiones frecuentes, la resistividad es alta, mientras
que una media larga el tiempo libre entre colisiones da como resultado una baja
resistividad. La energía perdida en las colisiones aparece en forma de calor. Una
forma de semiconducción es importante en algunos cristales, como los minerales
de silicato. La resistividad del mineral es más alta que el de un conductor, pero
más bajo que el de un conductor. La de un aislante, y se llama semiconductor.
Son posibles diferentes tipos de semiconducción. Silicatos contienen menos
electrones de conducción que un metal, pero la
Los electrones no están unidos rígidamente a los átomos como en un aislante. Las
energías necesarias para liberar electrones adicionales de Sus átomos no son
grandes, y la excitación térmica es suficiente. Permitirles participar en la
semiconducción electrónica. El electrón liberado deja una vacante o agujero en el
nivel de valencia de la estructura atómica, que se comporta como una carga
positiva. Los cristales naturales también contienen impurezas. átomos, que
pueden tener una valencia diferente al requerido por la celosía para el balance de
carga. La impureza es
Una fuente de agujeros o exceso de electrones que intervienen en.
semiconducción de impurezas. A altas temperaturas los iones pueden
desprenderse de la celosía; se comportan como iones en un electrolito y dan lugar
a corrientes eléctricas por semiconducción iónica. Una diferencia de potencial a
través de un semiconductor. Produce una corriente eléctrica formada por flujos
opuestos de electrones negativos y agujeros positivos. Si la mayoría de la
corriente es transportada por los electrones negativos, el semiconductor se llama
tipo n; si los agujeros positivos predominan, se dice que el semiconductor es de
tipo p

La conducción dieléctrica ocurre en aisladores, los cuales no contienen electrones


libres. Normalmente, los electrones se distribuyen simétricamente alrededor de un
núcleo. Sin embargo, el campo eléctrico desplaza los electrones en dirección
opuesta a la del campo, mientras que el núcleo pesado se desplaza ligeramente
en la dirección del campo. El átomo o ion Adquiere una polarización eléctrica y
actúa como un eléctrico. dipolo. El efecto neto es cambiar la permisividad del
material de 0 a un valor diferente, dado por

Aquí, r se llama la permisividad relativa. Cuando se mide en un campo eléctrico


constante, la permisividad relativa es llamada la constante dieléctrica, k, del
material. Es sin dimensiones, y tiene un valor comúnmente en el rango. 3–80.
Ejemplos de k para algunos materiales naturales son: aire. 1.00059; mica 3; vidrio
5; arenisca 5–12; granito 3–19; diorita 6; basalto 12; agua 80. Los efectos
dieléctricos no son importantes en las situaciones actuales constantes. Sin
embargo, en un campo eléctrico alterno la polarización cambia con la frecuencia
del campo, y por lo tanto la permisividad relativa es dependiente de la frecuencia.
La polarización fluctuante de la carga eléctrica contribuye a la corriente alterna, y
así modifica la conductividad o resistividad efectiva. En
En la práctica, este efecto depende en gran medida de la frecuencia del campo
inductor alternante. Cuanto mayor sea la frecuencia, Cuanto mayor es el efecto de
la conducción dieléctrica. Algunos métodos geoeléctricos utilizan señales en la
frecuencia de audio. rango, donde la conducción dieléctrica es insignificante, pero
el radar de penetración en el suelo utiliza frecuencias en el MHz para rango de
GHz y depende de los contrastes dieléctricos.

La conducción electrolítica se produce en soluciones acuosas que contienen iones


libres. La molécula de agua es polar (es decir, tiene un momento dipolo eléctrico
permanente) con un fuerte eléctrico. campo que descompone las moléculas de
sales disueltas en Iones cargados positiva y negativamente. Por ejemplo, en una
solución salina la molécula de cloruro de sodio (NaCl) Se disocia en iones
separados de Na y Cl. La solución es llamada un electrolito. Los iones en el
electrolito son movilizados por un campo eléctrico, que hace que fluya una
corriente.

La carga eléctrica es transportada por iones positivos en la dirección del campo e


iones negativos en la dirección opuesta. La resistividad de un electrolito puede ser
entendida por analogía con el flujo de agua a través de un bloqueo parcial tubo. La
corriente eléctrica en el electrolito implica la
transporte físico de material (iones), que provoca colisiones con las moléculas del
medio (electrolito), Causando resistencia al flujo. La conducción iónica es, por
consiguiente, más lenta que la conducción electrónica.

4.3.3 Propiedades eléctricas de la tierra.


En nuestra vida cotidiana experimentamos frecuentes recordatorios del campo de
gravedad de la Tierra. Es menos obvio que la Tierra también tiene un campo
eléctrico. Su presencia se hace evidente principalmente. durante las tormentas
eléctricas, cuando las descargas eléctricas toman
lugar como relámpago. El campo eléctrico de la Tierra actúa radialmente. Hacia
adentro, para que la Tierra se comporte como una carga negativa. esfera. En su
superficie el campo eléctrico verticalmente hacia abajo. asciende a unos 200 V m
1. El ambiente tiene una red. Carga positiva, igual y opuesta a la de la tierra, y
como resultado de la distribución de moléculas de aire ionizadas positiva y
negativamente. Los cargos proceden del Continuo bombardeo de la tierra por los
rayos cósmicos. Los rayos cósmicos son partículas subatómicas con muy alta
energía. Los rayos cósmicos primarios alcanzan la Tierra desde el exterior.
Espacio, viajando a velocidades cercanas a la de la luz. Ellos
consisten en gran parte de protones (núcleos de hidrógeno) y –partículas (núcleos
de helio), con menores cantidades de otros iones. Su origen aún es desconocido.
Algunos son emitidos por el Sol en el tiempo de las erupciones solares, pero estos
ocurren con poca frecuencia para ser
la fuente principal. Esta fuente se encuentra en otra parte de nuestra galaxia. Eso
Se piensa que una gran proporción de la galaxia cósmica. Los rayos son
acelerados a alta velocidad por las explosiones de supernova. La trayectoria de un
rayo cósmico es fácilmente desviada por un magnético campo. Incluso el débil
campo magnético interestelar es suficiente para dispersar los rayos cósmicos de
movimiento rápido, para que alcancen la Tierra igualmente de todas direcciones.
Las partículas entrantes Chocan con núcleos en la atmósfera superior,
produciendo
Duchas de rayos cósmicos secundarios, constituidos por protones, Neutrones,
electrones y otras partículas elementales. En consecuencia, en un momento dado
una fracción de las moléculas.
De la atmósfera están cargados eléctricamente. la Tierra campo eléctrico acelera
partículas positivas hacia abajo a la la superficie de la Tierra, donde neutralizan la
superficie negativa.
cargos Esto eliminaría rápidamente la superficie negativa carga, que se mantiene
por la actividad de la tormenta. las tormentas eléctricas, y las causas de los rayos,
aún no está entendido completamente. Un posible escenario es el siguiente. en
una nube de tormenta, gotitas de vapor de agua se convierten eléctricamente
cargado. El campo eléctrico descendente de la Tierra puede causar polarización
dentro de una gota, con carga positiva en el Inferior y negativo en la parte
superior. Cuando la gota es pesada suficiente para caer, las cargas negativas de
las moléculas expulsadas de su camino son atraídos hacia el fondo mientras
menos positivos. los cargos se reúnen en la parte superior. Como resultado, la
gota se convierte en cargado negativamente. La acción del viento en las nubes de
tormenta causa.

La carga negativa que se acumula en la base de la nube, Mientras que una carga
positiva correspondiente se acumula en su parte superior. Cuando la diferencia de
potencial entre los dos
las cargas exceden el voltaje de descomposición de la atmósfera, una corriente
eléctrica breve pero poderosa fluye. La mayoría de los rayos los golpes ocurren
dentro de la nube de tormenta. Sin embargo, la carga negativa en la base de la
nube repele la negativa cargar en la superficie del suelo debajo de ella. Una vez
más, si la diferencia de potencial entre la nube y el suelo se vuelve lo
suficientemente grande como para superar la tensión de ruptura del aire, se
produce un rayo. Esto lleva una carga negativa al suelo. De esta manera, las
numerosas tormentas eléctricas diarias que se producen en todo el mundo
mantienen la carga negativa de la tierra. A una primera aproximación la Tierra
puede ser considerada como un conductor eléctrico uniforme. Cargas eléctricas en
la superficie de un conductor se dispersa de modo que el potencial eléctrico sea el
mismo en todos los puntos de la superficie, es decir, es una superficie
equipotencial eléctrica. El potencial superficial es normalmente se utiliza como
nivel de referencia para la energía potencial eléctrica y se define como cero. Así
un positivamente el cuerpo cargado tiene una diferencia de potencial positiva
(voltaje) Con respecto al suelo, mientras que un cuerpo cargado negativamente.
tiene un voltaje negativo.

4.3.3.1 agrimensura eléctrica


Al igual que con otros parámetros físicos, las propiedades geoeléctricas.
Se utilizan tanto en geofísica aplicada como en general. Ellos son explotados
comercialmente en la búsqueda de valiosos orebodies, que pueden ser
localizados por sus anomalías eléctricas conductividades. Sondeo eléctrico
profundo proporciona valiosa información sobre la estructura interna de la Tierra
corteza y manto. Las encuestas eléctricas pueden basarse en fuentes naturales de
potencial y corriente. Más comúnmente, Implican la detección de señales
inducidas en el subsuelo. Conducción de cuerpos por campos eléctricos y
magnéticos generados por encima del suelo. Las investigaciones en esta
categoría incluyen
La resistividad y los métodos electromagnéticos. Estas tecnicas
Durante mucho tiempo se han utilizado en estudios geofísicos comerciales.
En los últimos años también se han hecho importantes en la investigación
científica de problemas ambientales. Las técnicas eléctricas requieren la medición
del potencial. Diferencias en el terreno entre los electrodos adecuadamente
implantados. Las técnicas electromagnéticas detectan en el subsuelo anomalías
de conductividad de forma remota; no necesitan contacto con el suelo. Además de
ser empleado en superficie. Las encuestas son especialmente adecuadas para el
uso en el aire. Las propiedades físicas importantes de las rocas para el
levantamiento eléctrico son la permisividad (para georadar) y la resistividad (o
conductividad), sobre la cual varias técnicas
se basan. Surgen anomalías, por ejemplo, cuando un buen conductor (como un
dique mineralizado u otra persona) es presente en rocas que tienen resistividades
más altas. El contraste de resistividad entre la roca de alguien y el host es a
menudo grande, Porque las resistividades de diferentes rocas y minerales. varían
ampliamente (Fig. 4.41). En minerales metálicos la resistividad puede

Fig. 4.41 Rangos de resistividad


eléctrica para algunas rocas comunes,
suelos y minerales (fuente de datos:
Ward, 1990; aumentada por datos de
Telford et al., 1990).

ser muy bajas, pero las rocas ígneas


que no contienen agua pueden tener
una resistividad muy alta. Por ejemplo,
en un alto grado el mineral pironita es
del orden de 10−5 Ω m, mientras que en
seco el mármol es de alrededor de 108
Ω m. El rango entre estos los extremos
abarcan 13 órdenes de magnitud.
Además, el rango de resistividad de
cualquier tipo de roca es amplio y se
superpone con otros tipos de roca (Fig.
4.41)
La resistividad de las rocas está fuertemente influenciada por la presencia de agua
subterránea, que actúa como un electrolito. Esta es especialmente importante en
sedimentos porosos y rocas sedimentarias. Los minerales que forman la matriz de
una roca son conductores generalmente más pobres que el agua subterránea, por
lo que la conductividad de un sedimento aumenta con la cantidad de agua
subterránea que contiene. Esto depende de la fracción de la roca que consta de
espacios porosos (la porosidad, ᶲ), y la fracción de este volumen de poro que está
lleno de agua (el
saturación de agua, S). La conductividad de la roca es proporcional a la
conductividad del agua subterránea, que es bastante variable porque depende de
la concentración. y tipo de minerales disueltos y sales que contiene. Estas
observaciones se resumen en una fórmula empírica,
llamada ley de Archie, por la resistencia de la roca.

Por definición, Φ y S son fracciones entre 0 y 1, pw es La resistividad del agua


subterránea, y los parámetros a, m y n son constantes empíricas que deben
determinarse para cada caso. Generalmente, 0.5≤ a ≤2.5, 1.3 m 2.5.
y n 2.

4.3.4 Potenciales naturales y corrientes.


Investigaciones eléctricas de propiedades eléctricas naturales son basado en la
medición de la tensión entre un par de electrodos implantados en el suelo.
Diferencias naturales en el potencial se produce en relación con los cuerpos
subsuperficiales que crean sus propios campos eléctricos. Los cuerpos actúan
como simples voltaicos. Células; Su potencial surge de la acción electroquímica.
Las corrientes naturales (llamadas corrientes telúricas) fluyen en la corteza y
manto de la tierra. Son inducidas electromagnéticamente por corrientes eléctricas
en la ionosfera (descritas en
Sección 5.4.3.2). Al estudiar los potenciales naturales y las corrientes, el científico
no tiene control sobre la fuente de la señal. Esto restringe la interpretación, que es
principalmente sólo cualitativo. Los métodos naturales no son tan útiles como
métodos de inducción controlados, tales como resistividad y técnicas
electromagnéticas, pero son baratos y rápidos.

4.3.4.1 Auto-potencial (potencial espontáneo)


Un potencial que se origina espontáneamente en el suelo es llamado auto-
potencial (o potencial espontáneo). Algunos auto-potenciales se deben a
disturbios causados por el hombre de la
medio ambiente, como cables eléctricos enterrados, drenaje Tuberías o sitios de
eliminación de residuos. Son importantes en el estudio de los problemas
ambientales. Otros auto-potenciales
Son efectos naturales debidos a la mecánica o acción electroquímica. En todos los
casos el agua subterránea juega un papel clave por actuando como un electrolito.
Algunos auto-potenciales tienen un origen mecánico. Cuando un electrolito es
forzado a fluir a través de un tubo estrecho, un
diferencia de potencial (voltaje) puede surgir entre los extremos de la tubería. Su
amplitud depende de la resistividad eléctrica y de la viscosidad del electrolito y de
la presión. Diferencia que provoca el flujo. El voltaje se debe a diferencias en el
potencial electrocinético o streaming.
que a su vez está influenciada por la interacción entre el líquido y la superficie del
sólido (un efecto llamado potencial zeta). El voltaje puede ser positivo o negativo.
y puede ascender a unos cientos de milivoltios. Este tipo de auto-potencial se
puede observar en conjunción con la filtración de agua de las represas, o el flujo
de agua subterránea a través de diferentes unidades litológicas.

La mayoría de los auto-potenciales tienen un origen electroquímico. Por ejemplo,


si la concentración iónica en un electrolito varía según la ubicación, los iones
tienden a difundirse a través del electrolito para igualar la concentración. La
difusión es impulsada por un potencial de difusión eléctrica, que depende de la
temperatura, así como la diferencia en concentración iónica. Cuando se inserta un
electrodo metálico. en el suelo, el metal reacciona electroquímicamente con el
electrolito (es decir, agua subterránea), causando un potencial de contacto. Si se
insertan dos electrodos idénticos en el suelo, Variaciones en la concentración de
la causa del electrolito.
Diferentes reacciones electroquímicas en cada electrodo. Surge la diferencia de
potencial, llamada potencial de Nernst. la difusión combinada y los potenciales de

Nernst se denominan

Fig. 4.42. Un modelo esquemático del origen del auto-potencial. anomalía de un


orebody. El mecanismo depende de las diferencias en Potencial de oxidación por
encima y por debajo del nivel freático

Auto-potencial electroquímico. Es sensible a la temperatura y puede ser positivo o


negativo, por un valor de la mayoría de unas pocas decenas de milivoltios. Los
potenciales propios que se originan por los mecanismos anteriores están
atrayendo una mayor atención en el medio ambiente y situaciones de ingeniería.
Sin embargo, en la exploración de las regiones subsuperficiales de mineralización
a menudo son más pequeñas que los potenciales asociados con los orebodies y
se clasifican en consecuencia como "potenciales de fondo". El potencial propio
asociado con un alguien se llama su "mineralización".
potencial ". Anomalías del potencial propio (SP) a través de orebodies son
invariablemente negativos, por lo general ascienden a unos pocos cientos
milivoltios. Se asocian más comúnmente con sulfuro minerales, tales como pirita,
pirotita y calcopirita, pero también con grafito y algunos óxidos metálicos. El origen
del tipo de mineralización del auto-potencial Aún está oscuro, a pesar de décadas
de investigaciones aplicadas hubo un tiempo en que se pensó que el efecto surgió
de la acción galvánica. Esto ocurre cuando electrodos metálicos diferentes se
colocan en un electrolito. Potenciales de contacto desiguales se forman entre los
metales y el electrolito, dando
Subir a una diferencia de potencial entre los electrodos según este modelo, una
persona se comporta como una simple Celda voltaica, con agua subterránea que
actúa como electrolito. Eso
Se creía que la oxidación de la parte de la persona por encima del nivel freático se
produjo una diferencia de potencial entre las partes superior e inferior, provocando
un espontáneo polarización eléctrica del cuerpo. La oxidación implica Además de
los electrones, la parte superior de la persona se convierte en cargado
negativamente, explicando los negativos observados anomalías
desafortunadamente, este modelo simple no lo hace explicar muchas de las
características observadas del auto-potencial, anomalías y ha demostrado ser
insostenible.

Otro mecanismo para el potencial propio depende de las variaciones en el


potencial de oxidación (redox) con la profundidad (Fig. 4.42). El suelo sobre el
nivel freático es más accesible para el oxígeno que la parte sumergida, por lo que
la humedad por encima del nivel freático contiene más iones oxidados que el que
está debajo se produce una reacción electroquímica en la superficie.
entre el orebody y el host rock sobre el agua se traduce en la reducción de los
iones oxidados en él, la solución adyacente aparece un exceso de iones negativos
por encima del nivel freático. Una reacción simultánea entre la parte sumergida de
la fuente y el agua subterránea. Causa la oxidación de los iones reducidos
presentes en el agua subterránea. Esto produce un exceso de iones positivos en
la solución y libera electrones en la superficie de la persona, que actúa como un
conductor que conecta las dos medias celdas. Los electrones fluyen desde la
parte profunda a la parte superficial de la persona fuera de la persona, los iones
positivos se mueven de abajo a
arriba a lo largo de las líneas de campo eléctrico. Las superficies
equipotenciales.Son normales a las líneas de campo. Se mide el auto-potencial
donde intersectan la superficie del suelo (Fig. 4.42).
El modelo redox es inadecuado por la misma razón que el modelo galvánico; no
da cuenta de muchas de las características observadas de las anomalías del auto
potencial. En particular, la asociación de modelos de auto-potencial con el agua ha
sido puesta en duda. Por otra parte, los orebodies de sulfuro parecen persistir por
el tiempo geológico, de modo que un aparece un mecanismo de flujo de carga
permanente. improbable. El auto potencial es una característica de un sistema
estable que se perturba al hacer una conexión eléctrica entre La roca huésped y el
conductor de sulfuro a través de los electrodos insertados y su cable de conexión
la diferencia de potencial observada parece deberse a la diferencia en el potencial
de oxidación entre las ubicaciones de los electrodos de medición, uno interior y
otro fuera de la zona de mineralización.

4.3.4.2 topografía SP
El equipo necesario para una encuesta SP es muy simple consiste en un
voltímetro digital sensible de alta impedancia para medir la diferencia de potencial
natural entre Dos electrodos implantados en el suelo. Metal simple las estacas son
inadecuadas como electrodos. Las reacciones electroquímicas tienen lugar entre
el metal y la humedad en el terreno, causando la acumulación de cargas espurias
en él los electrodos, que pueden falsificar u oscurecer el pequeño natural.
auto-potenciales. Para evitar o minimizar este efecto se utilizan electrodos no
polarizables. Cada electrodo consta de una varilla metálica sumergida en una
solución saturada propia. Sal; Un arreglo común es una varilla de cobre en cobre.
solución de sulfato. La combinación está contenida en una olla de cerámica que
permite que el electrolito se escape lentamente a través de sus paredes porosas,
realizando así contacto con el suelo. Dos métodos de campo son de uso común
(Fig. 4.43). el método de gradiente emplea una separación fija entre el electrodo,
del orden de 10 m. La diferencia potencial es medida entre los electrodos, luego
se desplaza el par. adelante a lo largo de la línea de estudio hasta que el electrodo
de arrastre ocupa el emplazamiento anteriormente ocupado por los principales
electrodos. Se encuentra el potencial total en una estación de medición en relación
con un punto de inicio fuera del área de estudio sumando las diferencias
potenciales incrementales. Algunos la polarización del electrodo es inevitable,
incluso con electrodos no polarizables. Esto da lugar a un pequeño error en

Fig. 4.43 Las técnicas de campo


para medir el auto-potencial por (a)
la
método de gradiente y (b) el método
de campo total. El potencial total V
en
una estación en el método de
gradiente se encuentra sumando el
anterior
diferencias potenciales V; en el
campo total el método V se mide
directamente.

cada medida; estos se suman a un


error acumulativo en El potencial
total. Los efectos de polarización a veces pueden reducirse intercambiando los
electrodos anterior y posterior. En esta técnica de "salto", el electrodo principal.
para una medición se mantiene en su lugar y se convierte en el electrodo de
arrastre para la siguiente medición; Mientras tanto, el electrodo posterior anterior
se mueve hacia adelante para convertirse en el electrodo principal. El error
acumulativo es la desventaja más grave de la configuración del electrodo fijo. Un
práctico La ventaja de la técnica es que solo una corta longitud de El cable de
conexión debe moverse junto con los electrodos. El método de campo total utiliza
un electrodo fijo a una Estación base fuera del área de exploración y un móvil.
electrodo de medida. Con este método el potencial total. Se mide directamente en
cada estación. El cable de conexión los electrodos deben ser lo suficientemente
largos para permitir una buena cobertura del área de interés. Esto requiere un
cable largo. que debe enrollarse o desenrollarse en un carrete para cada estación
de medición. Sin embargo, los resultados del método de campo total en el error
acumulativo más pequeño que el método de gradiente. Eso Permite una mayor
flexibilidad en la colocación del electrodo móvil y Suele dar datos de mejor calidad.
Por lo tanto, el campo total Generalmente se prefiere el método, excepto en
terrenos difíciles.
El procedimiento de topografía con cada técnica consiste la medición del potencial
en estaciones discretas a lo largo de un perfil Al igual que en las encuestas de
gravedad y magnética, los datos se mapean (Fig. 4.44) y las interpretaciones de
anomalías se basan en su geometría. Métodos utilizados para interpretar el auto
potencial. las anomalías son a menudo cualitativas o se basan en simples
modelos geométricos. Inspección visual de anomalías mapeadas.

Fig. 4.44. Líneas de contorno


hipotéticas de un potencial propio
negativo. anomalía sobre una
persona; La asimetría de la
anomalía a lo largo del El perfil AB
sugiere que la persona se inclina
hacia A.

puede revelar tendencias


relacionadas con el alargamiento
de la persona; el apiñamiento de curvas de nivel puede indicar su orientación
perfiles trazados en direcciones conocidas a través de la anomalía se puede
comparar con curvas generadas desde simples modelos de la fuente. Por ejemplo,
una esfera polarizada puede ser utilizado para modelar la fuente de
aproximadamente circular anomalías, mientras que una fuente de línea horizontal
(o polarizado cilindro) se puede utilizar para modelar una anomalía alargada. Un
Método común y efectivo es modelar anomalías SP.con fuentes puntuales; Las
anomalías complejas se modelan con Combinaciones de fuentes y sumideros.
4.3.4.3 Corrientes telúricas

La radiación ultravioleta del Sol ioniza moléculas de aire en la delgada atmósfera


superior de la Tierra. Los iones se acumulan en varias capas, formando la
ionosfera (ver Sección 5.4.3.2) en altitudes entre unos 80 km y 1500 km sobre la
superficie de la Tierra. Corrientes eléctricas en la ionosfera surgen de los
movimientos sistemáticos de los iones, que se ven afectados por diversos
factores, como el diario y el diario mareas mensuales, las variaciones estacionales
de la insolación y las fluctuaciones periódicas de la ionización relacionada con el
período de 11 años ciclo de manchas solares. Las corrientes producen corrientes
magnéticas variables con las mismas frecuencias, que se observan en los campos
la superficie de la Tierra y puede ser analizada a largo plazo. registros continuos
del campo geomagnético. Los efectos ionosféricos aparecen en el espectro de
energía del campo geomagnético como picos distintos que representan períodos
que van desde fracciones de segundo (pulsaciones geomagnéticas) a varios años
(Fig. 4.45). Los campos magnéticos inducen

Fig. 4.45 a) El espectro de


frecuencias de las variaciones
naturales del intensidad
horizontal del campo
geomagnético, y b) la
correspondiente espectro de
fluctuaciones de campo
eléctrico inducidas, calculado
para un modelo Tierra con
una resistividad uniforme de
20 millones de dólares
(después de Serson, 1973).

corrientes eléctricas
fluctuantes, llamadas
corrientes telúricas, que
fluyen en capas horizontales
en la corteza y el manto. El patrón actual consiste en varios verticilos enormes,
miles de kilómetros de diámetro, que permanecen fijos con respecto al Sol y por lo
tanto se mueve alrededor de la Tierra mientras gira.
La distribución de la densidad de corriente telúrica depende de la variación de la
resistividad en la conducción horizontal capas. A profundidades superficiales de la
corteza las líneas de flujo de corriente son perturbados por estructuras
subterráneas que causan contrastes en la resistividad. Éstos podrían surgir de
estructuras geológicas o de la presencia de zonas mineralizadas. Considere, para
ejemplo, un anticlinal enterrado que tiene un efecto altamente resistivo (como el
granito) como su núcleo y está cubierto por una capa conductora de rocas
sedimentarias porosas saturadas con aguas subterráneas. El flujo horizontal de la
corriente telúrica a través del anticlinal escoge el camino menos resistivo a través
del conduciendo sedimentos. Las líneas actuales se agrupan sobre el eje del
anticlinal, aumentando la horizontal densidad de corriente (Fig. 4.46). Las
superficies equipotenciales normal a las líneas actuales intersectan la superficie
del suelo, donde las diferencias de potencial pueden medirse con un voltímetro de
alta impedancia.

El equipo de campo para la medición de la corriente telúrica densidad es simple.


Los sensores son un par de electrodos no polarizables con una separación fija L
del orden de 10-100 m. La diferencia de potencial V entre los electrodos se mide
con un voltímetro de alta impedancia.

Fig. 4.46 Las líneas de corriente


telúrica son desviadas por cambios
en el espesor de una capa
conductora sobre una estructura más
resistiva (fondo). El telúrico la
densidad de corriente (arriba) se
obtiene a partir de la tensión medida
entre un par de electrodos de
separación fija en la superficie
(después de Robinson y Çoruh,
1988).

campo eléctrico E en un punto intermedio entre los electrodos puede asumirse que
es V/L. Utilizando la ley de Ohm (Ec. (4.80)) y asumiendo que la corriente telúrica
fluye al conducir una capa de roca con resistividad r1, la densidad de corriente
telúrica J en cada estación de medición a lo largo de un perfil viene dado por

La dirección de la corriente telúrica no se conoce, así que


dos pares de electrodos orientados perpendicularmente a cada uno de ellos se
utilizan otros. Un par está alineado de norte a sur, el otro par este-oeste. Las
corrientes telúricas varían impredeciblemente con el tiempo, pero sólo cambian
lentamente dentro de un entorno homogéneo.región en la región para llevar un
registro de los cambios temporales, se coloca un par de electrodos ortogonales en
una estación base fija fuera del área a explorar. Otro par ortogonal se mueve a
través del área de la encuesta. Las diferencias de potencial a través de cada par
de electrodos en las matrices móvil y de base se graban simultáneamente durante
varios minutos en cada de medición. La correlación de los registros permite
eliminación de los cambios temporales de dirección e intensidad de las corrientes
telúricas. La desviación de la corriente telúrica por una estructura resistiva del
subsuelo, como se muestra en la Fig. 4.46, es muy ideal. Asume una resistividad
infinita ρ1 en el núcleo del anticlinal. En la práctica, la corriente no se desvía
completamente a través de la capa mejor conductora; la parte fluye a través de la
capa más resistiva también. Por lo tanto, no podemos asumir que la resistividad
ρ2en la Ecuación (4.83) corresponde al bien director de orquesta. Más bien,
representa una mezcla indefinida de los valores ρ1 ρ2. Tampoco es la verdadera
resistividad de la sino la resistividad aparente de la medición.

4.3.5 Medición de la Resistividad


El gran contraste en resistividad entre los cuerpos mineralizados y
sus rocas huéspedes (véase la Fig. 4.41) se explotan en el sector eléctrico la
prospección de resistividad, especialmente de los minerales que se producen
como buenos conductores. Ejemplos representativos son los siguientes minerales
de sulfuro de hierro, cobre y níquel. El estudio de la resistividad eléctrica es
también una técnica geofísica importante. en aplicaciones medioambientales. Por
ejemplo, debido a la buena conductividad eléctrica de las aguas subterráneas, la
resistividad de una roca sedimentaria es mucho menor cuando está anegada que
en estado seco. En lugar de depender de las corrientes naturales, dos electrodos
se utilizan para suministrar una corriente eléctrica controlada a la tierra. Como en
el método telúrico, las líneas de corriente fluyen se adaptan al patrón de
resistividad del subsuelo de modo que la diferencia de potencial entre las
superficies equipotenciales puede ser medida en el punto de intersección con la
superficie del suelo, utilizando un segundo par de electrodos. Una simple corriente
continua puede causar cargas que se acumulan en los electrodos potenciales, que
resulta en señales espurias. Una práctica común es conmutar la corriente continua
para que su dirección se invierta. cada poco segundo; alternativamente se puede
utilizar una corriente alterna de baja frecuencia. En investigaciones de electrodos
múltiples el par de electrodos de corriente y el par de electrodos de potencial son
normalmente intercambiables.
4.3.5.1 Potencial de un solo electrodo
Considere el flujo de corriente alrededor de un electrodo que introduce una
corriente I en la superficie de un semi espacio uniforme (Fig. 4.47a). El punto de
contacto actúa como una corriente fuente, de la cual la corriente se dispersa hacia
afuera las líneas de campo eléctrico son paralelas al flujo de corriente y normal a
las superficies equipotenciales, que tienen forma hemisférica. La densidad de
corriente J es igual a I dividido por la superficie, que es 2 π 2para un hemisferio de
radio r. El campo eléctrico E a la distancia r del electrodo de entrada se obtiene a
partir de la ley de Ohm (Ec. (4.80))

Poniendo esta expresión en la Ecuación (4.74), se obtiene el valor eléctrico U a la


distancia r del electrodo de entrada:

Si el suelo es un semiespacio uniforme, el campo eléctrico líneas alrededor de un


electrodo de la fuente, que suministra corriente a el suelo, se dirigen radialmente
hacia afuera (Fig. 4.47b). Alrededor de un electrodo de fregadero, donde la
corriente fluye desde la tierra, las líneas de campo se dirigen radialmente hacia el
interior (Fig. 4.47c). Las superficies equipotenciales alrededor de una fuente o
electrodo del fregadero son los hemisferios, si nos fijamos en el electrodo:

Fig. 4.47 Líneas de campo eléctrico y superficies equipotenciales en torno a un


único en la superficie de un medio espacio uniforme: a) hemisféricas superficies
equipotenciales, b) líneas de campo radiales hacia el exterior alrededor de una
fuente, y c) líneas de campo radiales hacia el interior alrededor de un fregadero.
en aislamiento. El potencial alrededor de una fuente es positivo y disminuye como
1/r con el aumento de la distancia. El signo de y es negativo en un fregadero,
donde la corriente fluye desde la tierra. Así, alrededor de un fregadero el potencial
es negativo y aumenta (se vuelve menos negativo) como 1/r con el aumento
distancia desde el fregadero. Podemos utilizar estas observaciones para calcular
la diferencia de potencial entre un segundo par de electrodos a distancias
conocidas de la fuente y fregadero

4.3.5.2 El método general de cuatro electrodos

Considere un arreglo que consiste en un par de corrientes


y un par de electrodos de potencial (Fig. 4.48). Los electrodos de corriente A y B
actúan como fuente y sumidero, respectivamente. En el electrodo de detección C
el potencial debido a la fuente A es + ρI / ¿), mientras que el potencial debido a el
fregadero B es - ρI /(2 πr CB ). El potencial combinado en C es
Del mismo modo, el potencial resultante en D es

La diferencia de potencial medida por un voltímetro conectado entre C y D es

Fig. 4.48 Configuración


general de cuatro
electrodos para
resistividad medida, que
consiste en un par de
electrodos de corriente
(A, B) y un par de
electrodos potenciales
(C, D).
Todas las cantidades de esta ecuación se pueden medir en el excepto la
resistividad, que viene dada por:

4.3.5.3 Configuraciones especiales de electrodos


La fórmula general para la resistividad medida por un método de fourelectrodo es
más simple para algunas geometrías especiales de los electrodos de corriente y
de potencial. Las más comunes configuraciones utilizadas son las de Wenner,
Schlumberger y de doble dipolo. En cada configuración el cuatro electrodos son
colineales, pero sus geometrías y distancias son diferentes.

En la configuración de Wenner (Fig. 4.49a) la corriente y los pares de electrodos


potenciales tienen un punto medio común y las distancias entre los electrodos
adyacentes son iguales, de modo que r AC =r DB =a2 y r CB=r AD=2 a . Insertar estos en
la Ecuación (4.89) da
En la configuración de Schlumberger (Fig. 4.49b) las pares de electrodos de
corriente y de potencial a menudo también tienen un punto medio común, pero las
distancias entre el punto medio adyacente los electrodos difieren. Dejemos que las
separaciones de la corriente y los electrodos potenciales son L y a,
L−a
respectivamente. Entonces r AC =r DB = y r AD =r CB =( L+ a)/2. Sustituyendo en la
2
fórmula general, obtenemos

En esta configuración la separación de los electrodos de corriente se mantiene


mucho mayor que la de los electrodos de potencial. (L»a). Bajo estas condiciones,
la Ec. (4.92) se simplifica a

Fig. 4.49 Geometrías


especiales de los electrodos
de corriente y de potencial
para (a)
Wenner, (b) Schlumberger y
(c) configuraciones de doble
dipolo.

En la configuración de doble
dipolo (Fig. 4.49c), el
espaciado de los electrodos en cada par es a, mientras que la distancia entre sus
puntos medios es L, que es generalmente mucho mayor que a. Tenga en cuenta
que el electrodo de detección D es definido como el electrodo potencial más
cercano al sumidero de corriente B. En este caso,
r AD =r BC =L, r AC =L+ a , y r BD=L−¿ a. La resistividad medida es

Se pueden utilizar dos modos de investigación con cada configuración de


electrodo. La configuración de Wenner es la mejor adaptado al perfilado lateral. El
conjunto de cuatro electrodos se desplaza paso a paso a lo largo de un perfil,
manteniendo constantes los valores de las distancias entre electrodos.
correspondiente a la configuración empleada. La separación de los electrodos de
corriente se elige de modo que la corriente el flujo se maximiza en profundidades
donde la resistividad lateral se esperan contrastes. Resultados de varios perfiles
puede ser compilado en un mapa de resistividad de la región de interés. La
encuesta regional revela las variaciones horizontales en resistividad dentro de un
área a una profundidad particular. Es mejor adecuado para la localización de
contactos de inmersión pronunciados entre rocas con un fuerte contraste de
resistividad y buena conducción

Fig. 4.50 Sección de los "tubos" de corriente y superficies equipotenciales entre


una fuente y un fregadero; los números en las líneas actuales indican el de
corriente que fluye por encima de la línea (después de Robinson y Çoruh, 1988;
basado en Van Nostrand y Cook, 1966).
como diques mineralizados, que pueden ser potenciales cuerpos mineralizados.
En el sondeo eléctrico vertical (SEV) el objetivo es observar la variación de la
resistividad con la profundidad. La técnica se adapta mejor a la determinación de
la profundidad y la resistividad para estructuras rocosas de capas planas, como
las sedimentarias o la profundidad de la capa freática. El Schlumberger es la más
comúnmente usada para investigaciones VES. El punto medio de la matriz se
mantiene fijo mientras que el punto medio de la matriz se mantiene fijo. la
distancia entre los electrodos de corriente es progresiva se ha incrementado. Esto
hace que las líneas de corriente penetren para profundidades cada vez mayores,
dependiendo de la distribución vertical de conductividad.

4.3.5.4 Distribución de la corriente


El dibujo actual en un semiespacio uniforme se extiende lateralmente a ambos
lados de la línea del perfil. Vista desde arriba, las líneas actuales se abultan hacia
afuera entre la fuente y el fregadero con una geometría similar a la mostrada en la
Fig. 4.39c. En una sección vertical las líneas actuales se asemejan a la mitad de
un dipolo geometría. En tres dimensiones la corriente puede ser visualizada como
fluyendo a través de tubos que engordan a medida que salen de la fuente y se
estrechan a medida que convergen hacia el fregadero. La figura 4.50 muestra el
patrón de flujo de la corriente en una sección vertical a través de los "tubos" en un
medio espacio uniforme. Para evaluar la penetración de profundidad de la
corriente en un semiespacio uniforme definimos la cartesiana ortogonales
coordenadas con el eje x paralelo al perfil y el eje x eje z vertical (Fig. 4.51a).
Dejemos que el espaciamiento de la corriente electrodos L y la resistividad del
medio espacio r. El campo eléctrico horizontal Ex en (x, y, z) es

Donde r 1=( x ¿ ¿ 2+ y 2+ z 2 ) ¿ y r 2=( ( L−x 2 ) + y 2 + z 2).


1/ 2

La diferenciación y el uso de la ley


de Ohm (Ec. (4.80)) da como
resultado la densidad de corriente
horizontal Jx en (x, y, z):

Fig. 4.51 (a) Geometría para la


determinación de la densidad de
corriente de forma uniforme tierra por debajo de dos electrodos, y b) fracción de
corriente ( I x /¿/I) que fluye
por encima de la profundidad z a través del plano medio entre los electrodos de
corrientecon separación L (después de Telford et al., 1990).

Si (x, y, z) está en el plano vertical a mitad de camino entre el electrodos de


corriente, x=L/2, r 1=r 2 y la densidad de corriente viene dada por

La corriente horizontal dI x a través de un elemento de área

(dydz) en el plano vertical medio esdI x =J X dydz . La fracción de la corriente de


entrada I que fluye a través del plano medio por encima de una profundidad z se
obtiene por integración:

La ecuación (4.101) muestra que I x depende de la separación entre electrodos de


corriente L(Fig. 4.51b). La mitad de las cruces actuales el plano por encima de una
profundidad z=L/2, y casi el 90% pasa por encima de la profundidad z=3 L. La
fracción de corriente entre La diferencia entre dos profundidades se obtiene a
partir de la diferencia en las fracciones sobre cada profundidad calculada con la
Ecuación (4.101).
Fig. 4.52 a) Parámetros de
la disposición de cuatro
electrodos, b) distribución de las
líneas de corriente en un terreno
de dos capas con resistividades
r 1 y r 2 y(r 1 r 2) (c) la variación de la
resistividad aparente como la
corriente El espaciamiento de los
electrodos es variado para los
dos casos de r 1 r 2 y r 1 r 2

4.3.5.5 Resistividad aparente

En el caso idealizado de una conducción perfectamente uniforme medio-espacio


las líneas de flujo de corriente se asemejan a un patrón de dipolo (Fig. 4.50), y la
resistividad determinada con una configuración de cuatro electrodos es la
verdadera resistividad del medio espacio. Pero en situaciones reales la
resistividad está determinada por diferentes litologías y estructuras geológicas y,
por lo tanto, puede ser muy poco homogéneo. Esta complejidad no se tiene en
cuenta al medir la resistividad con un electrodo de cuatro electrodos
que supone que el suelo es uniforme. El resultado de tal medición es la
resistividad aparente de un semiespacio uniforme equivalente y, por lo general, no
representan la verdadera resistividad de cualquier parte del terreno. Considere
una estructura de capas horizontales en la que un
capa de espesor d y resistividad r1 sobre un conductor con una resistividad inferior
r2 (Fig. 4.52). Si el electrodo de corriente está muy junto, de modo que L»d, todos
o la mayor parte de la corriente fluye en la capa superior más resistiva, de modo
que la resistividad medida se acerque al valor real de la capa superior, r1. Con la
creciente separación de los electrodos de corriente la profundidad alcanzada por
las líneas de corriente aumenta. Proporcionalmente más flujos de corriente en el
menor por lo que la resistividad medida disminuye.
Por el contrario, si la capa superior es un mejor conductor que la capa inferior, la
resistividad aparente aumenta con aumentar la distancia entre electrodos. Cuando
la separación del electrodo es mucho mayor que el grosor de la capa superior (L
d) la resistividad medida es cercana al valor r2 de la capa inferior. Entre las
situaciones extremas, la resistividad aparente determinada a partir de la corriente
medida y el voltaje no se relaciona simplemente con la resistividad verdadera de
cualquier capa 4.3.5.6 Sondeo eléctrico vertical una situación de dos capas se
encuentra a menudo en el sector eléctrico. la prospección, por ejemplo, cuando
una sobrecarga de conducción sobre un sótano resistivo. También es común en
aplicaciones ambientales, cuando la capa freática conductora se encuentra bajo
suelos o rocas más secos y resistivos. Antes del advenimiento de los ordenadores
portátiles, se interpretaron casos de dos capas con la ayuda de curvas
características. Estos teóricos calculados para un conjunto particular de cuatro
electrodos, tener en cuenta el cambio en la penetración de profundidad cuando las
líneas de corriente cruzan el límite de una capa con diferentes resistividades. Las
condiciones límite eléctricas requieren la continuidad del componente de densidad
de corriente J normal a la interfaz y del componente del campo eléctrico E
tangente a la interfaz. En un límite, las líneas actuales se comportan como rayos
ópticos o sísmicos, y son guiados por leyes similares de reflexión y refracción. Por
ejemplo, si u es el ángulo entre una línea de corriente y la normal para él la "ley de
refracción" eléctrica es la siguiente

En un conjunto de curvas características, la resistividad ρ aparente se normaliza


por la resistividad r 1 de la capa superior y la distancia entre electrodos se expresa
como un múltiplo de la capa de espesor. La forma de la curva de resistividad
aparente versus espaciamiento de electrodos depende del contraste de
resistividad entre las dos capas, y de una familia de características. se calcula
para diferentes relaciones de r 2 / r 1 (Fig. 4.53). El contraste de resistividad se
expresa convenientemente mediante un factor k definido com

El factor k oscila entre +1 y -1 ya que la resistividad La relación r 2 /r 1 varía entre 0


y #. La característica curva, dibujadas como gráficas logarítmicas completas sobre
una base transparente. se comparan gráficamente con los datos de campo para
encontrar la curva característica que mejor se adapte a sus necesidades. La
comparación produce las resistividades r 2 y r 1de la parte superior y de la inferior.
respectivamente, y el espesor de la capa, d. Aunque las curvas características
también se pueden calcular para la interpretación de estructuras con múltiples
capas horizontales, los modernos análisis VES aprovechan la flexibilidad que
ofrecen los ordenadores pequeños con gráficos de resistividad aparente en las
que las curvas de resistividad aparente pueden ser se evalúa visualmente. El
primer paso del análisis consiste en clasificar la forma del perfil de sondeo vertical.

Fig. 4.53 Curvas características de la


resistividad aparente para un sistema de dos
capas utilizando la matriz de Wenner; los
parámetros se definen en el recuadro.

La curva de resistividad aparente para una


estructura de tres capas generalmente tiene
una de cuatro formas típicas, determinadas
por la secuencia vertical de resistividades en
las capas (Fig. 4.54). La curva de tipo k se
eleva a un máximo y luego disminuye, lo que
indica que la capa intermedia tiene mayor
resistividad que las capas superior e inferior. La curva tipo H muestra el efecto
opuesto; se reduce al mínimo y luego aumenta de nuevo debido a una capa
intermedia que es mejor conductora que las capas superior e inferior. La curva de
tipo A puede muestran algunos cambios en el gradiente, pero la resistividad
aparente generalmente aumenta continuamente con el aumento del electrodom la
separación, lo que indica que las verdaderas resistividades aumentan con
profundidad de capa a capa. La curva tipo Q muestra el efecto opuesto; disminuye
continuamente junto con una disminución progresiva de la resistividad con la
profundidad. Una vez que el perfil de resistividad observado ha sido identificado
como de tipo K, H, A o Q, el siguiente paso es equivalente a inversión
unidimensional de los datos de campo.
La técnica involucra procedimientos iterativos que consumirían mucho tiempo sin
una computadora rápida. El método asume las ecuaciones para la respuesta
teórica de un sistema de múltiples capas tierra. Cada capa se caracteriza por su
espesor y
resistividad, cada una de las cuales debe ser determinada. Se hace una primera
estimación de estos parámetros para cada capa y la curva prevista de resistividad
aparente frente a electrodo se calcula el espaciado. Las discrepancias entre la
Fig. 4.54 Los cuatro tipos de formas de
resistividad aparente
curvas para una estructura en capas que consta
de tres ejes horizontales capas.
se determinan las curvas observadas y teóricas
punto por punto. Los parámetros de capa
utilizados en las ecuaciones de gobierno se
ajustan a continuación, y el cálculo es el
siguiente
repetido con los valores corregidos, lo que da
una nueva predicción para comparar con los
datos de campo. Usando computadoras
modernas el procedimiento puede ser reiterado
rápidamente hasta que Las discrepancias son menores que un valor
predeterminado. El método de inversión es equivalente al ajuste automático de las
curvas observadas y teóricas. Un análisis unidimensional tiene en cuenta sólo las
variaciones de resistividad y espesor de capa con profundidad. La respuesta de
una estructura de capas verticales tiene una solución analítica, por lo que se
pueden establecer algoritmos de inversión eficientes. En los últimos años, se han
propuesto procedimientos que también tener en cuenta las heterogeneidades
laterales. La respuesta de Las estructuras bidimensionales o tridimensionales
deben aproximarse mediante una solución numérica, basada en las técnicas de
diferencia finita o de elementos finitos. El número de las cantidades desconocidas
aumentan, al igual que las cantidades computacionales dificultades de la
inversión.
4.3.5.7 Polarización inducida
Si se utiliza corriente continua conmutada en un electrodo de cuatro electrodos
medición de resistividad, la secuencia de flujo positivo y negativo puede estar
intercalada con períodos en los que la corriente está apagada. La corriente de
inducción tiene entonces un aspecto de caja (Fig. 4.55a). Cuando se interrumpe la
corriente, la tensión a través de los electrodos potenciales no caen
inmediatamente a cero.
Después de una abrupta caída inicial a una fracción de su estado estacionario se
descompone lentamente durante varios segundos (Fig. 4.55b). Por el contrario,
cuando la corriente está conectada, el potencial se eleva repentinamente al
principio y luego se acerca gradualmente al valor de estado estacionario. La lenta
decadencia y crecimiento de parte de
Fig. 4.55 (a) Ilustración de la
disminución del potencial relacionada con
la PI después de interrupción de la
corriente primaria. b) Efecto del deterioro
del IP tiempo en la forma de onda
potencial para una corriente de entrada
de onda cuadrada.

la señal se debe a la polarización


inducida, lo que resulta en de dos efectos
similares relacionados con la estructura
de la roca: la polarización de la
membrana y la polarización de los
electrodos. La polarización de la
membrana es una característica de la
conducción electrolítica. Surge de las diferencias en la capacidad de los iones en
fluidos porosos para migrar a través de una roca porosa. Los minerales en una
roca generalmente tienen una carga superficial negativa y por lo tanto, atraen
iones positivos en el líquido de poro. Se acumulan en la superficie de la fibra y se
extienden hacia la superficie adyacente. poros, bloqueándolos parcialmente.
Cuando un voltaje externo los iones positivos pueden pasar a través de la "nube"
de carga positiva, pero se acumulan iones negativos, a menos que el tamaño de
los poros es lo suficientemente grande como para que puedan pasar por alto el
bloqueo. El efecto es como una membrana, que selectivamente permite el paso de
un tipo de iones. Causa problemas temporales acumulaciones de iones negativos,
dando un iónico polarizada distribución en la roca. El efecto es más pronunciado
en rocas que contienen minerales arcillosos; en primer lugar, porque el grano y los
tamaños de los poros son pequeños, y, en segundo lugar, porque la arcilla los
granos tienen una carga relativamente fuerte y adsorben los iones en sus
superficies. La acumulación iónica tarda poco tiempo en producirse. la tensión
está conectada; cuando la corriente está conectada apagado, los iones vuelven a
su posición original. La polarización de los electrodos es un efecto similar que se
produce cuando hay minerales presentes. Los granos metálicos conducen la carga
por conducción electrónica, mientras que la conducción electrolítica tiene lugar a
su alrededor. Sin embargo, el flujo de electrones a través del metal es mucho más
rápido que el flujo de iones. en el electrolito, por lo que se acumulan cargas
opuestas en el revestimiento superficies de un grano metálico que bloquea el paso
de los iones a través del líquido de los poros. Una sobretensión se acumula para
algún tiempo después de conectar la corriente externa. El
El tamaño del efecto es proporcional a la concentración metálica. Después de
desconectar la corriente, los valores acumulados de los iones se dispersan y la
sobretensión decae lentamente. Los dos efectos responsables de la polarización
inducida son indistinguibles a nivel de medición. El método de campo para una
encuesta de polarización inducida (IP) se basa en la mayoría de los casos en la
matriz de doble dipolo. Los electrodos de corriente forman un mientras que los
electrodos de potencial forman un par de receptores. La tensión de estado
estacionario v o se registra y en comparación con la amplitud del residuo en
descomposición tensión v(t) en el tiempo t después de la interrupción de la
corriente (Fig. 4.55c). La relación v(t)/v o se expresa en porcentaje, que decae
durante los 0,1-10 s entre la conmutación de los valores de corriente encendida y
apagada. Si la curva de decaimiento es muestreada a muchos puntos, su forma y
el área bajo la curva puede ser obtenido (Fig. 4.55d). El área bajo la curva de
decaimiento, expresado como una fracción de la tensión de estado estacionario,
se denomina la exigibilidad M, definida como

M tiene las dimensiones del tiempo y se expresa en segundos o milisegundos. Es


el parámetro más utilizado en estudios de PI. La polarización inducida determina la
longitud del tiempo de decaimiento potencial. Si es más corto que el tiempo en el
que la la corriente de inducción está apagada, sucesivo semicírculo del potencial
no interferirá. Sin embargo, si un conductor diseminado el tiempo de decaimiento
aumenta, causando superposición y distorsión de los semicírculos. Cuanto más
alta sea la frecuencia de la señal más pronunciado es el efecto. Aumenta la
relación V(t)/V0, dando la impresión de que el conductor es mejor de lo que es
realmente presente (es decir, la resistividad aparente disminuye con frecuencia
creciente). Claramente, los estudios de IP y resistividad con corriente alternan
también se ven influenciados. La frecuencia la dependencia del efecto IP se
explota midiendo resistividad aparente a dos frecuencias bajas. Que estos sean ƒ
y F (ƒ). Comúnmente ƒ0.050.5 Hz y F1-10 Hz. Entonces rƒ rF y podemos definir
un efecto de frecuencia como

La ratio FE se multiplica a menudo por 100 para expresarlo como una (ZFP). Si no
hay ningún efecto IP presente, la resistividad será el mismo en ambas frecuencias.
Cuanto mayor sea el valor de FE o PFE, mayor es la polarización inducida en el
suelo. A frecuencias superiores a 10 Hz, los efectos de inductancia mutua entre
los cables de los circuitos primario y de detección pueden producir potenciales
problemáticos, que pueden ser debe evitarse mediante el procedimiento de campo
(por ejemplo, restringiendo F) o minimizado analíticamente. La presencia de
conductores metálicos se expresa mediante un parámetro similar a FE, el factor
metálico (MF). Este es proporcional a la diferencia de conductividades entre las
dos frecuencias de medición.

La constante A es igual a 2 πx 105; las unidades de MF son los de conductividad (es


decir, Ω−1 m−1 o S m−1). Una encuesta IP incluye tanto perfiles laterales como
verticales con el método de expansión de la dispersión. Utilizando una la distancia
entre los electrodos más cercanos de los pares de transmisor y receptor es una
distancia múltiple. (na) de la distancia entre electrodos a en cada par. Medidas se
realizan en varias posiciones discretas, ya que el par de receptores es se alejó
gradualmente del par de transmisores fijos. El par de transmisores es entonces
movido por un incremento a lo largo del perfil y el procedimiento se repite. El valor
de ra, La FE o MF obtenida en cada medición se representa a continuación el
punto medio de la matriz en la intersección de dos líneas inclinado a 45° (Fig.
4.56a). La información se obtiene de profundidades cada vez mayores como
emisor-receptor se expande (es decir, a medida que aumenta n). El valor graficado
es, sin embargo, no el valor real del parámetro a la profundidad indicada.
(Recordemos, por ejemplo, que una medición de la resistividad aparente
representa un medio espacio equivalente debajo de la matriz.) Se sintetiza una
imagen bidimensional de la variación del parámetro IP por debajo del perfil.
contorneando los resultados (Fig. 4.56b). La parcela se llama pseudo-sección;
proporciona un conveniente (aunque artificial)

Fig. 4.56 a) Construcción de una


pseudo-sección para un IP de doble dipolo medición: el parámetro medido se
representa en la intersección de 45 líneas que se extienden desde los puntos
medios del transmisor y del receptor pares. b) Pseudo-secciones de resistividad
aparente y factor metálico para una encuesta IP sobre un yacimiento de sulfuro
(redibujado de Telford et al., 1990)
la imagen de la presencia de conductores anómalos, pero no representan su
verdadero alcance lateral o vertical. La presencia de regiones anómalas puede
investigarse más a fondo mediante perforación exploratoria. Las anomalías de
resistividad dependen de la presencia de conductores continuos, tales como agua
subterránea o cuerpos de mineral masivos. Si la mineralización se disemina a
través de una roca, ésta puede no causar una anomalía de resistividad
significativa. Lo bueno la respuesta del método IP a las concentraciones
diseminadas de minerales conductores condujo a su desarrollo en exploración de
metales de base, donde el grande yacimiento de mineral de baja ley puede ser
comercialmente importante. Sin embargo, el efecto de la PI también depende de la
porosidad y saturación de la roca. Como resultado, también puede ser utilizado en
la búsqueda de agua subterránea y en otras aplicaciones ambientales.

4.3.5.8 Tomografía por resistividad eléctrica


La disponibilidad de computadoras rápidas y económicas y el desarrollo de
algoritmos eficientes ha llevado a que el desarrollo de métodos topográficos
eléctricos similares a los de la técnica de tomografía sísmica descrita en la sección
3.7.6. Tomografía sísmica basada en llegadas telemáticas de los terremotos se
utiliza para describir las regiones más profundas del mundo. El manto terrestre
que tiene velocidades sísmicas anómalas. Tomografía sísmica utilizando señales
refractadas y reflejadas de fuentes controladas también pueden utilizarse para
describir perturbaciones de velocidad debidas a características de poca
profundidad en la corteza terrestre. De manera similar, la tomografía eléctrica es
usado para describir la estructura de resistividad de la superficie cercana regiones
a profundidades de varias decenas de metros. En sísmica la tomografía, los
tiempos de viaje observados se invierten en obtener la estructura de velocidad a lo
largo de la trayectoria de un sísmico rayo. Análogamente, en la tomografía de
resistividad, una inversión se aplica a los potenciales eléctricos medidos entre
pares de electrodos para obtener la estructura de resistividad a lo largo de las
líneas de flujo actuales. Los métodos de resistividad de corriente continua y de
resistividad inducida
se adaptan fácilmente al análisis topográfico. En lugar de desplegar un solo par de
electrodos de corriente y un solo par de electrodos de potencial, se despliega una
serie de electrodos espaciados regularmente. Para aplicaciones bidimensionales
se utiliza una disposición lineal de los electrodos; en el caso de los electrodos
investigaciones tridimensionales los electrodos forman un de la matriz de área.
Diferentes combinaciones de electrodos de corriente y pares de electrodos de
potencial. El cálculo de la inversión es a la vez complejo y computarizado
intensivo. Produce un efecto vertical bidimensional o tridimensional. Sección
transversal de las resistividades reales bajo el electrodo de la matriz. Como en los
métodos estándar de resistividad, la resolución y la profundidad máxima de
investigación dependen de la separación y geometría de los electrodos.
La aplicación de la tomografía por resistividad en corriente continua a un problema
ambiental se ilustra con una investigación de la extensión de hielo y permafrost en
un enterrado en el glaciar de los Alpes. El glaciar de roca Murtel en El Monte
Corvatsch, en Suiza, es un lugar en el que se puede cuerpo congelado
(permafrost). Su estructura vertical es conocida desde un taladro a través del
cuerpo hasta unos 50 m por debajo de la superficie. Un estudio tomográfico de
resistividad empleando más de 30 electrodos en las configuraciones de Wenner
dio un perfil vertical de resistividad en buen acuerdo con los resultados del
sondaje, y describió los resultados laterales la extensión de la estructura del
subsuelo del cuerpo del permafrost en detalle (Fig. 4.57). El hielo tiene una
resistividad mucho más alta que arena o grava. Altas resistividades de alrededor
de 2 MΩ m, correspondientes a hielo masivo, se encuentran entre 5 m y 15 m. en
las profundidades del glaciar de roca. Por encima y por debajo del cuerpo de hielo,
las resistividades son menores. La resistividad de la capa superficial de 10 k Ω m
es dos órdenes de magnitud menos que en el hielo.
La región bajo el cuerpo de hielo se interpreta que consiste en arena congelada
que contiene aproximadamente un 30% de hielo. Su resistividad es un orden de
magnitud más bajo que en el hielo, pero el más bajo El límite del bloque de hielo
no está claramente definido.
Las resistencias son inferiores a 5 kΩ m delante de la roca glaciar, marcando la
aguda transición hacia un clima libre de permafrost. material.

Fig. 4.57 Tomograma de


resistividad eléctrica del glaciar de roca Murtel, Mt. Corvatsch, Suiza. La columna
de la izquierda muestra la vertical obtenida a partir de una perforación en la parte
superior del perfil de resistividad. Las líneas sólidas delinean los límites del cuerpo
de hielo masivo y altamente resistivo. Las líneas punteadas indican el límite
vertical interpretado entre el hielo y el material libre de permafrost antes del glaciar
(después de Hauck y Von der Mühll, 2003).

4.3.6 Medición electromagnética


Las observaciones pioneras de los sistemas eléctricos y magnéticos a principios
del siglo XIX por Coulomb, Oersted, Ampère, Gauss y Faraday se unificaron en
1873 por el físico matemático escocés James Clerk Maxwell (1831-1879). Su logro
es similar a la de Newton en la gravitación o a la de Einstein en la relatividad. Al
igual que Newton, Maxwell reunió el conocimiento existente y lo unificó de una
manera que permitió la predicción de otros fenómenos. Su libro A Treatise on
Electricity and El magnetismo era tan importante como el Principio de Newton para
el un mayor desarrollo de la física. Así como todas las discusiones en
comienzan con las leyes de Newton, todos los argumentos en electromagnetismo
comienzan con las ecuaciones de Maxwell. En particular, propuso la teoría del
campo electromagnético, que clasifica la luz como un fenómeno electromagnético
en el mismo sentido que la electricidad y el magnetismo. Esto condujo finalmente
al reconocimiento de la naturaleza ondulatoria de la materia. Desafortunadamente,
Maxwell murió en la flor de la vida. antes de que sus predicciones teóricas fueran
verificadas.
El físico alemán Heinrich Hertz estableció la existencia de ondas
electromagnéticas experimentalmente en 1887, ocho años después de la
prematura muerte de Maxwell. La ley de Coulomb muestra que una carga eléctrica
está rodeada por un campo eléctrico, que ejerce fuerzas sobre los demás. que se
muevan, si son libres de hacerlo. La ley de Ampère muestra que una carga
eléctrica (o corriente) El movimiento en un conductor produce un campo
magnético proporcional a la velocidad de la carga. Si el campo eléctrico aumenta,
de modo que la carga se acelera, su cambio la velocidad produce un campo
magnético cambiante, que a su vez

Fig. 4.58 (a) Un campo


eléctrico E es generado por un campo magnético cambiante. (B/t), mientras que
(b) un campo magnético B es producido por la corriente J y la variación de la
densidad de corriente de desplazamiento (D/t); (c) en una onda electromagnética
un campo eléctrico Ex y un campo magnético Por fluctúan normalmente entre sí
en el plano normal de la propagación dirección (eje z).
induce otro campo eléctrico en el conductor (Faraday's) y, por lo tanto, influye en
el movimiento de la carga acelerada. El acoplamiento del sistema eléctrico y
magnético se llama electromagnetismo. Si se colocan dos conductores rectos de
extremo a extremo y se conectan en serie, actúan a los conductores hace que el
dipolo oscile, actuando como una antena para la emisión de una onda
electromagnética. Consiste en un campo magnético B y un campo eléctrico E, que
varían con la frecuencia del oscilador, y son orientados en ángulo recto entre sí en
el plano perpendicular a la dirección de propagación (Fig. 4.58). En un aspirar
todas las ondas electromagnéticas viajan a la velocidad de luz (c2.99792458108 m
s1, unos 300.000 km s1), que es una de las constantes fundamentales de la
naturaleza. Las derivaciones de ecuaciones de campo electromagnético a partir de
Las ecuaciones de Maxwell están más allá del nivel de este libro de texto, pero su
significado puede ser fácilmente comprendido. Se obtienen dos ecuaciones,
idénticas en forma. Describen la
propagación de los vectores de campo B y E, respectivamente, y
se escriben como:
Fig. 4.59 El espectro electromagnético, que
muestra la frecuencia y los rangos de longitud de onda de algunos fenómenos
comunes y las frecuencias y los períodos utilizados en la prospección
electromagnética.
En estas ecuaciones s es la conductividad eléctrica, μr es la permeabilidad
magnética, que en la mayoría de los materiales (a menos que son
ferromagnéticos) es muy cercana a 1, μ0 es la constante de permeabilidad
(Sección 5.2.2.1), o permeabilidad de libre espacio ( μ0 =4 πx 10−7 N A−2), e r es la
permitividad relativa del material, y es la constante de permitividad, o permitividad
del espacio libre (ε 0=8.854187 x 10−12 C 2 N−1 m−2). En campos eléctricos constantes,
e r es conocido como el dieléctrico constante, k. El valor de k es 5-20 en la
mayoría de las rocas y 80 en agua (Sección 4.3.2.3). En los sedimentos y rocas
sedimentarias, el contenido de agua juega un papel importante en la
determinación del valor de k. El valor de e r aumenta con la frecuencia del campo
eléctrico. La radiación electromagnética abarca un amplio espectro de frecuencias.
Se extiende desde muy alta frecuencia (longitud de onda corta) - rayos y rayos X a
baja frecuencia (longitud de onda larga) (Fig. 4.59). Luz visible constituye una
parte estrecha del espectro. Dos gamas de las radiaciones electromagnéticas son
de particular importancia en geofísica de la Tierra Sólida: un rango de alta
frecuencia en el radar parte del espectro, y un amplio rango de bajas
frecuencias que se extienden desde las audiofrecuencias hasta las señales con
períodos de horas, días o años. Los sistemas electromagnéticos se reducen a
formas más simples para estas dos ecuaciones en particular. rangos de
frecuencia. El lado izquierdo de la Ecuación (4.108) describe la variación del
componente E de la onda electromagnética en el espacio. El lado derecho
describe su variación con el tiempo y por lo tanto su dependencia de la frecuencia.
El primer término está relacionado con la conducción familiar de la electricidad en
un conductor. Maxwell introdujo el segundo término y lo llamó el desplazamiento
actual. Se origina cuando los cargos son desplazados, pero no separados de sus
átomos, causando una polarización eléctrica; las fluctuaciones en la polarización
tienen el efecto de un corriente alterna de desplazamiento. Suponga que el
sistema eléctrico dipolo que emite E y B oscila sinusoidalmente con frecuencia
angular v. Luego |E/t | vE, y |2E/t2|v2E, de modo que la relación de magnitud (MR)
del segundo término (de desplazamiento) con el primero (de conducción) en el
lado derecho de la Ecuación (4.108) es

donde ƒ es la frecuencia de la señal. La conductividad s de rocas y suelos está


generalmente en el rango de 10−5 a 10−1 Ω−1 m−1; en minerales s puede ser tan
grande como 103 a 105 1 m-1 (véase la Fig. 4.41). La medición por inducción
electromagnética se realiza normalmente a frecuencias inferiores a 104 Hz, para
los que la relación de magnitud MR es mucho menor que la unidad tanto en
buenos como en malos conductores. En estas frecuencias la señal
electromagnética pasa a través del suelo en un de manera difusiva, mediante la
conversión del magnético cambiante a las corrientes eléctricas y viceversa. Alta
frecuencia La topografía emplea señales de radar con frecuencias de alrededor de
8
10 Hz, para los que la relación de magnitud MR es muy pequeña en un cuerpo
mineral, pero puede ser mucho mayor que la unidad en las rocas y suelos. En
estas condiciones, el sistema electromagnético se propaga como una onda, por lo
que está sujeta a difracción, refracción y reflexión.
4.3.6.1 Inducción electromagnética
Estudios electromagnéticos (EM) realizados a frecuencias por debajo de 50 kHz
se basan en el principio de la electromagnética inducción. Un campo magnético
alterno en una bobina o cable induce corrientes eléctricas en un conductor. La
conductividad de rocas y suelos es demasiado pobre para permitir corrientes de
inducción significativas, pero cuando un buen conductor está presente un de
corrientes inducidas. A su vez, las corrientes de Foucault producen campos
magnéticos secundarios que se superponen en el campo primario y puede
medirse en el suelo (Fig. 4.60a). Supongamos que una onda plana de baja
frecuencia se propaga a lo largo del eje Z vertical. La corriente de desplazamiento
es ahora

Fig. 4.60 a) Ilustración de los campos


primarios y secundarios en el método de inducción de bucle horizontal de
exploración electromagnética para cuerpos de mineral poco profundos. (b)
Amplitudes y fases del primario (p) y del secundario (p) campos secundarios (s).
insignificante en comparación con la corriente de conducción y la Ec. (4.107) se
convierte en

donde el campo magnético tiene componentes Bx y B y . La forma de esta ecuación


recuerda a la ecuación unidimensional de difusión o conducción de calor (la Ec.
(4.52)), cuya solución (Ec. (4.54)) describe cómo la temperatura cambia con el
tiempo y la posición cuando una temperatura fluctuante actúa en la superficie. Por
analogía, el solución de la Ecuación (4.110) para los componentes Bx o B y de un
campo magnético alterno con frecuencia angular ω=2 πf en un conductor con
conductividad σ es

Aquí, d se llama la profundidad de la piel. A esta profundidad, el sistema


magnético se atenúa a e−1 (37%) de su valor fuera del campo director de orquesta.
La profundidad de la piel depende de la conductividad del cuerpo y de la
frecuencia del campo. La piel profundidad en suelo normal ( σ 10−3 Ω−1 m−1) para un
campo magnético alterno de baja frecuencia (ƒ 103 Hz) es unos 500 m pero en un
yacimiento (σ 10 4 Ω−1 m−1 ) es sólo 16 cm. Las cifras comparables para una señal de
radar de alta frecuencia (ƒ 109 Hz) son 50 cm y 0,16 mm, respectivamente. Tenga
en cuenta que la profundidad de la piel no es la máxima profundidad de
penetración del campo magnético. Ayuda a indican la rapidez con la que se
atenúa el campo, pero el campo magnético es efectivo a profundidades que son
muchas veces mayores que las de los campos magnéticos.
profundidad de la piel. Sin embargo, decae al 1% a una profundidad z5d
y al 0,1% en z7d, limitando de forma efectiva el efecto profundidad de exploración
con el método de inducción. Los muchos métodos de campo de inducción EM
tienen un principio común. Se utiliza una bobina o cable como transmisor del
campo magnético primario alterno, mientras que otro sirve como receptor tanto de
la señal primaria como de una señal secundaria de las corrientes inducidas en un
conductor (Fig. 4.60a). El campo magnético en el conductor experimenta un
desplazamiento de fase (igual a z/d, la Ec. (4.111)) por la conductividad. Esto
resulta en una diferencia de fase f entre las señales secundaria y primaria en el
receptor (Fig. 4.60b). La teoría exacta de la inducción EM es complicada, incluso
en una situación simple, pero podemos obtener una simple apreciación cualitativa
mediante la aplicación de algunos conceptos de la teoría de circuitos eléctricos.
Como en la Sección 4.2.6.1 usaremos números complejos que involucran a √-1.
Deje que los sistemas actuales en el transmisor, receptor y el conductor sea
representado por lazos sencillos que transportan corrientes. Ir e Ic
respectivamente. Si las corrientes son sinusoidales, cada una tiene la forma II0
eivt de modo que ese dI/dtivI. Deja que la resistencia del conductor sea R y su
auto inductancia sea L. La tensión Vc en el conductor se compone de dos partes.
Una parte resistiva debido a la corriente Ic en la resistencia R es igual a Ic R. Una
parte inductiva debido al el cambio de corriente es igual a LdIc /dt. El sistema
completo de la tensión en el conductor es entonces

La tensión Vc es inducida en el conductor por la Cambiando la corriente En el


circuito del transmisor. Deje que la inductancia mutua entre el transmisor y el
conductor sea MTC; luego Vc- Mtc dIt /dt. Del mismo modo, el transmisor la
corriente induce una tensión primaria Vp- Mtr dIt /dt en el en el que las corrientes
inducidas en el conductor también inducir una tensión secundaria Vs- Mcr dIc /dt.
Aquí Mtr y Mcr son las inductancias mutuas entre el transmisor y receptor, y
conductor y receptor, respectivamente. Existen las siguientes relaciones entre los
diferente voltajes y corrientes:
que se puede escribir en el formulario

4.3.6.2 Medición por inducción EM


El parecido de las ecuaciones básicas de la inducción EM a la ecuación de
difusión (Ec. (4.53)) clasifica el método como uno difusivo. Técnicas de difusión -
por ejemplo, la gravedad, campo magnético, geotermia y ondas de superficie
sísmicas - responder a un promedio volumétrico del parámetro físico específico y
no muestran detalles finos de su distribución. Por lo tanto, la inducción EM
produce un promedio de la conductividad eléctrica en un volumen determinado,
pero la resolución es mejor que la del campo potencial métodos. El método de
inducción EM es muy adecuado para el transporte aéreo encuestas. Estos se
realizaron originalmente con ala fija. pero ahora utilizan más comúnmente
helicópteros, que puede adaptarse mejor a la rugosidad del terreno mientras vuela
cerca del suelo. Las bobinas del transmisor y del receptor son montados
(normalmente con sus ejes coaxiales o paralelos a la línea de vuelo) en posiciones
fijas en la aeronave o en un remolque "pájaro", usando configuraciones similares a
las de las aerotransportadas mediciones con magnetómetro (véase la Fig. 5.44).
Alternativamente, el transmisor puede estar en el avión y el receptor en el avión.
pájaro o en otro avión. La mayor separación de en esta configuración, el
transmisor y el receptor ofrecen una mayor penetración de profundidad. Sin
embargo, en el vuelo el pájaro bosteza y alterar la separación y el paralelismo de
los de modo que normalmente sólo el componente de la cuadratura es utilizable.
Los patrones de vuelo consisten en perfiles paralelos que atraviesan el terreno.
Las líneas se vuelan a unos 100 m sobre el nivel del mar.
a nivel del suelo con aviones y 30 m con helicópteros. Cuando una anomalía
potencial de conductividad ha sido localizada desde el aire, es usual investigarlo
más a fondo con un método de inducción EM basado en tierra. El transmisor
puede ser un cable largo o un bucle horizontal grande en la superficie del suelo, o
puede ser una bobina pequeña (diámetro 1 m) con su eje vertical u horizontal. El
receptor es normalmente una bobina pequeña similar. Se puede utilizar para
detectar el dirección, intensidad o fase de la señal secundaria. En su aplicación
más simple la inclinación de la bobina alrededor de un el eje horizontal mide el
ángulo de inclinación del eje combinado campos primarios y secundarios en el
receptor.

Fig. 4.61 (a) Geometría de un perfil


HLEM a través de un dique vertical delgado. b) Perfiles en fase y en cuadratura
sobre un dique a una profundidad de h/l0,2 para algunos valores del parámetro de
respuesta sin dimensiones a.
permite la localización, el trazado y, hasta cierto punto, determinación de la
profundidad de un conductor. Sin embargo, el método del dipángulo registra sólo
una parte de la información disponible en la señal secundaria y no describe el
método propiedades eléctricas del conductor. Como muestra la Ec. (4.119) estas
propiedades afectan a la fase y al relativo amplitudes de las componentes en fase
y en cuadratura de la señal secundaria con respecto a la primaria. Los métodos de
medición de EM por componentes de fase, por lo tanto, permiten una
interpretación más detallada. Los métodos se ilustran con el método
electromagnético de bucle horizontal (HLEM), conocido popularmente también por
los nombres comerciales Slingram o Ronka. El receptor y el transmisor están
acoplados por un cable fijo de unos 30 a 20 mA. 100 m de longitud, y se mantiene
a una separación constante mientras que el el par se mueve a lo largo de una
travesía de un conductor sospechoso (Fig. 4.61a). El cable suministra una señal
directa que exactamente cancela la señal primaria en el receptor, dejando sólo la
señal campo secundario del conductor. Esto se divide en componentes en fase y
en cuadratura, que se expresan de la siguiente manera porcentajes del campo
primario y graficados contra el campo primario posición del punto medio del par de
bobinas (Fig. 4.61b). Las señales en fase y en cuadratura están a cero lejos de los
y en los lugares en los que el transmisor o el transmisor pasa por encima del
conductor. Esto permite que el esquema de un conductor enterrado para ser
cartografiado. La señal se eleva a un pico positivo en ambos lados y cae a un pico
negativo sobre la mitad del conductor. El pico a pico respuestas de los
componentes en fase y en cuadratura dependen de la calidad del conductor, que
se expresa por un parámetro de respuesta como b en la Ecuación (4.119). Una
función adecuada es el parámetro sin dimensiones am0sv sl, que contiene la
conductividad s y la anchura s del conductor, así como la separación de la bobina l
y la frecuencia v del Sistema EM. La variación sistemática de la respuesta con el
valor de a (Fig. 4.61b) permite interpretar la calidad del conductor. Una forma
sencilla de hacer esto es con la ayuda de curvas de respuesta modelo. la variación
de las señales en fase y en cuadratura sobre un yacimiento de mineral conductor
puede modelarse experimentalmente sobre la base de una a menor escala en el
laboratorio. Los valores más pequeños de s y l se compensan con valores
mayores de s y v para dar el valor de mismo parámetro de respuesta a. Las curvas
de respuesta del modelo para diferentes a son entonces directamente aplicables a
la interpretación de conductores reales medidos en el campo. El uso más común
de los métodos de inducción EM es en perfilado lateral, generalmente en travesías
en ángulo recto con el impacto geológico de diques u otros lugares donde se
sospecha que se está conduciendo cuerpos. En aplicaciones ambientales es útil
para localizar tuberías enterradas que puedan transportar fluidos o gases. Los
métodos de EM basados en tierra también pueden ser usados para sondeo,
aplicando los mismos principios que en resistividad métodos para obtener las
conductividades de la corriente horizontal capas. Cuanto mayor sea la separación
entre el transmisor y el transmisor Cuanto más profundo sea el receptor, mayor
será la profundidad máxima a la que se podrán analizar los conductores. Una
forma importante de verticalidad El sondeo electromagnético es el método
magnetotelúrico, el cual toma ventaja de la capacidad de penetración de las bajas
frecuencias señales de fuentes naturales en la geomagnética externa al campo.
4.3.6.3 Sondeo magnetotelúrico
El sondeo magnetotelúrico (MT) es un método electromagnético de fuente natural.
La fluctuación electromagnética los campos que se originan en la ionosfera se
reflejan parcialmente en la superficie de la Tierra; los campos que regresan son de
nuevo se refleja en la ionosfera conductora. Esto sucede repetidamente, de modo
que los campos eventualmente tienen una fuerte componente vertical y pueden
ser considerados como ondas planas de propagación vertical con un amplio
espectro de frecuencias. Estos campos penetran en el suelo e inducen a la telúrica
corriente eléctrica (Sección 4.3.4.3), que a su vez generan campos magnéticos
secundarios. Las corrientes telúricas son detectadas con dos pares de electrodos,
normalmente orientados norte-sur y este-oeste. Tres componentes de la se miden
los campos magnéticos: el componente vertical y una componente horizontal
paralela a cada uno de los telúricos componentes. El método proporciona
información sobre la conductividad desde profundidades mucho mayores que la
inducción de fuente artificial métodos. Se ha aplicado en la búsqueda de petróleo y
profundas de mineralización en la corteza superior. Utilizando largos periodos de
tiempo en el rango de 10-1000 s es un método importante para la investigación de
la estructura de la corteza y el manto superior. Considere una onda
electromagnética plana que se propaga en la dirección z (Fig. 4.58). Deje que el
componente eléctrico Ex
estar a lo largo del eje x, de modo que el campo magnético Por (siendo normal a
Ex) está a lo largo del eje y. La ley de Ampère, resumida en las ecuaciones de
Maxwell, relaciona Ex con el gradiente de Por en la dirección Z. Porque B sólo
tiene un componente Y, La ley de Ampère se simplifica para

donde Por tiene la forma de la Ecuación (4.111). Diferenciación por partes da

La comparación de la Ecuación (4.111) y la Ecuación (4.121) muestra un


desplazamiento de fase de 45 (/4) entre Ex y By. Sin embargo, el de las
amplitudes máximas de las dos componentes es

Si ahora sustituimos d por d a partir de la Ecuación (4.112) y escribimos r1/s,


obtenemos
para la resistividad efectiva r a profundidad d. El análisis da resultados similares
para un campo eléctrico a lo largo del eje y y y un campo magnético
correspondiente a lo largo del eje x. En este caso la relación de las amplitudes de
campo es |Ey|/|Bx|. Además de los campos magnéticos horizontales, Bx y Por, el
componente vertical Bz también se registra para su uso en la interpretación de
estructuras bidimensionales. Por lo tanto, el conjunto de datos de un
emplazamiento de MT consta de dos componentes eléctricos y tres componentes
de campo magnético registrado continuamente durante una larga observación
intervalo que cubre algunas horas o días. Los campos magnéticos registrados
consisten en una parte externa de la ionosfera y una parte interna relacionada con
la corriente inducida. distribución. Estos componentes deben separarse
analíticamente. Los registros eléctricos y magnéticos contienen numerosas
frecuencias, algunas de las cuales son simplemente ruido y algunos son de interés
geofísico. Como resultado, la sofisticación

Fig. 4.62 Dos dimensiones modelo de resistividad de la corteza y el manto


superior debajo La isla de Vancouver y la derivado de tierra firme adyacente de los
resultados magnetotelúricos (tomado de Kurtz et al.., 1986).
Se requiere un procesamiento de datos específico, que incluya el análisis y el
filtrado del espectro de potencia. La interpretación de los datos de la MT se basa
en la modelización o en la inversión. El método de modelado es un método directo
para resolver la distribución de la conductividad. Se asume un modelo de
conductividad para el que se utiliza un modelo teórico la respuesta se calcula y se
compara con la respuesta real. respuesta. Los parámetros del modelo se ajustan
en a su vez en varias ocasiones para obtener el ajuste más favorable a la
observación. Como en el caso de los sondeos eléctricos verticales con corrientes
continuas (Sección 4.3.5.6), la inversión busca una solución al problema de
inducción EM mediante utilizando el espectro de frecuencias de las observaciones
para establecer la distribución de la conductividad causal. Aunque el sondeo MT
puede realizarse en el rango de subaudio a audio (ƒ 10- 104 Hz), su principal
aplicación es en la determinación de la conductividad eléctrica a gran velocidad.
utilizando frecuencias muy bajas (ƒ1 Hz). La investigación de la resistividad en la
corteza y en el manto superior utilizando El sondeo de la MT está ilustrado por un
perfil a través de Vancouver Isla (Fig. 4.62). Veintisiete estaciones de sondeo MT
se localizaron a lo largo de un perfil sísmico de reflexión NW-SE. Análisis
unidimensional de la distribución vertical de resistividad debajo de tres estaciones
(10, 12 y 14 en la Fig. 4.62) mostró una discontinuidad eléctrica en virtualmente la
misma profundidad que un reflector sísmico mayor observado en el perfil de
reflexión sísmica asociado. La información adquirida sobre la resistividad media
por encima de esta profundidad fue luego se utiliza en una inversión bidimensional
de la MT en todas las estaciones. El patrón de resistividad fue interpretado hasta
profundidades de 100 km. Muestra una zona de inmersión hacia el noreste de baja
resistividad ( ρ=30 Ωm ), como el conductor E, rodeado por mucho más
material resistivo ( ρ ≥5000 Ωm). El e-conductor estaba interpretada como la cima
del descendente Juan de Fuca donde se subduce por debajo de la placa
norteamericana. La anómala alta conductividad en la parte superior de la placa se
atribuyó a la conducción de fluidos en sedimentos derivados de la cuña de
acumulación.
4.3.6.4 Radar de penetración en el suelo
A altas frecuencias en medios de baja conductividad, el en las ecuaciones
electromagnéticas es insignificante en comparación con el término de
desplazamiento. La ecuación de campo eléctrico se convierte entonces en

con una ecuación similar para el campo magnético. Esto tiene


la forma familiar de la ecuación de onda, que describe la propagación de una
perturbación elástica (Ecs. (3.55) y (3.56)). Análogamente, la Ec. (4.125) es la
propagación de la parte eléctrica de una onda magnética Comparando con las
ecuaciones de onda sísmica vemos que los campos E y B en una onda
electromagnética tienen la misma velocidad v, donde v21/m0. En el vacío, la
velocidad de la onda es igual a la velocidad de la luz c, dada por c21/m0. Usando
la relación k0 obtenemos v2c2/k, y teniendo en cuenta que la constante dieléctrica
k es de 5-20 en materiales de la Tierra, la velocidad de una la onda
electromagnética en el suelo se encuentra alrededor de 0,2c-0,6c.
Para simplificar la discusión, supongamos que la perturbación electromagnética se
propaga a lo largo del eje z (es decir,.., /x/y0), de modo que %22/z2. Para este
caso unidimensional

Si comparamos esta ecuación con la Ecuación (3.58) para un sísmico vemos que
la solución para un componente Ei de la variable el campo eléctrico es

donde l es la longitud de onda, ƒ la frecuencia y ƒlv, la velocidad de la onda.

Fig. 4.63 Patrón de fractura en un lecho rocoso granítico revelado por


radar de penetración en el suelo: (a) sección transversal geológica, b) reflexión
georadar procesada (cortesía de A. G.) Verde).
Las consideraciones anteriores sugieren que la alta frecuencia las ondas
electromagnéticas viajan en el suelo de manera análoga a las ondas sísmicas. En
lugar de estar determinado por los parámetros elásticos, la propagación del radar
depende de las propiedades dieléctricas de las señales tierra. Una rama
comparativamente joven de la geofísica se ha desarrollado para investigar
estructuras subterráneas con radar de penetración en el suelo (GPR), o georadar).
GPR utiliza el conocido "principio eco" utilizado en la sismología de reflexión. Una
muy corta pulso de radar, que dura sólo varios nanosegundos (es decir, 108 σ ) es
emitido por una antena móvil en tierra superficie. La trayectoria de la señal de
radar a través del suelo puede ser trazado como un rayo, que experimenta
refracciones, reflexiones y difracciones en los límites donde cambia la constante
dieléctrica. Una segunda antena, el receptor, es situado cerca del transmisor,
como en el caso de la sísmica reflexión, para recibir reflexiones casi verticales de
discontinuidades subterráneas. Las técnicas de procesamiento de señales de la
sismología de reflexión también se pueden aplicar a la
señal georadar para ayudar a minimizar los efectos de las difracciones y otros
ruidos. En consecuencia, el georadar proporciona una imagen detallada de la
estructura del subsuelo poco profunda (Fig. 4.63). Se ha convertido en una
herramienta importante en el ámbito del medio ambiente. estudios de
características cercanas a la superficie, tales como depósitos de residuos
enterrados y olvidados, patrones de fractura en condiciones que de otro modo
serían uniformes masas de roca, o la investigación de recursos de agua
subterránea.
Las señales de alta frecuencia se atenúan rápidamente con profundidad.
Dispersión geométrica de la señal hacia el exterior a partir de su fuente
(divergencia esférica) provoca una disminución de con la distancia Más importante
es la absorción de la señal por los materiales de tierra, que es una función de su
conductividad. Dependiendo de la composición de la suelo o rocas (por ejemplo, la
presencia de capas ricas en arcilla o de las aguas subterráneas), la naturaleza de
las estructuras del subsuelo y la frecuencia de la señal de radar, la penetración
efectiva puede ser de hasta 10 m, aunque las condiciones más comunes son
restringirlo a unos pocos metros. No obstante, a una frecuencia de radar de
8 9 8 −1
10 −10 Hz y a una velocidad de 10 m s la resolución se encuentra en el rango
de 0,1-1 m. Por lo tanto, a pesar de su penetración de profundidad limitada, la alta
resolución del georadar lo convierte en una herramienta poderosa para la
exploración geofísica cercana a la superficie.
proceso activado térmicamente, en el que la conductividad s a la temperatura T
viene dada por
donde k es la constante de Boltzmann (k1.380651023 J K1). La constante s0 es el
máximo hipotético de la conductividad, alcanzada asintóticamente a muy altas
temperaturas. es la energía de activación del tipo particular de semiconducción.
Su valor determina el
rango de temperatura en el que se activa térmicamente se convierte en un
mecanismo eficaz para s. En el caso de la impureza de la corteza y del manto
superior (es decir, en la litósfera) la semiconducción es probablemente el
mecanismo principal en los sistemas de rocas. La semiconducción electrónica es
probablemente dominante en la astenosfera y las regiones más profundas del
manto. Iónico
La semiconducción es un mecanismo importante a alta temperatura, pero es
improbable que sea significativo por debajo de la temperatura ambiente. 400 km,
ya que es suprimido por la alta presión en mayor profundidad. La conductividad
eléctrica en la Tierra a grandes profundidades se infiere de cuatro fuentes:
sondeos eléctricos profundos, variaciones geomagnéticas, variaciones seculares y
extrapolación a partir de experimentos de laboratorio. Los dos primeros métodos
se basan en los efectos de inducción que se derivan de los cambios en la parte
externa del campo geomagnético; éstos abarcan un amplio espectro con picos de
energía en varios períodos (ver Fig. 4.45). Sondeos eléctricos y magnetotelúricos
usar los componentes con períodos desde milisegundos hasta uno o dos días. La
inversión de los datos de MT da un patrón de conductividad que es generalmente
concordante con datos sísmicos y relacionados con la estructura geológica
general de la corteza y el manto superior.
El espectro de tiempo de las variaciones externas del campo geomagnético
contiene algunos períodos prominentes que son más largos. que un día (Fig.
4.45). El estudio del período más largo
Las variaciones geomagnéticas proporcionan información sobre la conductividad
en la Tierra hasta unos 2.000 km. Cuanto más tiempo el período de la variación
cuanto más profunda sea su penetración profundidad. La variación diaria (o
diurna) (Sección 5.4.3.3) proporciona información sobre la conductividad a unos
900 km.
Las tormentas magnéticas duran varios días o semanas y tienen una fuerte
componente de 48 horas, que se utiliza para ampliar la información de
conductividad a unos 1000 km. Además del espectro de variación geomagnética
mostrado en la Fig. 4.45
núcleo externo. Consiste en fluctuaciones de intensidad y con períodos del orden
de los 10-104 años. se observaron variaciones seculares en el núcleo del manto
sería posible determinar la conductividad por todo el manto. Desafortunadamente,
la variación secular debe ser observado en la superficie de la Tierra, después de
que haya pasado a través del manto conductor, que actúa como un filtro. Él es
atenuado por el efecto piel, preferentemente afectando las frecuencias más altas.
Así, las observaciones de cambios de alta frecuencia en la variación secular lugar
y límite superior de la conductividad media del manto, porque una mayor
conductividad los bloquearía. De vez en cuando, cambios abruptos en el índice de
secularización. se producen por razones desconocidas. Un conspicuo ejemplo de
estas "sacudidas geomagnéticas" ocurrió en 1969-1970, cuando ocurrió un pulso
en la variación secular con una duración estimada de menos de dos años.
Aunque no todos los analistas están de acuerdo, el efecto es muy amplio que se
cree que son de origen interno. El análisis de la propagación de un impulso de
variación secular proporciona una estimación de la conductividad media de todo el
manto, que, integrada con datos de otras fuentes, da la conductividad en el manto
inferior.
Algunos de los diferentes modelos de conductividad del manto
que se han propuesto se muestran en la Fig. 4.64. Las diferencias entre los
modelos reflejan aumentos en la cantidad y mejoras en la calidad de los datos
geomagnéticos, ya que, así como avances en las técnicas de procesamiento de
datos, especialmente el desarrollo de métodos de inversión. Aunque los modelos
difieren en muchos aspectos, tienen algunas características en común. Los
promedios de conductividad aproximadamente 102 Ω−1 m−1 en la litósfera y
aumenta con aumentando la profundidad. Las tasas de aumento más
pronunciadas se encuentran en profundidades de 400 y 670 km, donde la espinela
olivino y el espinela-perovskita ocurren cambios de fase, respectivamente (ver
Sección 3.7.5.2). A unos 700 km de profundidad cada modelo ofrece una
conductividad de aproximadamente Ω −1 m−1 que se eleva en el el manto inferior
será de aproximadamente 10-200 Ω−1 m−1en el límite entre el núcleo y el manto. La
variación secular no es
uniforme sobre la superficie de la Tierra. Las grandes áreas de tamaño continental
(el Pacífico Central es el mejor estudiado) son se caracteriza por la lentitud de las
tasas de variación. Esto es posiblemente debido al efecto de cribado adicional de
las características en el Capa D por encima del límite entre el núcleo y el manto
(Sección 3.7.5.3), los denominados "cripto-continentes" (véase la Fig. 4.38) en que
la conductividad puede ser 1000 veces mayor que en el manto superior (Stacey,
1992). La conductividad en el núcleo externo se estima por extrapolación de
experimentos de laboratorio. El núcleo tiene la composición de una aleación de
hierro, con un contenido en hierro de 83% y una concentración de los elementos
de aleación de 17%. El efecto de la presión sobre la conductividad de la no es
grande en esta concentración. Medidas de la resistividad a la presión atmosférica
y las diferentes temperaturas conducen a una resistividad extrapolada de r3.3106
m a la temperatura del núcleo exterior, con una conductividad correspondiente
σ 2 105 Ω−1 m−1. hay un componente de período más largo relacionado con el
período de 11 años ciclo de manchas solares. Esto se debe al aumento de la
actividad solar y va acompañado de erupciones solares (véase el apartado
5.4.7.1) y las emisiones de partículas cargadas que aumentan el rendimiento de la
energía solar. el viento y excitan la actividad ionosférica. Análisis de los 11 años
permite que el modelo de conductividad del manto sea se extendió a unos 2.000
km de profundidad. Nuestro conocimiento de la conductividad eléctrica en el
manto a profundidades mayores de 2000 km no puede obtenerse a partir del
análisis de los efectos relacionado con el campo magnético externo. La variación
secular del campo geomagnético interno (Sección 5.4.5) se origina en la parte
superior del fluido

También podría gustarte