Está en la página 1de 30

Resumen La historia de la sismología ha sido rastreada desde que el hombre

reaccionó por primera vez, literalmente, ante los fenómenos de los terremotos y
volcanes, hace unos 4000 años. Hace veintiséis siglos, el hombre comenzó la
búsqueda de las causas naturales de los terremotos. La aurora de la
sismología moderna estalló inmediatamente después del terremoto de Lisboa
de 1755 con los estudios pioneros de John Bevis (1757) y John Miehell (1761).
Alcanzó su apogeo con los discursos sobrios de Robert Mallet (1862). La
ciencia de la sismología nació hace aproximadamente 100 años (1889) cuando
Ernst yon Rebeur-Pasebwitz identificó el primer registro sísmico en Potsdam, y
el prototipo del sismógrafo moderno fue desarrollado por John Milne y sus
asociados en Japón. Los primeros pioneros lograron un rápido progreso
durante los siguientes años: Lamb, Love, Oldham, Wieehert, Omori, Golitzin,
Volterra, Mohorovi ~ ie, Reid, Z ~ ppritz, Herglotz y Shida. La siguiente
generación de sismólogos, tanto experimentistas como teóricos: Gutenberg,
Richter, Jeffreys, Bullen, Lehmann, Nakano, Wadati, Sezawa, Stoneley, Pekeris
y Benioff dieron otro paso adelante.
El advenimiento de los sismógrafos y computadoras de período largo (1934 a
1962) finalmente puso a la sismología en una posición en la que podía explotar
la rica información inherente a las señales sísmicas, tanto a escala global como
local. De hecho, durante los últimos 30 años, nuestro conocimiento de la
infraestructura del interior de la Tierra y la naturaleza de las fuentes sísmicas
ha aumentado significativamente. Sin embargo, un objetivo final de la
sismología, a saber, la predicción de terremotos, no está próximo. A pesar del
gran despliegue de instrumentos y mano de obra, especialmente en los
Estados Unidos y Japón, no se ha hecho ningún progreso sustancial en esta
dirección. Los procesos dinámicos no lineales en las fuentes de los terremotos
aún no se comprenden, y debido a la falta de herramientas matemáticas y de la
teoría física adecuadas, los avances no son propensos a producirse a través de
las computadoras y las biopsias. La conclusión del presente estudio histórico
se puede resumir sucintamente de la siguiente manera: la sismología ha
llegado a una etapa en la que los sismólogos no pueden perseguir sus grandes
objetivos solamente. A menos que lancemos un esfuerzo concentrado de
investigación interdisciplinaria, siempre nos sorprenderá el próximo gran
terremoto.
Introducción
La sismología es una ciencia interdisciplinaria: la mayor parte de la teoría
necesaria para interpretar los sismogramas, antes de 1922, se había puesto a
disposición a través de los esfuerzos de físicos y matemáticos de los siglos
XVII, XVIII, XIX y principios del XX. Incluso después de 1922, las
contribuciones.
De la ciencia, desde la fenomenología, el experimento y la teoría están
fuertemente vinculados a lo largo. La historia de la sismología no comenzó
realmente en 1889; Si podemos comparar esta ciencia con una planta,
entonces 1889 fue el año en que la semilla salió a la superficie. Su verdadero
origen puede ubicarse el 1 de noviembre de 1755, durante el terremoto de
Lisboa, un evento que cambió radicalmente la perspectiva del hombre sobre el
fenómeno de los terremotos. Desde entonces, los grandes terremotos siguieron
sirviendo como hitos en el camino del progreso. [Por ejemplo, Mino-Owari,
Japón central, 28 de octubre de 1891: primera documentación de fallas en la
superficie. India, 12 de junio de 1897: primera observación de Oldham de las
ondas P, S y R. California, 18 de abril de 1906: Teoría del rebote elástico de
Reid. Long Beach, 10 de marzo de 1933: advenimiento de la ingeniería
sísmica. Chile, 22 de mayo de 1960: verificación experimental de la
propagación de la ruptura de las fallas y las oscilaciones libres de la Tierra.] El
año 1889 es, sin embargo, un año notable en la historia de nuestra ciencia, el
año del nacimiento del seisograma telesísmico; ¡La sismología se convirtió a la
vez en una ciencia global! Los terremotos dejaron de ser los asuntos locales de
las ciudades. Se ha abierto una gran línea de comunicación, que atraviesa
países, continentes y océanos; todas las barreras geográficas se rompieron de
repente.
Esta fue efectivamente la primera revolución en sismología. La segunda
revolución ocurrió entre 1950 y 1955, cuando las computadoras digitales se
introdujeron por primera vez en la sismología. La capacidad de realizar cálculos
rápidos incrementó la dimensionalidad de la sismología tanto en el espacio
como en el tiempo: grandes cantidades de datos podrían procesarse
repentinamente en un tiempo relativamente corto; las integrales y las sumas
podrían evaluarse rápidamente, y las ecuaciones de todo tipo podrían
resolverse de la manera más eficiente. A medida que se adentra en la historia
de la sismología, se va fascinando cada vez más con la lógica interna de su
herencia, con la gente detrás de los descubrimientos y con las intrincadas
interrelaciones entre sismología, geología, astronomía, meteorología, y la
física. Sin embargo, desplegar esta historia ante una audiencia es un asunto
totalmente diferente, porque entonces el historiador de la ciencia debe
responder a sí mismo y a otros ciertas preguntas importantes: ¿de qué manera
se manifiesta esta historia? ¿Acata un orden secuencial cronológico de
eventos? ¿Es un proceso lineal, se balancea de un lado a otro, hay brechas, se
trata de un azar o es determinista? Hay muchas maneras de mostrar las
respuestas a estas preguntas fundamentales. Dados los límites de nuestro
conocimiento y el alcance limitado del presente artículo, he decidido comenzar
con una breve reseña histórica, seguida de una lista más detallada de
"eventos". Los "eventos" cubren nueve disciplinas:
1. fenomenología (P), 2. sismometría y sismología experimental (S), 3.
teoría de los campos sísmicos en la tierra (rayos, ondas, modos, haces)
(T), 4. ondas de superficie (SW), 5. libres oscilaciones de la Tierra (F), 6.
fuentes sísmicas (SS),
7. Estructura interna de la Tierra (E), 8. Anelasticidad (AE) y 9.
Anisotropía (AI).
Cada "evento" describe algún paso, o hito, en la evolución de la sismología; se
asocia con una fecha (principalmente un año), una breve especificación de la
naturaleza del descubrimiento o la invención, las personas asociadas y,
finalmente, una categoría (una de las nueve iniciales anteriores). La elección de
los artículos y de los científicos individuales en estas listas se basa
inevitablemente en mi propio juicio, gusto y conocimiento. Siempre habrá
discusiones sobre omisiones y comisiones en tales listas, y no surgirán dos
revisores con elecciones idénticas. Por lo tanto, debo definir aquí el alcance y
la intención de la escritura, junto con mis criterios de exclusión de los
investigadores. Primero abordemos el problema del papel del científico
individual en la historia de la ciencia. Mientras uno esté interesado solo en los
resultados científicos, uno puede ignorar al hombre detrás del descubrimiento,
y luego el tiempo se vuelve amorfo, mientras que la ciencia es anónima. Pero
tan pronto como uno estudia la evolución de las ideas, la máscara se revela y
la otra se enfrenta a personas, carne y hueso, y las personas tienen nombres,
territorios y destinos. Como cualquier otro grupo de humanos, tienen sus
héroes, villanos y santos. Por lo tanto, sus vidas se convierten en una parte
integral de la ciencia, así como sus logros científicos.
El alcance del presente ensayo se limita a una breve descripción de los puntos
de referencia (alias letreros; alias milimetros) en la evolución de la tradición
sísmica. La elección de estos eventos se basó en las siguientes tres reglas:
1. Todos los elementos de la lista no podrían haber evolucionado sin el
"conocimiento previo" de algunos o todos sus predecesores, es decir, ningún
elemento es redundante; Todos los eslabones de la cadena son esenciales,
aunque no tienen la misma importancia. 2. Se hace referencia a cada elemento
en una enciclopedia principal (por ejemplo, Britannica) y / o un libro de historia
autorizada. No incluí información que no haya sido referenciada en al menos
dos de estas fuentes (ver Referencias). 3. Todos los resultados en sismología
teórica y sismometría son esenciales para la comprensión y cuantificación de
los fenómenos actuales y los análisis de datos.
Se dio crédito por nombre a 150 hombres, la mayoría de los cuales no están
vivos hoy. Las Referencias, que cubren el período hasta 1964, incluyen los
trabajos de unos 200 hombres de ciencia adicionales.
Panorama historico
Los primeros registros históricos contienen referencias a terremotos que se
remontan al año 2000 aC. Estas cuentas son, en su mayor parte, de poco valor
para el sismólogo. Existe una tendencia natural a la exageración en la
descripción de tales fenómenos, a veces incluso hasta el punto de importar un
elemento sobrenatural en la descripción. Sin embargo, intentos
Fueron hechos por algunos escritores antiguos sobre filosofía natural para
ofrecer explicaciones racionales de los fenómenos del terremoto. Estos puntos
de vista (aunque se basan en hipótesis que, por regla general, son demasiado
extravagantes como para que valga la pena detenerse en ellos), tal como se
resumen en los escritos de historiadores y filósofos como Tucídides,
Aristóteles, Estrabón, Séneca, Livio y Plinio, indican muy claramente que los
primeros filósofos griegos ya habían abandonado las explicaciones mitológicas
en favor de las causas naturales de los terremotos en el interior de la tierra.
Aristóteles (ca. 340 a. C..E.) hizo una clasificación de los terremotos en seis
tipos, según la naturaleza del movimiento de la tierra observado; por ejemplo,
los que causaron un movimiento de la tierra hacia arriba, los que sacudieron el
suelo de un lado a otro, etc. El instrumento más antiguo que conocemos que se
hizo para responder al movimiento del suelo en un terremoto es el sismoscopio,
inventado en el año 132 dC por el erudito chino. Chang Heng. Revelaba la
dirección del movimiento del suelo. Los seismoscopios posteriores fueron
diseñados para dar también el momento de la aparición de un shock. Se dice
que este instrumento ha detectado algunos terremotos que no se han sentido
localmente. No se recogió mucho de las páginas de los escritores medievales y
posteriores sobre los terremotos. En Inglaterra, el primer trabajo digno de
mención es el Discurso de Robert Hooke sobre los terremotos (1667 a 1697).
Esta publicación, aunque contenía muchos pasajes de considerable mérito,
tendía muy poco a una correcta interpretación de los fenómenos en cuestión.
Igualmente insatisfactorios fueron los intentos de Joseph Priestley y algunos
otros escritores científicos del siglo XVIII para conectar la causa de los
terremotos con los fenómenos eléctricos. Además, algunos científicos ya no
estaban seguros del origen natural de los terremotos, como aprendimos de un
escritor en Transacciones filosóficas de la Royal Society de Londres, hasta el
año 1750 dC, que consideraron conveniente pedir disculpas a "aquellos que
son susceptibles de ofenderse ante cualquier intento de dar cuenta natural de
los terremotos ". No obstante, los hechos persistentes de los efectos del
terremoto continuaron acumulándose, especialmente a raíz del desastroso
terremoto de Lisboa de 1755. Finalmente, fue establecido firmemente por el
Reverendo John Michell (1761), profesor de geología en Cambridge, donde se
originaron los terremotos. dentro de la tierra Declaró que "los terremotos eran
olas creadas por las masas cambiantes de roca a millas por debajo de la
superficie ..., el movimiento de la tierra en los terremotos es en parte
tembloroso y se propaga en parte por ondas que se suceden unas a otras", y
estimó que las ondas del terremoto después de que el terremoto de Lisboa
hubiera viajado a 530 m / s.
Otra persona que sugirió que la influencia de los terremotos se propagó en la
tierra en forma de ondas con velocidad finita fue Thomas Young (1807). La
mayor parte del trabajo sobre los terremotos durante los años 1760 a 1840 se
refería a las evaluaciones de los efectos geológicos y los efectos en los
edificios. A principios del siglo XIX, las listas de terremotos se publicaban
regularmente, y en 1840 apareció el primer catálogo de terremotos para todo el
mundo. En 1889, Ernst von Rebeur-Paschwitz (1861 a 1895, Alemania) estaba
experimentando en Potsdam con una forma modificada del péndulo horizontal
de Z611ner (V 0 = 50, T o = 18 seg, sin amortiguación) cuando se produjo un
terremoto de Japón. cortado. Este evento marca el nacimiento de la sismología
instrumental en su sentido mundial. Estimulado por estas observaciones, en
1894 Milne pudo diseñar, construir y probar el ahora famoso sismógrafo que
lleva su nombre. Era capaz de detectar olas de terremotos que habían viajado
a muchos miles de kilómetros desde su origen. Además, su funcionamiento era
lo suficientemente compacto y simple como para permitir su instalación y uso
en muchas partes del mundo. Podría registrar los tres componentes de los
desplazamientos del terreno (arriba-abajo, este-oeste, norte-sur). A partir de
este momento, los datos instrumentales precisos sobre los terremotos
comenzaron a acumularse, y la sismología se ha desarrollado desde el lado
cualitativo hacia el cuantitativo. El sismógrafo es para el científico de la Tierra lo
que el telescopio es para el astrónomo, una herramienta para mirar en regiones
inaccesibles. Por esa razón, uno puede considerar el año del despliegue de los
sismógrafos de Milne como un hito importante en la historia de la sismología.
De hecho, desde 1894, el número de terremotos registrados de manera
constante aumentó; La lista más antigua conocida de terremotos con tiempos
de origen calculados y epicentros es que para el período de 1899 a 1903. Una
mejora adicional en el diseño de los sismógrafos se debió a Fusakichi Omori
(1868 a 1923, Japón) y Emil Wiechert (1861 a 1928, Alemania), quienes dieron
una explicación detallada de Su sismógrafo mecánico (1900), Boris Borisovieh
Golitzin (1862 a 1916, Rusia), diseñó el primer sismógrafo electromagnético
con grabación fotográfica (1906). Wiechert diseñó un sismógrafo en el que el
péndulo es vertical e invertido, y se mantiene mediante pequeños resortes que
presionan contra soportes firmemente unidos al suelo. La masa del péndulo es
grande (hasta varias toneladas) y el sismo graba ambos componentes
horizontales a la vez. Un desarrollo cardiaco tuvo lugar cuando Golitzin
introdujo la idea de registrar el movimiento del terreno por medio de un rayo de
luz reflejado desde el espejo móvil de un galvanómetro: el movimiento del
espejo es excitado por una corriente eléctrica generada por inducción
electromagnética cuando El péndulo del seismómetro se mueve. El siguiente
desarrollo se produjo en 1935, cuando Hugo Benioff (1899 a 1968, EE. UU.)
Diseñó y construyó un instrumento para medir un componente de la
deformación del suelo. El sismómetro de tensión mide la variación en la
distancia entre dos puntos, separados unos 30 m, causados por el paso de las
ondas sísmicas. La grabación de Benioff fue electromagnética, el período del
galvanómetro original fue de 40 segundos y luego se aumentó a 480 segundos.
Su sismógrafo de tensión fue el primero en registrar movimientos de la Tierra
con períodos de hasta 1 hora, como el modo más grave de las oscilaciones
libres de la Tierra (1952). La ciencia de la sismología apunta simultáneamente
a obtener la infraestructura del interior de la Tierra con la ayuda de los
fenómenos de ondas sísmicas, y a estudiar la naturaleza de las fuentes del
terremoto con el objetivo final de mitigar y controlar eventualmente el
fenómeno. Esta doble característica es evidente desde los primeros días de
esta ciencia. Los logros hacia el primer objetivo comenzaron en 1799, cuando
Cavendish empleó la ley de gravitación universal de Newton para estimar la
densidad media de la Tierra [(p) = 3 / (4riG) g (R) / R ~ - 5.5 g / cm3] . Como
esta densidad superó la densidad de las rocas superficiales, la conclusión fue
que la densidad debe aumentar con la profundidad en la Tierra. Por medio de
observaciones del efecto de marea en la Tierra sólida, Lord Kelvin afirmó en
1863 que la Tierra en su conjunto es más rígida que el vidrio. (Esta opinión se
confirmó más adelante, cuando se descubrió que el acero ofrece una mejor
comparación, en lo que concierne al modo más grave de la libre oscilación de
la Tierra). En 1897, Wiech-eft conjeturó a partir de cálculos teóricos que el
interior de la Tierra consiste en un manto. De silicatos, rodeando un núcleo de
hierro. La existencia del núcleo de la Tierra fue establecida por Richard Dixon
Oldham (1858 a 1936, India e Inglaterra) en 1906, a partir de observaciones de
olas de terremotos. En 1909, Andrija Mohorovifiie (1857 a 1936, Zagreb)
descubrió una discontinuidad material aguda en algún nivel debajo de la
superficie de la Tierra (conocida hoy como Moho), que podría explicar los
tiempos de viaje de los rayos sísmicos de un terremoto local. Posteriormente se
encontró para demarcar la base.
de la corteza terrestre. Este descubrimiento demostró que la estructura de las
capas externas de la Tierra podría deducirse de los tiempos de viaje de las
señales sísmicas reflejadas y refractadas. ¡John Milne lo sabía ya en o antes
de 1906! (Milne, 1906, pp. 365-376). En 1914, Beno Gutenberg (Alemania y
EE. UU.A. de 1889 a 1960) publicó su determinación precisa de la profundidad
del límite del núcleo de la Tierra a 2900 km por debajo de la superficie. (En
1926 descubrió una zona global de baja velocidad a una profundidad de 70 a
250 km en el manto de la Tierra, conocida como astenosfera). En 1936, Inge
Lchmann (1888 a 1993, Dinamarca) presentó la primera evidencia de la
existencia de El núcleo interno sólido de la Tierra con un radio de ca. 1400 km.
La llegada de la elastodinámica comenzó con el descubrimiento de las ondas
longitudinales y transversales de Poisson en 1828 y su interpretación física de
Stokes en 1845. En 1885, Lord Rayleigh descubrió, antes de las
observaciones, otro tipo de ondas elásticas (que se conocerá más adelante
como Onda de Rayleigh) que se asocia con discontinuidades materiales, como
la superficie libre de un cuerpo. En 1897, Oldham identificó en las grabaciones
de terremotos (sismogramas) los tres tipos principales de ondas pronosticadas
por Poisson y Rayleigh, confirmando así que, al menos para el movimiento de
las olas en periodos cortos (períodos dominantes: 0,1 a 1 segundo), la Tierra
se comporta como un cuerpo elástico para el cual puede aplicarse la ley de
Hooke. En 1899, Cargill Gilston Knott (1856 a 1922, Escocia y Japón) derivó
las ecuaciones generales para la reflexión y la refracción de las ondas elásticas
planas en los límites de los planos. Esto fue necesario para relacionar las
amplitudes de las ondas que activan el sismómetro con las trazas
correspondientes del sismograma, modificadas por la presencia de la superficie
libre de la Tierra. En 1904, Horace Lamb (1849 a 1934, Inglaterra) presentó la
primera teoría matemática de un terremoto de fuente puntual en un modelo
terrestre semiespacial. De este modo, sentó las bases teóricas para la
propagación de las ondas sísmicas en medios en capas. El primer problema
inverso en geofísica fue formulado y resuelto en 1907 por Gustav (Ferdinand
Joseph) Herglotz (1881 a 1953, Alemania), lo que permitió determinar las
velocidades de compresión y de corte intrínsecas a partir de los datos del
tiempo de viaje. Para 1909, E. Wiechert, K. Zoeppritz y L. Geiger explotaron
este método y obtuvieron por primera vez un perfil de velocidad de onda
compresiva en el manto de la Tierra. Augustus Edward Hough Love (1863 a
1940, Inglaterra) realizó una importante contribución a la sismología teórica con
su descubrimiento de una onda de superficie polarizada horizontalmente (ahora
conocida como onda de amor), a partir del análisis de la cual los sismólogos
podrían obtener estimaciones de El espesor de la corteza terrestre y su rigidez.
Harold Jeffreys (1891 a 1989, Inglaterra) realizó un avance adicional de 1915 a
1936, quien implementó métodos matemáticos y estadísticos y un gran
conocimiento de problemas geodinámicos más amplios. Su atención al método
científico y al detalle estadístico ha sido una de las principales fuerzas a través
de las cuales la sismología anterior a la Segunda Guerra Mundial ha alcanzado
su nivel de precisión. Se han logrado avances significativos en sismología. A lo
largo de las primeras cuatro décadas del siglo XX: en 1901, se fundó el primer
Instituto Geofísico en Alemania (Alemania), y el número de observatorios
sísmicos capaces de registrar telésísmicamente alcanzó 25 (en comparación
con ocho en 1894). Para 1940, había alrededor de 10 centros principales de
investigación sísmica y 250 estaciones sísmicas en todo el mundo. Una
asociación internacional de sismología se fundó en 1905 en una reunión en
Berlín de representantes de 23 países, que se reunió nuevamente en Roma en
1906, donde se decidió establecer un centro internacional en Estrasburgo. El
año 1919 vio la aparición de un boletín de grabaciones globales de terremotos,
publicado en Oxford, bajo el nombre de International Seismological Summary
(I.S.S.). Tras el catastrófico terremoto de San Francisco del 18 de abril de
1906, Harry Fielding Reid (1859 a 1944, EE. UU., EE. UU.) Avanzó su teoría
del rebote elástico (1911): los terremotos se asocian con grandes fracturas o
fallas en la corteza terrestre y el manto superior. A medida que la roca se
tensa, la energía elástica se almacena de la misma manera que se almacena
en un resorte de reloj enrollado. La tensión se acumula hasta que la unión por
fricción que bloquea la falla ya no puede mantenerse en algún punto de la falla
y se rompe. En consecuencia, los bloques se deslizan repentinamente en este
punto, que es el foco del terremoto. (En 1960, se descubrió que una vez
iniciada la ruptura, viajará a una velocidad de aproximadamente 3.5 km / seg, y
continuará hasta 1000 km). En los grandes terremotos, el deslizamiento o
desplazamiento de los dos bloques puede ser tan grande como 15 m. Una vez
que se rompe el enlace de fricción, la energía de tensión elástica, que se había
almacenado lentamente durante decenas o cientos de años, se libera
repentinamente en forma de vibraciones sísmicas intensas, que constituyen el
terremoto. El proceso a través del cual la unión por fricción se "lubrica" para
permitir el comienzo del deslizamiento aún no se comprende. Alrededor de 109
erg de energía de tensión se libera de cada metro cúbico del volumen de la
fuente del terremoto. Los terremotos más grandes liberan energía de un
volumen tensado de 1000 por 100 por 100 km = 1016 m 3, lo que produce una
energía total de 1025 erg. Esto es aproximadamente el equivalente a 1000
explosiones nucleares, cada una con una fuerza de 1 megatón (1 millón de
toneladas) de TNT. Es interesante observar que los pocos grandes terremotos
que se producen cada año liberan más energía que cientos de miles de
pequeñas descargas combinadas. Cada año se liberan alrededor de 1026 erg
de energía sísmica. Esto es aproximadamente el 1% de la cantidad anual de
energía térmica que llega a la superficie de la Tierra desde el interior. El tiempo
entre los grandes terremotos es de unos 50 a 100 años en California y algo
menos en las regiones sísmicas más activas, como Japón o las Aleutianas. Por
lo tanto, el tiempo requerido para acumular la energía de tensión elástica en las
rocas adyacentes a una falla es enorme en comparación con el tiempo que
transcurre durante la liberación de la energía almacenada. El estado actual del
conocimiento de los fenómenos sísmicos excluye la predicción confiable del
tiempo de ocurrencia del siguiente terremoto mayor en cualquier ubicación
dada. Quizás el comentario más acertado en este sentido fue dado hace
mucho tiempo por Mark Twain: "Me sentí complacido de poder responder con
prontitud, y lo hice. Dije que no lo sabía".
Desde 1556, alrededor de 6 a 7 millones de personas han muerto a causa de
terremotos.
Calendario de progreso
California. 2100 a 600 a. C. C. Las alusiones bíblicas a los grandes terremotos
en el sistema de fallas del Mar Muerto se producen desde ca. 2100 a. C..E. (P)
ca. 1560 a. C..E. y 759 B.C.E. Aunque las causas principales de estos eventos
fueron atribuidas por los profetas y los escribas de la Biblia a un solo poder
supremo, las descripciones de los fenómenos en sí son bastante precisas y
deben haberse originado con agudos observadores de la naturaleza. Estas
fueron algunas de las primeras reacciones literarias documentadas de los
hombres a los fenómenos naturales. (P) ca. 585 a. C..E. Thales of Miletos (624
a 546 a. C..E.) fue el primero en exponer la teoría de una causa natural de los
terremotos; Él propuso que fueran causadas por el agua. (P) ca. 550 a. C..E.
Anaximenes de Miletos (585 a 525 a. C., EE. UU.), Alumno de Anaximandro,
fue más lejos que su maestro al ignorar por completo los elementos míticos de
las leyes naturales. Él enseñó que, con la edad, la Tierra se derrumbó bajo su
propio peso, causando así el movimiento de los terremotos. (P) ca. 340 a. C..E.
Aristóteles (384 a 322 a. C..E.) especuló que los terremotos son causados por
el aire en movimiento: el aire atrapado dentro de la Tierra sacude a la Tierra
mientras trata de escapar. Esta teoría influyó en el pensamiento europeo hasta
el siglo XVII. (P) ca. 45 A.D. Lucius Annaeus Séneca dio el mejor resumen de
los puntos de vista sobre los terremotos en la tradición grecorromana: los
terremotos son causados por causas naturales como el agua, el aire o el fuego,
ubicados dentro de la Tierra. (P) ca. 1260 Albertus Magnus (1206 a 1280)
reconoció el carácter vibratorio del movimiento de los terremotos. (P) 1638
Galileo Galilei consideró por primera vez la resistencia de los sólidos a la
ruptura. Sus investigaciones dieron la dirección que posteriormente fueron
seguidas por muchos investigadores. 1660 Robert Hooke expuso la relación de
tensión-tensión lineal unidimensional, sentando así las bases para la teoría de
la elasticidad (publicada en 1678). (T) 1664 Athanasius Kircher (1601 a 1680)
propuso un sistema de canales de fuego dentro de la Tierra que terminan en la
superficie en los volcanes; los terremotos están relacionados con el movimiento
del fuego dentro de estos túneles que trabajan contra las rocas que bloquean
este movimiento. (P) 1696 Johann Zhan agregó a la teoría aristotélica que el
aire atrapado dentro de la Tierra se mezcla con material inflamable. (P) 1703
Martin Lister (1638 a 1712) y Nicolas Lemryr (1645 a 1715) se separaron de la
teoría aristotélica de los terremotos y conjeturaron que el fuego interno que
produce los terremotos y los volcanes fue producido por medios químicos a
través de una mezcla De hierro, sulfuro y sal con agua. El aspecto importante
de esta teoría, que se hizo muy popular.
En el siglo XVIII, la fuente de un terremoto fue una explosión producida por la
mezcla dentro de la Tierra de los mismos productos químicos utilizados para
los explosivos. Isaac Newton, en su Opticks (1704), se refiere a esta teoría en
el Libro III, Parte I, Consulta 31. Afirmó que cuando estos minerales se
acumulan en una cueva subterránea, explotan con un gran temblor de la Tierra.
(P) 1749, el Comte de Buffon (1707 a 1788) propuso que una explosión de
materiales inflamables, como la fermentación de piritas, produce una cantidad
de aire caliente en cámaras subterráneas que podrían escapar horizontalmente
a una gran distancia a través del metro. Túneles y cuevas. Esto explicaría por
qué los terremotos se sienten a larga distancia. (P) 1755 1 de noviembre.
Terremoto de Lisboa. Algunos efectos están descritos científicamente. (P) 1757
John Bevis (o Bevans; 1693 a 1771) publicó en Londres un volumen notable
sobre Historia y filosofía de los terremotos, en el que recopiló relatos del
terremoto de Lisboa de diversas fuentes auténticas. Su encuesta, la primera de
su tipo, fue utilizada posteriormente por John Michell (1761). 1761 Después del
terremoto de Lisboa, John Michell demostró que los terremotos se originan
dentro de la Tierra y que las ondas se extienden desde la fuente a todo el
interior de la Tierra (su velocidad = 530 m / seg) (por cierto, originó el concepto
de un agujero negro) . Sin embargo, Michell todavía se aferraba a la teoría
explosiva de los terremotos. (P) 1783 del 5 de febrero y siguientes. Terremotos
en Calabria, Italia. Investigado por comisiones científicas. (P) 1798 Henry
Caveudish determinó la densidad media de la Tierra, invocando la ley de
gravitación universal de Newton [(p) = 3g (R) / (4nGR) ~ 5.448 g / cm3]. (E)
1807 Thomas Young definió el módulo de elasticidad (Y = rll / e11) y fue el
primero en reconocer la cizalla como una tensión elástica. 1819 16 de junio.
Terremoto en Cutch, India. Las primeras observaciones bien documentadas de
fallas que acompañan al terremoto. (P) 1821 a 1831 C. L. M. H. Navier, A. L.
Cauchy y S. D. Poisson descubrieron las ecuaciones fundamentales de la
elastodinámica lineal. Navier (1821), un discípulo de Fourier y profesor de
mecánica analítica en el Polytechnique de París, fue el primero en obtener la
ecuación de desplazamiento elastodinámico y la ecuación de movimiento de un
fluido viscoso. Estableció los cimientos de la teoría matemática de la elasticidad
(definición de tensión y tensores de tensión, relación tensión-tensión 3D para
un sólido anisotrópico general) y estableció correctamente el número de
constantes elásticas para medios isotrópicos y no isotrópicos. Su ecuación de
movimiento (en notación de módem) lee: div I "+ p ~ 7 = p [c32 ~ / Ot2]. (T)
1826 a 1839 AJ Fresnel (1826), SD Poisson (1828), AL Cauchy (1830) y G.
Green (1839) discutieron la propagación de ondas planas a través de medios
cristalinos, y obtuvieron ecuaciones para la velocidad de propagación. en
términos de la dirección de lo normal al frente de onda
Encontraron que, en general, las superficies onduladas tienen tres hojas.
Cauchy estableció las relaciones de tensión-tensión para los cristales
anisótropos generales en términos de 21 coeficientes. (AI) 1828 S. D. Poisson
estableció la existencia de ondas de compresión y de corte en sólidos elásticos
(observado por Oldham, 1897). Su descubrimiento creó en ese momento una
nueva dificultad en la teoría de la onda sobre la luz: si el éter se comportaba
como un sólido elástico, deberían ser visibles dos tipos de ondas de luz.
Maxwell evitó la dificultad al atribuir al éter una relación de Poisson a = 1/2
(velocidad longitudinal infinita). (T) 1829 a 1896 Primeros estudios teóricos
sobre las vibraciones de las esferas y placas elásticas: SD Poisson (esfera,
1829), Lord Kelvin (esfera, 1863), P. Jaerish (esfera isotrópica, 1880), H. Lamb
(esfera, 1882), C. Chree (esfera, 1889, 1896), H. Lamb (placa, 1889) y Volterra
(1894). (F) 1840 Von Hoff publicó un catálogo de terremotos de todo el mundo.
(P) 1841 Informes sobre investigaciones de terremotos comenzaron a aparecer
intermitentemente en los Informes Generales de la Asociación Británica para el
Avance de la Ciencia (preparados regularmente por John Milne a partir de
1881). (P) Primer sismómetro mecánico diseñado por James David Forbes. (S)
1845 G. G. Stokes definió los módulos de compresibilidad y rigidez elásticos.
(E) 1848 Lord Kelvin integró la ecuación de elastostática. (T) 1849 G. G. Stokes
formuló la ecuación fundamental para fluidos viscosos. (T) 1852 a 1859 G.
Lain6 definió los parámetros elásticos de los medios homogéneos y el concepto
de estrés elipsoide. (T) 1855 Luigl Palmieri construyó un sismómetro para usar
en el observatorio del Vesubio. (S) 1857 16 de diciembre. Terremoto al este de
Nápoles, Italia. Investigaciones de campo por Robert Mallet; primer intento
sistemático de aplicar los principios físicos a los efectos del terremoto en
detalle. Según él, los terremotos son causados "ya sea por la repentina flexión
y restricción de los materiales elásticos que forman una porción de la corteza
terrestre, o por su forma de ceder y convertirse en fracturas". Mallet publicó el
primer mapa de sismicidad mundial (1860) e hizo los primeros intentos de
medir las velocidades de las ondas sísmicas. De hecho, fue el primer
sismólogo verdadero. (P) 1863 Lord Kelvin utilizó observaciones de mareas
para mostrar que la rigidez media de la Tierra supera la del acero ordinario [(/
a) ~ 1.45 X 1012 cgs]. (E) 1869 F. Zrllner construyó un sismógrafo horizontal.
(s) 1872 E. Betti descubrió la relación de reciprocidad y la "relación de Betti"
que conduce más tarde a la representación teórica de la elastodinámica. 1874
De Rossi establece la escala de intensidad del primer terremoto. J. F. J.
Sehmidt acuñó los nombres: epicentro, choque principal. (P) 1874 a 1892 Las
primeras teorías lineales de fricción interna
y las pérdidas por atenuación en sólidos elásticos de O. E. Meyer (1874), L.
Boltzmann (1876), J. C. Maxwell (1876), Lord Kelvin (1878) y W. Voigt (1892).
(AE) 1877 a 1904 E. B. Christoffei (1877) derivó la ecuación cúbica para las
tres velocidades de fase de onda plana en medios elásticos anisotrópicos
generales, para cualquier dirección dada de lo normal al plano (ecuación de
Christoffel). Su trabajo fue seguido por Lord Kelvin (1904), quien describió la
naturaleza de los vectores de desplazamiento (polarización) y definió una
superficie de onda de duodécimo grado en el espacio de velocidad. (AI) 1878
R. Clasificación de los terremotos de Hoernes (volcanica, tectónica, etc.). (P)
1880 John Milne, James Alfred Ewing y Thomas Gray construyeron en Japón el
primer sismógrafo útil para la grabación de terremotos locales. (El 22 de febrero
de 1880 pudieron obtener registros satisfactorios de un temblor local). (S) 1881
Principio de perturbación del valor propio de Lord Rayleigh. (Principio
variacional de Rayleigh). 1882 R. Canaval acuñó los nombres: bloqueo,
después del shock. 1883 a 1884 Se publicó la escala de Rossi-Forel para los
efectos del terremoto (basada en observaciones en Italia y Suiza). (P) 1885 En
un estudio teórico, Lord Rayleigh descubrió que, además de las ondas
dilatacionales y de cizallamiento conocidas (Poisson, 1828), una sustancia
elástica homogénea puede acomodar una tercera onda en su límite. Esto se
conoce posteriormente como la onda de Rayleigh. (Rayleigh consideró las
ondas libres en un medio sin fuente). (SW) 1888 A. Sehmidt argumentó que,
como en general la velocidad de las olas debe aumentar con la profundidad en
la Tierra, las trayectorias de las ondas serán curvas y cóncavas hacia arriba,
hacia la superficie de la Tierra. (W) 1889 Milne comenzó la producción de los
"Circuitos Shide", que se ocupaban de los terremotos. (P) 17 de abril, 17 h 21
min. El cumpleaños de la sismología instrumental en su sentido mundial: el
primer evento telesísmico (un terremoto japonés), registrado por Ernst yon
Rebeur- Pasehwitz en Potsdam, Alemania, con una forma modificada del
péndulo horizontal de Ztillner (V o = 50, To = 18 sec , sin amortiguación A =
8221 km; tiempo de origen aprox. 17 hr 10.3 lluvia GMT). (S) 1891 28 de
octubre. Terremoto de Mino-Owari, Japón. Desplazamientos de fallas grandes;
gran daño. Comité de Investigación del Terremoto Imperial creado en
consecuencia. (P) 1892 a 1894 Milne y sus asociados desarrollan en Japón un
sistema de sismógrafo compacto para uso mundial. Los datos instrumentales
útiles comenzaron a acumularse en varias estaciones en Japón, Europa y los
Estados Unidos, y la sismología surgió como una ciencia cuantitativa. (S) 1895
F. Omori estableció una ley para series de tiempo de réplica. (P) 1897 12 de
junio. Gran terremoto indio. Investigado por R. D. Oldham. (P) R. D. Oldham
identificó en los sismogramas los tres tipos de ondas predichas por Poisson
(1828) y Rayleigh (1885). (T) Emil Wiechert elaboró detalles numéricos de un
modelo de la Tierra que consiste en un núcleo de densidad uniforme p ~ = 8.21
g / cm 3 y radio a ~ = 5000 km rodeado por una capa de roca de densidad
uniforme P2 = 3.2 g / cm 3 Un modelo de este tipo fue contemplado
anteriormente por Kelvin y P. G, Tait (1879) y RR Radau (1885). Wiechert
conjeturó que el núcleo central es metálico. (E) 1898 T. J. I'A Bromwieh estudió
la influencia de la gravedad en las ondas elásticas y, en particular, en las
vibraciones de un globo elástico. (F) 1899 C. G. Knott derivó los coeficientes de
reflexión y refracción de las ondas sísmicas planas en las discontinuidades
planas. (T) 1899 a 1903 La primera lista conocida de terremotos registrados
instrumentalmente con tiempos de origen y epicentros computados. (P) 1900
Mapas de sismicidad mundial preparados por John Milne y Ferdinand
Montessus de Ballore. (P) Emil Wiechert construyó un sismógrafo mecánico de
tres componentes. (S) 1901 Instituto Geofísico fundado en Gtttingen, Alemania,
por Emil Wiechert. (P) 1902 Escala de intensidad mejorada publicada por G.
Mercalli en Italia. (P) 1904 AEH El amor dio una solución analítica singular
exacta a la ecuación de Navier no homogénea en un sólido infinito: (2 + / z)
grad div fi + / zV2fi + p ~ = p [(Oz ~ l) / (Ot2)] . Luego procedió a construir las
funciones de Green para una variedad de fuentes puntuales derivadas como
dipolos, parejas, centro de compresión y centro de rotación. Love basó su
trabajo en los resultados anteriores de GG Stokes (quien en 1849 modeló un
origen de luz como una fuente puntual de ondas SH en el éter elástico
luminífero), y LM Lorenz (1861), quien mostró cómo resolver las ecuaciones
anteriores en términos de potenciales. En el mismo artículo, Love derivó por
primera vez el teorema de representación integral elastodinámico
tridimensional, que es esencialmente una extensión del teorema de Kirchhoff
para medios isotrópicos elásticos. Sin embargo, la integral del amor no estaba
escrita en notación tensorial compacta. Además, la solución fundamental
singular de la elastodinámica (tensor de Green) no aparece explícitamente en
su análisis. C. Somigliana (1905 a 1906) dio un teorema de representación
estrechamente relacionado. (SS) H. Lamb presentó el primer modelo
matemático de un terremoto en una configuración de medio espacio. La
generación de ondas elásticas mediante la aplicación de tracciones de
superficie dependientes del tiempo en el límite de un medio espacio o en él, se
conoce como problema de Lamb. El cordero representó una fuerza puntual en
un medio elástico isotrópico homogéneo semiinfinito como una integral de
Fourier-Bessel divergente. A falta de medios computacionales, solo pudo
esbozar los transitorios de desplazamiento en el campo lejano para una
tracción de superficie vertical y cierta Fuente impulsiva de las funciones de
tiempo. Sus resultados confirmaron la existencia de las ondas de Rayleigh.
(SW) Así generó el primer sismograma sintético de campo lejano. Además,
anticipó el último método de Cagniard (1939), pero no reconoció su
generalidad. (SS) 1904 a 1905 FT Trouton, AO Rankine (1904) y P. Phillips
(1905) descubrieron una ley de fluencia logarítmica [th (t) = q log (1 + t / to)],
que proporciona una descripción justa de La tensión en muestras bajo estrés
prolongado. [Aplicado a las rocas en 1956 por C. Lomnitz y generalizado por H.
Jeffrees (1958) a la Tierra en su conjunto.] (AE) 1905 R. Beeker desarrolló la
teoría del sólido lineal estándar con relajación continua, como una Modelo
físico de la anelasticidad. El modelo produce una constante Q limitada por
banda mediante una superposición continua de mecanismos de relajación
individuales. Aplicado a la propagación de ondas sísmicas en la Tierra en 1976.
(AE) 1905 a 1912 Establecimiento de la teoría de los rayos elementales para la
propagación de señales sísmicas en un modelo de Tierra esféricamente
simétrico por H. Benndorf (p = dT / dA, 1905), K. Ziip- Pritz, y E. Wieehert. (T)
1906 18 de abril. Terremoto de california Observa fallas y resbalones. (P) Boris
Borisovich Golitzin diseñó y construyó el primer sismógrafo electromagnético
con grabación fotográfica. (s) 22 de marzo. John Milne pronunció la
Conferencia Bakerian en la que anunció el descubrimiento de la "discontinuidad
de Moho". En sus propias palabras: "Antes de las grandes olas de una
perturbación telesísmica, encontramos temblores preliminares ..., para
(trayectorias de rayos) que se encuentran dentro de una profundidad de 30
millas, las velocidades registradas no superan las que esperaríamos para las
ondas de compresión. en material rocoso Por lo tanto, esta es la profundidad
máxima a la que debemos buscar materiales que tengan propiedades físicas
similares a las que vemos en la superficie de la tierra. Debajo de este límite, los
materiales de la parte exterior de este planeta parecen unirse rápidamente a
Un núcleo bastante homogéneo con alta rigidez ". En la misma conferencia,
Milne también fue el primero en observar (1906) que las rupturas en la
trayectoria del movimiento secular del Polo Norte de la Tierra (en relación con
su posición media) podrían correlacionarse con la ocurrencia de grandes
terremotos entre 1892 y 1904. Una teoría cuantitativa de este efecto se dio solo
en 1970. (E) R. D. Oldham proporcionó evidencia sismológica positiva de la
presencia de un núcleo central de un radio aproximado de 1600 km. (Encontró
un retraso sustancial en la llegada de las ondas P a distancias angulares más
allá de 120 ° desde un foco de terremoto, e infirió que la Tierra contiene una
región central caracterizada por una velocidad media de P apreciablemente
menor que la de la capa circundante, más adelante para ser llamado el manto.)
Se encontró que el manto en todas partes transmite ondas P y S y, por lo tanto,
es sólido para las tensiones con períodos que no exceden mucho los períodos
de marea. No se observaron ondas S debajo del manto, y se supuso que la
mayor parte del núcleo está fundido. (E)
G. Angenheister obtuvo primeros valores para la absorción
coeficientes de las ondas superficiales en el rango del período de 20 a 25
segundos (7 ~ 2.8 x 10 -4 km-h Q ~ 180). Este fue el primer uso de las
amplitudes de onda observadas para la estimación de la atenuación.
Resultados similares seguidos por Meissner (1913), Wegener (1912), Golitzin
(1913) y Gutenberg (1924). (AE) M. R. Freehet: cálculo funcional (el "derivado
de Frechet"). 1906 a 1911 Después del terremoto de San Francisco, los
sismólogos se dieron cuenta de que los terremotos de la corteza se asocian
con fallas finitas, fracturas y resbalones. HF Reid estudió las mediciones
geodésicas a lo largo de la falla de San Andrés antes y después de su ruptura
(18 de abril de 1906) y, en consecuencia, expuso (1911) su teoría del rebote
elástico, que llamó la atención sobre el significado de la energía de tensión
elástica en relación con terremotos: se produjo un terremoto tectónico cuando
las tensiones en alguna región del interior de la Tierra se acumularon hasta el
punto de exceder la fuerza del material, lo que condujo rápidamente a la
fractura. Esta información no se transmitió al nivel de los modelos de fuente
sísmica y, por consiguiente, el desarrollo natural de la teoría de la fuente
sísmica se detuvo durante los siguientes 50 años. (SS) 1907 Vito Volterra
presentó su teoría de las dislocaciones, incorporando los resultados anteriores
de E. Betti (relación de Betti, teorema de reciprocidad de Betti, 1872) y C.
Somigllana (relación de Somigliana, 1885 a 1889). Anteriormente (1894),
Volterra derivaba una teoría de representación integral bidimensional. (SS)
1907 a 1910 K. Ziippritz desarrolló las primeras tablas de tiempo de viaje para
unas pocas fases sísmicas (1907). G. Iterglotz (1907) e, independientemente,
H. Bateman (1910), dieron una solución analítica exacta a una ecuación
integral de tipo Abel, cuyas soluciones determinan la velocidad intrínseca como
función del radial. distancia del centro de la Tierra. Esto permitió a los
sismólogos invertir los datos de tiempo de viaje del rayo (T, A) en términos de
la velocidad intrínseca en el punto de giro del rayo. Entre 1909 y 1910, E.
Wieehert, Ziippritz y L. Geiger utilizaron este método para calcular las
velocidades de las ondas longitudinales en el manto. (E) 1909 Andrija
Mohorovifiic encontró evidencia en Croacia de un fuerte aumento en la
velocidad de la onda P en profundidad, que colocó a 54 km por debajo de la
superficie de la Tierra. El trabajo posterior realizado por otros mostró que tal
aumento es mundial, y el límite donde se produce llegó a llamarse la
discontinuidad mohoroviética (la profundidad de esta discontinuidad es, en
general, aproximadamente 35 km por debajo de la superficie en continentales).
las áreas de escudos, alcanzan los 70 km bajo algunas cadenas montañosas y
pueden estar a tan solo 5 km por debajo de los pisos de los océanos
profundos. La región de la Tierra sobre el Moho ahora se llama la corteza. (E
1911 A. E. H. Love explicó la aparición de ondas superficiales polarizadas en
sentido inverso no incluidas en las teorías de Rayleigh y Lamb. Posteriormente
se conoció como la onda de amor en medios elásticos en capas, y su
existencia en sismogramas fue un diagnóstico de la corteza terrestre. El trabajo
de Love dio lugar a un gran número de investigaciones matemáticas y produjo
mucha información sobre la estructura de los continentes y océanos. (SO)
Presentó la teoría de las oscilaciones de una esfera compresible gravitatoria
uniforme y obtuvo un período de 60 minutos para el modo más grave de su
modelo de tierra similar al acero. (F) 1912 H. Lamb sugirió que la velocidad de
grupo puede ser aplicable a la teoría de las ondas superficiales sísmicas y la
interpretación de los sismogramas. (SW) 1914 Beno Gutenberg estudió los
registros de terremotos que tenían distancias epicentral de más de 80 ° de
Gfttingen. Descubrió que a una profundidad de 2900 km, la velocidad de las
ondas longitudinales disminuyó de 13,25 a 8,5 km / s y que el radio del núcleo
es de unos 3500 km, un valor poco diferente de las determinaciones modernas.
(E) 1914 a 1919 A. A. Miehelson y H. G. Gale usaron un interferómetro para
medir las mareas del cuerpo en la Tierra sólida por la perturbación del nivel del
agua en dos tubos verticales con una larga conexión horizontal subterránea.
Con este equipo pudieron medir la rigidez media de la Tierra, (S) 1915 a 1936
Harold Jeffreys introdujo métodos matemáticos y estadísticos avanzados en el
análisis de datos sísmicos. (T) 1917 J. Radon: "Transformada de radón". 1917
a 1925 J. Shida (1917) notó por primera vez ciertas regularidades en la
distribución de las polaridades del movimiento inicial de la onda P como se
observa en los sismogramas en un área dentro de un radio de unos pocos
cientos de kilómetros alrededor de la fuente. Shida descubrió que la región
epicentral se divide en cuatro partes por dos líneas perpendiculares que se
intersecan en el epicentro. Siguieron observaciones de Nakamura (1922),
Gherzi (1923) y Somville (1925). (SS) 1918 Primer año cubierto por el
Resumen sismológico internacional, que recopila las lecturas de la mayoría de
las estaciones sismológicas del mundo. (P) 1919 H. Weyl presentó la función
de onda esférica como una integral de Fourier sobre todos los valores
complejos de ángulos esféricos en el espacio de número de onda, 1920 L. M.
Hoskins estudió las oscilaciones libres de una esfera gravitatoria radialmente
inhomogénea. (F) 1921 E. Meissner utilizó observaciones de la dispersión de
velocidad de grupo de las ondas de Rayleigh para modelar la cresta de la
Tierra. Casi al mismo tiempo, E. Tams y G. Angenheister notaron que las
ondas sísmicas de la superficie sobre los caminos en la región del Pacífico
viajan más rápido y se dispersan de manera diferente a los de las regiones
continentales, y sugirieron que existen diferencias significativas en las
estructuras de la corteza. (SW) 1922 Existencia de terremotos profundos
establecidos por H. H. Turner. (PAG)
1923 1 de septiembre. Terremoto, destructivo en Tokio y Yokohama.
Investigación detallada Muchos informes publicados. Instituto de Investigación
de Terremotos establecido en Tokio. (P) Aparición del primer ISS (Resumen
sismológico internacional) para los terremotos de 1918. Desde 1923 hasta
1963, el ISS fue la publicación más completa sobre la ocurrencia de
terremotos. Se informaron tiempos de origen y epicentros para todos los
terremotos suficientemente bien leídos. Para los terremotos de 1918 a 1929, se
utilizaron las tablas de tiempo de viaje de Zfppritz-Tumer en la preparación de
la EEI; De 1930 a 1936, el JB preliminar.
tablas de 1935, y de 1937 en adelante, las tablas de JB de 1940. (P) JH Jeans
desarrolló la teoría básica asintótica de los modos normales de la Tierra
(fórmula de Jean), relacionando la velocidad de fase en una frecuencia de
eigen con el número de modo colatitudinal asociado con esa frecuencia (F)
Hirosbi Nakano demostró que los patrones observados de los movimientos
iniciales se pueden explicar en términos de ciertas combinaciones de fuerzas
puntuales de la solución clásica de Stokes - Amor. Uno de los modelos,
conocido como pareja doble, es una combinación de dos parejas ortogonales
con momento cero. Se demostró que es equivalente a una presión y tensión
que actúan simultáneamente en ángulos rectos. (SS) E. D. Williamson y L. H.
Adams acoplaron valores de d) = k / p = a z - 4 / 3fl 2 de datos sismológicos
con la ecuación dp / dr = - GMp / r249, para obtener estimaciones de los
gradientes de densidad en la Tierra. Usando los datos sismológicos disponibles
y tomando p como continuo, construyeron un modelo de la Tierra consistente
con los valores de la masa de la Tierra y el momento de inercia. Su valor para
la densidad justo debajo de la corteza es 3.3 g / cm 3 (roca ultrabásica),
proponiendo una composición similar al olivino para el manto. Su trabajo
también proporcionó la primera evidencia directa de que hay un cambio
sustancial de la composición química en el interior profundo de la Tierra. (E)
Wenzel, Kramers, Brillouin y Jeffreys (WKBJ) desarrollaron de forma
independiente una solución explícita aproximada a algunas ecuaciones
diferenciales que gobiernan la región de transición de la óptica de onda a la
geométrica. 1923 a 1937 Uso de los tiempos de viaje de ondas de cabeza de
campo cercano (Pg, P *, P ,, Sg, S *, S,) de terremotos europeos, V. Conrad
(1923 a 1927) y H. Jeffreys (1926 a 1937). ) Obtuvo un modelo de corteza de
tres capas (sedimentos, granito, basalto). (E) 1924 a 1928 R. Stoneley
demostró la existencia de una onda de interfaz que se propaga en
discontinuidades sólido-sólido o sólido-fluido, posteriormente conocida como
onda de Stoneley (ondas generadas por la difracción de los frentes curvos de
las ondas corporales en un plano). límite). Esto fue importante para la
exploración de los geofísicos, ya que modelaba la interfaz de roca sedimentaria
en mares poco profundos. Stoneley también enfatizó (1925) la importancia de
la dispersión de velocidad de grupo de ondas superficiales para modelar la
corteza terrestre. En 1926, Stoneley pudo demostrar (a partir de las
observaciones de la dispersión de velocidad de grupo de las ondas Rayleigh y
Love) que la corteza euroasiática es dos veces más gruesa que la de la región
del Pacífico (H = 10 km), y por lo tanto que las estructuras de la corteza de Las
dos regiones difieren significativamente. (SO) 1925 J. A. Anderson y H. O.
Wood desarrollaron el sismómetro de torsión. (S) Jun Sbida discutió la
posibilidad de observar las oscilaciones libres de la Tierra. (¡Diseñó un
sismógrafo electromagnético con un período de péndulo de 180 segundos y un
período de galvanómetros de 1200 segundos!) (F) 1926 Primer uso de las
amplitudes de onda absolutas observadas de sismogramas en la estimación de
la liberación de energía sísmica por H. Jeffreys. Estos fueron utilizados por él
para demostrar la existencia de un núcleo líquido en la Tierra. (PAG)
K. Uller formuló las ecuaciones generales de Navier en medios no
homogéneos. (T) E. Meissner invocó el principio de Rayleigh para determinar
las velocidades de grupo para las ondas de Amor sin recurrir a la diferenciación
numérica (fórmula de Meissner). H. Jeffreys (1961) extendió este trabajo a las
ondas Rayleigh. (SW) Beua Gutenberg propuso una capa de baja velocidad en
los 100 a 200 km más alejados del manto, argumentando desde la evidencia
sobre la amplitud de la onda corporal. El trabajo posterior justificó esta
afirmación. La principal evidencia sismológica pareció cumplirse
suficientemente al asumir un gradiente de rigidez negativo en la parte exterior
de los 200 km, una condición que es factible a la luz de la evidencia sobre los
gradientes de temperatura. Gutenberg produjo una nueva evidencia para su
conjetura en 1939. (E) M. Born: "Nacimiento aproximado". De 1926 a 1960,
Perry Byerly desarrolló un método gráfico para mostrar las distribuciones de
movimiento iniciales en un plano y determinar a partir de ellas las soluciones
del plano de falla. Miles de terremotos fueron resueltos de esta manera por sus
estudiantes, discípulos y colegas. El método tenía dos inconvenientes: primero,
el movimiento inicial es característico solo de la primera fracción de un segundo
del complejo proceso de ruptura, que puede durar cientos de segundos en
eventos sísmicos mayores. Segundo, el movimiento de onda P inicial no es
suficiente para determinar cuál de las dos soluciones de plano de falla es la
falla real. De hecho, es desalentador que, en lo que respecta a los modelos de
fuente realistas, los sismólogos se desviaron durante 56 años (¡desde Reid!)
En estudios de movimiento inicial solo. Sin embargo, las soluciones de plano
de falla fueron una clave para el trabajo posterior en los movimientos de las
placas tectónicas. (SS) 1927 T. Terada y C. Tsuboi realizaron estudios de
modelos experimentales de ondas sísmicas. (S) V. V / iis / il / i midió los
desplazamientos del terreno mediante la interferencia de ondas de luz. (S)
1927 a 1928 K. Sezawa formuló la dispersión de ondas elásticas por esferas,
cilindros y aberturas. (T) 1927 a 1940 K. Sezawa (1927), H. Jeffreys (1931) y N.
Rieker (1940) estudiaron el amortiguamiento de los pulsos en medios
viscoelásticos y aplicaron la teoría a la propagación de las ondas sísmicas en la
Tierra. Esto fue necesario para las determinaciones de magnitud y energía, así
como para el estado físico de la corteza y el manto superior. (AE) 1927 a 1950
K. Sezawa, H. Jeffreys y R. Staneley desarrollaron la teoría de la dispersión de
la propagación de ondas de superficie en modelos de corteza con dos capas.
(SW) 1928 K. Wadati demostró la existencia de terremotos de foco profundo en
Japón. (P) 1930 A. Sieberg publicó un extenso tratado sobre la geografía de los
terremotos. (P) N. Wiener desarrolló el análisis armónico generalizado, forjando
las herramientas para el futuro análisis de señal computarizado. 1932 L. B.
Slichter extendió el método de inversión del tiempo de viaje de Herglotz-
Bateman a estructuras horizontales de múltiples capas. (T) 1933 Estudio
instrumental cuantitativo sobre los efectos de los terremotos en las estructuras
hechas por el hombre por N. H. Heek y F.
Neumann tras el terremoto de Long Beach del 10 de marzo de 1933. (P) 1934
L. J. B. La Caste inventó el sismógrafo vertical de largo período de longitud
cero sin resorte. (S) 1934 a 1944 Las mediciones de las velocidades sísmicas
en la exploración geofísica de los tiempos de viaje de las ondas P, SV y SH
revelaron que muchas rocas en las cuencas sedimentarias exhiben un grado
significativo de anisotropía. (AI) 1935 Charles F. Richter introdujo una escala de
magnitud de terremoto instrumental. Esto se basó en un intento anterior de
Wadati en Japón (1931). (P) Hugo V. Beuiaff diseñó y construyó el sismógrafo
de deformación lineal. (S) F. B. Blanehard usa un manómetro como un
sismómetro. Narman A. Haskell determinó la viscosidad media de la
astenosfera a partir de la tasa de elevación de la corteza terrestre después de
la fusión de las últimas capas de hielo del Pleistoceno. Encontró una viscosidad
cinemática del orden de 3 × 102 cgs. (E), (AE) 1936 Inge Lehmann postuló la
existencia de un núcleo interno para tener en cuenta las amplitudes de las
ondas P entre distancias angulares de 105 ° y 142 ° que se pensaba que eran
ondas difractadas. El radio del núcleo interno fue encontrado por B. Gutenberg
(1938) y por H. Jeffreys (1939) en aproximadamente 1200 a 1250 km. (E) 1939
tt. Jeffreys aplicó la teoría de difracción de Airy cerca de una cáustica al caso
sismológico de difracción de onda por el núcleo de la Tierra (A = 142 °). (T)
1939 a 1958 Las tablas sismológicas de Jeffreys-Bullen. H. Jeffreys (1939) y B.
Gutenberg (1951 a 1958) produjeron cada uno de ellos estadísticamente bien
distribuidos de forma esférica, simétrica y lateralmente promediada, de perfiles
de velocidad de corte y velocidad de corte en la Tierra, basados en grandes
cantidades de datos. Las diferencias entre sus respectivas curvas son
pequeñas, excepto en la parte exterior del manto y en la zona de transición
entre el núcleo externo e interno. Ambos modelos ignoran la anelasticidad, la
anisotropía, la homogeneidad lateral y la asfericidad de la Tierra. K. E. Bullen
pudo clasificar el interior de la Tierra (1940 a 1942) en una serie de proyectiles
que ocupaban rangos de profundidad desde la superficie hasta el centro.
También contribuyó al problema inverso de la distribución de la densidad. (E)
Período de transición de 1939 a 1960; Fin de la edad clásica de la escuela
analítica Oxford-Cambridge. Ataque final al problema del cordero con la ayuda
de la transformación de cálculo. Resultó en una mejor comprensión de la
naturaleza de las diversas señales sísmicas y acústicas transmitidas a través
de los modelos de espacio medio de la Tierra. Durante medio siglo después del
artículo seminal de Lamb de 1904, el objetivo principal de la sismología teórica
fue apuntar a una solución analítica exacta del "problema" y la evaluación
numérica de los transitorios de desplazamiento subsiguientes. De las muchas
publicaciones sobre el tema, se destacan tres estudios: L. Cagniard (1939)
abordó el problema de una explosión (simetría cilíndrica, dependencia del
tiempo de la unidad-paso) enterrada en un espacio intermedio o en una
configuración de dos piezas soldadas.
semi-espacios. Utilizó el método de transformada de Laplace con su propia
ingeniosa forma de inversión, en la que el integrando de la integral de inversión
de Bromwich se fuerza en una forma de transformada de Laplace de una
integral calculable. C. L. Pekeris presentó en 1955 el primer sismograma
sintético generado por computadora para una fuerza puntual en un sólido de
Poisson (2 = / t). En la era precomputadora, se utilizaron muchos métodos de
aproximación para extraer información útil de la representación integral de
Lamb. El método más eficiente fue el punto de silla de montar, mediante el cual
se podían obtener movimientos iniciales en el campo lejano con relativa
facilidad. (T, SS) Lapwood (1949) pudo desarrollar aún más los resultados de
Lamb; utilizando el método de aproximación de punto de silla de montar, sus
integrales de campo de fuente de línea produjeron varias fases subsidiarias
(además de las ondas P, S y Rayleigh clásicas), que surgen debido a la
difracción de los frentes de onda cilíndricos de la fuente en la superficie plana
libre. 1942 a 1956 Primeras relaciones empíricas entre magnitud, intensidad,
energía, aceleración y frecuencia de ocurrencia del terremoto establecidas por
B. Gutenberg y C. F. Richter. (P) 1946 comenzaron las pruebas nucleares. El
uso de explosiones nucleares subterráneas como fuentes puntuales, cada una
con ubicación y tiempo de origen conocidos con precisión, mejoró en gran
medida las capacidades de los estudios sísmicos del interior de la Tierra. El
primer evento de este tipo para el cual los datos se pusieron a disposición de
los sermólogos fue la explosión submarina cerca del atolón de Bikini el 24 de
julio de 1946. Desde entonces, los datos de más de 1000 explosiones
nucleares han sido analizados y estudiados en centros de investigación de todo
el mundo. (P) 1949 R. Stoneley examinó el efecto de la anisotropía en las
ondas superficiales elásticas y estableció su existencia para ciertos regímenes
de simetría. En condiciones de anisotropía que prevalecen en la corteza
terrestre y el manto superior, las curvas de dispersión se ven poco afectadas
por la anisotropía. (AI) 1950 a 1969 Dawn of the computer era: W, Thomson
(1950) y N. A. Haskell (1953) establecen el primer algoritmo informático para el
cálculo de la dispersión en medios multicapa. La solución del problema de
Lamb se calcula y se producen sismogramas generados por computadora
(Pekeris, 1955). Integración numérica de las ecuaciones de movimiento de toda
la Tierra (oscilaciones libres) (1959), ubicación epicentral ISS, USCGS (1960),
ondas de gravedad acústica en la atmósfera (1962), patrones de radiación de
ondas superficiales en - Modelos alísticos de la Tierra (1964), inversión de
datos Q (1965) y algoritmos rápidos para los cálculos de los espectros de
amplitud y potencia de Fourier (FFT, 1965, 1969). (T) 1952 Perry Byerly
desarrolló la teoría general del sismómetro articulado con soporte, en
movimiento general. (S) B. Gutenberg y C. Richter definieron la magnitud de la
onda de superficie, Ms, para terremotos de foco superficial en términos de la
amplitud máxima del movimiento del suelo para las ondas de superficie de la
corteza que tienen un período de 20 segundos. (SW) 1953 Formulación integral
del principio de Huygens para ondas elásticas vectoriales de estado
estacionario: W. D. Kupradse, P. M. Morse y H. Feshbaeh extraídas
independientemente de La solución de Stokes-Love es la solución singular y
fundamental de la elastodinámica, también conocida como el Gij, el elástico de
Green. El teorema de representación integral elastodinámica se expresó de
forma compacta en términos de este tensor [G o y T ~ (Gu)], tanto en el
dominio del tiempo como en el de la frecuencia. (SS) 1953 a 1965 La
observación e interpretación de las fases de la interfaz sísmica y las ondas
guiadas se produjo con el aumento de la frecuencia y los rangos dinámicos de
los sistemas de sismógrafos por un lado, y las capacidades computacionales
por el otro; Ondas guiadas de la corteza (desde 1953), ondas de pseudo
Rayleigh (1959), modos de interfaz con fugas y fase PL (1960 a 1961). (T)
1954 Con el advenimiento de su nuevo sistema de seis fotógrafos de período
largo, M. Ewing y F. Press extendieron la grabación y los análisis de las ondas
Rayleigh y Love hasta períodos del orden de 100 segundos. (SW) 1955
Estudios cuantitativos sobre los efectos de los fuertes terremotos de
movimiento en las estructuras artificiales. (S) 1955 a 1960 Y. Sato introdujo los
métodos de transformación de Fourier en el análisis de la dispersión y
atenuación de la onda de superficie. (SW) 1956 F. Press desarrolló el método
de determinación de la estructura de la corteza a partir de la dispersión de
velocidad de fase de las ondas de la superficie de la corteza y del manto. (SW)
Nelly Jobert calculó los periodos de oscilaciones libres de un modelo
heterogéneo de la Tierra, utilizando el principio de Rayleigh. (F) V. A.
Vvedenskaya fue el primero en obtener la equivalencia de doble pareja para
una fuente puntual efectiva de deslizamiento. 1958 F. Press, M. Ewing y F.
Lehner completaron el desarrollo de un sistema de sismógrafo de período largo
estable para uso en todo el mundo. (S) Hugo Benioff llamó la atención sobre
las ondas ultra largas con un período de ca. 57 lluvias, que notó en su esfuerzo
seis mogramas del terremoto de Kamchatka del 4 de noviembre de 1952 (la
grabación se realizó en un antiguo túnel de mina en Isabella, California). (F) Se
proporcionó una derivación rigurosa del teorema de representación integral de
dominio de tiempo 3D en términos del tensor de Green, válido para regiones
sin límites (1958). (SS) J. A. Steketee probó el teorema de equivalencia,
afirmando que el campo de desplazamiento producido por una dislocación en
un elemento plano en un cuerpo elástico es igual al producido por una pareja
doble en ese plano. Esto llevó a la definición de un momento fuente igual a tt
US, donde / t es la rigidez sobre la falla del área S y la dislocación U. Steketee
derivó la equivalencia al comparar la solución de Stokes-Love (1903) para una
pareja doble con la de Volterra. (1907) Solución para una dislocación
correspondiente. (SS) 1958 a 1965 Los datos sísmicos sobre la atenuación de
los rayos sísmicos, las ondas y los modos en la Tierra apuntaban a una casi
constancia de Q durante la banda de período 10 -5 a 10 por segundo. Se
sugirieron varios mecanismos de atenuación físicamente realizables. Se
establecieron esquemas de inversión perturbativa para derivar los parámetros
anelásticos intrínsecos del manto a partir de los datos de atenuación de la
superficie observados (1965). (AE)
1959 El efecto de la isotropía azimutal en los frentes de onda y los rayos de
una fuerza puntual localizada se derivó a través de representaciones integrales
del campo en términos de integrales de Fourier. Estos se estimaron
asintóticamente a través de la aproximación de la fase estacionaria. (AI) F. C.
Karal y J. B. Keller formularon la teoría de la propagación de rayos en medios
elásticos no homogéneos basados en la ecuación de Uller (1926). 1960 22 de
mayo. Chile. El primer gran terremoto en la historia que se estudió de forma
integral tanto macrosísmica como instrumentalmente. (P) Existencia de las
oscilaciones libres de la Tierra firmemente establecidas por varios grupos de
observadores en Europa, Japón y los Estados Unidos a partir de los análisis de
los registros del gran terremoto chileno del 22 de mayo de 1960. Las
observaciones también produjeron la división esperada de los degenerados
Frecuencias propias debido a la rotación diurna de la Tierra (1961). La
combinación de las líneas espectrales observadas con los cálculos teóricos
proporcionó a los sismólogos una nueva herramienta para muestrear la
estructura general del interior de la Tierra (C. L. Pekeris, G. Backus, F. Gilbert).
(F) Los análisis de los sismogramas revelaron que la liberación de energía en
los terremotos tectónicos se produce a través de una ruptura de propagación
sobre la falla causal. La teoría proporciona una forma sencilla de recuperar la
longitud de la falla y la velocidad de ruptura media de la directividad espectral
de las ondas corporales y de la superficie. Se encontró así que la fuente del
terremoto de China del 22 de mayo de 1960 liberó su energía a lo largo de una
falla de 1000 km, con una velocidad de ruptura promedio de 3.5 km / s. (SS) Se
aplicó la teoría del sistema lineal para mostrar que las señales de ondas de
superficie pueden enviarse de vuelta a la fuente mediante una "contabilidad" en
la fase espectral de los datos de campo lejano. Las "fases iniciales" del campo
lejano podrían servir como una firma de diagnóstico para el carácter temporal y
espacial de la fuente. (SS) 1960 a 1964 Los espectros de amplitud y fase de
campo lejano de ondas de superficie de largo período se utilizaron para el
estudio de los mecanismos de origen de los terremotos y la estructura del
manto superior. (sw) 1961 a 1966 El descubrimiento de la fuente en
movimiento llevó a la formación del modelo de dislocación cinemática con los
siguientes parámetros de fuente: longitud de falla, velocidad de ruptura, tiempo
de subida, ancho de falla y deslizamiento. El modelo se caracteriza por tres
características básicas:
• El campo de desplazamiento lejano está determinado por la velocidad de
deslizamiento en la falla. El patrón de radiación es diagnóstico de la fuente y
depende de los parámetros de la fuente. • Los componentes de radiación de
corto período son coherentes solo en distancias considerablemente más
pequeñas que la longitud total de la falla. • El presupuesto de energía de los
terremotos mayores requiere la asunción de un componente irregular de
movimiento superpuesto en la falla durante la ruptura. (SS)
1962 a 1969 Avances en técnicas numéricas de análisis de datos.
Análisis y procesado de filtros digitales, análisis multidimensionales de Fou-
rier, transformaciones F-K, espectros variables en el tiempo y transformadas
rápidas de Fourier. Incremento de rangos dinámicos de sistemas sísmicos y
capacidades informáticas. (T) 1963 Francis Birch notó que la relación entre a =
x / ~ pp y la densidad en una amplia gama de elementos y compuestos
depende sistemáticamente de su peso atómico medio. Sobre esta base, los
modelos sismológicos de la Tierra sugieren que el núcleo interno es casi hierro
puro. (E) 1963 a 1967 Despliegue de 120 WWNSS en 60 países. Advenimiento
de las grabaciones analógicas de tres componentes de banda ancha en cinta
magnética. (S) 1964 La ISS fue reemplazada por el ISC (International
Seismological Center, Newbury, Inglaterra). Recibió alrededor de 80,000
lecturas cada mes de aproximadamente 1200 estaciones en todo el mundo. (P)
1964 a 1965 Desentrañar las interrelaciones latentes y las dualidades entre
rayos, ondas y modos del campo sísmico global de la Tierra. Se aplica la teoría
asintótica de la solución en modo normal. (Fórmula de Jean, transformación de
Watson, etc.) (T) 1964 a 1969 Los arreglos de sismómetros de gran apertura se
ponen de moda. Construcción de sismómetros controlados por
retroalimentación. (S) 1965 Sismólogos en los Estados Unidos propusieron un
programa de investigación de 10 años para la predicción de terremotos. (P)
Medidor de tensión de Benioff equipado con calibración interferométrica
continua. (S) 1966 Advenimiento del medidor de tensión óptico maser. (S) 1966
a 1980 Evidencia adicional sobre las distribuciones de densidad,
incompresibilidad y rigidez en el interior de la Tierra surgió de las grabaciones
de las oscilaciones libres de la Tierra provocadas por el terremoto de Chile en
1960. Los esquemas de inversión muestran la capacidad de observaciones de
oscilaciones de la Tierra en períodos largos para discriminar entre diferentes
modelos de la Tierra. (E) 1967 a 1969 La conjetura de la deriva continental,
formulada en 1912 por Alfred L. Wegener (1880 a 1930), verificada en el marco
de la sismología de terremotos; Patrones de sismicidad global vinculados a los
movimientos de la placa. (P) Desarrollo del modelo dinámico de la tectónica de
placas, que dio una explicación teórica global a los patrones de sismicidad. En
este contexto, el modelo de fuente cinemática fue instrumental en la estimación
de la acumulación a largo plazo de deslizamiento a lo largo de los principales
sistemas de fallas. La teoría de la tectónica de placas sostiene que la capa
superior de la Tierra (litosfera) consta de varias (aproximadamente ocho)
placas grandes y casi estables llamadas placas. El grosor de cada placa se
extiende hasta una profundidad de unos 80 km; las placas se mueven
horizontalmente en relación con las placas vecinas, sobre una capa de roca
más suave. La tasa de movimiento varía de 1 a 10 cm por año sobre una capa
de menor resistencia, llamada astenosfera. En los bordes de la placa donde
hay contacto con las placas adyacentes, las fuerzas tectónicas de contorno
operan sobre las rocas, lo que provoca cambios físicos y químicos en ellas. La
nueva litosfera se crea en las crestas oceánicas medio por el surgimiento y
enfriamiento del magma
del manto de la tierra. Para conservar la masa, las placas que se desplazan
horizontalmente se absorben en las trincheras oceánicas, donde un proceso de
subducción lleva la litosfera hacia el interior de la Tierra. La teoría de la placa
es consistente con una alta sismicidad a lo largo de los bordes de las placas
que interactúan. Los terremotos entre placas deben ser explicados por otros
mecanismos. (SS) 1968 a 1985 Teorías de ondas asintóticas en medios
verticalmente no homogéneos: rayos generalizados para un modelo de la
Tierra en capas con aplicación a la difracción de las fases del núcleo, y
tunelización. Ecuaciones de movimiento de desacoplamiento de primer orden.
La aproximación acústica en sismología exploratoria. WKBJ aproximaciones, y
métodos extendidos de WKBJ. (T) Ecuación de onda parabólica, vigas
gaussianas y la solución aproximada paraxial de la ecuación de onda (Leonto-
rich y Foek, 1946). (T) Los sismólogos obtuvieron (1972) soluciones numéricas
de la ecuación de Navier vectorial en medios isotrópicos no homogéneos con
límites, que muestran el acoplamiento, la conversión de modo, la dispersión y
la difracción. La teoría parabólica utilizada para resolver problemas de
dispersión hacia adelante en medios no homogéneos. (T) 1969 El experimento
de sísmica pasiva de Apolo. (S) Desarrollo de un sistema de sismógrafo
electromagnético de banda ancha de alta ganancia y largo tiempo, con
grabación digital. (S) 1969 a 1977 Los análisis de los tiempos de viaje y la
polarización de las ondas sísmicas proporcionaron evidencia de anisotropía en
la corteza y el manto de la Tierra (por ejemplo, polarización de ondas de
superficie de modo superior). Desarrollo de métodos para el cálculo de
amplitudes de rayos en medios anisotrópicos. (AI) 1970 NASA (U.S.A.) puso un
sismógrafo en la luna. (s) Mediciones de deformación de la tierra con
interferómetro láser. (S) 1970 a 1985 Teoría de rayos asintóticos: trazado de
rayos en dos puntos en 3D de los tiempos de viaje y las amplitudes en medios
generales (no homogéneos y anisotrópicos), expansión de series de rayos y
trazado de rayos dinámico en coordenadas centradas en los rayos.
Modificaciones de expansiones en torno a puntos de inflexión, cáusticos, zonas
de sombra, etc. (Complementado por expansiones modales, métodos de
diferencia finita o métodos de elementos finitos para el comportamiento a corto
plazo o de campo cercano). (T) 1970 a 1988 Nuevas tendencias en el
modelado sísmico 3D: solución de problemas de dispersión y difracción hacia
adelante e inverso en medios elásticos no homogéneos (tanto deterministas
como estocásticos), y a través de fronteras irregulares:
• Teoría de la inversión y resolución de datos brutos de la Tierra (1970 a 1972).
• La fórmula integral de Kirchhoff-Helmholtz (principio de Huygens) se usa en
varios problemas:
(a) Dispersión por obstáculos suaves: se establece un algoritmo para el cálculo
numérico de la dispersión de las ondas elásticas vecinas por obstáculos suaves
de forma arbitraria (método de matriz T para la dispersión hacia adelante). (b)
Cálculos de amplitudes de ondas corporales en la Tierra (1981 a 1983). En
este esquema, la teoría del rayo (eikonal) es do)
se usa junto con el teorema de Green para medios elásticos de variación lenta
(método de rayos de Kirchhoff hacia adelante). Migración de datos de reflexión
apilados (migración de Kirchhoff) a través de los cuales se visualizan las
superficies discontinuas en sismología de exploración (1973 a 1988). El método
Kirchhoff anterior también se utiliza para la migración de datos en medios no
homogéneos (problema de dispersión inversa). La migración geométrica fue
desarrollada por J. G. Itagedroon (1954) y A. W. Musgrave (1961). De 1971 a
1978, se desarrollaron los siguientes esquemas de migración: migración de
ecuaciones de onda, migración de transformada de Fourier, migración de
Kirchhoff, migración de número de frecuencia de frecuencia (FK) y migración
de inversión Born-WKBJ.
• Inversión tomográfica de ondas sísmicas (1984 a 1992). La aplicación de la
transformada de Radon comenzó en 1967 en la asma- rofísica (Bracewell).
Alcanzó la sismología en 1981 y emergió en 1984 como un método de imagen
para determinar la estructura del subsuelo. Sus usos son los siguientes:
(a) Mapeo del manto superior a partir de la inversión de datos sísmicos (modos
normales, tiempos de viaje de ondas corporales y dispersión y atenuación de
ondas superficiales): los tiempos de viajes de ondas corporales teleseísmicas
en arreglos producen variaciones de velocidad lateral, tanto regionales y
globalmente. Los retrasos en el tiempo de viaje se proyectan a lo largo de las
trayectorias de los rayos, contra un modelo de velocidad de referencia. (b)
Tomografía de difracción en exploración sísmica a partir de mediciones en
pozos cruzados. (T)
1971 Una red global de estaciones sísmicas de observación (WWNSS, por sus
siglas en inglés) establecida por los EE. UU. Coast and Geodetic Survey. (S)
Un medidor de inclinación de mercurio desarrollado en el Instituto de
Tecnología de Massachusetts. (S) 1972 a 1987 Los cálculos teóricos y
numéricos de las oscilaciones libres de la Tierra toman en cuenta las
perturbaciones debidas a la asfericidad, anisotropía, anelasticidad e
inhomogeneidad oral. (F) 1972 a 1992 Después de la consolidación de la teoría
del modelo de fuente cinemática y su verificación a través del análisis de
cientos de sismogramas de terremotos, la teoría se desarrolló aún más en la
dirección de medios más complejos para explicar los efectos de la anisotropía y
el hetero lateral. - La genidad. La disponibilidad de computadoras electrónicas
rápidas permitió a los teóricos calcular los campos de fuentes sísmicas en
medios más realistas sometidos a la ecuación de Navier: div T (fi) - p [(02 ~) /
(0t2)] = - F '(P, t ) - div ~ / (?, t), donde ~ "es 4 la densidad de fuerza de la
fuente y ~ 1 = niu) cij, pq ~ fi ~ t: C es la densidad tensorial del momento de la
fuente [para medios isotrópicos ~ / = 2 ( ~ • fi) l + / z (~ fi + fi ~)]. Los cálculos
del momento en que la densidad de los terremotos se convirtió en una rutina
durante la última década. La formulación anterior también es adecuada para
problemas de dispersión de ondas elásticas por inhomogeneidades. donde las
fuentes son generadas virtualmente por los dispersadores. (SS) 1974 a 1992
Desarrollo de perturbación computacional,
esquemas para la cuantificación de campos de ondas superficiales en modelos
de la Tierra que dan cuenta de la heterogeneidad lateral, anisotropía,
anelasticidad y dispersión. Teoría de rayos y rayos gaussianos de la
propagación de ondas superficiales en una esfera. (SW) 1976 Se observa una
dispersión causal debido a la atenuación de las ondas y los modos normales.
(AE) 1977 a 1992 Las mediciones mejoradas de y y Q de las redes globales
permiten a los sismólogos invertir la atenuación de los datos de oscilación libre
y estudiar los efectos de la minoría del manto en nutaciones, mareas terrestres
y variaciones de marea en la tasa de rotación. Estudian el efecto de una zona
poco profunda de baja viscosidad en el flujo del manto y las anomalías
geoideas. Los sismólogos intentan separar la atenuación de las ondas
superficiales debido a la dispersión de la atenuación general observada. La
sismología entra en una etapa en la que la imagen sísmica del interior utiliza
todos los datos disponibles. (AE) Establecimiento de la teoría de los campos
sísmicos generados por fuentes puntuales en medios anisotrópicos de
múltiples capas. Los temas de investigación incluyen los siguientes: división de
ondas de corte, dispersión por inclusiones anisotrópicas, trazado dinámico de
rayos en medios anisotrópicos, oscilaciones libres en una Tierra ligeramente
anisotrópica y coordenadas centradas en los rayos en medios anisotrópicos.
(AI) 1978 Sismógrafos de fondo oceánico (OBS, por sus siglas en inglés)
colocados en el lecho marino frente a la costa del Pacífico en el centro de
Honshu, Japón. (S) 1980 a 1992 Con la cantidad y calidad cada vez mayores
de datos sísmicos, se pudieron observar desviaciones de la isotropía, la
simetría esférica y la elasticidad pura con mayor precisión. Por otro lado, las
capacidades de montaje de las computadoras electrónicas digitales permitieron
a los sismólogos utilizar esquemas computacionales avanzados e inversos más
sofisticados. En la última década más o menos, fuimos testigos de las primeras
imágenes en 3D de velocidades sísmicas y anisotropía en el manto y el núcleo
interno, junto con el refinamiento de la estructura de velocidad detallada cerca
de los principales límites internos, como el núcleo interno-núcleo externo,
núcleo central. Manto y zonas de transición de manto inferior y manto inferior. A
través de la tomografía sísmica, los sismólogos han explotado la base de datos
acumulada de ondas P y S de millones de tiempos de viaje y miles de formas
de onda, así como los nuevos conjuntos de datos de ondas superficiales
grabados digitalmente y sus homólogos de onda estacionaria, las oscilaciones
libres. Las fuentes de las ondas sísmicas son principalmente terremotos,
distribuidos globalmente en las crestas del medio océano, zonas de subducción
y, a lo largo de fallas de deslizamiento. Este proceso computacional de
imágenes tomográficas globales en 3D del interior profundo se puede dividir en
tres etapas distintas:
• Acumular una base de datos de amplio rango de frecuencia (fracción de
segundo a 1 hora) de ondas de cuerpo de compresión y de corte, ondas de
superficie de período largo y intervalos de tiempo de oscilaciones libres. Dado
el comportamiento cuasi elástico de la Tierra para cargas transitorias de corto
tiempo, estas ondas elásticas se propagan a través del interior desde sus
respectivas fuentes, reflejando, refractando y convirtiendo entre tipos de onda
siempre que encuentren cambios en las propiedades del material. . • Inversión
de los datos anteriores para determinar densidad y elasticidad. Propiedades a
todas las profundidades del planeta. Esta es la etapa de mapeo tomográfico: se
requieren mediciones e imágenes de alta precisión ya que la fluctuación lateral
en la velocidad es a lo sumo un pequeño porcentaje de la velocidad promedio a
una profundidad dada. Interpretación de las velocidades sísmicas 3D y las
variaciones de densidad como manifestaciones del proceso convectivo
dinámico accionado térmicamente del régimen de flujo del manto-núcleo. Dado
que las tensiones de cizallamiento involucradas en el flujo pueden inducir la
recristalización y la orientación preferida de los minerales anisotrópicos, el
manto puede adquirir una anisotropía masiva. Si esta anisotropía afecta la
propagación de las ondas sísmicas en la Tierra a un nivel observable, puede
eventualmente invertirse para obtener más información sobre el régimen de
flujo. (MI)
1981 Arreglo digital de superficie fuerte bidimensional de apertura de 2 km
utilizado en Taiwán para registrar vectores de aceleración de campo cercano.
(S) 1982 Más de 100 estaciones sísmicas digitales operan en todo el mundo.
Alrededor de 30 de estos constituyen la red GDSN (Global Digital Seismograph
Network). (S) 1986 a 1992 La investigación está orientada principalmente a la
computación. Los principales temas son los siguientes:
• Inversión de datos sísmicos para heterogeneidad lateral y anisotropía.
Imágenes globales del interior de la tierra. • Propagación de ondas desde
fuentes sísmicas realistas en medios anisotrópicos de múltiples capas. •
Problemas de inversión no lineal. • Dispersión de interfaces aproximadas y
dispersores distribuidos aleatoriamente. • Propagación de ondas en medios
finamente en capas. • Teoría de la perturbación del rayo y la aproximación del
Born. • Teoría de la onda en medios complejos. • Dinámica del núcleo. •
Aplicación de GPS (Sistema de Posicionamiento Global) a medidas de
deformación de la corteza. • Vigas gaussianas de orden superior. (T)
1988 a 1992 Estudios de fallas morfológicas: un estudio de desviaciones o
deformaciones de grandes terremotos de la corteza que se producen dentro de
los interiores continentales. Estudio cuantitativo sistemático de la morfología de
la superficie alrededor de las fallas, en lugar de análisis de sismicidad histórica.
(Los tiempos de recurrencia prolongados indican que la sismicidad histórica no
es suficiente para proporcionar una estimación adecuada del riesgo sísmico en
regiones de seismicidad moderada. El enfoque morfológico consume menos
tiempo y es más barato que la técnica de zanjas, en la que la mayoría de se
han basado los estudios de la última década.) La geometría tridimensional de
los sistemas de fallas activas, incluida la segmentación y la bifurcación, está
determinada por el uso cuidadoso y combinado de imágenes de satélite, fotos
aéreas y mapas topográficos y geológicos. Una vez que se define la geometría,
se pueden recuperar cantidades como las tasas de deslizamiento, los vectores
de deslizamiento y los tiempos de recurrencia de eventos grandes mediante
mediciones del registro morfológico utilizando un teodolito digital.
Distansómetro, complementado con las más modernas técnicas de datación de
la cara. (SS) 1989 a 1992 Estudio detallado de la geometría de ruptura de fallas
recientemente activas: el modelo de origen se basa en un conjunto
diversificado de datos: rupturas de superficie, distribución espacial de réplicas y
mecanismo focal. La secuencia de réplica se registra mediante una densa red
portátil desplegada alrededor de la región de origen y luego se analiza para
obtener una descripción precisa de la mecánica de la ruptura. En el campo
cercano, la geometría, la segmentación y el régimen de tensión se determinan
a partir del análisis de la secuencia de réplicas. En el campo lejano, se utilizan
grabaciones de alta calidad en canales de banda ancha de largo período a
distancias telesísmicas. Este enfoque multidisciplinario, a través del cual se
integran la sismología y la tectónica, permite obtener una imagen detallada y
precisa de la ruptura y la mecánica involucrada. Los resultados obtenidos hasta
ahora apuntan a la complejidad de las fuentes seismic. Su complejidad se
evidencia en la geometría de las réplicas, la variación del mecanismo focal en
todo el volumen de la fuente y su evolución temporal. Los estudios sísmicos se
complementan con zanjas a través de fallas y dataciones C 14 para descubrir
la actividad tectónica pasada y los tiempos de recurrencia de eventos
anteriores. (SS) 1991 Sistema de posicionamiento global (GPS) aplicado a las
mediciones de deformación de la corteza. (S) 1992 14 de abril. Terremoto no
predicho de magnitud 6 en el corazón de Europa, en medio de cientos de
sismógrafos, computadoras y profesores de sismología. (Epicentro cerca de la
frontera común de Alemania, Holanda y Bélgica). El golpe más fuerte en
Europa central desde 1755. Los daños se estimaron en 1.000 millones de
marcos. (P) Otro recordatorio de que, incluso con toda la información
sismológica acumulada desde el terremoto de Lisboa, estamos tan
sorprendidos por los terremotos como lo estábamos entonces. (P) Cálculos
numéricos de los modos de oscilaciones del núcleo de la Tierra. (F)
Perspectivas
El presente manuscrito no pretende ser un análisis fundamental de la historia
del tema. Esta tarea debe dejarse a historiadores profesionales. En cambio,
puede compararse con una foto aérea de una carretera de varios carriles en la
que se distribuye un conjunto de señales discretas, que presenta una imagen
de descubrimientos e invenciones a lo largo de varias rutas paralelas en el eje
temporal. Durante los años 1959 a 1965, en el Laboratorio Sismológico de
Caltech, tuve el privilegio de observar, junto con mis compañeros, el "cambio
de guardia". Los padres fundadores retrocedieron lentamente a un segundo
plano mientras las nuevas ideas y tecnologías tomaban el control. Este
"suceso" nos hizo más perceptivos y apreciativos de la gran herencia de los
matemáticos aplicados del siglo diecinueve y los sermólogos del cambio de
siglo. Al mismo tiempo, amplificó en nosotros la conciencia del impacto que las
computadoras electrónicas y los modernos sistemas de seis tomografía
tuvieron en el creciente campo de la sismología.
Por lo tanto, se puede decir que pertenecemos a una generación que cruzó la
era de la computadora y la era de la revolución electrónica. Una serie de
observaciones y conclusiones importantes se pueden extraer fácilmente de
nuestra investigación histórica: nuestra primera preocupación son los factores
que han acelerado o impedido el crecimiento de ideas en sismología,
especialmente a lo largo del siglo XX. Los estímulos obvios de rápido
crecimiento fueron los siguientes:
• Ocurrencia de grandes terremotos devastadores en centros culturales y
eventos geofísicos singulares globales (por ejemplo, Lisbon, 1755; Mino-Owari,
1891; Chile, 1960). • Estimuladores económicos (por ejemplo, exploración de
petróleo). • Avances en matemáticas y en física teórica (por ejemplo, mecánica
cuántica). • Avances tecnológicos (física del estado sólido, láseres, holografía,
comunicación, computadoras, satélites, etc.). • Exploración de la luna y del
sistema solar. • Pruebas de explosión nuclear y verificación de los Tratados de
Prohibición de Pruebas (1963 a 1976).
Los impedimentos son más difíciles de identificar, pero probablemente se
deben principalmente a las guerras, las recesiones económicas y la falta de
visión y perspectiva de los líderes científicos. Un ejemplo sorprendente lo
proporciona la insuficiencia de la comunidad sismológica entre 1912 y 1950
para explotar los conocimientos teóricos acumulados hasta la víspera de la
Primera Guerra Mundial. La siguiente lista resume lo que los sismólogos sabían
en el año 1912:
• Teoría de la dislocación (Volterra, 1907). • Teorema de la representación
(amor, 1904). • Ley de fluencia logarítmica (Trouton y Rankine, 1904). • Método
de Cagniard (Cordero, 1904). • Teoría de la deriva continental (Wegener,
1912). • Resbalones y fracturas en fallas largas (Reid, 1906). • oS 2 - 57 m
(Amor, 1911). • 7R (20s) = 2.8 × 10 -4 km -1 (Angenheister, 1906). • Dispersión
de velocidad de grupo para la estructura de la corteza (Lamb, 1912). • Sólido
lineal estándar con relajación continua (Becker, 1905). • Roturas en el
movimiento del polo secular (Milne, 1906).
La siguiente pregunta que nos preocupa es la tasa de crecimiento del
conocimiento en sismología. Ciertamente, no hay una forma única de
cuantificar el concepto de "conocimiento". Sin embargo, uno puede estimar
ciertos parámetros que están relacionados con el crecimiento. Por ejemplo, por
• Contando el número anual de páginas impresas en cuatro revistas líderes
durante este siglo [BSSA, JGR, Geophysics, GJRAS (ahora GJI)]. Suponiendo
un crecimiento exponencial n = No 2 ~ u ~, se encuentra que 2 ~ 15 años, es
decir, las páginas impresas se duplicaron cada 15 años. • Reunir listas
bibliográficas de unos 50 libros de texto Publicado durante el siglo XX. Esto
hace una lista cronológica de unos 1000 artículos, que fue tomada como el
núcleo del conocimiento. Suponiendo, una vez más, la ley de crecimiento
anterior, se produjo un período de duplicación de 25 años. Significa que el
número anual de artículos con una novedad significativa aumentó en un factor
de 16 desde 1892. • El número de estaciones sísmicas aumentó
exponencialmente desde 1900, con 2 ~ 15 años [N (1900) ~ - 25; N (1992)
2000]. • La población de sismólogos aumentó exponencialmente desde 1892
con 2 ~ - 15 años [N (1892) - 50; N (1992) 5000].
Por lo tanto, cuatro procesos independientes indican un período de duplicación
de 15 a 25 años. Es tentador hacer suposiciones sobre el futuro, con base en el
registro anterior. ¿Vemos hoy tendencias visibles en la evolución de la
sismología? Primero, hay una clara transición a la investigación orientada a la
computación. Durante mis recientes visitas a los principales centros de
investigación en Europa y los Estados Unidos, noté que la mayoría de los Ph.D.
los estudiantes de sismología participaron en una forma u otra de "juegos de
simulación por computadora" o esquemas de reducción de datos sísmicos, con
esfuerzos insuficientes para construir nuevos modelos físicos teóricos. Había
demasiada confianza en los algoritmos de diferencias finitas y elementos
finitos, y solo esfuerzos modestos para llegar a nuevas ideas. ¿Quién entonces
forjará las nuevas armas matemáticas, tan necesarias hoy en día en la
dinámica de fuentes no lineales? Sin embargo, no hay escapatoria al hecho de
que el papel de la computadora aumentará, ya que su velocidad y capacidad
aumentarán como resultado de las nuevas innovaciones tecnológicas. A
medida que la cantidad de sensores sísmicos continuará aumentando, también
lo harán los datos registrados por estos sistemas. Sin duda, seremos testigos
de la adquisición de datos por redes a través de la telemetría internacional. El
papel de los satélites en las mediciones de la deformación geodésica se hará
más central. En total, la sismología se moverá hacia lo que yo llamo, la etapa
holística: imágenes del interior de la Tierra y fuentes sísmicas con todos los
datos disponibles. ¿Llevará todo esto eventualmente al pronóstico de
terremotos? Claramente, la prueba final de toda teoría científica digna de su
nombre, es su capacidad para predecir el comportamiento de un sistema
gobernado por las leyes establecidas por dicha disciplina. Además del objetivo
obvio de captar imágenes del interior de la Tierra, que ahora avanza con gran
vigor, la predicción de los terremotos es el objetivo más importante de la
cosmología contemporánea. ¿Cómo nos encontramos ahora en este tema?
Entre 1935 y 1960, el estudio de un terremoto significó dos cosas: asignación
de magnitud y trazado del patrón de movimientos iniciales. Miles de terremotos
fueron analizados de esta manera. Pasaron otros 30 años, y en lugar de
magnitud, hablamos del momento, y en lugar de movimientos iniciales,
trazamos diagramas de radiación, y las computadoras escupen fallas, caídas
de tensión, etc. La terminología cambió, la semántica cambió, pero la fuente
Las dinámicas son esencialmente las mismas que las conocido por Henry
Fielding Reid en 1906. Los sismólogos están discapacitados; Los meteorólogos
pueden poner sus sensores en el ojo de un huracán, no podemos poner un
sensor en la región focal. Hasta ahora, la mayor parte de nuestro conocimiento
de la fuente provino de mediciones en el campo lejano. Aún no tenemos una
teoría física con respecto a los procesos que tienen lugar en y cerca de la
fuente del terremoto, ni antes del evento, ni siquiera en el momento de su
ocurrencia. Se dijo en la introducción que la sismología siempre ha sido una
ciencia interdisciplinaria. En este sentido, es similar a la medicina: el
conocimiento de la anatomía por sí solo no es suficiente para curar a un
paciente: se necesita la química de los fármacos, la física de los láseres y las
matemáticas de la tomografía para el diagnóstico de tratamiento y la cirugía.
Por lo tanto, la predicción debe ser, ante todo, reconocida como un problema
en la unión de las ciencias de la ingeniería, la geología, la física de la materia
condensada y las matemáticas no lineales. La predicción no es una cuestión de
propagación de la onda en absoluto, y el sismómetro convencional no es la
herramienta adecuada para lograr este objetivo. Entonces, simplemente rociar
la cara de la Tierra con sismógrafos, y conectar estos instrumentos a
computadoras y satélites tampoco es la respuesta. ¿Qué se debe hacer
entonces para avanzar en la causa de la predicción? Se necesita un gran
esfuerzo interdisciplinario para desarrollar un esquema de predicción basado
en fenómenos multi-premonitorios: significa que primero debe identificarse el
campo cercano de una zona focal futura, y luego monitorearse en busca de
electricidad, magnética, acústica, sísmica y Precursores térmicos simultáneos y
continuos. La joven ciencia de la sismología ha alcanzado un punto crítico en
su trayectoria evolutiva. En un tiempo relativamente corto, adquirió valiosos
conocimientos sobre la estructura del interior de la Tierra y sobre la naturaleza
de las fuentes sísmicas. Como un viajero que llega a una encrucijada, debemos
detener nuestra carrera hacia adelante, mirar hacia atrás y hacer un balance.
Meditemos por un momento nuestros logros y comparémoslos con las
deficiencias: ¿Aprovechamos todas nuestras oportunidades, las señales se
leyeron y entendieron correctamente, o se perdieron o se malinterpretaron ...?
La historia de la sismología nos enseña que los estándares establecidos por
nuestros predecesores son altos; los espíritus de los fundadores, Navier,
Poisson, Stokes, Rayleigh, Milne, Amor, Cordero, Volterra, Wiechert, Golitzin,
Mohorovi ~ ic, Omori, Shida, Lehmann, Gutenberg, Richter, Jeffreys, Bullen,
Pekeris y Benioff respiran constantemente en nuestros cuellos. No debemos
caer. Tal vez sea adecuado terminar nuestro ensayo con las palabras de T. S.
Eliot en sus "Four Quartets" (1942)
"No dejaremos de explorar. Y el fin de toda nuestra exploración será
llegar al lugar donde comenzamos y conocer el lugar por primera vez".

Expresiones de gratitud
El prototipo de este documento se presentó en el Simposio Internacional sobre
Fronteras en Sismología Fundamental, EOPG, Estrasburgo, del 23 al 25 de
septiembre de 1992. El profesor A. Udias, de la Universidad de Madrid, me
envió datos importantes sobre la historia de la sismología antes. 1755, y con su
permiso, he incorporado el material en la segunda sección. Sarah Fliegelmann
no escatimó esfuerzos para transformar el manuscrito manuscrito en su forma
actual. También extiendo mi agradecimiento a los bibliotecarios de la Biblioteca
Wix del Instituto de Ciencias Weizmann, Libeta Chernobrov y Miriam Gordon,
por ayudarme en la ubicación de los datos biográficos. En retrospectiva, este
estudio se ha inspirado en el efecto de una cadena de maestros de por vida,
entre ellos: Gulio Racah, Menahem Schiffer, Arthur Erdtlyi, Harold Jeffreys,
Chaim L. Pekeris, Markus Bath, Frank Press, Charles H. Dix, Hugo Benioff, y
Richard P. Feynman. Debo mucho a mis compañeros de escuela durante
nuestros días formativos de Caltech: D. G. Harkrider, M. N. Tokstz, S. S.
Alexander, J. H. Healy, R. A. Phinney, S. W. Smith, C. B. Archambeau, A.
Cisternas y R. L. Kovach. En los años siguientes tuve el beneficio de la
interacción creativa con mis colegas: R. Lapwood, V. Keilis-Borok, F. Gilbert, J.
GiUis, SJ Singh, A. Weglein, E. Wolf, P. Tapponier, DH Eckhardt, y A. Tarantla.
Estoy totalmente de acuerdo con la antigua máxima de Rabi Hannina (ca. 200
A.D.): "he aprendido mucho de mis maestros, más de mis colegas y la mayoría
de mis estudiantes". Entre estos últimos se cuentan Moshe Israel, Marcel
Weinstein, Mosbe Vered, Shahar Ben-Menahem, Wafik Beydoun, Arcegelo
Sena, Richard Gibson y Oleg Mikhailov. Todos ellos me ayudaron a lo largo de
los años, de una manera u otra, a dar forma a las perspectivas de nuestra
ciencia, y por eso estoy agradecido.

También podría gustarte