Está en la página 1de 479

HISTORIA DE LA FÍSICA

Rolando Delgado Castillo

Francisco A. Ruiz Martínez.

Universidad de Cienfuegos.

INTRODUCCIÓN

PRÁCTICAS Y TEORÍAS FÍSICAS DEL MUNDO ANTIGUO

DE ARISTÓTELES A PTOLOMEO EN EL MUNDO GRECOROMANO

ESPLENDOR DE LA CIENCIA ÁRABE Y REVOLUCIÓN DE COPÉRNICO

LA REVOLUCIÓN DEL XVII, NEWTON Y EL PARADIGMA MECÁNICO

ELECTRICIDAD Y CALOR EN EL XVIII

APOGEO DEL ELECTROMAGNETISMO EN EL XIX

REVOLUCIÓN CIENTÍFICO – TÉCNICA DEL SIGLO XX

1
INTRODUCCIÓN

Rolando Delgado Castillo y Francisco Arturo Ruiz.

Universidad de Cienfuegos

En la actualidad, un gran interés despierta el conocimiento y la   comprensión 
del proceso socio­histórico que ha conducido al desarrollo de la ciencia. Las 
relaciones entre la Ciencia, la Tecnología y la Sociedad se han convertido en un 
amplio campo de estudio [1].

Paradójicamente,   en  medio  de  los  avances  que  supone  vivir  los   tiempos  de  “la 
sociedad de la información”, una gran confusión se advierte cuando se pretende 
juzgar   la   responsabilidad   de   la   ciencia   en   los   peligros   y   desafíos   que 
caracterizan nuestra época histórica y se vinculan los grandes descubrimientos 
científicos casi exclusivamente con el genio de determinadas personalidades.

Compartimos   la   convicción,   basada   en   el   análisis   de   la   historiografía   de   los 


principales   hitos   del   avance   científico,   de   que   los   logros   de   las   ciencias 
tienen un carácter temporal, que se insertan en la matriz del tiempo de acuerdo 
con las necesidades de la época y de las propias tendencias que impulsan con 
cierta autonomía su desarrollo específico.

Al   inscribirse   en   los   marcos   del   enfoque   histórico­cultural   este   trabajo 


reconoce  la  importancia  de  las  personalidades  y  las  instituciones  científicas 
que promueven la construcción de las ciencias pero insiste en que el orden del 
día   de   sus   conquistas   está   profundamente   marcado   por   el   repertorio   de 
realizaciones   materiales   y   espirituales   de   la   sociedad en   un   momento 
históricamente condicionado.

Las   fuerzas   motrices   de   las   ciencias   no   pueden   encontrarse   fuera   de   las 


necesidades   de   la   sociedad   en   cuyo   seno   transcurre   su   construcción.   Al   mismo 
tiempo se reconoce que el edificio teórico creado por cada disciplina científica 
tiene sus especificidades y autodeterminación relativa, según las regularidades 
y complejidad de la realidad que persigue reflejar, lo cual le concede a cada 
ciencia   su   propio   tiempo,   su   manera   peculiar   de   aparecer,   madurar   y 
desenvolverse en la Historia.

La   especie   humana   al   apostar   al   desarrollo   científico   no   lo   ha   hecho 


exclusivamente para   satisfacer   una   curiosidad   epistémica,   para   explicar   o 
interpretar  este  u  otro fenómeno  de  la  naturaleza  o  la  sociedad,  lo  ha  hecho 

2
ante   todo   para   transformar   el   mundo   en   función   de   las   necesidades   que   un 
contexto socio­cultural impone en un escenario históricamente condicionado.

La   inmensa   figura   de   Galilei   tal   vez   pueda   resumirse   para  


todos los tiempos por su célebre frase: " E pour si muove!” 
símbolo   de   la   desesperada   impotencia   ante   la   ciega  
intolerancia   de   la   Inquisición.   Tenía   69   años   cuando   fue  
obligado  a abjurar de  su obra y  se le  impusiera la  pena  de  
cadena   perpetua   (condena   que   fuera   conmutada   por   el   arresto  
domiciliario)   pero   sus   ideas,   su   pensamiento   creativo,   no 
pudieron ser  encerradas y aún publica en 1638 su última obra 
que   resumiría   los   resultados   sobre   le   movimiento   y   los  
principios   de   la   Mecánica.   Cuando   en   la   primavera   de   1   642  
muere nacería su mejor heredero: Isaac Newton.(2). 

Imagen: The Galileo Project Web Site http://galileo.rice.edu/bio/index.html

Siguiendo los principios esbozados arriba, deseamos subrayar que el credo que 
orienta este trabajo se sintetiza en:

El rechazo a la retrógrada intención, recordada tristemente por la Historia, 
de satanizar los resultados de las ciencias, y a cualquier retoque académico 
que pretenda desplazar hacia el progreso científico la responsabilidad de los 
enajenantes problemas de la sociedad contemporánea.

El   reconocimiento   al   importante   papel   desempeñado   por   las   personalidades 


científicas que, con el talento propio de los genios y una perseverancia a 
toda prueba, son protagonistas de la expansión del universo de lo conocido 
tanto en la esfera material como espiritual de la sociedad.

La admisión de la notable influencia que ha de ejercer la dotación genética 
en el complejo proceso de formación de un genio, pero el desconocimiento a 
cualquier intento de atribuir a sexo, raza o región geográfica, el monopolio 
del talento.

La confianza en la utilidad enaltecedora de la virtud solidaria frente a la 
egoísta y decadente moral del éxito.

La creencia firme de que una sociedad mejor es posible, y que su construcción 
dependerá en buena medida de las conciencias que se abonen a través de una 
universal batalla de ideas, en la que jugará un importante lugar el discurso 
que se haga de la Historia.

3
Por consiguiente, nos interesa especialmente contribuir a:

Entender la ciencia no sólo como un resultado sino también como un proceso 
que se renueva y amplia por la actividad de individuos que se organizan en 
comunidades   científicas,   en   interacción   permanente   con   las   coordenadas 
económicas, políticas y éticas de su propio escenario socio­histórico.

Humanizar la imagen de los genios que escriben la historia de las ciencias.

Comprender los momentos más trascendentes de expansión del universo de los 
conocimientos   matemáticos,   físicos   y   químicos,   aquellos   que   emergen   de 
profundas   crisis   en   el   campo   de   las   ideas   y   que   constituyen   verdaderas 
revoluciones científicas.

Marie   Sklodowska   ­   Curie   recibió   dos   Premios   Nóbel.   En   1903  


recibió   el   Premio   Nobel   de   Física,   compartido   con   su   esposo  
Pierre   (trágicamente   desaparecido   tres   años   después),   y   el 
segundo, en el ámbito de la Química por sus investigaciones con  
el radio y sus compuestos. 

El   Laboratorio   Curie,   fundado   en   1914   se   convirtió   bajo   su 


dirección  en  un  modelo   de  institución  científica  moderna   que  
actuaba como centro de una red estrechamente vinculada con la 
industria   y la Medicina. Quien dio inició a la radioterapia, 
murió  víctima  de  una anemia  perniciosa  causada  por  las  largas  
exposiciones a las radiaciones.  [3]

Imagen: The Center for History of Physics. http://www.aip.org/history/curie/

Revelar las resonancias que el progreso científico ha producido en la esfera 
material y espiritual de la sociedad.

Resulta   casi   innecesario   declarar   que   no   tenemos   pretensiones   académicas   con 


estas páginas. Ellas están dirigidas a un auditorio de jóvenes y menos jóvenes 
interesados en una lectura despojada de una retórica controversial. Desearíamos 
al final no habernos separado de este propósito.

De   cualquier   manera   si   nos   preguntan   qué   concepción   de   ciencia   defendemos, 


respondemos   a   aquella   que   la   considera   una   actividad   social,   que   refleja   una 
realidad   objetiva   de   la   naturaleza   o   la   sociedad,   y   que   está   históricamente 
condicionada.

No nos parece superada la conceptualización alcanzada por Krober:   "…entendemos 
la   ciencia   no   sólo   como   un   sistema   de   conceptos,   proposiciones,   teorías, 

4
hipótesis, etc., sino también, simultáneamente, como una forma específica de la 
actividad   social   dirigida   a   la   producción,   distribución   y   aplicación   de   los 
conocimientos acerca de las leyes objetivas de la naturaleza y la sociedad. Aún 
más, la ciencia se nos presenta como una institución social, como un sistema de 
organizaciones   científicas,   cuya   estructura   y   desarrollo   se   encuentran 
estrechamente vinculados con la economía, la política, los fenómenos culturales, 
con las necesidades y las posibilidades de la sociedad dada" [4].

Respecto a la clásica obra de T. S. Khun (1922­1996) “Estructura de las 
Revoluciones Científicas” sólo reconocemos y  tácitamente usamos la original y 
extendida terminología que nos legó su original visión sobre la Historia de las 
Ciencias. Al hacerlo, aceptamos una parte de sus supuestos, como la aguda 
percepción sobre la polémica en el seno de la comunidad científica y su 
reconocimiento a las crisis de las ideas que preceden a las revoluciones 
científicas [5].

La Física se parte en dos cuando aparecen publicados en 1687  
sus famosos “Philosophiae Naturales Principia Matemática”. Se 
subvierte   entonces   todo   la   cosmovisión   aristotélica   del  
movimiento de los cuerpos y una nueva Mecánica emerge: se ha  
producido un desplazamiento megaparadigmático.

Transcurrirían más de dos siglos para que apareciera la teoría 
de la relatividad einsteniana que limita los contornos en que  
se cumplen los Principios de Newton. Para tener una idea del  
grado de validez de la mecánica newtoniana baste saber que el  
diseño, control y corrección de las órbitas de los satélites 
terrestres y las naves espaciales, son realizados enteramente  
con arreglo a las predicciones de las leyes de Newton. [6]

Imagen: School of Mathematics and Statistics. University of St Andrew. 
Scotland. http://www­history.mcs.st­andrews.ac.uk/Mathematicians/Newton.html

Pero   más   que   estas   concepciones   nos   interesa   destacar   la   compleja   dialéctica 
entre   el   desarrollo   del   conocimiento   científico   y   las   coordenadas 
socioculturales   del   escenario   histórico   en   que   se   verifican.   Por   otra   parte 
compartimos el criterio expresado por Steven Weinberg (Premio Nóbel de Física en 
1979) en una retrospectiva sobre el trabajo de Kuhn:

“No es verdad que los científicos sean incapaces “de conectarse con diferentes 
formas de mirar hacia atrás o hacia delante” y que después de una revolución 
científica ellos sean incapaces de comprender la ciencia que le precedió. Uno de 

5
los   desplazamientos de paradigmas a los cuales Kuhn brinda mucha atención en 
“Estructura”   es   la   sustitución   al   inicio   de   esta   centuria   de   la   Mecánica   de 
Newton   por   la   Mecánica   relativista   de   Einstein.   Pero   en   realidad,   durante   la 
educación de los nuevos físicos la primera cosa que les enseñamos es todavía la 
buena mecánica vieja de Newton, y ellos nunca olvidan como pensar en términos 
newtonianos, aunque después aprendan la teoría de la relatividad de Einstein. 
Kuhn mismo como profesor de Harvard, debe haber enseñado la mecánica de Newton a 
sus discípulos” [7].

El determinismo que defendemos no   ignora la autonomía relativa que desarrolla 
el   sistema   teórico   de   una   ciencia,   en   particular   de   la   Matemática,   y   que   ha 
conducido   en   no   pocas   ocasiones   a   penetrar   en   áreas   que   no   encuentran   en   la 
época de su desarrollo una explicación al origen de sus fuerzas motrices. Más 
tarde, sin embargo, las abstracciones indescifrables de determinadas obras han 
encontrado una relevante aplicación. Tampoco desconoce el papel de la casualidad 
acaso representado por el legendario grito de eureka.  Por lo tanto no se trata 
de que exista un condicionamiento lineal y estático entre el desarrollo de la 
ciencia y la época histórica dada.

La   Historia   viene   a   demostrar   que   una   profunda   interrelación   entre   la 


Matemática, la Física, la Química y la Biología acompaña al complejo proceso de 
diferenciación e integración que ha definido sus respectivos objetos de estudio.

La Matemática, en un cierto sentido reina de las ciencias, no parece que se 
iniciara como resultado de la inclinación humana por un saber abstracto. Las 
primeras civilizaciones necesitarían del desarrollo de los conocimientos 
geométricos para la construcción de sus asentamientos y a veces monumentales 
edificaciones.

"Los   Elementos   de   Geometría"   de   Euclides,   matemático   de   la 


Alejandría   helénica,   se   utilizó   como   texto   durante   más   de  
dos mil años. Esta obra constituyo el corpus de conocimientos 
geométricos   que   posibilitó   el   desarrollo   de   la   Astronomía 
desde Tolomeo hasta Kepler en el siglo XVII. En el siglo XIX,  
Lobachevski   formuló   la   geometría   no   euclidiana  
(Hiperbólica),   suponiendo   que   por   un   punto   exterior   a   una  
recta   pueden   pasar   infinitas   paralelas.   Riemann,   por   su 
parte, fundamentó la nueva geometría esférica en el supuesto  
que   por   un   punto   exterior   a   una   recta   no   existe   ninguna 
paralela.   Parecía   que   se   estaban   generando   incomprensibles 
desarrollos geométricos, sin embargo el

6
impacto de estas nuevas Geometrías con sus grandes abstracciones fue decisivo  
para   el   desenvolvimiento   de   la   Física   Teórica   Moderna.   El   siglo   XX   vería  
aparecer   la   Geometría   Fractal   de   Mandelbroit,   que   reconoce   las   dimensiones 
fraccionarias, con extraordinaria incidencia en el desarrollo de las imágenes 
computarizadas. El camino al infinito mostrado en   la construcción histórica 
del conocimiento geométrico es sólo un caso particular de la naturaleza del  
conocimiento.

De   forma   similar   los   conocimientos   astronómicos,   impulsados   no   sólo   por   la 


majestuosidad de la bóveda celeste, sino por las necesidades de comprender la 
noción   del   tiempo   y   las   regularidades   del   clima,   exigieron   del   desarrollo   de 
conocimientos geométricos y matemáticos.

Los   sistemas   de   numeración,   constituyen   una   necesidad   para   el   trascendente 


objetivo   de   fijar   el   paso   del   tiempo,   así   como   para   determinar   saldos   en   la 
actividad,   que   bien   temprano   aparecen   en   la   sociedad,   de   intercambio   de 
productos y más tarde de dinero.

Hoy las Matemáticas definen como objeto de estudio las cantidades, magnitudes y 
propiedades,   así   como   las   operaciones   lógicas   utilizadas   para   deducir 
cantidades, magnitudes y propiedades desconocidas.

Filosofía y reflexión matemática encontraron comunión en algunos sabios griegos 
de la talla de Tales, Pitágoras y Eratóstenes. Luego del Renacimiento Europeo, 
también   se   apreciaría   esta   integración   de   notables   filósofos   que   logran   ser 
extraordinarios matemáticos. Hacia   la primera mitad del siglo XVII se destaca 
como exponente de esta fusión, la monumental obra de René Descartes considerado 
fundador de la Geometría Analítica y de la Filosofía Moderna.

El maridaje de las Matemáticas con las Físicas se aprecia con fuerza ya en el 
resplandor   de   la   cultura   alejandrina,   con   el   desarrollo   de   la   Astronomía   y 
determinadas   ramas   de   la   Física; continúa   en   la   trascendental   formalización 
matemática   de   los   estudios   de   Kepler   y   Galilei;   resulta   decisivo   y   hace 
coincidir el nacimiento de la Mecánica Clásica y del Cálculo Infinitesimal; es 
clave en el desarrollo del paradigma electromagnético; y llega hasta nuestros 
días con el desarrollo de la Mecánica Cuántica y la descripción de las leyes del 
mundo subatómico.

Un   signo   de   nuestra   época,   el   incontenible   avance   de   la 


informatización, encuentra   en   su   base   las   aportaciones   decisivas   de   los 
matemáticos.

7
La   Física,   la   ciencia   que   estudia   las   propiedades   y   la   estructura   de   la 
sustancia   (partículas   y   sistemas   de   partículas)   y   de   los   campos   y   las 
interrelaciones entre ellos, ha sido construida pues en permanente interrelación 
con el desarrollo de las Matemáticas.

La   ecuación   más   universalmente   conocida,    símbolo   de   los  

tiempos   modernos,   probablemente   sea:   E   =   mc2,   que   relaciona 


energía, masa, y velocidad de la luz,   tríada suprema de los  
conceptos  físicos contemporáneos.  Quien la propuso es el más 
famoso de los científicos: Albert Einstein.

En 1939 Einstein junto con otros físicos envió una carta   al 
presidente Roosevelt solicitando el desarrollo de un programa 
de investigación que garantizara el liderazgo de los aliados 
en   la   construcción   del   arma   atómica.   En   1945,   intentó 
disuadir al presidente para que el arma nuclear ya creada no  
fuera utilizada. [9]

El resto es conocido: el   9 de agosto de 1945 la humanidad se aterrorizaba  
con la hecatombe nuclear en Hiroshima,  días después se repetía la escena en  
Nagasaki.   Se   inauguraba   la   época   del   arma   nuclear.   Después   de   la   guerra,  
Einstein se convirtió en activista del desarme internacional. [8]

Imagen: Nobel e­Museum,© The Nobel Foundation.

El objeto de estudio de la Física engloba así distintas formas particulares del 
movimiento   de   la   materia,   el   movimiento   mecánico   y   el   movimiento   físico, 
constituido a su vez por el movimiento térmico y el movimiento electromagnético. 
Como se trata de estudiar estas formas del movimiento, la Física se relaciona 
intrínsecamente   con   las   propiedades   más   generales   del   espacio   y   el   tiempo, 
formas universales de existencia de la materia.

El amplio dominio de la Física abarca:

El estudio de los movimientos mecánicos de las partículas y los sistemas de 
partículas, tanto para el macromundo como para el micromundo, para las bajas 
y altas velocidades.

Los procesos de transmisión del calor y de energía en general, de masa y de 
cantidad   de   movimiento   para   una   partícula   aislada   y   para   sistemas   de 
partículas,   tanto   a   las   altas   temperaturas   y   presiones   como   a   las   bajas 
temperaturas y presiones.

8
Los procesos de interacción entre las partículas y los sistemas de partículas 
cargadas eléctricamente, en reposo o en movimiento con respecto a un sistema 
de   referencia   dado,   con   el   campo   electromagnético,   tanto   en   la   región 
macroscópica como para la microscópica, para bajas y altas velocidades.

El   comportamiento   de   los   sistemas   de   partículas   confinadas   en   pequeñas 


regiones del espacio, tales como los átomos y los núcleos atómicos, de forma 
que se profundiza en la estructura interna de la sustancia y sobre todo en su 
transmutabilidad.

El   comportamiento   de   los   sistemas   a   escalas   del   universo   y   extensión   del 


cumplimiento   de   las   leyes   estudiadas   en   las   escalas   del   planeta   y   el 
micromundo.

Las áreas de estudio clásicas encuentran una culminación alrededor de la mitad 
del siglo XIX y a la vez, con la explosión de los avances científicos iniciada 
en los límites del siglo XIX al XX, se van conformando nuevos ámbitos entre los 
que se pueden citar: Física de las Bajas Temperaturas; Cromodinámica; Física de 
la   Gravitación;   Física   del   Sólido;   Física   de   las   Altas   Energías   y   otras   que 
marcan la punta de los progresos en las Ciencias Físicas.

En las fronteras con otras ciencias han aparecido ramas tales como: Astrofísica; 
Física de la Atmósfera; Metalofísica; Física de los Materiales (enmarcada en las 
Ciencias de los Materiales); Cosmogonía; Biofísica, etc.

El físico teórico Stephen Hawking (1942­ ) es la figura líder  
de   la   moderna   cosmología.   Mientras   estudiaba   Física   y 
Matemáticas   en   las   universidades   de   Oxford   y   Cambridge   tuvo 
que   aprender   a   convivir   con   un   desorden   degenerativo   del  
sistema nervioso, conocido como enfermedad de Lou Gehrig, que 
lo   conduciría   a   una   cuadriplegia,   es   decir,   a   una  
inmovilización   total.   Su   talento   no   se   perdería   temprano  
gracias   a   la   alta   tecnología   puesta   a   su   servicio   y   al  
extraordinario espíritu de Hawking.  Los médicos le dieron al  
diagnosticar  su enfermedad  dos  meses   de   vida, este  año  
cumplió  los  sesenta.

 Hawking logró enlazar la mecánica cuántica y la relatividad las dos 
principales teorías de la Física moderna, desarrollando la teoría cuántica de 
la gravedad.[9]

Imagen: Sitio web personal. http://www.hawking.org.uk/about/aindex.html

9
El   impacto   de   los   conocimientos   físicos   en   la   sociedad   moderna   abarca 
prácticamente   todos   los   ámbitos   de   su   realidad.   Pero   tres   símbolos   de   los 
grandes retos de la humanidad,   la conquista del cosmos, el dominio de nuevas 
fuentes   energéticas,   y   la   revolución   en   las   comunicaciones   han   recibido   un 
impulso decisivo con el  progreso de las Ciencias Físicas.

La   hibridación   de   la   Física   con   la   frontera   del   conocimiento   químico   hizo 


aparecer hacia fines del siglo XIX la disciplina conocida como Física – Química. 
Aún   antes,   en   medio   del   complejo   proceso   de   diferenciación   e   integración 
sufrido   por   la   ciencia,   se   advierten   numerosos   ejemplos   de   la   actividad   de 
personalidades en campos formalmente distantes   de la Física y la Química pero 
enlazados por su común naturaleza.

Es curioso advertir que uno de los protagonistas de la Revolución de la Química 
del   siglo   XVIII, J.   Priestley   (1733­1804), en   su   relación   epistolar con   B. 
Franklin   (1706­1790)   le   confiesa   (20   años   antes   de   los   experimentos   de   C. 
Coulomb   (1736­1806))   su   deducción   de   que   la   atracción   electrostática   debía 
estar   sujeta,   de   acuerdo   con   ciertas   experiencias   conducidas   por   Franklin,   a 
leyes   del   mismo   carácter   matemático   que   las   de   la   gravitación.   Sorprende 
asimismo conocer que el invento de la pila eléctrica por A. Volta (1745­1827), 
le   permitió   a   H.   Davy   (1778   –   1825)   entre   1807   y   1808   descubrir   5   metales 
activos,   el   mismo   número   de   elementos   que   se   descubriría   durante   siglos   de 
infructuoso esfuerzo alquimista.

De otro lado, un experimentador como Faraday, considerado uno de los padres del 
electromagnetismo   por   el   descubrimiento   de   la   ley   de   inducción   magnética, 
 descifró las leyes de la electrólisis y aisló por vez primera el benceno. 

La   mención   de   otros   ejemplos   trascendentes   solo   confirmaría   que   el   empeño 


unificador que dibujaba el objeto de estudio de la Física­Química encontró su 
aliento   principal   en   descubrir   las   leyes   y   teorías   que   presiden   las 
interacciones  entre   energía  y  sustancia,   surgiendo  como  áreas   específicas:  la 
Termodinámica, la Electroquímica y la Espectroscopia.

Recorriendo el camino “descendente” hacia la práctica, la Física ­ Química sirve 
de plataforma de lanzamiento de las Ciencias de los Materiales, los Procesos de 
Ingeniería y la Electrónica.  El dominio de este ámbito convergente de la Física 
y la Química ha resultado premisa para el desarrollo impetuoso de cinco áreas 
vitales para la sociedad contemporánea: energía, producción de alimentos, salud, 
transporte y comunicaciones.

10
El   químico­físico   estadounidense   Linus   Pauling   (1901­1994)  
mereció   el  Premio   Nobel   en   dos   oportunidades,   el   primero   en  
1954   por   sus   investigaciones   sobre   la   naturaleza   del   enlace 
químico y en 1962 por su relevante labor a favor de la paz.  
Sus predicciones sobre la compleja estructura molecular de las 
proteínas ejercieron una profunda huella en el desarrollo  de 
los conocimientos sobre los procesos de la vida. Linus y su  
compañera   de   vida   Ava   H.   (1903­1981)   trabajaron 
infatigablemente   por   el   desarme   nuclear,   por   detener   el 
desarrollo del armamento atómico, y por prevenir todo tipo de 
pruebas   que   afectaran   nuestra   atmósfera   o   mares.   Ava   tuvo  
razón   cuando   proclamó   en   un   Congreso   de   Químicos   que   más  
importante que   el   enlace   de   hidrógeno   es   el   enlace   humano.
[10] Imagen: Nobel e­Museum,© The Nobel Foundation.

La interpenetración del conocimiento físico con el estudio de los seres vivos, 
 para   dar   lugar   a   un   sistema   teórico   con   problemas   y   objetos   propios,   la 
Biofísica,   aparece   ya   en   el   siglo   XX   aunque   numerosas   aplicaciones   de   las 
invenciones y principios epistemológicos de la Física se aprecian desde mucho 
antes en la construcción del conocimiento biológico .

En efecto los métodos cuantitativos y experimentales de la Mecánica practicados 
en   Pisa   por   Galileo,   encontraron   eco   en   las   Escuelas   de   Medicina   de   Padua   y 
Bolonia.  Correspondió  al  médico   Santoro  Santorio  (1561­1635)  introducir  en  la 
práctica clínica diferentes instrumentos de medición como el pulsilogium y el 
termoscopio galileano.

Un siglo después, cuando el mecánico   Robert Hooke (1635 – 1702), construye un 
microscopio   perfeccionado   que   le   permitió   descubrir   en   1665   la   existencia   de 
células en tejidos, estaba poniendo en manos de los investigadores de los seres 
vivos   una   técnica   que   significaba   una   amplificación   de   la   visión   y   el 
descubrimiento de un universo microscópico invisible para una práctica humana de 
miles de años. Así el fisiólogo italiano Marcello Malpighi (1628­1694) inaugura 
la Anatomía Microscópica, y descubre la red de capilares pulmonares que viene a 
completar el ciclo circulatorio descrito por Harvey.   A partir de entonces los 
planteamientos y soluciones de los problemas de esta disciplina se apoyan cada 
vez   más   en   los   logros   de   la   Mecánica,   y   de   la   Física,   apartándose   de 
explicaciones basadas en designios sobrenaturales.

Bajo   el   paradigma   del   microscopio,   a   fines   del   siglo   XIX,   Walther   Flemming 
(1843   –   1905) descubre que durante    la   mitosis celular ciertas   estructuras 

11
adoptan forma de cintas y se dividen longitudinalmente en dos mitades idénticas. 
La segregación en el núcleo de pares de estructuras a las células hijas no pudo 
relacionarse con la deducción de  Gregor Mendel (1822 – 1884),  de que cada uno 
de   los   caracteres   del   organismo   está   determinado   por   un   par   de   “factores”   o 
unidades hereditarias, que son aportados uno por cada progenitor.

La   revolución   científica   del   XVII   inició   una   dinámica  


interrelación entre el diseño del experimento y la invención  
de los instrumentos requeridos. El propio Galileo estrena su  
pequeño   telescopio   de   refracción   y   encabeza   la   revolución 
astronómica; Hooke y Huygens se disputan el título de mejor  
mecánico   del   siglo   y   pretenden   registrar   el   tiempo   con   la 
mayor   exactitud   posible;   Torricelli   inventa   el   barómetro   y 
al   hacerlo   derriba   el   principio   del   “horror   vacui”;   von  
 
Guericke   inventa   la   bomba   de   vacio   con   la   que   se   abre   un 
nuevo   campo   para   la   experimentación;   y   de   nuevo   Hooke   que 
perfecciona el   microscopio   y   descubre   un   nuevo   mundo.   Fue 
el   descubrimiento   de   Hooke   además,   el   antecedente   de   la  
teoría   celular   propuesta   casi   dos   siglos   más   tarde  
por   Matthias   J.   Schleiden   (1804   –   1881)   y   el  
naturalista  Theodor

Schwann (1810 – 1882) que asigna a la célula la unidad de estructura y función 
de todas las formas de vida y se considera el principio de estructuración de  
las   ciencias   biológicas.   Fue   asimismo   el   microscopio   el   instrumento  
indispensable para la invasión del hombre, en la cabeza visible de Pasteur, 
hacia   el   universo   de   los   organismos   microscópicos   y   la   fundación   en 
consecuencia   de   la   Microbiología   [11]. Imagen:   Instituto   Tecnológico   de 
California.

www.its.caltech.edu/~atomic/snowcrystals/earlyobs/micrographia.jpg

Comenzaba   así   un   largo   camino   para   dominar   los   misterios   de   la   herencia, 


coronado a mediados de los años cincuenta con el descubrimiento del significado 
genético del ácido desoxirribonucleico (ADN). Este hito que marca el nacimiento 
de la Biología Molecular es un resultado de la aplicación de la técnica de rayos 
X,   desarrollada   por   los   físicos,   a   la   dilucidación   estructural   del   material 
hereditario: la molécula del ADN.

Cada invención conectada con el universo físico y en particular las tecnologías 
relacionadas   que   se   difundieron   durante   el   siglo   XX,   fueron   fertilizando   la 

12
conquista del mundo biológico. También el descubrimiento de nuevas radiaciones 
penetrantes exigió el empeño de un nuevo tipo de investigador ­y de colectivo de 
investigación­ que integraran conocimientos físicos y biológicos para evaluar su 
impacto sobre los mecanismos de la vida y su reproducción.  

El propio surgimiento de la Biofísica resume este largo proceso de integración y 
convierte   a   esta   disciplina   en   una   aliada   de   las   áreas   más   dinámicas   del 
conocimiento del nuevo siglo: la Biología Molecular, la Ingeniería Genética y la 
tercera generación de la Biotecnología.

Sin embargo, lo que podría considerarse logros de la humanidad, ha comenzado a 
despertar inquietud en la opinión pública por las controvertidas consecuencias 
éticas,   jurídicas   y   sociales   que   se   derivan   de   la   manipulación   genética 
irracional   de   los   seres   vivos.   Buena   parte   de   la   comunidad   científica   ha 
alertado   sobre   estos   peligros   y   ha   rechazado   posibles   turbios   manejos   de   la 
información genética.

En   suma,   el   desarrollo   de   las   ciencias físicas   y   sus   áreas   relacionadas   ha 


impulsado enormes progresos para la humanidad pero, en un mundo irracionalmente 
establecido, ha servido para el desarrollo de las armasmodernas de exterminio 
masivo, ha contribuido al desencadenamiento de graves problemas de contaminación 
ambiental, y no ha resuelto el cuadro de atraso, hambre e ignorancia en que se 
sumerge la mayor parte de la humanidad.

Así una evaluación del impacto que la Ciencia y la Tecnología pueden ejercer en 
el desarrollo de la sociedad contemporánea revela la importancia de impulsar  
una batalla en el campo de las ideas, en la cual la educación (y la lectura que 
se haga de la historia) jugará un rol decisivo para salvaguardar los logros de 
la   humanidad. El   progreso   científico­técnico   podrá   ser   usado   para   el   bien   o 
para el mal.

Las   imágenes   de   los   espectros   de   difracción   de   rayos   X  


obtenidos por Maurice Wilkins(1916­2004), y sobre todo por  
la   química   –   física   Rosalind   Franklin(1920–1958),  
constituyeron   un   importante   asiento   para   el   despegue   de 
creatividad  que condujo al biofísico británico Francis H.  
C. Crick (1916­ 2004) y al bioquímico estadounidense James  
D. Watson (1928­ )   al descubrimiento de la estructura de  
doble hélice para el ADN. Tal estructura permitía explicar  
dos propiedades fundamentales del material hereditario: la 
de   conservarse   a   sí   mismo   (replicación)   y   la   de   cambiar 
(mutación). Ahora se tornaba más claro y firme el despegue 

13
de la ingeniería genética.

A este acto fundacional asistían dos biofísicos, un bioquímico y una química­
física. Rosalind, que víctima de un cáncer muere con solo 38 años, se ha 
considerado un ejemplo de la discriminación de la mujer aún en el campo de la 
ciencia en época tan reciente como la segunda mitad del siglo XX.
[12] Imagen: Department of Physics and Astronomy. Universidad de California, 
Los 
Ángeles. http://www.physics.ucla.edu/~cwp/Phase2/Franklin,_Rosalind@841234567.
html

BIBLIOGRAFIA:

[1] Núñez J (2000): La Ciencia y la Tecnología como procesos sociales. Sala de 
CTS. Organización de Estados Iberoamericanos para la Ciencia, la Educación y la 
Cultura http://www.campus­oei.org/salactsi/nunez00.htm#9

[2]   Altshuler   José   (2003): A   propósito   de   Galileo. Editorial   Gente   Nueva.   La 


Habana.

[3]   Nobel   e­Museum   (2002): Marie   Curie. From   Nobel   Lectures,   Chemistry   1901­


1921. Elsevier Publishing Company, Amsterdam, 1967.

http://www.nobel.se/chemistry/laureates/1911/marie­curie­bio.html

[4] Kröber, G. (1986): Acerca de las relaciones entre la historia y la teoría 
del desarrollo de las ciencias, Revista Cubana de Ciencias Sociales, enero ­ 
abril, año IV, Nº 10, p.37. La Habana.

[5] Kuhn, T.S. (1982): La estructura de las revoluciones científicas. Fondo de 
Cultura Económica. México.

[6] O'Connor J. J., Robertson E. F. (2000): Isaac Newton. School of Mathematics 
and Statistics.University of St Andrew. Scotland.

http://www­history.mcs.st­andrews.ac.uk/Mathematicians/Newton.html

[7] Stenger Victor J. (2000):  Cita de Steven Weinberg en 2. The Whole is Equal 
to the Sum of its Particles. p. 30. Timeless Reality: Symmetry, Simplicity and 
Multiple Universes. Amherst, N.Y. Prometheus Book.

[8] Braun Eliezer (1997): Una faceta desconocida de Einstein. Fondo de Cultura 
Económica de México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/19/htm/sec_14.htm

14
[9] www.hawking.or.com (2005): About Stephen. A brief story of mine.

http://www.hawking.org.uk/about/aindex.html

[10] a] Marinacci Barbara (1994): Linus Pauling—Scientist for the Ages. The 
Linus Pauling Institute.

Oregon State University. http://lpi.oregonstate.edu/ss01/avpauling.html

[11] O'Connor J. J., Robertson E. F. (2000): Mathematicians born from 1600 to  
1649. School of Mathematics and Statistics. University of St Andrew. 
Scotland.  Hooke

http://www­history.mcs.st­andrews.ac.uk/Indexes/1600_1649.html

[12] UCLA Department of Physics and Astronomy website (2003):  Rosalind 
Franklin (1920 – 1958).Contributions of 20th Century Women to 
Physics.http://www.physics.ucla.edu/~cwp/Phase2/Franklin,_Rosalind@841234567.htm
l

15
Prácticas y teorías físicas del Mundo Antiguo

Rolando Delgado Castillo y Francisco Arturo Ruiz

Universidad de Cienfuegos 

El impreciso término de Mundo Antiguo

Culturas asentadas en la Mesopotamia y el Asia Menor 


Progresos del Mundo Egipcio

Avances de la Sociedad China


Logros de las Culturas Precolombinas

Bibliografía

Al emplear aquí el término de “Mundo Antiguo” estamos considerando ese extenso 
período histórico que se inicia, según los datos arqueológicos disponibles, en 
Oriente Próximo y en Egipto hacia finales del IV milenio a.C., y termina con el 
proceso de disolución del imperio romano hacia la mitad del siglo V.  En otras 
palabras estamos intentando sumariar los logros en el conocimiento físico y 
otros hitos relacionados con este ámbito, durante el colosal intervalo de cuatro 
mil quinientos años, unas tres cuartas partes de los tiempos históricos.

Lo que reconocemos como egipcios, sumerios, chinos o mayas es un producto 
cultural, con su repertorio de realizaciones materiales y espirituales, cuya 
identidad se alcanza en un escenario territorial a partir de un momento 
determinado. A pesar de lo irrepetible y singular de la construcción de cada 
cultura del llamado mundo antiguo se torna claro que ciertas regularidades 
presidieron esa compleja edificación histórica.

El proceso de transformación de la aldea en ciudad se combina con la producción 
de espectaculares descubrimientos o inventos, que coinciden cronológicamente en 

16
cada región porque se dan las condiciones oportunas, pero que al mismo tiempo 
contribuyen decisivamente a la transformación de la realidad.

El progresivo incremento del excedente agrícola y el correspondiente aumento de 
la actividad comercial abren la posibilidad de una especialización o división 
social del trabajo. Resultado de esta división social aparecen diferentes 
ocupaciones entre las que se encuentran los encargados de desarrollar e imponer 
una ideología, como paradigma cultural al servicio del grupo dominante. El 
aparato estatal está entonces en el orden del día histórico para garantizar los 
intereses de esta clase y supuestamente regular las normas y relaciones en 
beneficio de la colectividad.

Con los estados surge una mecánica de la violencia en las relaciones 
intercomunitarias, basada en la solución del litigio mediante la confrontación 
bélica. La filosofía de la guerra, alentada por el botín como fuente de 
adquisición de riqueza, que en un momento determinado alcanza al propio hombre 
esclavizado, conduce al ciclo de vida de los imperios esclavistas: la expansión, 
el esplendor, la crisis de las contradicciones internas y, a la larga, la 
decadencia y desaparición. 

La memoria social atrapada en la escritura aparece 
soportada   por   diferentes   materiales.   La   propia 
piedra, una tablilla, fueron los primeros materiales  
sobre los cuales el hombre inscribiría sus memorias. 
El papiro   vendría a representar una revolución en 
los procedimientos para perpetuar una escritura. El  
papiro (Scirpus lacustris) crecía en extensas zonas  
pantanosas del Nilo, y de su caña fabricaban, por un 
ingenioso procedimiento  que   utilizaba  el  propio 
 jugo   del   tallo   como   pegamento,   los   rollos   del 
papiro.

Gracias a los papiros que se conservan conocemos el nivel alcanzado por la  
ciencia y la técnica del Antiguo Egipcio.

Las primeras grandes civilizaciones tenían ante sí diversos problemas de 
supervivencia que los sabios de la época debieron abordar y contribuir a 
resolver desde la luz que ofrece la teoría. Investidos generalmente de atributos 
religiosos, en las primitivas formas que adoptó la división social del trabajo, 
sus conocimientos eran mantenidos y transmitidos  en comunidades cerradas, como 
un instrumento más de poder. 

17
Los conocimientos en el área de las transformaciones físico ­ químicas de las 
sustancias que constituyeron conquistas de las civilizaciones del mundo antiguo 
no estuvieron acompañadas de una reflexión teórica, sino más bien de una 
práctica iluminada por el ensayo­error y no pocas veces asistidas por la 
casualidad. Esto no niega la existencia de una práctica intencional dirigida a 
aprovechar todos los elementos naturales o sus modificaciones para bien de la 
comunidad.

Los primeros asentamientos humanos se establecieron en los valles de los grandes 
ríos. Mesopotamia, una de las cunas de la civilización, debe su nombre a su 
ubicación geográfica "entre dos ríos". En la llanura que se extiende entre el 
Tigris y el Eúfrates, región fértil que ofrecía potencial capacidad para el 
desarrollo de la agricultura, surgió la civilización sumeria hacia el 3250 a.C., 
y con ella las primeras ciudades. Sumerios, asirios y babilonios fueron tres 
culturas que se sucedieron a lo largo de tres milenios, teniendo como escenario 
este territorio, y que sobresalieron por sus logros en el campo de la vida 
material y espiritual de sus ciudades.

La inauguración hace unos diez mil años de la cultura de la cerámica, supuso el 
dominio de la arcilla, mineral complejo formado por un silicato de aluminio que 
posee una cierta naturaleza plástica y que al secar o ser sometido a 
calentamiento endurece. 

Al aprender el hombre a trabajar el barro, se inicia la producción de ladrillos 
y el desarrollo del arte alfarero,  que coincide en ciertas civilizaciones  con 
el desarrollo de la agricultura y la edificación de los primeros asentamientos 
humanos. La ciudad antigua de Jericó, una de las primeras comunidades agrícolas, 
muestra en su segundo nivel de ocupación, que data del milenio VIII a.C., un 
gran número de casas redondas de ladrillo de adobe.

Descubrimientos   arqueológicos   demuestran   que   fue   la  


cultura sumeria, con su dominio del torno alfarero, la 
que produjo entre el año 3500 a.C. y el 3000 a.C. uno 
de   los   más   revolucionarios   inventos   de   la   humanidad:  
la rueda. La rueda hizo aparecer una nueva generación 
de vehículos de transporte terrestre, modificó así la  
noción   del   tiempo   y    del    espacio    a    recorrer 
por   el   hombre,   amplificó   la   escala   del   intercambio  
comercial, posibilitó la mejora

 de la cultura de la tierra y la práctica de la caza, facilitó el progreso de  
las construcciones y finalmente transfiguró el escenario bélico.

18
Imagen:http://www.mundofree.com/diomedes/hmasurbcazleoG.jpg

El suelo de Mesopotamia proporcionaba la arcilla que aprendieron a cocer sus 
artesanos para obtener  la terracota con la que realizaron cerámica, esculturas 
y tablillas para la escritura. Sobre tales tablillas, los sumerios desarrollaron 
un sistema de escritura que se ha dado en llamar cuneiforme (por adoptar un 
sistema de símbolos en forma de cuñas). 

También nos legan los sumerios, sobre doce tablillas o cantos de arcilla, el 
primer poema de la antigüedad, el Poema de Gilgamesh, escrito  alrededor del año 
2000 a.C. Este poema heroico recibe el nombre de su héroe, Gilgamesh, y narra la 
epopeya tejida por dos personajes que forjan una admirable amistad.

En materia de tecnología y construcciones se atribuye a la cultura sumeria: la 
invención de la fundición del bronce por el método de la cera perdida; la 
construcción de carretas y furgones; la fabricación de ladrillos empleados en la 
elevación de murallas defensivas en ciudades como Uruk (2800 a.C.); la erección 
de palacios como el de Sargón el Grande (2335­2279 a.C), el primer creador de un 
gran imperio que conquista toda Mesopotamia, parte de la actual Siria, Asia 
Menor, y buena parte del territorio que más tarde fuera Persia; el levantamiento 
de diques y la apertura de canales en evitación de las inundaciones (hacia el 
2630 a.C.); la edificación de templos de adobe decorados con fina metalurgia y 
una ornamentación de ladrillos vidriados como el gran zigurat de Ur erigido en 
el segundo milenio a.C. y dedicado a la deidad lunar de la religión sumeria; la 
utilización del alabastro y el trabajo con algunos metales como el oro, la plata 
y el cobre en la escultura.

En el primer período de la dinastía babilónica, uno de cuyos gobernantes fue el 
célebre Hammurabi (1790 a.C.),  se desarrollan las aportaciones de los 
babilonios a la naciente Matemática. Como lo demuestra la existencia de una 
tablilla de arcilla datada entre los años 1900 y 1600 a.C. (llamada Pimton 322) 
los babilonios dominaban unas matemáticas más avanzadas que los egipcios. 
Sobresale en esta obra la revelación del método para obtener las raíces 
positivas de ecuaciones de segundo grado, y la compilación de una gran cantidad 
de tablas matemáticas que incluyeron las operaciones de multiplicación y 
división.

Los babilonios inventaron el sistema de numeración en base 60 que todavía esta 
presente en nuestro sistema de medida del tiempo y de los ángulos. Tal sistema 
de numeración babilónico, venía representado por un sistema de cuñas. El número 
1 se representó por una cuña sencilla y el número 10 por una especie de flecha. 

19
Así los números hasta el 59 eran simbolizados por un procedimiento aditivo, 
cinco flechas sucesivas y nueve cuñas. Pero el 60 mereció el mismo símbolo del 
uno. Se generó así el llamado sistema sexagesimal, que tiene como base el 60. La 
ventaja de este sistema radica en el hecho de que el 60 es divisible por 2, 3, 
4, 5, 6, 10, 12, 15, 20 y 30, lo que elimina el frecuente trabajo con fracciones 
que causaba problemas para los antiguos. Implícitamente aún hoy lo seguimos 
utilizando  ya que dividimos la hora en 60 minutos y este en 60 segundos; además 
el círculo tiene 360º (60 x 6).

Los babilonios inventaron el sistema de numeración de base  
60 que  todavía esta  presente  en nuestro sistema  de medida  
del   tiempo   y   de   los   ángulos.   Tal   sistema   de   numeración  
babilónico, venía representado por un sistema de cuñas. El  
número 1 se representó por una cuña sencilla y el número 10  
por una especie de flecha. Así los números hasta el 59 eran  
simbolizados   por   un   procedimiento   aditivo,   cinco   flechas  
sucesivas y nueve cuñas.

Este   sistema   sexagesimal,   en   opinión   de   los   especialistas 


fue el resultado de la fusión cultural de dos pueblos, uno  
de los cuales usaba un sistema de numeración de base 5 (los  
dedos de las manos) y otro de base 12 (el número total de  
falanges   de   los   cuatros   dedos   de   una   mano,   excepto   el 
pulgar)

Imagen: http://www­history.mcs.st­
andrews.ac.uk/HistTopics/Babylonian_numerals.html

Los asirios, otra de las grandes culturas desarrolladas en Mesopotamia, 
 fundaron su primer imperio en la parte media de la cuenca del Tigris entre 1800 
­ 1600 a.C. teniendo por capitales las grandes ciudades de Assur, Kalach y 
Nínive. Luego del dominio durante varios siglos del imperio de Mitani, reino del 
este del Eúfrates que tuvo su apogeo en los siglos XVI ­ XIV a.C., fueron 
liberadas sus ciudades y ampliado la extensión de sus territorios hacia  el 
Mediterráneo  hasta Tarso, y  hacia la cuenca inferior del Eúfrates hasta 
Babilonia (1244 ­ 1208). Pero el gran esplendor de Asiria y sus notables 
hallazgos nos llegan con el resurgimiento del Nuevo Imperio (911 ­ 800 a.C.) que 
se extendió por todo el territorio de Mesopotamia hasta Siria y Palestina. En 
este período reina Assurnasirpal II (883 ­ 859 a. C.) que mandó a construir uno 
de los más suntuosos palacios de todo el Medio Oriente y se le atribuye haber 
sido el primero en incorporar la caballería como cuerpo militar.  

20
Tras la dominación asiria hubo otra época de predominio político de los 
babilonios, el imperio neobabilónico (625 ­ 539 a.C.), a la cabeza del cual nos 
encontramos con Nabucodonosor II que extiende las fronteras hasta las costas del 
Mediterráneo. Bajo su imperio Babilonia se convierte en una de las legendarias 
ciudades del Mundo Antiguo. La famosa torre templo de Etemenanki, monumental 
estructura piramidal de siete plantas, restaurada por   Nabucodonosor, fue acaso 
obra arquitectónica emblemática de todo este período de esplendor económico. Su 
primera destrucción se ha relacionado con la leyenda bíblica acerca de la Torre 
de Babel del Antiguo Testamento.

Asiria   tuvo   un   momento   de   gran   esplendor   bajo   la  


conducción del emperador, Asurbanipal (669 ­ 625 a.C.),  
protector de las ciencias y las artes. Al mismo tiempo  
que   extiende   las   fronteras   del   imperio   hasta   las 
ciudades de Menfis y Tebas en el Egipto, funda la gran 
biblioteca   de   Nínive   (680   a.C.);   desarrolla   novedosos 
sistemas de riego y     construye   las   murallas   (en la 
imagen)  que  en  fin  de

cuentas   no   logran   impedir   que,   ante   la   alianza   de   babilonios   y   medos  


(persas),   caigan   sus   muros   y   desaparezca   el   imperio.   La   Historia   demuestra 
que   los   muros   nunca   han   asegurado   la   vida   de   los  
imperios.  Imagen:www.baulink.hu/balintker/hatterkep/mezopotamia/Ninive.jpg

Una   de   las   siete   maravillas   del   mundo   antiguo,   los  


jardines colgantes de Babilonia, se cree que datan de la 
época de Nabucodonosor II. La leyenda afirma que fueron  
construidos   por   el   Rey   para   consolar   a   su   esposa   meda  
Amitis quien extrañaba el verdor de su montañosa tierra  
natal.   Estrabón   (c   63   a.C.­   24   d.C.),   célebre  
historiador   y   geógrafo   griego   los   describe   como   una 
serie de terrazas ajirdanadas construidas sobre el nivel  
principal muy cerca del Eúfrates.

Para su riego los babilonios empleaban bombas que sacaban el agua del Eúfrates 
y la elevaban hacia las 
terrazas. Imagen: articles.roshd.ir/articles_folder/art/architecture/7%20Wonder
s­%20

21
Acompaña al brillo imperial el esplendor del arte babilónico dentro del cual 
sobresalen las obras en la cerámica vidriada que si bien comenzó a fabricarse 
1500 años a.C, encuentra en este momento en la llamada Puerta de Istar (575 
a.C.), construida por ladrillos vidriados, un exponente del nivel alcanzado por 
el artesano babilónico y da fe de la justeza del nombre que lleva la ciudad pues 
en Acadio, Babilonia significa "Puerta de Dios".

En el siglo V a.C., un siglo después de la invasión persa, cuando los griegos 
alcanzaban el brillo de la época de Pericles, los babilonios realizaban 
conquistas sobresalientes en el campo de la Astronomía. Comprobaron que los 
movimientos aparentes del Sol y la Luna de oeste a este alrededor del zodíaco no 
tienen una velocidad constante. La tarea de describir matemáticamente el 
carácter cíclico  del  movimiento  de  la Luna  con  su  fase  de  velocidad 
creciente durante la primera mitad  de  su  revolución y  la  reducción  de  la  
misma hasta el mínimo originario permitió a los astrónomos babilonios predecir 
la luna nueva y el día en que comenzaría el nuevo mes. Como consecuencia, 
conocían las posiciones de la Luna y del Sol todos los días del mes.

Las técnicas involucradas en el reconocimiento de los minerales, el proceso de 
reducción a metales y su fundición, la forja y el templado de los metales han 
tenido tal repercusión en el progreso social que los historiadores han 
periodizado etapas de desarrollo como Edad del Cobre, del Bronce y del Hierro. 
No obstante, el desarrollo desigual que experimentaron las civilizaciones 
antiguas, erigidas en distintos escenarios naturales, hace que el dominio de un 
material y el arte o técnica de elaboración de objetos con él aparezca en fechas 
bien distintas. 

Precisamente la génesis de la metalurgia se presenta cuando los hombres 
aprendieron que un calentamiento enérgico de una mena azulada con  fuego de 
leña, producía un nuevo material rojizo, resistente, y que poseía una propiedad 
no exhibida por la piedra, su carácter maleable. El cobre, elemento 25 en 
abundancia relativa en la corteza terrestre, puede encontrarse en estado nativo 
y se reduce de sus óxidos con relativa facilidad. Este material permitía la 
fabricación de instrumentos más efectivos y duraderos. Asistimos al inicio de la 
Edad del Cobre en dos regiones tan distantes como el Medio Oriente y la actual 
Serbia, unos 4 000 años a.C.

Sorprende que descubrimientos arqueológicos demuestren la entrada en escena de 
un nuevo material más duro que el cobre, unos 500 años antes del inicio de la 
Edad del Cobre. En el sudeste asiático, en la tierra de los Thai, debieron 
practicar la reducción de una mezcla de minerales que diera origen a la primera 
aleación trabajada por el hombre: el bronce. El bronce, una aleación constituida 

22
por cobre y estaño (y en menor proporción otros metales), es más duro y 
resistente que cualquier otra aleación común, excepto el acero, y presenta un 
punto de fusión relativamente bajo.

Uno de los más interesantes bajorrelieves de la cultura  
hitita muestra a guerreros en marcha con la espada curva  
de   hierro   apoyada   en   el   hombro   derecho.   Los   hititas,  
pueblo  que   se   instala   en  el   Asia   Menor   durante   siglos, 
debieron   vencer   las   dificultades   prácticas   que   supone 
aislar   el   hierro   de   sus   óxidos   minerales.   Se   necesita  
ahora   el   fuego   del   carbón   vegetal   y   una   buena  
ventilación.

Imagen: www.specialtyinterests.net/hittites.html

Estos   obstáculos   fueron   superados   porque   el   dominio   del   hierro   suponía  


herramientas   y   armas   más   fuertes   y   duraderas   y   además   porque   el   hierro  
aventajaba al cobre en algo muy importante: los yacimientos de sus minerales  
eran más abundantes.

Los territorios del Asia Menor, que se extendían en la península de lo que hoy 
ocupa la Turquía asiática, sirvió de asentamiento de diversas culturas que 
conocieron del brillo y del declive. Hacia el 1900 a.C se extendieron por estos 
dominios, los hititas. A ellos correspondió el mérito histórico de vencer las 
dificultades prácticas que supone aislar el hierro de sus óxidos minerales e 
inaugurar la edad del hierro.

El dominio del hierro trajo considerables ventajas: se lograban producir 
herramientas y armas más fuertes y duraderas, y además el hierro aventajaba al 
cobre en la abundancia de sus yacimientos. De cualquier forma, Europa no 
implanta la tecnología del hierro hasta el siglo VII a.C., en China se inicia un 
siglo después, y en el África subsahariana hacia el siglo V a. C.

Al desarrollar la técnica de la fundición de este metal, los hititas se 
convirtieron en poderosos guerreros que conquistaron toda la Anatolia central 
hasta el Mediterráneo creando un gran imperio que rivalizó con Egipto, Babilonia 
y Asiria. El esplendor de su imperio termina hacia el 1200 a.C cuando son 
derrotados por las invasiones de los pueblos del mar.

El apogeo del imperio lidio en el Asia Menor transcurre hacia el siglo VII a.C. 
Su famosa capital de Sardes es tomada por el rey persa Ciro II el Grande en el 
546 a.C. con lo cual anexiona sus dominios y riquezas al pujante imperio persa. 

23
El territorio que ocupa Lidia poseía vastos yacimientos de oro y plata y según 
los griegos, fueron los lidios los primeros en acuñar monedas. Siglos más tarde, 
la Roma imperial estableció el monopolio estatal  en la acuñación de monedas 
para darle un valor de cambio único en todo el mundo romano.

La   guerra   de   Troya   narrada   por   Homero   en   la   Iliada   se 


desarrolló   hacia   el   siglo   XII   a.C.   y   contó   con   la  
participación   de   los   micénicos   gobernados   por   el  
legendario   Agamenón.   La   máscara   de   Agamenón   representa 
una   joya   de   la   cultura   del   bronce,   perteneciente   a   la  
civilización   egea. El   dominio   de   un   material   por   una  
sociedad   en   cada   época   ha   encontrado   reflejo   en  
actividades   tan   contradictorias   como   las   manifestaciones  
del supremo arte y el "arte" militar. 

Se admite que las armas de bronce de la cultura micénica  
no   pudieron   resistir   el   empuje   de   los   dorios   a   los 
cuales llegó el secreto de los hititas,

asentados a unos 1 200 km al este de Grecia. Esto selló el fin de la Edad  
Micénica. , y así fueron reducidas e incendiadas las ciudades del Peloponeso,  
Esparta,   Mecenas,   Tirinto   y   Argos   hacia   el   siglo   XII   a.   C. Imagen: www. 
uv.es/.../ 06.%20mascara_de_agamenon.jpg

La   maleabilidad   del   oro   es   aprovechada   acaso   de   manera  


insuperable   por   los   orfebres   de   la   civilización   minoica.  
Los vasos de Vafió encontrados en la cercanía de Esparta y  
fabricados   unos   3500   años   atrás,   con   las   típicas   escenas  
taurinas   de   esta   cultura   son   un   exponente   relevante   de  
esta civilización.

Imagen: http://www.laconia.org/sparti_Tomb_of%20_vafio.htm

La arqueología ha demostrado que durante un largo período histórico, desde el 
3000 hasta el 1200 a.C., perteneciente a la llamada Edad del Bronce se 
desarrollaron dos culturas, la minoica, que tuvo como centro la isla de Creta  y 
la micénica que hacia el 1450 a.C. pasó a convertirse en el eje de la 
civilización del Egeo. 

A los pies de otro gran río, el Nilo, creció una de las culturas más brillantes 
de la Antigüedad. Se distinguen tres imperios en un período histórico que abarca 

24
unos 18 siglos desde la primera dinastía fundada hacia el 3 000 a.C. que los 
historiadores han llamado el Antiguo Egipto, el Imperio Medio y el Nuevo Imperio 
cada uno con una vida de aproximadamente cinco siglos, y un total de unas 
treinta dinastías. Egipto se destacó especialmente por su esplendor cultural a 
partir de la III dinastía, radicada en Menfis.

Tras su conquista y conversión en provincia asiria por el Rey Assurbanipal (669 
– 627 a.C.) hacia el 650 a. C. jamás volvería Egipto a recobrar su grandeza. En 
el año 525 a.C. Dario I (c. 558­ 486 a.C.) lo sometió al imperio persa. El 
macedonio Alejandro Magno ( 356 – 323 a.C.) lo conquistó en el año 332 a.C. y a 
su muerte, Egipto fue regido por una dinastía de griegos hasta el 30 a.C. en que 
fue anexionado por Roma.

En su larga existencia, la cultura egipcia legó a la humanidad un sinnúmero de 
inventos y descubrimientos que trascenderían a su época y aun hoy resulten 
sorprendentes sus avances en la Astronomía, Geometría, Arquitectura, e incluso 
el origen de la Química.

Paradójicamente, ciertos ritos y creencias sobrenaturales, reflejos de diversas 
enajenaciones terrenales y del misterio de la muerte,  impulsaron el desarrollo 
del conocimiento en diferentes áreas. Las colosales pirámides egipcias, una de 
las maravillas del mundo antiguo, comenzadas a construirse hace más de 2 500 
años a.C. indican la necesidad del dominio de un saber matemático que según se 
recoge en el papiro de Rhind, escrito unos 3 600 años atrás, llegó a abarcar 
desde mediciones de superficies y volúmenes hasta las reglas para cálculos 
aritméticos con fracciones, el cálculo de áreas, y la resolución de ecuaciones 
simples de primer grado. Se afirma que los egipcios debieron dominar el llamado 
teorema de Pitágoras para el trazado de líneas perpendiculares.

En la construcción de las colosales pirámides y en el 
propósito   de   vida   eterna   para   sus   moradores   se  
integrarían   los   saberes   y   habilidades   egipcios   desde 
la Geometría, la Astronomía hasta las prácticas de la  
Khemeia.   Imhotep   constructor   de   la   primera   pirámide  
egipcia,  de  carácter  escalonado,  unos  2700  años  a.C.,  
se considera también el primer médico y un precursor de  
la khemeia egipcia. 

En su afán de momificar los cadáveres, los egipcios desarrollaron métodos de  
conservación   que   exigió   el   estudio   de   las   sustancias   con   propiedades  
balsamáticas y antisépticas. Sus resultados sorprendieron milenios después al  
mundo occidental. 

25
Se ha podido establecer que la antigua sociedad egipcia en su división social 
del trabajo separó al médico del sacerdote y al hacerlo ponía en manos del 
médico el desarrollo de las terapias terrenales para la salvación del cuerpo, 
mediante el análisis empírico­racional de las enfermedades y su tratamiento. 
Algunos elementos de la farmacopea como el desarrollo de los laxantes y el 
conocido empleo que le dieron al ácido tánico en el tratamiento de las 
quemaduras llegan hasta nuestros días.

Cuando recordamos que tanto Babilonia como Egipto crecieron en los valles de 
grandes ríos y que el éxito en la programación de plantaciones y colectas de sus 
productos agrícolas constituía una necesidad social básica, comprendemos mejor 
que los hombres encargados de la reflexión especulativa (originalmente mística 
pero preteórica en fin)  pronto asociaran ambos problemas con el estado de la 
cúpula celeste y del movimiento de los astros sobre sus cabezas.

No constituye pues mera veleidad del pensar los esfuerzos por penetrar en la 
descripción primitiva de mapas estelares, registrar el movimiento de los astros, 
construir el concepto del tiempo. Ello no significa que los hombres que debieron 
abordar estos aspectos,  luego de emprendida la empresa, tuvieran conciencia 
plena de la necesidad social a la cual respondía el trabajo que desplegaban. No 
es difícil imaginar que inmersos en la tarea por resolver, el pensamiento 
reflexivo de los sabios volara  en una u otra dirección sin aparente conexión 
con necesidades inmediatas, y a menudo rodeado por una aureola mística.

El año nuevo egipcio se celebraba cuando Sirio, la estrella más brillante del 
cielo, aparecía en el horizonte por el oriente, un momento antes de la aurora. 
Sirio indicaba que la primavera había terminado y que muy pronto se produciría 
la anhelada inundación de tierras por la crecida de las aguas del 
Nilo. Posteriormente, a fin de ajustar el año lunar con la aparición de Sirio en 
el horizonte, los astrónomos agregaron cinco días a cada año. Asimismo 
propusieron, sin éxito, la adición de un día cada cuatro años para que el año 
concordara aún más con el ciclo solar.

Por esta época, hacia el 400 a.C. los babilonios comprobaron que los movimientos 
aparentes del Sol y la Luna de oeste a este alrededor del zodíaco no tienen una 
velocidad constante. La tarea de describir matemáticamente el carácter cíclico 
del movimiento de la Luna con su fase de velocidad creciente durante la primera 
mitad de su revolución y la reducción de la misma hasta el mínimo originario 
permitió a los astrónomos babilonios predecir la luna nueva y el día en que 
comenzaría el nuevo mes. Como consecuencia, conocían las posiciones de la Luna y 
del Sol todos los días del mes.

26
La Gran Pirámide de Giza es la más vieja y la única 
"maravilla"   que   ha   desafiado   el   paso   del   tiempo   y  
llegado hasta nosotros.  Fue levantada en 2560 a.C.  
por el Faraón del Antiguo Egipcio Keops. Es parte de  
un   complejo   de   tres   pirámides.   De   acuerdo   con  
Herodoto su edificación se extendió durante 20 años  
y   en   ella   participaron   más   de   cien   mil 
trabajadores. Esta   es   la   más   grande   de   las  
maravillas con 138 metros de altura.

Originalmente   tenía   147   metros   pero   ha   perdido   nueve   metros   debido   a   la  


erosión y a la pérdida de la capa de caliza.     La Gran Pirámide tiene algo  
más de 2,3 millones de bloques de piedra caliza, con un peso medio cada uno  
de 2,5 toneladas. Hasta el siglo XIX fue la más alta edificación hecha por el 
hombre sobre la tierra, y para superarla fue necesario dominar las técnicas  
de construcción en hierro forjado aplicadas en la monumental Torre parisina  
de Eiffel.

Imagen:www.culturageneral.net/arquitectura/jpg/piramide_de_keops.jpg

El calendario solar egipcio de 365 días, una de las aportaciones fundamentales 
de esta civilización nació de las observaciones al pie del Nilo cuando 
determinaron las estaciones del año a partir de los cambios que mostraba el río 
con el paso del tiempo.

Sus tres estaciones: la "inundación" o época de la crecida, que duraba 
aproximadamente tres meses; la "aparición de los campos al retirarse el agua", 
con su duración de cinco meses; y la "sequía", con sus cuatro meses, para volver 
a repetirse el ciclo, indicaba la periodicidad buscada.  Este calendario, que 
era bastante certero, se usó desde el tercer milenio a. C. y tuvo una finalidad 
práctica: el control de los ciclos agrícolas. Además, partiendo de la 
observación de la Luna, los egipcios dividieron su año en 12 meses, con 30 días 
cada uno.

En la dirección de la conquista de los materiales, los egipcios no sólo 
conocieron y trabajaron los metales más importantes de cada época: el oro, la 
plata, el cobre, el hierro, el plomo y otros, sino que aprendieron a preparar 
pigmentos naturales, jugos e infusiones vegetales, tinturas y colorantes. El 
algodonero egipcio (Gossypium hirsutum), creció en el valle del Nilo, y sus 
rendimientos propiciaron el inicial desarrollo del telar en el 2 500 a.C. unos 4 

27
400 años antes del telar mecánico de Arkwright. Sus telas teñidas resultaron 
especialmente apreciadas y ello propició, el desarrollo de tintes y colorantes.

Hacia el 3 500 a.C., los egipcios que disponían de minas de cobre en el desierto 
oriental entre el Nilo y el Mar Rojo, fabricaban el bronce según lo demuestran 
hallazgos encontrados en la tumba del faraón Itetis. Resulta de interés apuntar 
que a partir de la IV dinastía egipcia iniciada con el Faraón Snefru, es decir 
hace unos 4 900 años, la extracción de minerales valiosos y la fabricación de 
metales fueron operaciones encargadas a los más altos oficiales egipcios. El 
monopolio imperial de estas actividades revela la importancia que le concedía el 
estado al dominio y secreto de las prácticas metalúrgicas. Cabe conjeturar dada 
la alianza entre la familia real y la clase sacerdotal que fueran los 
laboratorios de sacerdotes dónde se guardaran tales prácticas.

En   el   campo   de   la   medición   del   tiempo,   los   primeros  


instrumentos   que   persiguen   cumplir   este   propósito   son  
atribuidos a los egipcios. En verdad se reportan fechas  
de   invención   muy   dispares   para   el   reloj   solar   y   la  
clepsidra.   Las   versiones   más   coincidentes   sitúan   la  
fabricación  de estos artefactos  en  el inicio del  Nuevo  
Imperio   hacia   el   1   500   a.C.,   es   decir   unos   treinta  
siglos antes de que aparecieran los relojes mecánicos en  
el siglo de Newton.

La fermentación constituye el proceso biotecnológico que 
primero dominó el hombre. En particular la fermentación  
alcohólica   se   reconoce   por   la   mención   que   se   hace   en 
unas   tablas   de   arcilla   escritas   en   lenguaje   sumerio 
sobre   la   preparación   de   una   bebida   estimulante   que  
llaman siraku y cuya antigüedad se remonta a unos 4.000 
años.   Los   egipcios,   recogiendo   los   métodos   sumerios,  
elaboran   una   cerveza   que   bautizan   con   el   nombre   de 
"zythum",   descubren   la   malta   y   añaden   azafrán, 
miel, jengibre y  comino  con el propósito

 de proporcionarle aroma y color.  La industria del alcohol para bien y para  
mal se abriría paso en la historia del hombre.

Imagen: www.thekeep.org/ kunoichi/themestream/egipto_column. html

28
China es uno de los países del mundo con más antiguo desarrollo económico. Hace 
cinco o seis mil años, la gente que vivía en la cuenca del río Amarillo ya se 
dedicaba a la agricultura y a la cría de ganado. Hacia el siglo XXI a.C., 
aparece la primera dinastía China, la Xia, con su peculiar forma de sociedad 
esclavista, terminando así el largo período de sociedad primitiva. Las 
siguientes dinastías Shang (siglo XVII­XI a.C. aprox.) y Zhou del Oeste (siglo 
XI­770 a.C. aprox.), representan momentos del desarrollo de las relaciones de 
producción esclavista. Los sucesivos Período de la Primavera y del Otoño (770 ­ 
476 a.C.) y el Período de los Reinos Combatientes (475 ­ 221 a.C.) son 
considerados como etapas de transición hacia formas de producción feudales.

Hace más de 3.500 años, al inicio de la dinastía Shang, , ya se conocía la 
técnica de fundir el bronce, utilizaban instrumentos de hierro, y producían 
utensilios de alfarería blanca y esmaltada. La producción de seda y su tejeduría 
también estaban bastante desarrolladas en esa época.

En el Período de Primavera y Otoño (770 ­ 476 a.C.), apareció la técnica de 
producción artesanal de acero. En el Período de los Reinos Combatientes (475 ­ 
221 a.C.) la famosa obra hidráulica de Dujiangyan fue construida en las 
cercanías de la actual ciudad suroccidental de Chengdu, y ha venido 
desempeñando, durante más de dos mil años, un papel importante en el regadío, 
desviación de inundaciones y la evacuación de arena.

En el año 221 a.C. Qin Shi Huang, primer emperador chino, puso fin a las 
posesiones de feudos por los dignatarios del Período de los Reinos Combatientes, 
y fundó un estado feudal, pluriétnico unificado, y de poder centralizado. El 
primer emperador unificó las letras, la unidad de medida y la moneda.

Qin Shi Guang ordenó construir la Gran Muralla China, la obra más extensa 
construida por el hombre. El objetivo era defender su país contra las invasiones 
de los mongoles. Se afirma que casi medio millón de trabajadores participaron en 
la construcción de esta muralla que empieza en el mar y continúa durante 2 450 
kilómetros, atravesando valles y montañas, torrentes y ríos.

Al  tiempo  que   se  desarrollan  las  primeras  escuelas  de  la  
filosofía griega, en Egipto, 500 años a.C., era empleado el  
ábaco en el cálculo numérico. Pero existen referencias de 
que la historia del ábaco, se remonta unos 3 000 años atrás  
a   la   China,   en   el   período   de   la   dinastía   esclavista   de  
Zhou. El ábaco es considerado como el primer instrumento de  
cálculo realmente importante, ya que brinda la posibilidad  
de realizar multiplicaciones y divisiones o el trabajo en 

29
distintas bases.

Aún antes, hacia el 1500 a.C. en el marco de la necesidad de cuantificar las  
variables que determinó la adopción en cada cultura de su propio sistema de  
numeración, en China se conoció el sistema binario o en base dos. Este tiene  
la ventaja de utilizar solo dos símbolos: uno (1) y cero (0)

La invención del papel es una de las grandes aportaciones de los chinos a la 
cultura universal. Aunque se registran enormes discrepancias en la fecha en que 
aparece aplicada esta invención lo cierto es que la técnica de producción del 
papel a partir de celulosa fue dominada por los chinos casi mil años antes de 
ser introducida en Europa por los árabes a través de España (1150).  Existen 
fuentes que admiten como restos  del papel chino más antiguo el hallazgo 
arqueológico encontrado en el pueblo de Lou ­ Lan en el Turquestán chino, de 
fecha cercana al siglo II, otras lo sitúan tres siglos antes durante la dinastía 
de los Han de Occidente.

La impresión de dibujos e imágenes en tejidos en la China precedió en más de un 
siglo a la técnica de impresión de textos.  La invención del papel constituyó un 
importante antecedente para el asalto a esta técnica. El papiro, una verdadera 
revolución en su época, era demasiado frágil como superficie de impresión y el 
pergamino, que sustituiría poco a poco al papiro empleado por griegos y romanos 
hasta el siglo IV d.C. resultaba un material caro y de difícil producción masiva 
(se obtenía por un tratamiento de la piel de ovejas, terneros o cabras, con cal 
y posterior largo proceso con polvo de piedra pómez para devastarla 
convenientemente). El papel por su parte es bastante resistente y económico, se 
obtenía inicialmente de la corteza del árbol llamado morera. Se ha señalado como 
otro factor que empujara la invención de la imprenta de tipos móviles por los 
chinos, la difusión de la religión budista por sus extensos dominios que arribó 
al Asia Central en el siglo I d.C, siguiendo las rutas del comercio y que a 
pesar de las persecuciones que sufrieron sus adeptos se fue consolidando y 
adaptando a las costumbres de este inmenso país. En verdad es práctica de toda 
religión la reproducción de copias de sus textos sagrados y de sus oraciones.

La navegación marina tuvo también en un invento chino, la brújula, importante 
condicionante para su desarrollo. Dos tipos de sustancias: la resina fósil 
conocida como ámbar y la magnetita demostraron que las fuerzas de acción a 
distancia no sólo se observaba en la naturaleza en la caída de los objetos hacia 
la tierra.

A China debe el mundo en materia de medicina tradicional el desarrollo como 
terapia alternativa, mucho antes de la fabricación de agujas imantadas, de la 

30
técnica conocida como acupuntura, consistente en la penetración de agujas en 
determinados puntos del cuerpo humano, para el tratamiento de enfermedades 
reumáticas y otras dolencias; del masaje para la armonía del cuerpo.

Más   de   1500   años   antes   de   que   Europa   conociera   de   los 


trabajos   en   terracota   de   la   Florencia   de   los   Médicis,   la 
cultura   del   entonces   naciente   imperio   feudal   chino   de   la 
dinastía C'hin legaría a la humanidad lo que hoy comienza a  
considerarse por algunos como la octava maravilla del mundo 
antiguo.   Más   de   seis   mil   figuras   de   guerreros   de   rostros 
irrepetibles,  carruajes  y  caballos  de  tamaño  natural   fueron 
construidas por artesanos en el complejo funerario erigido al 
emperador   que   unificara   los   feudos   chinos   e   iniciara   la  
construcción de esa otra maravilla que es la Muralla.

Imagen: www.gardensafari.net/hania/china/route3/i011229.htm

El   trabajo   con   altas   temperaturas   de   fraguado,   con   pigmentos   naturales   que  


recubren   las   figuras,   y   con   extrañas   aleaciones   que   aún   hoy   conservan  
increíblemente su filo, es muestra del magnífico matrimonio de arte, técnica  
y conocimiento de las propiedades de las sustancias...

Fueron   los   chinos,   los   primeros   que,   con   mayor   sentido  


práctico que los griegos, intentaron describir, explicar 
y aplicar la acción del imán. En el diccionario “Sho –
veñ” elaborado cerca del año 120 por el sabio Jiu Chin,  
se   define   la   palabra   tseu   (imán)   como   nombre   “de   una  
piedra   por   medio   de   la   cual   se   da   orientación   a   una  
aguja”.   Otras   denominaciones   chinas   llaman   al   imán  
“piedra   que 
orienta”. Imagen: sln.fi.edu/tfi/info/current/china.html

Por lo visto, los chinos empezaron a usar la brújula desde  tiempos remotos,  
primero para orientarse en las expediciones  por tierra y para  el  trazado de  
planos en los terrenos de construcción, sólo después en la navegación marina.

31
Ts'ai   Lun   es   el   personaje   chino   al   que   se   atribuye   la  
fabricación masiva del papel. En el 105 a. C. Lun  estaba 
al frente de los suministros de la Casa Real. Desde este  
puesto se dio a la tarea de organizar la producción del  
papel   a   gran   escala.    China   en   ese   tiempo   era   ya   una  
sociedad   burocrática   que   requería   documentos   en 
abundancia   para   llevar   sus   registros   por   escrito.   Se 
iniciaban las bases para el desarrollo de un material más  
ligero,   fácil   de   almacenar   y   transportar   que   las  
tablillas   de   madera,   los   papiros,   los   pergaminos   o   las  
telas de seda.

Imagen: Collage 
papel/chinoart20xx.com/art/rauschenberg/rauschenberg_g.jp
g

Las culturas precolombinas se desarrollaron según tres períodos históricos: el 
período formativo o preclásico que presenta sus contornos difusos desde el 1 500 
a.C. hasta el 250 d.C., el período clásico entre el 250 – 900 de la era 
cristiana, y el postclásico desde el 900 – 1500, cuando se produce el 
encontronazo cultural que significó la conquista europea.

Dos áreas geográficas representaron las civilizaciones de mayor desarrollo: 
Mesoamérica y el área andina. En las páginas que siguen apenas rozaremos los 
logros más significativos de dos culturas del período formativo: la cultura 
olmeca y maya en Mesoamérica, y la cultura paracas del área andina. Más 
adelante, cuando abordemos el medioevo y renacimiento, nos detendremos en los 
avances de las culturas mayas, aztecas y andinas en los períodos clásico y 
postclásico.

La cultura más antigua de la Mesoamérica precolombina fue la omelca cuyo período 
de mayor florecimiento se desarrolla entre el 1200 – 900 a.C.  Llama la atención 
que el propio término olmeca signifique “la gente del país del hule o del 
caucho”, lo que supone que estos dominaran la técnica de recolección del látex 
de las plantaciones y su posterior aplicación en diversos fines. Esto ocurría 
 siglos antes de que llegara a la Francia del siglo XVIII, desde las selvas 
Amazónicas, los rollos del caucho que casi un siglo después  el inventor y 
químico escocés Charles Macintosh (1766­1843),  lograra emplearlo en la 
manufactura de tejidos impermeables.

32
La civilización maya, uno de los imperios más poderosos de Mesoamérica, llegó a 
ocupar un territorio equivalente a tres veces la superficie del archipiélago 
cubano, extendiéndose desde la península de Yucatán por las tierras bajas de 
México, Belice y Guatemala hasta Honduras. El período formativo o preclásico de 
esta cultura se fija entre 2000 a.C. hasta 250 d.C.

La dimensión cultural alcanzada por la civilización maya se evidencia en su 
elaborado sistema de escritura jeroglífica, su impresionante capacidad 
arquitectónica y el notable desarrollo científico y artístico que alcanzaron. 
Los conocimientos mayas en el campo de las matemáticas y la astronomía 
constituyen ejemplos elocuentes del talento creativo de este pueblo.

El logro más importante del sistema de numeración maya es la utilización del 
cero matemático. A diferencia del sistema que Occidente adoptó basado en  las 
diez  cifras  que nosotros usamos, los números  mayas  eran  sólo tres,  el 
punto con el valor de una unidad, la  barra  horizontal para  representar  el 
cinco y el cero que se representa  con  una concha o caracol o una flor 
calendárica, símbolo del calendario sagrado, emblema  de  la eternidad, del 
tiempo y de la regularidad cósmica.

Según  los  estudios  realizados en las  escrituras  de  los monumentos y 
estelas que han quedado de la devastación  realizada a partir del siglo XVI por 
la conquista europea, la antigüedad de este  sistema  se remonta al año 35 a.C., 
es decir, 911  años  más antigua que la más antigua inscripción encontrada en la 
India que contenga el cero matemático, que corresponde al año 876 d.C.; en 639 
años antecede a la más antigua de las encontradas en Cambodia con esa misma 
característica.

Recientes investigaciones arqueológicas fechan entre el 
1400 y el 1250 a.C. la construcción de escenarios para  
la   práctica   del   tlachtli,   la   pelota   de   los   pueblos  
mesoamericanos   precolombinos.   El   terreno   de   juego  
consistía   en   una   superficie   en   forma   de   I   mayúscula,  
limitada   por   muros   verticales   y   en   cuyo   centro   se 
situaba   un   anillo   de   piedra.   La   pelota,   una   bola 
maciza de   caucho,   se   fabricaba a     partir     del    
látex     de   diferentes   especies   vegetales,   tenía   un 
diámetro de unos 12 cm y se producía de forma masiva.

 Las reglamentaciones establecían el golpe de la bola no con bate sino con el 
área del cuerpo por encima de la rodilla hasta las caderas. Los jugadores 
usaban protectores para los genitales, y las zonas de contacto con la pelota.  
Una analogía con el jonrón acaso se presentaba con el punteo obtenido cuando se 

33
lograba rebotar la pelota por encima de los muros laterales, aunque el máximo 
gol se alcanzaba cuando se lograba introducir la pelota por el anillo central 
del terreno que representaba la victoria y el fin del juego. El contenido 
religioso del espectáculo deportivo fue apreciado por la Inquisición como un 
paganismo incompatible con la evangelización cristiana y en consecuencia le fue 
aplicado el bando de la prohibición. En enero de 2006 arqueólogos mexicanos 
anunciaron el hallazgo de un campo para disputar el juego de pelota de 25 
siglos de antigüedad, en una zona cercana a Mérida, capital del estado de 
Yucatán.

Imagen: http://www.mayadiscovery.com/es/arqueologia/copan.htm 

Tanto  en  el sistema  decimal como en el vigesimal el cero es  necesario  para 
que funcione la estructura posicional. Sólo  que la representación del cero 
matemático tal  y  como aparece  en  la escritura asiática (representada  con  
un  punto) asombra  por  su simplicidad, y la del sistema  mesoamericano  en 
forma de concha o de flor, expresa una madurez y una  implicación cosmológica y 
filosófica que asombra por la  belleza  de  su  diseño.

El uso del cero en estas culturas, es sin  dudas un prodigioso logro en el 
pensamiento, pues muchas culturas de la antigüedad no lo conocieron y la misma 
Europa  lo conoció  a  través de los árabes, de modo que la numeración 
posicional y el uso del cero que ella conlleva, sólo fue conocida por el  mundo 
occidental  a partir del siglo X, y su propagación fue muy  lenta debido al uso 
del sistema de numeración romana, llegando a generalizarse solo a partir del 
siglo XVI.

Además de la notación de barras y puntos, los números  tienen una expresión 
jeroglífica en forma de caras.  En el caso del cero la cara que se usa para 
expresarla con frecuencia lleva una  mano cruzada bajo la mandíbula, a la que se 
atribuye un significado de  muerte o término,  por eso  se  ha insistido por 
algunos autores en  el  significado  de fin  de una cuenta que el cero  tiene  
en  las inscripciones calendáricas.

El calendario solar maya o haab (de 365 días), una de las conquistas más 
brillantes de esta cultura se remonta probablemente al siglo I a.C. Asentado 
sobre un sistema vigesimal constaba  normalmente de  cinco  períodos, que se 
correspondían con las  divisiones  de tiempo relativas a día, mes, año y ciclos 
superiores de veinte  y cuatrocientos  años civiles que se elevaban  a períodos 
progresivos de veinte en veinte, de la siguiente forma: el Kin, representaba el 
día; el Uinal comprendía 20 kines; el Tun incluía 18 Uinales, es decir 360 días; 
el Katun abarcaba 20 Tunes, 7200 días; y el Baktun a su vez 20 Katunes, 144 000 
días.

34
La  progresión perfecta se veía interrumpida por la  segunda potencia  del  
veinte, ya que el año no consta de 400  días,  por ello,  se vieron obligados a 
introducir el número 360 como  valor del  año vigesimal. Los  dieciocho meses de 
veinte días dan el año vigesimal  (tun) de 360  días.  Los cinco días que 
completan la duración  del año solar para dar los 365, eran considerados días 
aciagos,  días sin nombre, se denominaban Uayeb, fin o muerte del año.

 El sitio arqueológico de la Venta (1100 – 900 a.C.), uno de  
los   más   antiguos   de   México,   muestra   la   habilidad   alcanzada 
por los artistas olmecos   en el labrado de la roca volcánica 
basáltica   para   esculpir   las   enormes   obras   líticas   conocidas  
como las cabezas olmecas, que llegan a alcanzar los 3 metros  
de altura por tres de diámetro y hasta 65 toneladas de peso.  
El traslado de estas rocas desde canteras distantes supone el 
dominio   de   mecanismos   de   tracción,   cuerdas   firmes,   rodillos  
de madera y palancas, sin haber  aprendido a  fabricar  útiles  
de hierro. 

Imagen: Cabeza no. 8 Museo de Jalapa www.liceus.com/cgi­
bin/gui/03/1262.asp

El mes de 20 días es una invención vigesimal de gran originalidad y, cada uno de 
ellos, así como cada uno de los días del mes recibe un nombre de acuerdo a su 
dios patrono o idea que se relaciona con ellos. Lo mismo sucede con cada uno de 
los 18 meses del año. En la tabla de abajo se relacionan los nombres de los días 
(fila superior) y de los meses mayas.

Imi Akba Chich Cim Mani Lama Mulu Chue Ci Caba Ezna Caua
Ik Kan Oc Eb Ben Ix Men Ahau
x l án i k t e n b n b c

Zot Yaxk Ya Ce Kank Mua Pa Kaya Cumh


Pop Uo Zip Zec Xul Mol Chen Zac Mac    
z in x h in n x b u

El sistema vigesimal maya queda perfectamente representado por la cuenta larga o 
serie inicial, método para fijar fechas a lo largo de la corriente del tiempo, a 
partir de un día base con el que se inicia la era, a esta podríamos llamarla 
fecha cero.

El problema de correlacionar las fechas del Calendario maya con el nuestro, que 
surgió tan pronto se comenzó a descifrar la cuenta larga, es un problema 

35
complejo en el que entran  a  jugar factores tanto de computación calendárica 
como astronómica. Los investigadores para descifrar la correspondencia entre las 
fechas mayas y las del calendario gregoriano contaron con el registro en el 
calendario maya de acontecimientos  históricos ocurridos en Yucatán durante  el 
período de la conquista.

Así pudieron determinar que la fecha inicial del calendario maya fue fijada como 
el 7 de septiembre de 3113 a.C. Todos los cálculos y dataciones inscriptas en 
estelas, altares, tablero y códices mayas parten de esta fecha cero.

A diferencia del sistema que Occidente adoptó basado en  las diez  cifras  
que nosotros usamos, los números  mayas  eran  sólo tres,  el punto con el  
valor de una unidad, la   barra   horizontal para   representar   el cinco y  
el   cero   que   se   representa   con   una   concha   o   caracol   o   una   flor  
calendárica,   símbolo   del   calendario   sagrado,   emblema   de   la   eternidad, 
del   tiempo   y   de   la   regularidad   cósmica.   La   representación   del   cero  
matemático tal  y  como aparece  en  la escritura asiática (representada  
con   un   punto) asombra   por   su simplicidad, mientras que el cero maya  
sorprende   por   la   belleza   de   su   diseño   al   tiempo   que   conmueve   por   la 
implicación cosmológica y filosófica que le es dada.  

Desde épocas tan tempranas como el 600 a.C comenzó  
a   erigirse   la   ciudad   maya   de   Tikal,   que   con   el 
paso   del   tiempo   llegaría   a   convertirse   en   la 
ciudad   dominante   del   período   clásico   (300   –   900  
a.C.).   Centro   ceremonial,   religioso,   político   y  
comercial   tiene inscrita en su estela 29 una de  
las primeras  dataciones  conservadas,  8.12.14.8.15  
13 Men  3 Zec,  que  se lee  como   18 Baktunes,   12 
Katunes,  14 tunes, 8 Uinales, 15 Kines,

es  decir  1 243 615 días   o   3 405,289 años,   
lo que   significa

 ­3   113   (fecha   0   =   3113   a.C.)   +   3   405,289   =   292,289   d.C.   Es   decir   la  


inscripción se produce en el 292 d.C., y de acuerdo con la fracción, un 14  
de marzo.

36
A miles de kilómetros de Mesoamérica, contemporánea con la cultura olmeca, se 
desarrolla entre 1200 a.C. y el 200 a.C., en una extensa zona de la costa y la 
Sierra peruana la cultura matriz de la civilización andina: el movimiento 
unificador Chavín. Es curioso advertir que en la iconografía religiosa de ambas 
culturas aparece ocupando una posición especial la figura felina.

El nombre que recibe esta cultura se debe a que uno de sus grandes centros 
ceremoniales, cuyas ruinas constituyen los monumentos arqueológicos más 
importantes del Perú, fue levantado en el territorio que hoy ocupa la población 
 Chavín de Huantar,  situada a 3117 m. sobre el nivel del mar, a 300 km al norte 
de Lima.  El centro ceremonial en “U” de Chavín de Huantar es un conjunto de 
edificios piramidales con galerías en su interior; plazas hundidas flanqueadas 
por estructuras menores que se proyectan de las construcciones nucleares o 
templos; terrazas de distintos niveles que van unidas por monumentales graderías 
líticas; portadas y escalinatas que fueron hechos como parte de dos grandes 
proyectos, cada uno con sus modificaciones y ampliaciones respectivas, que se 
habrían ejecutado entre el 1.200 a.C. y 200 a 300 a.C

La cultura Chavín trabajó el oro, la plata, el cobre y posiblemente algunas 
aleaciones. Para fundir los metales debieron emplear hornos de arcilla y carbón 
vegetal; las técnicas empleadas fueron: la cera perdida, el labrado, el repujado 
y la incisión. Los objetos metálicos hallados actualmente son herramientas, 
adornos corporales, objetos rituales y armas.

Las   vasijas   de   la   cerámica   paracas   caverna   presentan  


forma globular, con doble pico y asa puente. A veces,  
como en la imagen, uno de los picos aparece sustituido 
por una cabeza zoomorfa o antropomorfa.   Esta cerámica 
inicia   la   tradición   de   policromía   exhibida   por   la 
cerámica del Perú precolombino. A pesar del dominio de  
la   pintura   policroma (rojo   profundo,   amarillo   oscuro 
predominante   y   verde   oliváceo   o   azulado)   los   colores  
son   poco   brillantes   porque   se   trata   de   una   pintura   a 
base de pigmentos mezclados con resina vegetal que se  
aplicaba tras la cocción. Con el tiempo los colores se 
perdían   porque   no   estaban   fijados   por   el   calor   del  
horno.

37
El   arte   de   la   momificación   es   uno   de   los   aspectos  
culturales   paraquenses,   que   se   desarrolla 
especialmente   durante   la   faseParacas   Necrópolis.   El 
fardo funerario es el paquete, de forma cónica, en el 
que   se   halla   envuelto   el   cadáver   con   objeto   de   su  
inhumación.   Los   cadáveres   antes   de   ser   enfardelados  
pasaban   por   un   proceso   de   momificación   que   recuerda 
al   egipcio.   Luego   del   vaciamiento   de   órganos   y  
vísceras,  el  cuerpo  era  rociado  con

distintas   sustancias   químicas   y   expuesto   al   fuego   o   los   rayos   de   sol.   A 


continuación   la   momia   era   entonces depositada   desnuda   en   una   canasta,  
envuelta  primeramente con telas rústicas de algodón y después con una serie  
de   mantos   bordados. Finalmente   todo   el   conjunto   era   protegido   por   una   capa  
larga de hasta 20 m. de largo…

Imágenes: 
http://www.gabrielbernat.es/peru/preinca/cultpreincaicas/formativo/PARACAS/par
acas.html

La   “Ciudad   de   los   Dioses”,   Tiahuanaco,   representa   la 


ciudad   levantada   a   mayor   altura,   a   unos   3,8   km   del 
nivel del mar, de todo el mundo antiguo. Localizada en  
los Andes, a orillas del lago Titicaca en territorio  
de   la   actual   Bolivia,   la   antigua   ciudad   preincaica,  
representó un populoso centro urbano sustentado por un  
sofisticado   sistema   de   agricultura   en   terrazas,   bien  
adaptado para producir grano a gran altitud.

En la imagen, la Puerta del Sol, monolito de tres metros de altura por cuatro 
de   ancho   decorado   con   relieves   de   espléndida   ejecución.   La   más   grande  
construcción   de   la   ciudad   es   el   Acapana,   vestigio   de   una   pirámide   con  
terrazas   de   15   metros   de   altura   y   152   metros   por   cada   lado.   Las   pirámides 
precolombinas a diferencia de las egipcias no tuvieron fines funerarios sino  
que se dedicaban a las divinidades de sus religiones politeístas.

Imagen: 
http://www.gabrielbernat.es/peru/preinca/cultpreincaicas/dregionales/TIAHUANAC
O/tiahuanaco.html

38
A unos 45 km de la actual ciudad de México se levantó  
entre los siglos II y I a.C. la ciudad más antigua de  
América,   la   ciudad   estado   de   Teotihuacan.   Luego   de  
cuatro   siglos   se   había   convertido   en   una   imponente  
ciudad que llegaría a ser el principal núcleo de poder  
centralizado   en   el   interior   del   valle   de   México.   Se  

extendía sobre una superficie de más de 20 km2 y llegó 
a   contar   con   una   población   de   más   de   125   mil  
habitantes.

Las   técnicas   constructivas   aplicadas   en 


sus edificaciones   se   difundieron   por   el   área   de 
Centroamérica. 

Los   propios   yacimientos   de   rocas   volcánicas   del   valle   ofrecían   la   materia  


prima esencial que triturada y mezclada con tierra y cal producían una especie  
de hormigón utilizada en las cimentaciones. 

Conviene recordar que el Madrid del siglo XVII, casi mil años después, apenas  
superaba los ochenta mil habitantes.

Los conocimientos del Mundo Antiguo por lo visto eran recibidos y transmitidos 
por artesanos y técnicos mediante la tradición, pero ignoramos las reflexiones 
que acompañaban a sus prácticas de instrucción. Esto significa que si entendemos 
la ciencia no sólo como el saber hacer (arte y técnica), sino además como el 
conocer y poder explicar las razones por las cuales se hace así y no de otra 
manera, debemos admitir que ella comienza cuando ya la técnica en la cual se 
apoya y a la cual soporta, hace mucho tiempo ha sido establecida.

El momento en que puede considerarse se inicia la evolución de un pensamiento 
teórico precientifíco data del siglo VI a.C. y tiene como escenario “clásico”, 
en la Historia de la cultura occidental, la sociedad esclavista de la Grecia 
Antigua. La definición de este momento se avala por ser entonces cuando se 
inicia una reflexión teórica, metódica y productiva sobre la naturaleza. Es 
significativo que en la base de los sistemas filosóficos aparecidos por entonces 
en muy distantes escenarios culturales, con Confucio y Lao Tse en China; Buda, 
en la India; y Zoroastro en Persia; se aprecian ideas generales que evidencian 
una cierta unidad en la concepción del mundo de los pueblos de aquella época. De 
cualquier modo, se hace obligado la referencia específica al mundo greco­ romano 
en el cual se alcanza la expresión más completa de la doctrina acerca de la 
sustancia y sus componentes. De esto trataremos en la sección que sigue...

39
Bibliografía:

Abascal, Juan Manuel; Almagro­Gorbea, Marín (2004): América Precolombina. 
Antigua. Historia y Arqueología de las Civilizaciones. Biblioteca Virtual Miguel 
D Cervantes.

http://www.cervantesvirtual.com/portal/antigua/aprecolombina.shtml

http://www.cervantesvirtual.com/historia/TH/cosmogonia_maya.shtml

All empires.com (2004): The Hittite Empire. An Online History Community.

http://www.allempires.com/empires/hittites/hittites1.htm

Arab Sameh M (2000):  Medicine in Ancient Egypt.  Part 1, 2 and 3. Sameh M. 
Arab, Associate Professor of Cardiology. Alexandria University. Arab World 
Books. 

http://www.arabworldbooks.com/articles8.htm

http://www.arabworldbooks.com/articles8b.htm

http://www.arabworldbooks.com/articles8c.htm

Bernat Gabriel (2004): Culturas preincaicas de los Andes Centrales.

http://www.gabrielbernat.es/peru/preinca/

Cultura Paracas.

http://www.gabrielbernat.es/peru/preinca/cultpreincaicas/formativo/PARACAS/parac
as.html

Cultura Chavin.

http://www.gabrielbernat.es/peru/preinca/cultpreincaicas/formativo/CHAVIN/chavin
.html

Boyce Alex (2003): Timeline of Chinese Dynasties.

History Section. MSU EMuseum. Minnesota State University, Mankato.

http://www.mnsu.edu/emuseum/history/

http://www.mnsu.edu/emuseum/prehistory/china/timeline.html#ancient

Briceño Monico (1999): Culturas precolombinas. Universidad de Guadalajara.

http://mexico.udg.mx/historia/precolombinas/olmecas/index.html

Del Rio,  Fernando;  León Máximo (1998): Capítulo VIII. La Edad del Hierro. 
Cosas de las Ciencias.  Fondo de Cultura Económica. México.

40
http://www.jcce.org.cu/libros/Libros_1/ciencia2/21/htm/SEC_10.HTM

Demand Nancy (2000): Medicine in Ancient Egypt. The Trustees of Indiana 
University. http://viator.ucs.indiana.edu/~ancmed/egypt.HTM

Ead Hamed A. (1998): Medicine in Old Egypt. Hamed A. Ead. Professor of Chemistry 
at the Faculty of Science ­University of Cairo, Giza, Egypt and director of the 
Science Heritage Center. Alchemy Web Site. 
http://www.levity.com/alchemy/islam22.html

Ead Hamed A. (1996): Earliest Egyptian Chemical Manuscripts. Ministry of 
Tourism. Egypt. http://www.touregypt.net/chemicals.htm

EFE (2006): Hallan un campo para disputar el juego de pelota maya con 25 siglos 
de antigüedad en Yucatán. Mérida,  elmundo.es., 03/01/2006.

http://www.elmundo.es/elmundo/2006/01/03/ciencia/1136257395.html

Evans J. C. (1995): Chapter 3. Mesopotamian and Egyptian Cosmology. Physics & 
Astronomy Department, George Mason University. 
http://www.physics.gmu.edu/classinfo/astr228/CourseNotes/ln_ch03.htm

Figurovski N.A. (1979): Los conocimientos químicos en la Antigüedad. Historia 
de la Química. P 5­9.Editorial Pueblo y Educación. La Habana.

García Cebrían, María J. (1998): Los papiros matemáticos. El Antiguo Egipto. 
http://www.jimena.com/egipto/apartados/papiros.htm

Gombáu García C. (2002): Aportes científicos y culturales de China. Historia. 
El Paraíso de las Matemáticas. http://www.matematicas.net/php/historia.php?
id=historia/ch_cientif.php

Hach Robert A. (1999):  History of Science. Department of History. University of 
Florida.

http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­Rev/SCI­REV­Teaching/HIS­SCI­
STUDY­GUIDE/index.htm

Egyptian Contributions to Astronomy.

http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­Rev/SCI­REV­Teaching/HIS­SCI­
STUDY­GUIDE/0011_egyptianContrib2Astron.html

Babylonian Astronomy.   

http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­Rev/SCI­REV­Teaching/HIS­SCI­
STUDY­GUIDE/0014_babylonianAstron.html

41
O'Connor J. J.,  Robertson E.F. (2000): History Topics. School of Mathematics 
and Statistics; University of San Andrews.

Mathematics in Egyptian Papyri.

http://www­groups.dcs.st­and.ac.uk/~history/HistTopics/Egyptian_papyri.html#s3

Babylonian Numerals.

http://www­history.mcs.st­andrews.ac.uk/HistTopics/Babylonian_numerals.html

Olle Jaime (2001): La Edad del Bronce. http://www.navarrerias.com/historia/nav3­
1.htm

Palacio S.D. (2002): Grecia clásica 2ª parte ­ La edad de 
hierro. http://www.kelpienet.net/rea/grecla2.htm

Paul Christina (2000): Herbal Remedies used by the Ancient Egyptians.

Ancient Egyptian Medicine. Ancient Egyptian Virtual temple.

http://showcase.netins.net/web/ankh/sekhmetnew.html

Ribnikov   K. (1987):   2.   Proceso   de   formación   de   las   representaciones  


matemáticas. Desde   Egipto   hasta   la   India   antigua.   Historia   de   las 
Matemáticas. Editorial MIR. Moscú.

Rodríguez Domínguez F. (1998): Flora y Fauna en el Antiguo Egipto. El Antiguo 
Egipto.http://www.jimena.com/egipto/apartados/naturaleza.htm#papiro

Sanguino Arias, Luis (2006): Edad de Bronce. Protagonistas de la Historia. 
Contextos. Luis Sanguino, Director Arte Historia.com. 

http://www.artehistoria.com/frames.htm?
http://www.artehistoria.com/historia/contextos/259.htm

Seawright  Caroline (2001): Ancient Egyptian Alcohol. Egiptology. March 12, 2001

www.thekeep.org/ kunoichi/themestream/egipto_column. html

Smith W, Henry (1904): History of Science. Project Gutenberg File Converted into 
HTML pages by Nalanda Digital Library under Etext Conversion Project (ECP).

Chapter II Egyptian Science. Book 1.

http://www.nalanda.nitc.ac.in/resources/english/etext­
project/history/science/book1.section3.html

Chapter III Science of Babylonia and Assyria. Book 1.  

42
http://www.nalanda.nitc.ac.in/resources/english/etext­
project/history/science/book1.section4.html

Zubov V. P. (1962): Las ideas físicas en la antigüedad. Las ideas físicas: 
ensayos sobre su desarrollo. Ediciones Pueblos Unidos. Montevideo.

43
De Aristóteles a Ptolomeo: un milenio de cultura greco­latina.

Rolando Delgado Castillo y Francisco Arturo Ruiz.

Universidad de Cienfuegos

La escuela jónica y los pitagóricos

La filosofía ateniense

Progresos durante el florecimiento de Alejandría

Capacidad creativa en las construcciones romanas

Bibliografía

En el seno de la sociedad esclavista griega se desarrollaron los dos grandes 
sistemas filosóficos que en su contrapunteo histórico nutrieron las bases de la 
cultura occidental. La visión materialista del mundo y el método dialéctico de 
interpretar los fenómenos naturales representaron aliados permanentes del 
conocimiento científico. La tradición idealista griega, iniciada por los 
pitagóricos, alentó importantes estudios matemáticos y astronómicos, y luego 
tuvo la más alta expresión en los diálogos platónicos.

Por el sendero de la construcción de la filosofía, los pensadores griegos 
legaron sus hipótesis sobre la naturaleza de las sustancias y los orígenes de 
sus propiedades más sobresalientes, y desarrollaron las teorías atomísticas que 
retoñaran siempre al lado del pensamiento científico a lo largo de los siglos 
hasta cristalizar en la primera teoría atómica de Dalton ya en el XIX.  Pero el 
fecundo laboratorio de los griegos estuvo en la mente humana. Factores 
históricos adversos imposibilitaron la productiva fusión que hubiera podido 
darse en la Alejandría entre cultura greco­latina y conocimientos empíricos 
egipcios. Sobre este derrotero histórico en sus hitos principales y sus más 
destacados protagonistas trataremos en las páginas siguientes.

Fueron los sabios de la región del Asia Menor conocida como Jonia, los primeros 
filósofos   que   intentaron,   abandonando   el   mito   y   la   leyenda,   explicarse   la 

44
diversidad del mundo material y su unidad a partir del reconocimiento de una o 
varias sustancias fundamentales y sus transformaciones. La confederación jónica 
configurada por  las ciudades griegas fundadas en la costa oeste del Asia Menor, 
representó   un   próspero   vínculo   comercial   donde   floreció   la   producción 
artesanal y cultural que trascendió su época. Sus poderosos vecinos a lo largo 
de siglos desearon su dominio y por consiguiente fue escenario de guerras que 
modificaron una y  otra vez el mapa político de la región.

En   la   ciudad   de   Mileto,   Tales   (625   –   546   a.C.)   elabora   la   tesis   de   que   la 
diversidad   de   las   cosas   encuentran   la   unidad   en   un   elemento   primario.   En 
términos de interrogante su indagación puede resumirse de la siguiente forma: 
¿Puede   cualquier   sustancia   transformarse   en   otra   de   tal   manera   que   todas   las 
sustancias   no   serían   sino   diferentes   aspectos   de   una   materia   básica?   La 
respuesta de Tales a esta cuestión es afirmativa, e implica la introducción de 
un orden en el universo y una simplicidad básica.

Este   florecimiento   del   pensamiento  


teórico   en   el   período   helénico   de 
Grecia   estuvo   impulsado   por 
importantes   factores   económicos 
como   el   crecimiento   demográfico   y 
el   desarrollo   del   comercio   que 
condujeron   a   su   vez   a   la  
colonización   y   expansión   del   mundo 
griego hacia regiones

tan distantes como la costa oriental del Mar Negro, Sicilia y la parte  
meridional de la península itálica (La Magna Grecia). Mucho antes, los  
griegos   habían   ocupado   el   archipiélago   que   se   extiende   por   el   Mar  
Egeo, fundando importantes ciudades a lo largo del litoral occidental  
del Asia Menor. 

Quedaba por decidir cuál era esa materia básica o “elemento”. Tales propuso que 
este elemento primigenio era el agua. El postulado de Tales no parece original 
si recordamos que en la épica de los babilonios y en los salmos hebreos se 
refrenda la idea de que el mar era el principio. Sin embargo, allí donde 
babilónicos y judíos apelan a la intervención de un creador, el filósofo griego 
no reclama la intervención de una entidad sobrenatural. Al formular una 
explicación racional de la multiplicidad de las cosas, sobre la base de la 
unidad material del mundo, Tales abrió una nueva perspectiva que fuera seguida 
por otros filósofos que le sucedieron.

45
Si Tales   creyó   ver   en   el   agua   el   origen   de   todas   las   cosas,   su   amigo   y 
discípulo,   el  matemático  y  astrónomo  Anaximandro  (611  –  547  a.C.)  apela  a  un 
ente   conceptual   de   máxima   generalización,   el   apeirón   para   definir   lo 
indeterminado   o   infinito   que   puede   asumir   la   forma   de   cualquiera   de   los 
elementos vitales para el hombre, sea el fuego, el aire, el agua, la tierra. 
Anaximandro es además considerado fundador del arte­ciencia de trazar mapas, y 
de la cosmología al postular la formación del universo a partir de la separación 
de los contrarios.

Para Anaxímenes (570­ 500 a.C.), considerado el último de los grandes filósofos 
jonios el elemento básico era el aire. Las transformaciones del aire posibilita 
cambios cuantitativos que se traducen en lo cualitativo: si el aire se rarifica 
da lugar al fuego; si por el contrario se condensa, dará lugar progresivamente a 
las nubes, el agua, la tierra y las rocas.

En resumen, la llamada Escuela de Mileto no solo implica el trascendental paso 
de la descripción mitológica a la explicación racional del mundo sino que 
combina una aguda observación de los fenómenos naturales con una rica reflexión 
imaginativa.

Por los tiempos en que se desarrolla la línea filosófica jónica aparece el 
pensamiento especulativo enraizado en la abstracción del conocimiento matemático 
que desdeña el conocimiento dado por los sentidos y absolutiza la actividad 
racional como única fuente legítima del conocimiento. Divorciado de la búsqueda 
de los principios de sus maestros jónicos, Pitágoras (582 – 500 a.C) de Samos 
(isla situada al sureste del Egeo frente a las costas del Asia Menor) funda una 
escuela hacia el polo occidental del mundo griego,  en la colonia de Crotona al 
sur de la península itálica, que realiza valiosas contribuciones al desarrollo 
de la Geometría y la Astronomía, al tiempo que propone una imagen del universo 
presidida por concepciones matemáticas ofreciendo una visión mística del ser.

Éfeso, famosa ciudad del Asia Menor donde se erige el Templo  
de Diana una de las siete maravillas del Mundo Antiguo, fue  
cuna   de   Heráclito   (540   –   475   a.C.).   Este   filósofo,   en   la  
línea   del   pensamiento   jónico,   es   célebre   por   considerar el 
fuego   como   principio   material,   concebir   el   mundo   en 
permanente   transformación,   y   proponer   que   la   mayoría   de 
los objetos se producen por la unión de principios opuestos.  
La dialéctica ocupa el centro de su obra, la estabilidad de  
las   cosas   es temporal   y   refleja   la   armonía   de   los 
contrarios,   el   cambio   eterno   viene   dado   por   la   ruptura   de  
esta armonía. En la metáfora del fuego se advierte la genial  

46
anticipación   al   mundo   de   la   energía,   como   expresión   del  
movimiento, forma universal de existencia de la

Según el juicio de Aristóteles, los pitagóricos se dedicaron a las Matemáticas, 
fueron los primeros que hicieron progresar este estudio y, habiéndose formado en 
él, pensaron que sus principios eran los de todas las cosas.

De cualquier modo en el marco de la tradición pitagórica se destacan diferentes 
trabajos   sobre   Geometría   y   Astronomía.   Hacia   el   año   450 a.C.,   los   griegos 
comenzaron un fructífero estudio de los movimientos planetarios.  

Filolao (siglo V a.C.), discípulo de Pitágoras, creía que la Tierra, el Sol, la 
Luna y los planetas giraban todos alrededor de un fuego central oculto por una 
‘contratierra’ interpuesta. De acuerdo con su teoría, la revolución de la Tierra 
alrededor del fuego cada 24 horas explicaba los movimientos diarios del Sol y de 
las estrellas. El modelo de Filolao más tarde encontraría contraposición en las 
ideas de Eudoxio de Cnido (¿406 ­ 355 a.C.) quien hacia el 370 a.C, explicaba 
los movimientos observados mediante la hipótesis de que una enorme esfera que 
transportaba las estrellas sobre su superficie interna, girando diariamente, se 
desplazaba   alrededor  de  la  Tierra.   Además,  describía   los  movimientos  solares, 
lunares y planetarios diciendo que dentro de la esfera de estrellas había otras 
muchas esferas transparentes interconectadas que giran de forma diferente. Es la 
teoría   conocida   como   sistema   geocéntrico   que   retomada   siglos   más   tarde   por  
astrónomos de la Escuela de Alejandría permanece inalterada durante más de un 
milenio.

No   lejos   de   Crotona,   en   la   colonia   focense   de   la   Magna   Grecia   llamada   Elea, 


surge  la  escuela   eleática   representada  por  dos   grandes  pensadores:  Parménides 
(515   –   440   a.C.)   y   su   discípulo   Zenón   (485   ­   ?   a.C.).   Aliados   al   ideario 
pitagórico pero con rasgos propios los preceptos de estos filósofos encuentran 
en la argumentación lógica de contenido matemático las ideas que absolutizan la 
razón como fuente del conocimiento verdadero y desacreditan los sentidos como 
vía engañosa para lograr el conocimiento de la naturaleza, en particular para 
adquirir la falsa creencia en la realidad del cambio.   Las paradojas de Zenón 
constituyen   los   primeros   peldaños   en   la   construcción   de   la   lógica,   como   una 
ciencia.  Zenón es reconocido no sólo por sus paradojas, sino por establecer los 
debates   filosóficos   que   favorecen   la   discusión   razonada.   Por   todo   ello, 
Aristóteles le consideró el creador del razonamiento dialéctico.

47
Pitágoras fue el primero que aglutinó en torno a sí un 
círculo   cerrado   de   discípulos   que   participaban   de   su  
vida   y   su   doctrina.   Como   dice   Aristóteles   los  
pitagóricos se dedicaron a las Matemáticas, fueron los 
primeros   que   hicieron   progresar   este   estudio   y,  
habiéndose   formado   en   él,   pensaron   que   sus   principios 
eran los de todas las cosas.

De entonces parte el debate acerca del método conducente  
al conocimiento verdadero. Mientras la ciencia jónica se  
asentaba en la observación de la naturaleza (y la  razón 
que la explica), los

pitagóricos desdeñan el papel de los sentidos en el conocimiento y declaran  
el imperio de la razón.

En el siglo del apogeo ateniense, la región de la Magna Grecia conoce de nuevas 
figuras cuyas ideas amplían el repertorio conceptual filosófico. Así, en el 
importante enclave cultural y comercial griego levantado al sur de la isla de 
Sicilia, llamado Agrigento, Empédocles (490­430 a.C.), discípulo de Pitágoras y 
Parménides, se alinea hacia la visión jónica, retomándola, a un nuevo nivel, al 
rechazar la idea de buscar un único principio de todo lo existente, y proponer 
que en varios se resume de forma más completa la multiplicidad de las cosas.  De 
acuerdo con este planteamiento integra como principios universales el agua de 
Tales, el fuego de Heráclito, el aire de Anaxímenes, y a ellos suma la tierra. A 
la materialidad de estos principios le incorpora la cualidad de los contrarios 
expresada en términos de “amor” para indicar la afinidad, y “odio” para señalar 
la repulsión. A Empédocles se le atribuye también una visión evolucionista de 
los animales y las personas que según considera provienen de formas precedentes.

Conviene destacar que el florecimiento del emporio cultural jónico se debate 
desde mediados del siglo VI a.C. entre la anexión al vecino reinado de Lidia en 
el 560 a.C. y la conquista feroz en el 546 a.C. por parte del imperio persa. 
Conoce en el 500 a.C. la  sublevación, apoyada por Atenas,  la derrota y el 
saqueo orquestado por los persas que más tarde desencadena en el 493 a.C. las 
guerras médicas cuyos últimos capítulos en el 479 a.C. da la victoria a las 
armas atenienses, y crea la dependencia de las ciudades jónicas ahora a la gran 
triunfadora. Ha comenzado la hegemonía de Atenas.

Anaxágoras (500­428), representa al filósofo de origen jonio, asentado en Atenas 
en el esplendor asociado al gobierno de Pericles (c.495­429 a.C.). Maestro del 
célebre estadista y mecenas griego, Anaxágoras introduce la noción del átomo, 

48
como partícula infinitamente pequeña de la cual se componen todas las 
sustancias, y concibe la materia primaria sometida a un enorme caos de tales 
partículas a la cual le fuera impuesto el orden por una inteligencia eterna (el 
nous). Sus nociones sobre la naturaleza física del sol y la luna,  levantaron 
las protestas de los oponentes de Pericles, quienes exigían la aplicación de la 
ley que condenaba a aquellos que no practicaran la religión y enseñaran teorías 
extrañas sobre los astros sagrados. Finalmente Anaxágoras tuvo que salir de 
Atenas y marchar a una colonia de Mileto en donde reside y funda una escuela 
hasta su muerte.

La filosofía de Demócrito contiene una formulación primitiva 
del   principio   de   conservación   de   la   energía.   En   su   teoría  
los   átomos   son   eternos   y   lo   es   también   su   movimiento.   La  
explicación   del   origen   del   universo   se   asocia   precisamente  
con el movimiento caótico de los átomos que en sus continuas  
colisiones forman cuerpos y mundos mayores. No hay lugar en  
esta teoría para la intervención divina. La ciencia tendría  
una permanente alianza con la teoría atómica de la materia,  
faltaban 20 siglos para la aparición de la visión atomística  
del siglo XVII.

La hipótesis sobre la naturaleza atómica de la sustancia, y la noción que de 
ella se deriva acerca de su composición como mezclas de diferentes átomos que se 
diferencian entre sí por sus tamaños y formas, resulta una integración en la 
polémica entre la razón y los sentidos que se desarrolla en la ciudad de Abdera 
a orillas del mar Egeo, enclavada en la región de Tracia, en el siglo V a.C. 
Leucipo (? ­ 370) y su discípulo Demócrito (460 – 370 a.C.), son los más altos 
representantes de la Escuela Atomística, que precedió en más de 20 siglos a la 
visión atomística del siglo XVII y luego a la teoría atómica de las sustancias 
postulada por el científico británico John Dalton (1766 ­1844).

En una isla del Dodecaneso griego de poco más de 250 km2 y a unos 350 km de la 
Atenas de Pericles, la isla de Cos, se desarrolló la escuela de Medicina que 
introduce una metodología científica en la práctica médica. Hipócrates (c. 460­
c.   377   a.C.)   fue   el   maestro   que   esclareció   además   el   papel   del   médico   en   la 
sociedad. El pensamiento hipocrático contribuyó a separar la superstición de la 
práctica de la medicina y orientarla hacia el estudio de las causales asociadas 
a las condiciones de vida de la población, en particular la calidad de las aguas 
y aires que le rodean. Se han atribuido a Hipócrates   53 libros, que reunidos 
forman lo que se conoce como el Corpus Hippocraticum. Con certeza buena parte de 
la   monumental   obra   asociada   al   padre   de   la   medicina   fue   escrita   por   sus 

49
discípulos. En el "Tratado de los aires, las aguas y los lugares"   y luego en 
"Régimen en enfermedades agudas", adelanta la idea revolucionaria de que en el 
estado de salud y convalecencia del paciente influye la dieta y su estilo de 
vida.   La   medicina   hipocrática   se   difundió   por   todo   el   mundo   griego,   y, 
posteriormente, se funde con la cultura médica del imperio romano. Los tratados 
quirúrgicos de Hipócrates, sobre todo en lo referente a fracturas y luxaciones, 
fueron la técnica más avanzada por más de veinte siglos.

Contemporáneo   con   las   ideas   de   los   atomistas,   surge   en   Atenas   la   escuela 


socrática, cuyo fundador Sócrates (c. 470­c. 399 a.C.), eleva el recurso de la 
discusión razonada propuesto por Zenón, al nivel de método universal (denominado 
mayeútica)   para   alcanzar   la   verdad.   No   sólo   alcanza   celebridad   por   la 
productividad de su método dialéctico en la enseñanza y en la ciencia, sino que 
es considerado uno de los fundadores de una filosofía sobre la moral y el valor 
en la conducta humana. Es también el maestro de Platón (428 – 347 a.C.) y se 
consideran   los   preceptos   socráticos,   junto   al   arsenal   de   ideas   de   los 
pitagóricos   y   eleáticos   los   fundamentos   del   ideario   platónico   sobre   la 
existencia y el conocimiento del hombre.

La creación de una escuela en torno a la cual se agrupara  
una comunidad de "sabios" con sus discípulos para alimentar  
el  debate  y  propiciar  la  transmisión  y  enriquecimiento  de  
los   conocimientos,   nació   en   Atenas   con   instituciones   como  
la Academia. Fundada en el 387 a.C. por Platón (438 – 347  
a.C.),   sobrevive   hasta   la   primera   etapa   del   Medioevo,  
cuando el emperador Justiniano I (482 – 565) ordena en el  
siglo   VI   su   definitivo   cierre   al   considerarla   un 
establecimiento   pagano.   Había   subsistido   durante   nueve 
siglos,   constituyendo   así   el   recinto   universitario   de   más  
larga vida.

Con   Platón   (428   –   347   a.C.)   se   funda   la   Academia   y   la   filosofía   griega   gira 
hacia   la   tradición   pitagórica.   La   primacía   de   las   ideas   sobre   “el   mundo 
exterior”   y   la   imposibilidad   de   alcanzar   un   conocimiento   a   través   de   la 
experiencia   es   una   constante   de   los   diálogos   platónicos.   En   otras   palabras, 
Platón niega el uso de la observación y la experiencia sensible como método de 
investigación   de   la   realidad.   A   través   de   estos   diálogos,   sin   embargo,   la 
cultura occidental recibió un legado inestimable sobre la teoría del arte. Se ha 
especulado   que   la   fundación   de   la   Academia   por   Platón   tiene   como   objetivo 
desplegar una carrera política. Se afirma también que estas ambiciones fueron 

50
frustradas por el profundo efecto que sobre él tuvo la ejecución de Sócrates en 
el 399 a.C.

La rivalidad tradicional entre la liga ateniense y la alianza espartana por el 
dominio de los territorios griegos se convirtió en enfrentamiento directo en el 
431 a.C., y pasó a la historia como la Guerra del Peloponeso. Las operaciones 
bélicas   se   extendieron   hasta   el   404   a.C.   decidiéndose   a   favor   de   las   armas 
espartanas.

Luego de esta guerra, ya en el periodo de la declinación del arte ateniense, la 
colonia   griega   del   Asia   Menor   llamada   Halicarnaso,   capital   de   la   región   de 
Caria,   vio   levantarse   una   de   las   siete   maravillas   del   mundo   antiguo,   el 
Mausoleo. La colosal obra funeraria, dedicada al rey Mausolo (376­ 353 a.C.), 
fue diseñada por el arquitecto Pytheus de Halicarnaso (s IV a.C.) y decorada por 
famosos escultores griegos entre los que se encontraron   Praxiteles (390 ­ 330 
a.C.) y Escopas (c. 420 a.C­350 a.C.). La altura total del Mausoleo fue de 45 
metros, compuesto de una base de 32 metros,  la pirámide de 24 pasos se elevaba 
7 metros y por último en la cima, la estatua de un carruaje de 6 metros. Cada 
lado del Mausoleo fue decorado con frisos de las escenas de las batallas griegas 
con los Titanes, Centauros y Amazonas. Su destrucción probablemente se deba a un 
terremoto ocurrido entre 1000 y 1400.

El mundo griego conoció entonces un período de rebeliones, alianzas y contiendas 
que encuentran su fin en el 371 a.C. con la victoria de Tebas sobre Esparta. 
Entretanto la vecina Macedonia, bajo el reinado de Filipo II, logra la unidad 
política,   crea   un   poderoso   ejército   que   inicia   la   anexión   de   las   ciudades 
griegas y Filipo logra convertirse en el 338 a.C. en el comandante en jefe de 
las fuerzas griegas. Dos años más tarde ante la muerte de Filipo, lo sucede en 
el trono su hijo Alejandro III el Magno (356­323 a.C.), quien en sólo siete años 
cristalizaría el sueño secular griego de derrotar al Imperio Persa, conquistar 
sus vastos territorios, y extender la influencia de la civilización griega.

Aristóteles,   hijo   de   su   tiempo,   nace   en   Macedonia,   se 


traslada a Atenas para estudiar en la Academia, luego de 20  
años   se   desplaza   en   búsqueda   de   una   buena   posición   a   una  
ciudad   del   Asia   Menor,   desde   dónde   se   ve   forzado   a   partir,  
por   la   invasión   persa,   hacia   la   capital   de   su   país   natal.  
Allí es preceptor de quién se convertiría en el fundador del  
imperio greco­macedonio Alejandro Magno (356 – 323 a.C.). Con  
el ascenso de Alejandro al trono, regresa a Atenas, funda el  
Liceo y trece años después, tras la muerte de Alejandro, ante  
el odio que se desencadena en Atenas contra los macedonios,  

51
vuelve   a   emigrar.   Muere,   cuando   se   iniciaba   el   período 
alejandrino...   Pero   había   fundado   la   Escuela   de   los  
Peripatéticos y sus

 discípulos se encargaron de reproducir su monumental obra que nos legaba un  
pensamiento   filosófico   opuesto   al   universo   ideal   platónico   y   aliado   a   las 
ideas sobre la cognoscibilidad del mundo sobre la base de la experiencia y de 
la   razón.   Su   "Methafísica"   siembra   en   el   terreno   filosófico   las   categorías  
más   generales   del   cuadro   físico   del   Mundo:   el   movimiento,   el   espacio   y   el 
tiempo.

El más influyente de los filósofos griegos, el macedonio Aristóteles de Estagira 
(384 – 322 a.C.) ingresó a los 17 años en la Academia fundada por Platón y solo 
la abandonó veinte años después, cuando a la muerte de su fundador, advirtió una 
tendencia a desviar la filosofía hacia la formalización matemática. Años más 
tarde ingresa en el Liceo, institución en la que enseñaría durante 13 años. En 
el Liceo, los discípulos no solo cultivaban la observación, sino que 
coleccionaban algunos materiales para apoyar el método inductivo que 
desarrollaban en sus investigaciones. Está claro entonces que Aristóteles rompe 
con el universo ideal platónico y admite la cognoscibilidad del mundo sobre la 
base de la experiencia y de la razón. Su obra penetra diversos ámbitos como la 
Lógica, Ética y Política, Física y Biología.

Con relación a la naturaleza de lo existente, la doctrina aristotélica reconoce 
los cuatro elementos propuestos por Empédocles pero a ellos le integra cuatro 
atributos que considera de máxima universalidad y que se dan como parejas 
contrarias: el calor y el frío, la humedad y la sequedad. Llama la atención como 
en la noción de Aristóteles el cambio cuantitativo en  un atributo puede traer 
el cambio de cualidad. El agua fría y húmeda al calentarse, llega el momento que 
se convierte en aire caliente y húmedo.

En el caso de la Física planteó tres principios básicos para explicar el 
movimiento de los cuerpos, a saber: no hay movimiento sin un ser que se mueva en 
el tiempo y el espacio; no existe movimiento sin motor y la acción del motor 
sobre el móvil solo es posible por contacto.

Al intentar explicar el movimiento mecánico, Aristóteles introdujo las ideas del 
movimiento natural como aquel en el que el objeto tendía a ocupar su lugar 
natural, en función de su masa, en una escala de posiciones de arriba hacia 
abajo; y el movimiento repentino o violento debido a un agente motor, 
antinatural, y que no podía, en fin de cuentas, predominar sobre la tendencia 
natural. De esta suerte, introdujo, las ideas de movimiento y reposo.

52
La visión astronómica de Aristóteles propone la delimitación de dos regiones: la 
región terrestre, que ocupa el espacio sublunar, es sede del elemento más pesado 
(la tierra) y de los elementos responsables de la naturaleza mutable de las 
cosas; y la región supralunar que la considera eterna, inmóvil y constituida por 
una sustancia diferente, totalmente inerte, a la que denomina éter.

Aristarco   de   Samos   (310   –   230   a.C.),   al   defender   la 


hipótesis de que la Tierra gira sobre su eje   y que junto  
con los demás planetas gira en torno al Sol, está iniciando  
la   polémica   filosófica   acerca   de   la   fiabilidad   de   los  
sentidos,   y   la   contraposición   entre   la   contemplación   y   el  
intelecto,   la   observación   y   el   razonamiento.   La   original 
hipótesis de Aristarco fue desestimada por la comunidad de  
los filósofos griegos que se atuvieron a lo contemplado: el 
sol gira mientras la Tierra debe comportarse como el propio 
centro del  sistema estelar conocido. Debieron pasar siglos 
antes que Copérnico retomara estas ideas, pero otra vez y en  
un escenario bien distinto, encontrarían un rechazo oficial.

Aristóteles aporta también una doctrina general de “las simpatías”y las 
“antipatías” de las cosas, en el marco de la cual pretende explicar la atracción 
específica del imán sobre el hierro. Antes Tales había recurrido a un criterio 
animista al atribuirle “alma” al imán. Empédocles esbozó una teoría mecanicista 
de la atracción magnética que fuera desarrollada por los atomistas, 
especialmente por Lucrecio al considerar la acción del imán sobre el hierro como 
resultado de emanaciones atómicas.

Epicuro (341 ­270 a.C.) recibe en su isla natal de Samos la influencia educativa 
combinada de seguidores de Demócrito y Platón. Ello explica los fundamentos de 
su filosofía natural y de su pensamiento ético. A casi un siglo de las ideas 
atomísticas forjadas en Abdera,  funda en el 306 a.C una comunidad filósofica en 
Atenas, la cual sobresalió no solo por el numeroso grupo de sucesores sino por 
la asistencia de mujeres y hombres interesados en las atractivas ideas de la 
filosofía y la física epicúrea. El epicureísmo va a desarrollar la cosmovisión, 
contraria a la perspectiva aristotélica, de un universo eterno e infinito cuyos 
cuerpos están constituidos por átomos que se diferencian por su forma, tamaño y 
peso.  La muerte es, según su concepción mecanicista, la aniquilación de los 
átomos que constituyen la mente y por consiguiente la ansiedad que se desarrolla 
en el hombre por una trágica segunda vida carece de todo fundamento.

Si los sabios griegos sobresalen por el desarrollo del pensamiento hipotético – 
deductivo y obtienen resultados destacados en las Matemáticas y la Astronomía 

53
que exigieron mediciones y comprobaciones de las hipótesis formuladas se puede 
advertir que no se desarrollan ni siquiera las primeras tentativas de estudio 
experimental. El desarrollo de un pensamiento teórico reflexivo y creativo no 
condujo a un primitivo trabajo experimental.

A   la   muerte   en   el   323   a.C.   de   Alejandro   Magno   en   Babilonia,   sobrevino 


el florecimiento de   lo   que   se   llamó   los   “reinos   helenísticos”   y   el   gran 
desarrollo   de   Alejandría,   ciudad   fundada   por   el   gran   conquistador   en   Egipto. 
Bajo  los  reinados de    Ptolomeo I  (305  – 285  a.C.)  y Ptolomeo II  (285  – 246 
a.C.) nació y se desarrolló el “Museo” (dedicado a cultivar las musas y que es 
considerado   como   una   relevante   universidad),   adjunto   al   cual   se   creó   la   más 
importante biblioteca de la antigüedad. En este Museo se fueron congregando los 
pensadores   más   significativos   de   la   época   dando   lugar   a   lo   que   se   llamó   La 
Escuela de Alejandría.

La   población   de   Alejandría   tenía   una   maravillosa 


diversidad.   Macedonios   y   más   tarde   romanos,   sacerdotes  
egipcios,   aristócratas   griegos,   marineros   fenicios, 
mercaderes   judíos,   visitantes   de   la   India   y   del   África  
subsahariana — todos ellos, excepto la vasta población de  
esclavos— vivían juntos en armonía y respeto mutuo durante 
la mayor parte del período que marca la grandeza de esta  
ciudad.   Pero   la   mayor   maravilla   de   Alejandría   era   su  
biblioteca y su  museo en sentido literal, una institución 
dedicada a las especialidades de las Nueve Musas.

Este lugar fue en su época el cerebro y la gloria de la mayor ciudad del 
planeta, el primer auténtico instituto de investigación de la historia del 
mundo.

Dentro de las principales aportaciones de esta Escuela se halla la recopilación 
realizada por Euclides, matemático y profesor (cerca del 300 a.C.)  en su libro 
“Elementos”. En este libro, considerado como un clásico de todos los tiempos, 
realizó una formulación axiomática de la Geometría que permitió la construcción 
sobre bases sólidas de esta rama de las Matemáticas.  Esta obra junto a los 
trabajos de los sabios  del Oriente Medio a orillas del Egeo, como Eudoxo de 
Cnido (408 – 355 a.C.), y Apolonio de Perga (siglo III a.C – siglo II a.C), 
constituyeron el corpus de conocimientos que posibilitó el desarrollo de la 
Astronomía desde Ptolomeo hasta Kepler en el siglo XVII. En círculos matemáticos 
se afirma que "Los Elementos" se encuentra entre los libros que, al lado de la 
Biblia, han sido más  traducidos, publicados y estudiados en el mundo 
occidental. No es entonces exagerado afirmar que Euclides clasifica  como el más 

54
influyente profesor de matemáticas de la Antiguedad y quizás de todos los 
tiempos.

En   este   período   se   destaca   la   obra   de   Arquímides   (287­212   a.C.),   notable 


matemático   e   inventor   griego,   que   hiciera   sobresalientes   aportaciones   a   la  
Geometría Plana y del Espacio, Aritmética y Mecánica.  

Considerado el fundador de la Escuela de Matemática e Ingeniería de Alejandría y 
probablemente   el   primer   director   del   Museo   de   Alejandría,   Ctesibius   (c285   ­ 
222a.C.), como inventor del mundo antiguo es solo superado por Arquimedes. Su 
trabajo sobre la elasticidad del aire fue muy importante ganándole el título de 
padre de la Pneumática. A pesar de que su tratado "De Pneumatica" y la mayor 
parte de sus trabajos se perdieron, otros ingenieros como Filon de Bizancio (260 
­180 a.C.), y más tarde el arquitecto romano Vitruvio (c. 70 a.C.­c. 25 a.C.) 
describen  en  sus   crónicas   las  invenciones  de  Ctesibius.   A él  le  atribuyen   el 
diseño   de   la   bomba   de   impelente,   el   reloj   de   agua   (clepsidra)   de   caudal 
constante acoplado a un sistema de engranajes que en un cilindro tenía inscripta 
la duración del día y de la noche, cañones operados por aire comprimido, y un 
arbol hidraúlico capaz de elevar grandes pesos. Al pie del Monte de Olimpia, en 
1992   fueron   hallados   los   restos   del   primer   instrumento   musical   de   tablero, 
antecesor del órgano de tubos de la iglesia medieval, el hydraulis. Conservado 
por bizantinos y árabes la invención musical de Ctesibius, reaparece en Europa 
hacia el siglo VIII.

Ante el asedio durante tres años del general romano Marcelo  
a su natal Siracusa, el genio de Arquímedes (287­212 a.C.), 
el inventor de la polea combinada, la ley de la palanca, y 
el   tornillo   sin   fin,   fue   consagrado   a   la   defensa   de   su  
ciudad. A este período se le atribuyen la invención de las  
catapulta,   la   polea   compuesta   y   el   espejo   generador   del  
fuego   en   las   naves   enemigas.   Conquistada   finalmente,   la 
leyenda  cuenta que  es asesinado  por  un soldado  romano  al  
sentirse   ofendido   por   el   sabio   que   es   molestado   cuando  
trabajaba absorto sobre la arena de la costa.

En su famosa obra "La medida del círculo" determina el valor exacto de π. Con  
Arquimedes se asienta la primera piedra en el edificio del cálculo integral y  
las bases de la Hidrostática, con el descubrimiento del principio que lleva  
su nombre. Una y otra vez la humanidad pierde con la guerra y la conquista a 
sus hijos, en ocasiones genios, y en cualquier caso vidas irrepetibles.

55
Hacia el 240 a.C., Eratóstenes (¿284 – 192 a.C.) nacido en Cirene (actual Libia) 
llegó a ser el director de la Biblioteca de Alejandría. Un siglo después de la 
obra   aristotélica,   Eratóstenes   desarrolla   los   cálculos   matemáticos   necesarios 
para   medir   la   circunferencia   terrestre   obteniendo   como   resultado   40   222   Km,  
valor muy aproximado al real. Matemático, astrónomo, geógrafo, filósofo y poeta 
era   Erastótenes   un   auténtico   enciclopédico   de   la   Antigüedad.   Tras   quedarse 
ciego, murió en Alejandría por inanición voluntaria.

La línea de conexión entre Ctesibio y Heron aparece representada por el 
ingeniero alejandrino Filon de Bizancio. Gracias a sus discípulos fue conservada 
la mayor parte de su obra "Colección de Mecanica", un tratado que no solo ofrece 
una imagen total de sus trabajos sino que resume los problemas mecánicos que 
ocuparon a sus contemporáneos y a sus antecesores. Esta herencia cultural fue 
preservada por las traducciones al árabe y de ahí las conoció la Europa del 
Renacimiento en su encontronazo cultural ibérico con los árabes. Su Tratado "De 
Pneumatica" describe 78 construcciones mecánicas operadas por aire caliente o 
vapor. Algunas de sus invenciones más importantes incluyeron la bomba de cadena, 
la bomba de aire (fuelle), la bomba de pistón y una sirena para los faros que 
funcionaba con la fuerza del vapor.

La   Medicina   de   Alejandría   también   legó   importantes   avances   sobre   todo   en   el 


campo de la anatomía. Herófilo de Calcedonia (c. 335­280 a.C.) es   considerado 
el   padre   de   la   anatomía   científica   ya   que   fue   el   primero   en   practicar 
sistemáticamente la disección del cuerpo humano, en criminales, para arribar a 
descripciones   anatómicas   y   fundamentar   sus   deducciones   fisiológicas.   Así, 
reconoció   el   cerebro   como   director   del   sistema   nervioso,   y   sus   estudios   se 
extendieron a los ojos, el hígado, el páncreas y los órganos genitales. Fue el 
primero   en   comprobar   que   las   arterias   contenían   sangre   y   no   aire,   pero   este 
descubrimiento no trasciende y la teoría de los humores y el pneuma de la vida 
se extienden durante siglos. Erasistratos (c. 304 ­ 250 a.C.), rival profesional 
de Herofilo en Alejandría, describió el cerebro con mas precisión que Herofilo.  
Distinguió el cerebro del cerebelo y determinó que el cerebro era el origen de 
todos   los   nervios,   clasificándolos   en   nervios   motores   y   sensoriales.   Fue   el 
primero en rechazar la noción de que los nervios estaban llenos y fijados con 
pneuma   (aire),   por   el   contrario   afirmó   que   eran   sólidos   constituidos   por 
material de la médula espinal.

56
El faro de Alejandría (c. 280 a.C.) fue la última de las 
siete   maravillas   del   Mundo   Antiguo   en   desaparecer. 
Levantada sobre la isla "Pharos" que descansa a la entrada  
oriental del puerto, durante la dinastía de los Ptolomeo,  
la   construcción   del   faro   consistía   en   una   amplia   base  
cuadrada   y   una   torre   octogonal   de   unos   100   metros   de  
altura.   En   la   parte   superior   ardía   presumiblmente 
estiércol animal seco ya que los egipcios no disponían de  
madera para leña.

Para  los arquitectos, significó  aún más: era el más alto edificio sobre la  


tierra   y   para   los   científicos   poseía   un   fascinante   sistema   de   espejos  
metálicos. El espejo daba un reflejo que podría ser visto a más de 35 millas)  
fuera de la costa. La obra que funcionó durante mas de un milenio hasta que  
el poder devastador de dos terremotos, uno en 1303 y otro 20 años después, la  
destruyeran   se   debe   al   arquitecto   de   origen   cario   (región   del   Asia   Menor)  
Sostrato de Cnido (siglo III a.C.), quién siguió el camino profesional de su  
padre   Dexiphanes,   arquitecto   del   Teatro   "Tetra"   de   Alejandría.   El   faro  
destruido   fue   abandonado   hasta   que   en   el   1480   un   fuerte   islámico   fuera  
edificado en su sitio. Hasta nuestros días han llegado grabaciones del faro  
en distintas monedas romanas. Recientemente se han encontrado  sumergidas en  
las aguas de la bahía estatuas y bloques pertenecientes al faro.

Si los sabios griegos obtienen resultados sobresalientes en las Matemáticas y la 
Astronomía que exigieron mediciones y comprobaciones de las hipótesis formuladas 
se puede advertir que no se desarrollan ni siquiera las primeras tentativas de 
estudio experimental de las transformaciones. El laboratorio de los sabios 
griegos era fundamentalmente la mente humana. El desarrollo de un pensamiento 
teórico reflexivo y creativo no condujo a un primitivo trabajo experimental.

En Alejandría aparece el escenario histórico propicio para un contacto y posible 
fusión de la maestría egipcia con la teoría griega pero tal posibilidad no se 
convirtió en realidad. Al parecer el vínculo estrecho del arte de la 
experimentación con la religión egipcia actuó como muralla impenetrable para el 
necesario intercambio. Muchas vueltas daría la Historia para que se diera una 
integración fructífera de ambos conocimientos teóricos y prácticos.

No obstante, surge como un exponente de la khemeia griega, a inicios del siglo 
III a.C., un egipcio helenizado, Bolos de Mende. A su pluma se atribuye el 
primer libro, Physica et Mystica que aborda como objetivo los estudios 
experimentales para lograr la transmutación de un metal en otro, particularmente 
de plomo o hierro en oro. Semejante propósito, que alienta tentativas 

57
posteriores a lo largo de más de un milenio, encuentra fundamento en la doctrina 
aristotélica de que todo tiende a la perfección. Puesto que el oro se 
consideraba el metal perfecto era razonable suponer que otros metales menos 
‘perfectos’ podrían ser convertidos en oro mediante la habilidad y diligencia de 
un artesano en un taller. Y este supuesto, junto al interés económico que 
concita, soporta el campo de acción principal de los antecesores de la Química. 

Con la desaparición del gran imperio consolidado por Alejandro, y el posterior 
sometimiento de los pueblos greco – parlantes al poder de los romanos (Grecia es 
convertida en provincia romana en el 146 a.C.), quedó seriamente comprometido  
el avance del saber científico.

Herón   (126   a.C.­   50   a.C.)   fundó   y   dirigió   la   Escuela  


Superior Técnica de Alejandría   que llegó a convertirse 
en   un   genuieno   Politécnico.   A   menudo   se   refieren   a   él  
como   "el   enciclopedista".   Sus   trabajos   "Máquinas   de  
Guerra",   "Tornos",   Balística",   "Pneumática",   "Autómata" 
y "Mecánica"   lo colocan entre las más grandes figuras  
de   la   ingeniería   mecánica   del   mundo   antiguo.   Aunque  
existen   evidencias   de   que   Arquímedes   y   Filón   hicieron 
algunos usos simples del vapor, el descubrimiento de la  
máquina de vapor pertenece definitivamente a Heron. 

La   eolipila,   considerada   el   ingenio   precursor   de   la   turbina   de   vapor   fue  


diseñada   y   construida   por   este   inventor   adelantándose   así   en   más   de   1   500 
años a la olla de presión de Denis Papin (1647 ­ 1714) y al invento de la  
máquina   de   vapor   de   James   Watt   (1736   ­   1819).   La   transformación   de   la 
energía térmica en trabajo mecánico constituyó un descomunal paso de avance  
del hombre que comenzó a producir máquinas con la potencia mostrada por  100 
o   más   caballos,   pero   la   sociedad   esclavista   del   imperio   greco­romano   no 
contenía   en   el   orden   del   día   la   necesidad   de   aprovechar   ventajosamente   la  
energía   del   vapor.   La   eolipia   de   Herón    fue   olvidada   en   el   baúl   de   las  
curiosidades. Imagen: 

No obstante, la Alejandría de los Tolomeos que no pasará a manos de los romanos 
hasta la toma de la ciudad por Octavio más de un siglo después,  mantiene viva  
la tradición de la Astronomía griega por la labor, entre otros, de Hiparco de 
Nicea (s. II a.C.) que, considerándose el creador de la Trigonometría, fue el 
primero en elaborar tablas que relacionaban las longitudes de los lados en un 
triángulo las que usa para estimar la distancia tierra – luna en 386 100  Km 
valor muy cercano al real y para elaborar sus mapas estelares en los que 
traslada sus observaciones a planos. 

58
Las ideas geocéntricas de Hiparco sobre el movimiento de los astros, influyen en 
Claudio Ptolomeo, astrónomo griego nacido en Egipto (s. II), que convierte tales 
hipótesis en un sistema coherente de amplio poder  explicativo y predictivo. La 
compleja técnica utilizada para describir los movimientos de la Luna y el Sol, 
sobre la base de las posiciones de unas mil estrellas brillantes constituyentes 
de un mapa estelar, aparece descrita en su gran obra el Almagesto.

El aletargamiento de las ciencias en este período se ha relacionado con la falta 
de interés de la cultura romana por los saberes científicos – filosóficos. No 
obstante, los romanos acopiaron con gran interés las fuentes de los 
conocimientos griegos. En este esfuerzo sobresale la monumental obra 
enciclopédica de Plinio el Viejo (c. 23 d.C. ­ 79) “Historia Natural” que en 37 
libros contiene el estado del arte de la época en disciplinas tan distantes como 
la Anatomía y la Mineralogía. La obra de Plinio se convierte en un clásico que 
flotará siglos después en la atmósfera atemporal del medioevo europeo hasta 
despertar en el renacimiento como referencia para los estudiosos que redescubren 
entonces los saberes del mundo greco­latino.

El éxito durante 13 siglos de la teoría ptolomeica se basó  
en la concordancia de los resultados de las mediciones que  
se realizaban en esa época, de limitada exactitud, con los  
movimientos   observados   de   los   cuerpos   celestes;   la 
capacidad   de   predicción   de   esos   movimientos;   la 
correspondencia   de   esas   ideas   con   las   observaciones   del  
sentido común; y la legitimación de las ideas religiosas –  
filosóficas   que   se   abrieron   paso   en   la   época   y   que  
perduraron durante el largo periodo de la Edad Media. Pero  
si   por   longevidad   es   el   "Almagesto"   (obra   cumbre   de   la  
Astronomía   Ptolomiana)   émulo   de   la   Geometría   de   Euclides,  
por mérito histórico queda bien lejos de está última.

 No han faltado quienes, entre los que se encuentran la autoridad de Isaac 
Newton, han calificado muy duramente la manipulación selectiva de los datos 
astronómicos disponibles en la época para hacerlos concordar con su teoría 
geocéntrica, privando a la humanidad de una información veraz en un área tan 
importante de la astronomía y la historia.

Descendiente de griegos de la ciudad del Asia Menor llamada Pérgamo, dominada 
entonces por el imperio romano, Galeno (129­c. 199) se establece en Roma donde 
alcanza celebridad por su ejercicio de la Medicina y sus conferencias públicas, 
siendo   designado   como   médico   del   hijo   del   emperador   Marco   Aurelio.   Sus   obras 
traducidas por los árabes en el siglo IX pasaron a través de España a la Europa 

59
del Renacimiento. Siguiendo estos vasos comunicantes su legado perdura durante 
más de mil años.  Con el propósito de investigar la anatomía y fisiología de los 
seres vivos elevó la disección de cadáveres de animales a práctica profesional 
del médico. Las primeras descripciones del corazón, las arterias, las venas, el 
hígado   y   la   vejiga   y   las   primeras   hipótesis   sobre   su   funcionamiento   se 
encuentran   en   sus   obras.   Es   considerado   Galeno   uno   de   los   primeros   en   la 
descripción   sistemática   de   los   cuadros   clínicos   asociados   a   las   enfermedades 
infecciosas y un pionero en la farmacología.

Los   romanos   demostraron   pericia   y   conocimientos   teórico­prácticos   con   sus 


admirables   construcciones.   El   acueducto   fue   una   de   esas   obras   legadas   por   la 
Roma. Republicana. Construido en el 312 a.C.,   por Appius Claudius Caecus, el 
Aqua   Appia   es   el   acueducto   más   viejo   de   Roma.   El   Appia,   que   se   extiende 
dieciséis   kilómetros   corre   principalmente   por   el   subsuelo,   emergiendo   en   su 
término, en el Foro Boarium, en una arcada que pontea el valle entre las Colinas 
de   Aventina.   El   sistema   de   agua   sigue   este   curso   subterráneo,   por 
consideraciones de seguridad. Durante el tiempo de la construcción del Appia, 
Roma se enfrentaba frecuentemente con los Samnitas y era necesario evitar que en 
un esfuerzo por sitiar la ciudad el enemigo cortara los suministros del líquido 
vital.

El único libro sobre la Arquitectura de la Antiguedad que llegó hasta la Europa 
del Renacimiento fue "De Architectura" escrito en latín por el ingeniero romano  
Marco Vitruvio Polión (c. 70 a.C.­c. 25 a.C.).  Vitruvio se considera fue un 
ingeniero al servicio de las legiones romanas del primer emperador, Augusto (63 
a.C. ­ 14 d.C.).  Su obra resume en diez libros los conocimientos en esta 
disciplina del arte ­ técnica, legados por el mundo griego y las innovaciones 
propias de la arquitectura clásica romana. Es pues un compendio de diversos 
ámbitos de la ingeniería desde  el diseño y  planeación  de la  obra,  la  
selección de los materiales constructivos, hasta la aplicación de los principios 
de la acústica y la hidraúlica en las edificaciones.  Sus tres principios: la 
durabilidad, utilidad y belleza fueron inscritos en la práctica de las 
monumentales construciones romanas: las calzadas, los puentes y los acueductos.

60
Así se ve hoy la vía Apia, a unos kilómetros de Roma.  
Solo   unos   metros   conservan   su   pavimento   original.   Fue  
la más famosa de las avenidas romanas. Construida en el  
312   a.C.   por   el   Censor   Appius   Claudius   constituye   un 
símbolo   de   lo   alcanzado   en   materia   de   construcciones 
por los romanos. 560 km unían la ciudad, en un trayecto  
admirablemente rectilíneo, con Capua. Siglos más tarde,  
las calzadas romanas llegaron a representar unos 90 mil  
kilómetros   de   caminos   que   garantizaban   ante   todo   las 
comunicaciones   militares   en   el   imperio,   pero   que   al 
mismo   tiempo   constituirían   lazos   para   el   intercambio 
comercial.

Ya   al   final   de   la   Roma   Republicana,   en   el   período   histórico   en   que   se   viene 


forjando la creación del imperio que toma expresión en la figura de Cayo Julio 
César (100 ­ 44 a.C.), surge el poeta y filósofo romano Lucrecio (99­55 a.C.) 
cuya obra "De Rerum Natura" demuestra la recurrencia de las ideas atomísticas en 
la filosofía del mundo greco­latino. Su visión materialista ingenua del alma lo 
lleva   a   considerar   esta   como   la   combinación   aleatoria   de   átomos   que   no 
sobreviven al cuerpo. No hay en Lucrecio una renuncia expresa a la existencia de 
los  dioses  pero  sí  una   defensa  de  que   los  problemas  terrestres  tienen  causas 
naturales.

Discípulo de Epicuro, Asclepiades (siglo I a.C.) es considerado fundador de la 
Escuela   Metódica   de   la   Medicina   que   trasladó   el   pensamiento   atomístico   a   la 
medicina relacionando las enfermedades a trastornos ocasionados en el movimiento 
de   los   átomos   constituyentes   del   organismo,   y   propugnando   las   terapias   del 
masaje, la dieta, los ejercicios y los baños. Lo que hoy llamaríamos terapias 
alternativas.

Es indiscutible que los instrumentos de cálculo han jugado un papel protagónico 
en el desarrollo de la Matemática y de la ciencia en general. En Roma se 
aprendía a contar con pequeños guijarros, de cuyo nombre latino cálculus, 
proviene la palabra cálculo y sus derivados (calcular, calculadora, etc.). Los 
romanos utilizaron en su sistema de numeración siete letras del abecedario 
latino (I, V, D, X, L, C, M) y algunas reglas para la formación de los números. 
Este sistema se usó en Europa hasta el siglo XIII.

61
Marco Vipsanio Agrippa (63 a.C. ­ 12 a.C.) no solo pasa  
a la historia como uno de los más victoriosos generales 
de Augusto (heredero de Julio César) sino como fundador  
de muchas de las nuevas colonias romanas y arquitecto de  
las obras clásicas levantadas en Roma, entre las cuales  
el Pantheon, su obra cumbre, es uno de los más grandes  
logros de la ingeniería romana. Destruído por el fuego  
en el 80 d.C. es reconstruído por el emperador Adriano  
(76 ­ 138 d.C.), alcanzando una nueva monumentalidad.

Poco después del esplendor del imperio romano liderado por Trajano (98­110 d.C.) 
se escriben cerca de Tebas los más viejos manuscritos sobre recetas para el 
taller y el laboratorio que se conserven íntegramente. Conforme a la tendencia 
histórica de todos los tiempos, los papiros de Leyden y Estocolmo revelan que 
los estudios de las sustancias aparecen relacionadas con dos necesidades 
permanentes de la sociedad humana: el  dominio  de  los  materiales  en  este  
periodo, fundamentalmente  de los metales, y el conocimiento de las sustancias 
para el tratamiento de las enfermedades en la lucha contra los padecimientos y 
la muerte.  Los llamados papiros de Leiden y de Estocolmo, acusan las ciudades 
europeas dónde finalmente se conservan: la primera en la famosa Universidad 
holandesa de Leiden, y la otra en la capital sueca de reconocida tradición 
química.

El hallazgo se produjo a principios del siglo XIX en las tumbas de personajes 
momificados junto a los papiros, en región próxima a la legendaria ciudad 
egipcia de Tebas, finalmente destruida por los romanos. Los manuales a partir de 
los cuales fueron hechas estas copias se escribieron no para la información 
pública sino como una guía para la labor en talleres y laboratorios. Las recetas 
son a menudo muy detalladas en orientaciones pero a veces fueron solo 
sugerencias que no ofrecían una idea clara del proceso que pretendía 
describirse. 

El papiro de Leiden contiene alrededor de setenta y cinco recetas relacionadas 
con la preparación de aleaciones, para soldar metales, para colorear la 
superficies de metales, para evaluar la calidad o pureza de los metales, y para 
imitar metales preciosos. Existen quince recetas para escribir en oro o plata en 
imitación de la escritura de oro o de plata. Son once las recetas para elaborar 
colorantes en púrpura u otros colores.  Los últimos once párrafos son extractos 
de la obra del médico griego Pedáneo Dioscórides (c 40 – 90 d.C.), De Materia 
Medica, el primer tratado sobre Botánica y Farmacología, en la cual describe más 
de 600 plantas de uso medicinal.

62
Es de interés apreciar que el papiro de Estocolmo complementa las recetas de 
Leiden en esta dirección. El manuscrito de Estocolmo contiene alrededor de 150 
recetas.  De estas solo nueve se relacionan con metales y aleaciones mientras 
que más de 60 tratan de colorantes y como 70 sobre la producción artificial de 
gemas.  Unas diez se refieren al blanqueo de perlas o a la fabricación de perlas 
artificiales.

Hacia el año 300, Diocleciano (245 – 313, emperador en el período entre 283 – 
305) ordenó quemar todos los trabajos egipcios relacionados con el arte 
experimental que eventualmente permitiera fabricar oro barato y con ello hundir 
la tambaleante economía del Imperio y que, por otra parte, se vinculaba 
sospechosamente con el pensamiento pagano de la religión del antiguo Egipto. 
Este mismo emperador trató de eliminar el cristianismo, pero fracasó; el último 
gobernante de un imperio romano unido, Teodosio I el Grande (c.346 – 395)  
terminó por fundar un imperio cristiano.

Otra relevante aportación nacida en Alejandría, pero ya en el periodo del 
imperio romano, fue el Álgebra, atribuida merecidamente a  De Diofante, 
matemático griego que vivió  durante el siglo IV. Su libro principal "De 
arithmetica" contiene 13 libros de los cuales sobreviven 6 en el griego original 
y 4 en la traducción árabe.  Esta obra representa una variada colección de 
problemas que implican ecuaciones polinomiales con una o mas 
variables. Sistematizó sus ideas con símbolos creados por él mismo, dando origen 
a las ecuaciones indeterminadas. La gran cantidad de problemas que propuso y sus 
hábiles soluciones, sirvieron de modelo a matemáticos de la talla de Riemann, 
Euler y Gauss. Demostró que las fracciones podían manipularse igual que los 
otros números, reduciendo la incomodidad que las otras formas de manipulación 
causaban.

A   pesar   de   la   prohibición   de   Diocleciano   se   conoce 


que Hypatia (370?   ­   415)   sobresaliente   filósofa   y 
matemática   alejandrina,   realizó   estudios   experimentales   y 
desarrolló,   entre   otros   instrumentos,   un   equipo   de  
destilación   de   agua,   que   debió   ser   uno   de   los   primeros  
útiles   del   stock   alquimista. Durante   casi   dos   siglos, 
desde Nerón (37 – 68 d.C., emperador entre 54 y 68) hasta  
Diocleciano,   los   cristianos   debieron   enfrentar   una   cruel 
persecución. Ahora, una de las primeras mujeres de ciencia  
resultaría mártir de la intolerancia religiosa practicada 
por los cristianos.

63
Los condimentos de la caída del Imperio Romano fueron esencialmente los mismos 
que han conocido las potencias imperiales a lo largo de la historia: el desgaste 
económico interno asociado a los gastos de mantenimiento de un poderoso ejército 
y de la enorme burocracia que engendra, las contradicciones sociales que 
resultan de esta situación económica, las guerras civiles que se desatan como 
resultado de divisiones internas, y las invasiones de pueblos vecinos que se 
aprovechan de las debilidades del imperio.

El momento histórico en que se manifiesta el declive de Roma data de fines del 
siglo IV cuando los pueblos germanos emprendieron gradualmente la conquista de 
Occidente.   De   entonces   al   476,   ejércitos   visigodos   tomaron   y   arrasaron 
provincias   romanas,   pactaron   con   el   imperio   para   enfrentar   conjuntamente   la 
invasión   de   los   hunos,   fueron   cristianizados,   y   finalmente   Odoacro   (c.433­
c.493),   jefe   de   tropas   germánicas,   depuso   al   último   emperador   romano   de 
Occidente.

Se inauguraba así un período de estancamiento relativo en el mapa europeo 
mientras la cultura árabe a partir del siglo VII se expande, bebe de otras 
fuentes y se enriquece hasta llegar al liderazgo de toda una época.

Bibliografía:

Alaa K. Ashmawy (2004):  History of Alexandria. University of South Florida.

http://ce.eng.usf.edu/pharos/alexandria/history/index.html

Allen Donald (1997): Archimedes of  Syracuse. History of Mathematics. Department 
of Mathematics Texas A&M University.

http://www.math.tamu.edu/~don.allen/history/archimed/archimed.html

Berryman Sylvia (2004): Democritus. University of British Columbia. Stanford 
Encyclopedia of Philosophy. http://plato.stanford.edu/entries/democritus/

Bodnar Istvan (2006): Aristotle's Natural Philosophy. Stanford Encyclopedia of 
Philosophy.

http://plato.stanford.edu/entries/aristotle­natphil/

Brundige Ellen (1991): The Decline of the Library and Museum of 
Alexandria. Digital Brilliance. U.K. http://www.digital­
brilliance.com/kab/alex.htm

Cohen Marc S.(2003): Parmenides, Stage 1 and 2. History of Ancient Philosophy. 
UW Philosophy Department. University of Washington.

http://faculty.washington.edu/smcohen/320/parm1.htm

64
EdadAntigua.com (2006): Roma. IV. Las 
Calzadas. http://www.edadantigua.com/roma/calz.html

Fieser J. (2001):  The Internet Encyclopedia of Philosophy.

Aristotle (384­322 BCE.) 
Overview. http://www.utm.edu/research/iep/a/aristotl.htm

The Academy. http://www.utm.edu/research/iep/a/academy.htm

Greek Philosophy. http://www.utm.edu/research/iep/g/greekphi.htm

Figurovski N. A. (1989): Doctrinas filosófico­naturalistas antiguas. Historia de 
la Química. Editorial Pueblo y Educación. La Habana.

La química en el Egipto helénico y en la Roma antigua. 

Fouce José María (2006): Empédocles de Akragas (­495 a ­435). La Filosofía en el 
Bachillerato. IES Isabel la Católica. Madrid.

http://www.webdianoia.com/presocrat/empedocles.htm

García L.C. (1997): De la máquina de vapor al cero absoluto. Capítulo I Bosquejo 
histórico. Fondo de Cultura  Económica. México. 
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/05/htm/maqvapor.ht
m

Gordon Campbell (2006): Empedocles (of Acragas). Internet Encyclopedia of 
Philosophy.   Department of Ancient Classics. National University of Ireland, 
Maynooth. http://www.iep.utm.edu/e/empedocl.htm

Graham Daniel W. (2002): Anaximenes (d. 528 BCE). Department of Philosophy. 
Brigham Young University. Provo, Utah 84602. The Internet Encyclopedia of 
Philosophy.  http://www.iep.utm.edu/a/anaximen.htm

Grout James (2006): Dioscorides: De Materia Medica. Encyclopaedia Romana.  
http://penelope.uchicago.edu/~grout/encyclopaedia_romana/aconite/materiamedica.h
tml

Hach Robert A. (1999): History of Science. Department of History. University of 
Florida. http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­Rev/SCI­REV­
Teaching/HIS­SCI­STUDY­GUIDE/index.htm

The Pre­socratics. http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­Rev/SCI­
REV­Teaching/HIS­SCI­STUDY­GUIDE/0018_preSocratics.html

Aristarchus derivation of the Sun’s distance.

65
http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­Rev/SCI­REV­Teaching/HIS­SCI­
STUDY­GUIDE/0029_aristarchusDerivation.html

Works of Claudius Ptolemy. http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­
Rev/SCI­REV­Teaching/HIS­SCI­STUDY­GUIDE/0032_worksOfClaudisPtolemy.html

Halsall Paul (1999): Ancient History Sourcebook: 11th Brittanica: 
Herodotus. Internet History Sourcebooks Project. Fordham University. New York.

http://www.fordham.edu/halsall/ancient/eb11­herodotus.html

Hooker Richard (1996): Greek Philosophy: Socrates. World Civilizations.

http://www.wsu.edu/~dee/GREECE/SOCRATES.HTM

Huffman Carl (2005): Pythagoras. Stanford Encyclopedia of Philosophy. The 
Metaphysics Research Lab Stanford University.

http://plato.stanford.edu/entries/pythagoras/

Kraut Richard (2004): Plato. Stanford Encyclopedia of Philosophy. The 
Metaphysics Research Lab Stanford University.

http://plato.stanford.edu/entries/plato/

O'Connor J.J.; Robertson E.F.(1996): History of Mathematics. School of 
Mathematics and Statistics; University of San Andrews.

Anaxagoras de Clazomenae

http://www.gap­system.org/~history/Biographies/Anaxagoras.html

Democritus de Abdera.

http://www­history.mcs.st­andrews.ac.uk/history/Mathematicians/Democritus.html

Eratosthenes

http://www­history.mcs.st­andrews.ac.uk/Biographies/Eratosthenes.html

Aristarcus of Samos. 

http://www­history.mcs.st­andrews.ac.uk/history/Mathematicians/Aristarchus.html

Zeno of Elea

http://www­history.mcs.st­andrews.ac.uk/history/Biographies/Zeno_of_Elea.html

Claudius Ptolemy

http://www­history.mcs.st­andrews.ac.uk/history/Biographies/Ptolemy.html

66
Odysseus (2001): Hydraulis: The Ancient Hydraulis and its 
Reconstruction. Hellenic Culture. Ministry of Culture. Greece

http://www.culture.gr/2/23/232/epked/en/00_standard_menu/00a_ydraulis/00a.htm

O’Grady Patricia (2001): Thales de Miletus.  The Flinders University of South 
Australia. The Internet Encyclopedia of Philosophy.

http://www.utm.edu/research/iep/t/thales.htm

O'Keefe Tim (2006): Epicurus. Department of Philosophy. Georgia State 
University. The Internet Encyclopedia of Philosophy.

http://www.iep.utm.edu/e/epicur.htm

Perich Campana, Danny (2002): Euclides. Historia de la Matemática. Sector 
matemática; Municipalidad de Punta Arenas. Chile.  
 http://www.sectormatematica.cl/euclides.htm

Ruy Pérez Tamayo (1997): III. La Medicina en el Imperio Romano. De la Magia 
Primitiva a la Medicina Moderna. Fondo de Cultura Económica. México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/154/html/sec_10.ht
ml

Perich Campana, Danny (2002): Erathostenes. Historia de la Matemática. Sector 
matemática; Municipalidad de Punta Arenas. 
Chile. http://www.sectormatematica.cl/biografias/eratosthenes.htm

Rouse Hunter (2005): Hero of Alexandria (dates undetermined, between 150 BC and 
300 AD). History of Hidraulics. College of Engineering. University of Iowa. 

http://www.iihr.uiowa.edu/products/history/hoh/hero.html

Smith W, Henry (1904): History of Science. Project Gutenberg File Converted into 
HTML pages by Nalanda Digital Library under Etext Conversion Project (ECP).

Book I. Chapter V. The Beginnings of Greek 
Science. http://www.nalanda.nitc.ac.in/resources/english/etext­
project/history/science/book1.section6.html

Chapter VI. The Early Greek Philosophers in Italy; Chapter VII Greek Science in 
the Early Attic Period; Chapter VIII Post­Socratic Science at Athens; Chapter 
IX. Greek Science of the Alexandrian or Hellenistic Period.

Taub Liba (1999): Hypparchus. Department of History and Philosophy of Science of 
the University of Cambridge

http://www.hps.cam.ac.uk/starry/hipparchus.html

67
Technology Museum (2006): Ancient Greek Scientists.  Technology Museum of 
Thessaloniki.

Biologists

http://www.tmth.edu.gr/en/aet/11.html

Bolos (Democritus) de Mende.

Botanists

http://www.tmth.edu.gr/en/aet/8.html

Theophrastus

Dioscorides Pedanius

Chemists

http://www.tmth.edu.gr/en/aet/16.html

Zosimus of Panopolis

Engineers.

http://www.tmth.edu.gr/en/aet/5.html

Hero of Alexandria; Philo of Bizantium; Sostratus of Cnidus.

Mathematicians. 

http://www.tmth.edu.gr/en/aet/15.html

Ctesibius of Alexandria; Diophantus of Alexandria

The University of Alabama (1999): Hypatia, Natural Philosopher (355? ­ 415 CE). 
4 000 years of women in Science. Department of Physics & Astronomy. 
http://www.astr.ua.edu/4000WS/HYPATIA.html

Verdugo P. (1997): Eratosthenes de Cirene. Los matemáticos y su historia. 
Universidad de Santiago de Chile. http://www.mat.usach.cl/histmat/html/erat.html

Zubov V. P. (1962): La Física en Grecia y Roma antiguas. Las ideas básicas de la 
Física, ensayos sobre su desarrollo. 28 – 80. Ediciones Pueblos Unidos. 
Montevideo. 

68
Ideas físicas en el Medioevo y en el Renacimiento

Rolando Delgado Castillo y Francisco Arturo Ruiz

Universidad de Cienfuegos.

Contexto medieval europeo y escolástica

Florecimiento del feudalismo y vasos comunicantes con la cultura árabe

Esplendor de la ciencia árabe y logros del Oriente

Período clásico de las culturas precolombinas

 
Antecedentes,
  
   
teoría copernicana y los desarrollos de Brahe y Kepler
 

Adiós a la dinámica aristotélica de los ímpetus

Otros desarrollos de las ciencias del XVI y el magnetismo terrestre


Bibliografía

El período histórico que se pretende abarcar a continuación comprende los casi 
diez siglos de vida del régimen medieval europeo desde que se produce el proceso 
de disolución del imperio romano en Occidente a fines del siglo V hasta mediados 
del XV en que viene surgiendo, empujado por importantes transformaciones 
económicas, el llamado Renacimiento. En este recorrido se incluirán los 
principales hitos relacionados con el ámbito de la Física en el escenario 
europeo, los brillantes logros de la cultura islámica, los legados fundamentales 
del mundo oriental, y las sobresalientes realizaciones del período clásico de 
las culturas precolombinas de esta época.

En torno a la decadencia del imperio romano y al proceso de conversión de Roma 
al cristianismo, surge la figura de Agustín de Hipona (354 – 430), oriundo de la 
colonia romana de Numidia en el norte africano, santificado por la Iglesia 
Católica, que intenta ofrecer una primera visión filosófica del cristianismo. 
Las fuentes que nutren su doctrina son principalmente el escepticismo y el 

69
neoplatonismo. La influencia del cristianismo sobre el lento desarrollo del 
conocimiento científico europeo en esta etapa se explica atendiendo a los nuevos 
esquemas de pensamiento que esta religión portaba y a los intereses que defendía 
la nueva estructura del poder eclesiástico. Las principales preguntas y 
cuestionamientos que se hicieron los pensadores anteriores quedarían encadenadas 
por el dogma de la fe.

Hasta el cierre definitivo de la Academia en el siglo VI por el emperador 
Justiniano (482­ 565), la pálida producción del conocimiento filosófico de la 
época se asocia a la traducción de clásicos y al replanteamiento de las ideas 
contenidas en los sistemas de Platón y Aristóteles.

No obstante se destaca en los primeros momentos del medioevo, el filósofo y 
estadista romano Boecio (47? – 525), quien no sólo escribe numerosas 
traducciones y comentarios de la obra aristotélica sino que aborda con notable 
originalidad en su tratado de lógica, el problema  del grado de realidad o 
significación atribuible a “los géneros y las especies”, con lo cual inaugura 
el  examen de las dos corrientes epistemológicas, realismo y  nominalismo, cuya 
controversia alimenta el pensamiento filosófico en siglos posteriores.

La   doctrina   de   Agustín,   cuando   admite   que   el   entendimiento  


filosófico no niega la fe religiosa sino puede fortalecerla,  
deja un espacio para el desarrollo de una filosofía natural,  
pero   históricamente   esta   posibilidad   no   cristalizó.   Por   el 
contrario,   poderosos   intereses   pretendieron   que   el   hombre  
cristiano   se   preocupara   más   por   su   alma   eterna   que   por   sus  
relaciones   con   los   fenómenos   naturales   y   la   posible  
penetración en la esencia de los mismos mediante el estudio y  
el razonamiento.

Agustín arriba a Roma con 29 años, recibe el bautismo a los 33  
de   manos   del   Obispo   de   Roma,   Ambrosio   (más   tarde   canonizado  
por la Iglesia), y ocho años  después es designado  Obispo de  
Hipona, convirtiéndose en uno de los doctores de la Iglesia, y  
desempeñando un importante papel en los primeros momentos de 
la edificación de la Iglesia Católica Romana.

Una extensa compilación del conocimiento de la época, que es ampliamente 
difundida a lo largo de siglos y tiene por tanto el mérito de al menos 
conservar, en forma latente, el pensamiento avanzado de la cultura greco­latina 
es acopiada en la obra “Etimologías”  escrita en 623 por Isidoro de Sevilla (c. 
560­636). Brillante exponente de estos tiempos,  Isidoro (canonizado por la 

70
Iglesia Católica) como arzobispo de Sevilla, presidió el famoso IV Concilio de 
Toledo de 633 que decretó el establecimiento de escuelas en todas las 
catedrales. Se antecedió así casi en un par de siglos a la ordenanza de 
Carlomagno, pero antes el reino visigodo de Toledo debilitado por las 
disensiones internas que se oponían a la unificación arropada por la conversión 
al cristianismo, pereció ante el empuje árabe en 711.

Un momento de progreso cultural en el escenario europeo viene dado a fines del 
siglo VIII, por lo que algunos consideran como revolución educativa impulsada 
por el rey de los francos, coronado como emperador en el 800 por el papa León 
III (c.750 – 816), Carlomagno (742 – 814). Este emperador, ordenó en su vasto 
dominio, la creación de escuelas anexas a las catedrales e iglesias de las 
poblaciones más importantes destinadas a enseñar rudimentos de lectura, 
aritmética y gramática. Si embargo hasta bien entrado el siglo XI no existía una 
educación que pudiera salir de un nivel elemental. El imperio carolingio 
representó una etapa en la integración de las culturas germánica, romana y 
cristiana, que con el tiempo resultó una de las savias fundamentales de la 
civilización europea.

Otro proceso político que representa un hito en la configuración de un escenario 
cultural europeo fue la instauración del nuevo imperio de Occidente que 
cristaliza con la coronación del rey de Germania Otón I (912 – 973) por el  Papa 
Juan XII, el papa niño, (937 – 964).  Quedaba entonces constituida una entidad 
política, siglos más tarde llamada Sacro Imperio Romano Germánico, que con 
períodos de centralización y debilitamiento y contradicciones entre autoridad 
imperial y papal, sobreviviría poco más de un milenio.

En los siglos XI – XIV corre la época del florecimiento del feudalismo en 
Europa. Crecen las ciudades y se desarrollan las relaciones monetario­
mercantiles. En particular el siglo XII marca un reencuentro con el saber 
antiguo. Se advierte una reactivación de los viajes y el auge de relaciones 
comerciales estrechas entre el occidente y el oriente. La naturaleza de los 
contactos con el Oriente tiene otra expresión en las Cruzadas que se iniciaran 
con la proclama lanzada por el papa Urbano II (c1040 – 1099) en 1095 y en la 
reconquista que llevan a cabo los cristianos españoles de los territorios 
perdidos ante el Islam.

71
La   obra   de   Pedro   Abelardo   trasciende   por   su   avanzado  
contenido epistemológico, pero su vida, llena de poesía, se  
filtra por el camino de la inmortalidad, como un ejemplo de  
amor imposible, en sus Cartas a Eloísa. De otra parte, debió  
sufrir   la   condena   en   1140   de  un  concilio   católico   por   el 
peligro   que   representaba   para   los   dogmas   de   la   fe   las  
enseñanzas   racionalistas   y   el   método   dialéctico   que 
preconizaban   sus   obras.   Los   restos   de   Abelardo   y   Eloísa 
yacen para siempre juntos en un cementerio de París.

La filosofía escolástica es hija de este período histórico y está signada por la 
esterilidad que deriva de fijar como objetivo último de su estudio armonizar la 
filosofía y la ciencia aristotélica con el contenido sobrenatural de la 
revelación cristiana, dejando poco espacio al conocimiento y la explicación de 
nuevos hechos.

De cualquier modo, el lado productivo del escolasticismo se advierte en la obra 
de figuras como Pedro Abelardo (1079 – c. 1142) cuya principal tesis dialéctica, 
presentada en Sic et Non (c. 1123), consiste en la consideración de la verdad 
como fruto del análisis riguroso de los diferentes aspectos de una cuestión. 
Abelardo se aparta de las posiciones extremas en el debate entre nominalismo y 
realismo, negando por una parte el legado platónico de los universales como 
categorías que existan antes y fuera de la mente y rechazando por otra la tesis 
reduccionista de que las abstracciones, conocidas como universales, carecen de 
una realidad esencial o sustantiva, pues tan sólo los objetos individuales 
tienen una existencia real. Su teoría es un paso definitivo hacia el realismo 
moderado que alcanza su visión más acabada en la posición epistemológica de 
Tomas de Aquino (1225 – 1274). 

Aquino, la figura más importante de la filosofía escolástica, santificado por la 
Iglesia Católica, discípulo de Alberto Magno y profesor de la Universidad 
de París en 1252, acepta la verdad contenida en la experiencia sensible cuando 
se hace inteligible por la acción del intelecto, intenta justificar la 
aprehensión de las realidades inmateriales por parte del raciocinio, y rebate la 
existencia por sí misma de los universales con independencia del pensamiento 
humano. Al defender la teoría aristotélica que considera la percepción como el 
punto de partida y la lógica como el procedimiento intelectual para llegar a un 
conocimiento fiable de la naturaleza, deja abierta la puerta hacia el 
conocimiento científico.

En el área de las matemáticas una manifestación importante de transmisión 
cultural  se da a inicios del siglo SXIII cuando  el pisano Leonardo Fibonacci 

72
(1170 ­1240) introduce el sistema arábigo en Europa, el cual solo pudo ser 
difundido con la posterior invención de la imprenta. Hijo de un comerciante se 
motivó por los estudios matemáticos en sus viajes comerciales con el Oriente. 

Las   primeras   universidades   europeas  se   fundan   en   el  


siglo XII. Su misión, acorde con los aires de la época,  
fue   servir   de   marco   institucional   para   la   expansión   de  
los   conocimientos.   De   cualquier   modo   el   curriculum  
universitario   nace   dominado   por   la   subordinación   de   la  
filosofía   a   la   teología   y     por   el   Trivium   de   la 
Teología,   el   Derecho   y   la   Medicina.   Entre   ellas   la 
medicina   sería   durante   siglos   la   aliada   natural    del 
desarrollo   de   las   ciencias   naturales.   En   particular  
representó   la   cantera   de   célebres   "doctores" que 
iniciarían   el   desarrollo   de   la   alquimia   europea.   La 
Facultad   de   Artes   nace   en   París   en   el   siglo   XIII   y   en  
Bolonia,   la   primogénita,   se   forman   Dante,   Petrarca   y  
Tasso…

Los constantes intercambios de Fibonacci con gente del Maghreb y de 
Constantinopla le relacionaron con el sistema numérico indoarábigo y descubrió 
sus enormes ventajas prácticas sobre los números romanos que aún se empleaban 
comúnmente en Europa Occidental. Su libro Liber Abaci, publicado en 1202, fue 
una especie de manual de álgebra para usos comerciales. La mayoría de sus 
técnicas de resolución están basadas en los trabajos  algebraicos de al­
Khwarizmi.   Fibonacci ha sido considerado un iniciador de los maestros del 
ábaco, expertos en Álgebra práctica y aritmética, que se difundieron en Italia 
durante el siglo XIV y precursor del renacimiento en las Matemáticas 
representado por las obras de Niccolo Fontana (ca. 1500­1557), alias Tartaglia, 
y Gerolamo Cardano (1501­1576).

Es en este contexto histórico que se fundan las primeras universidades europeas 
con el propósito de servir de instrumento para la expansión de los nuevos 
conocimientos y transmitir la herencia cultural a las nuevas generaciones. En el 
trivium de Teología, Derecho y Medicina que dominara el currículo universitario, 
la Medicina se erigía como la disciplina que demandaba el desarrollo de estudios 
experimentales. Pronto, célebres "Doctores" serían los impulsores del nuevo 
naturalismo europeo.

En el campo de las innovaciones prácticas el escenario europeo va a ser testigo 
en el siglo XII de la difusión de los molinos de viento. Estas maquinarias 
representaron un logro de la cultura persa hacia el siglo VI dC y pronto se 

73
extendieron a China y el Oriente Próximo. El aprovechamiento de la energía de 
los vientos se remonta al Egipto Antiguo cuando se inicia la navegación marina a 
vela. Pero estos artefactos con el movimiento circular de sus aspas, que ha 
impresionado siempre los sentidos humanos, se encargaban de cumplir dos 
importantes funciones: bombear agua para el riego o moler granos. Miguel de 
Cervantes inmortalizó su imagen con el duelo sostenido entre el enfebrecido Don 
Quijote y los enemigos gigantes en su fundacional obra del siglo XVII.

Un exponente de esta fecunda época en que los vasos comunicantes con la cultura 
árabe propician el desarrollo del conocimiento científico lo es Alberto Magno 
(1200 – 1280), santificado por la Iglesia Católica y titulado patrón de todos 
los que estudian ciencias naturales. Reconocido como uno de los naturalistas más 
importantes del siglo XIII, estudia en Padua y ejerce el profesorado en la 
Universidad de París, recorre toda Europa en sus misiones sacerdotales y así 
traba conocimiento de la producción científica árabe y de los clásicos griegos. 

Roger Bacon representa  uno de los primeros   científicos que 


defiende   el   método   experimental   como   base   auténtica   del 
conocimiento. Su rechazo a la autoridad de lo ya escrito y a 
favor de la observación rigurosa le confiere a sus ideas un  
contenido revolucionario que le hacen correr una suerte bien  
distinta a la de su contemporáneo Alberto Magno. En 1278, el  
que fuera más tarde Papa Nicolás IV (1227 – 1292) prohibió la 
lectura   de   sus   libros   y   ordenó   su   encarcelamiento   que   se  
extendió durante 10 años. Su obra mayor Opus Malus se editó y 
publicó sólo en el siglo XVIII.

En el terreno filosófico se distingue Alberto Magno como uno de los artífices de 
la doctrina de "la doble verdad". La solución al debate entre la razón y la fe 
debió pasar por el filtro ideológico que admitiera al hombre la posibilidad y 
capacidad de estudiar el escenario natural creado por Dios, abriendo un espacio 
a la "filosofía de la naturaleza". De cualquier manera, no cesaría la censura 
del poder eclesiástico que obstaculizó el desarrollo y en ocasiones condujo a 
sanciones de prisión y horrendos crímenes. Alberto se identifica con la 
decantación en el estudio inicial de la Zoología de los elementos de 
superstición y prejuicios religiosos que empañaban su conocimiento.

Uno de los iniciadores del trabajo científico y de las producciones teóricas a 
partir de traducciones de fuentes griegas y árabes en la Universidad de Oxford, 
fue Robert Grosseteste (c.1175 ­1253). Grosseteste trabajó en Geometría, Óptica 
y Astronomía, campos en los cuales escribió numerosos tratados. Entre sus 
geniales atisbos se reconocen su comprensión de que el espacio hipotético en el 

74
que Euclides imaginó sus figuras era el mismo dondequiera y en cualquier 
dirección; su noción sobre la refracción de la luz por una esfera llena de agua; 
y su predicción de que la Vía Láctea era el resultado de la fusión de la luz de 
muchas pequeñas estrellas cercanas. Especial relevancia tienen sus trabajos en 
Óptica con lentes y espejos, donde vislumbra la posibilidad de los inventos que 
debieron esperar varios siglos como el telescopio y el microscopio. Contó entre 
sus discípulos a Roger Bacon (1212 ­ 1294) quién heredó de su maestro la 
concepción de que la experimentación debe usarse para verificar la teoría 
mediante la comprobación de sus consecuencias.

El monje franciscano Roger  Bacon constituye un segundo representante 
sobresaliente del despegue de la ciencia “natural” en Oxford. Estudia primero en 
Oxford y luego en la Universidad de París donde llega a ser profesor.  Sus 
escritos incluyen temas sobre óptica (entonces llamada “perspectiva”), 
matemáticas, química, astronomía, las mareas y la reformulación el calendario. 
Su habilidad en el uso de instrumentos ópticos y mecánicos hizo que algunos de 
sus contemporáneos lo consideraran un hechicero. Bacon estaba familiarizado con 
las propiedades de los espejos, conoció los poderes del vapor y de la pólvora, 
fabricó un instrumento muy parecido al telescopio moderno y utilizó lentes de 
aumento para la ampliación de la imagen. En 1278 Bacon fue hecho prisionero en 
el Convento de Ancona en Italia, bajo el cargo de enseñar novedades sospechosas. 
 Sus últimos escritos, compilados en 1293 en Compendium studii theologiae, 
demuestran que hasta el último momento, aún después de sufrir 12 años de prisión 
y aislamiento, defendió sus puntos de vista sobre la importancia de la 
experiencia en la construcción del conocimiento científico.

El   enigma   del   arco   iris   sobre   la   bóveda   celeste   atrajo   la  


atención de los sabios desde Aristóteles en “Metereologica”  
hasta   Robert   Grosseteste   (c.1175   ­1253)   en   su   “De   Natura  
Locorum”.   Pero   corresponde   al monje   dominico   alemán 
Teodorico   de   Freibourg   (c.   1250­1310)   en   su   trabajo   "De  
Iride"   (Sobre   el   Arcoiris,   1304   ­   1310)   el   mérito   de 
desarrollar un escrupuloso trabajo experimental así como un  
reconocimiento   a   cuáles   fueron   los   antecedentes   en   esta  
materia   y   cuáles   sus   ideas   propias   en   el   intento   de  
 explicar   el   problema   del   origen   del   color,   su   muy 
 particular   geometría   y   el   orden   en   que   se   disponen   los  
colores durante la aparición del arco iris primario. Aunque  
su   interpretación   teórica   de   los   hechos   experimentales   es 
básicamente errónea, el prototipo de experimento controlado 
que desarrolla se anticipa a los modelos de simulación que  

75
caracterizan a la metodología de investigación moderna. Más  
de tres siglos después,  Descartes (sin hacer referencias al  
trabajo   de   Teodorico,   a   pesar   de   que   las   copias   de   sus 
trabajos   trascendieron   hasta   esta   época   según   testimonios 
existentes) retoma el problema del arco iris en Les Metgores 
(1637)   haciendo   una   contribución   original   a   la   teoría   del  
fenómeno.

Una de las predicciones de Bacon en el campo de la Óptica, el empleo de lentes 
de aumento para la fabricación de gafas, se materializa hacia la segunda mitad 
del siglo XIII. Fueron artesanos italianos los primeros en fabricar espejuelos 
al lograr, trabajando lentes convexas, un correcto ajuste en la visión de los 
ojos.  La invención se la disputan Salvino D´Armate de Pisa y Alessandro Spina 
de Florencia. Las lentes cóncavas para el ajuste de ver de cerca (miopía) no 
fueron inventadas hasta el siglo XV.  Otra notable sugerencia de Bacon 
relacionada con poner la alquimia al servicio de la preparación de medicinas 
representaba fortalecer la función de las boticas galénicas del Medioevo.

La mecánica de la palanca y la composición del movimiento de un cuerpo aparecen 
desarrolladas en sus fundamentos básicos por el físico­matemático germano 
Jordanus de Nemore (1225 ­ 1260).  Jordanus fue considerado  como uno de los 
filósofos naturales más prestigiosos del siglo XIII.   Es considerado el 
fundador de la estática medieval (rama de la física que estudia los cuerpos en 
reposo o en movimiento no acelerado).  Jordanus fue el primero en formular 
correctamente la ley del plano inclinado. Si en el campo de las matemáticas su 
obra De numeris datis representa el primer libro de álgebra avanzado escrito en 
Europa después de Diofantus, en el ámbito de la Estática sienta cátedra con su 
libro De ratione ponderis. Su vida se abrevia al morir prematuramente de regreso 
de un viaje a Tierra Santa en plena mar.

En el siglo XIII, el científico polaco Witelo de Silesia (1230 ­ 1275), escribió 
un exhaustivo tratado de 10 volúmenes sobre Óptica que sirvió como texto clásico 
sobre esta materia hasta el siglo XVII. Se piensa que debe haberse completado 
alrededor de 1270 y conforme a la época este texto fue copiado y circulado en 
forma manuscrita.  El manuscrito original no se ha preservado pero una edición 
del texto publicado por Regiomontanus (1436 – 1476) fue impresa como un libro a 
mediados del siglo XVI.   Muchos estudiosos defienden que "Perspectiva" está 
basada, por lo menos en parte, en la traducción griega de los trabajos del 
estudioso árabe Alhazen (965­1040)  pero este es un punto controvertido.

76
En   1269   Pierre   de   Maricourt,   más   conocido   por   Petrus  
Peregrinus   o   Pedro   el   Peregrino,   formaba   parte   del 
ejército   francés   que   sitiara   a   la   ciudad   italiana   de  
Lucerna. Encargado de fortificar las posiciones, minar el  
campo,   y   construir   maquinas   para   lanzar   piedras   y 
artefactos incendiarios, en el tiempo libre se ocupaba de  
intentar   resolver   el   problema   del   movimiento   perpetuo   y 
con   este   propósito   diseñó   un   diagrama   para   mostrar   como  
una   esfera   podría   moverse   sin   detenerse   bajo   la   acción  
permanente   de   un   intenso   campo   magnético.   Condenado  
finalmente al fracaso en su empeño de producir la máquina  
del   movimiento   perpetuo,   mostró   una   notable   previsión 
anticipándose   a   los   principios   del   funcionamiento   de   un 
motor eléctrico.

Su   “Epistola   de   Magnete”,   trabajo   pionero   en   el   estudio  


experimental   del   comportamiento   de   los   imanes   mereció   de  
Roger Bacon la consideración de Petrus como el científico  
experimental   más   grande   de   su   tiempo   y   un   verdadero  
maestro   de   todas   las   artes   técnicas   conocidas   en   aquel  
momento.   Sin embargo, su obra más tarde pasó inadvertida  
hasta   que   llamó   la   atención   tres   siglos   después   del  
investigador inglés William Gilbert.

No hay dudas de que muchas de las ideas propuestas por ambos fueron similares. 
Por ejemplo tanto Witelo como Alhazen rechazaron la común percepción de estos 
tiempos de que los rayos luminosos eran emitidos desde los ojos, en su lugar 
sugirieron que los ojos eran pasivos recibidores de la luz reflejada desde otros 
objetos. Sin embargo tal paralelismo no significa necesariamente que uno copiara 
del otro, y el debate alrededor de la cuestión llega hasta nuestros días. Entre 
otros tópicos tratados en Perspectiva, Witelo considera cuidadosamente la 
refracción a través de sus observaciones, notando que el ángulo de refracción 
(ángulo desviado) no es proporcional al ángulo incidente, aunque el no fuera 
consciente del fenómeno conocido hoy como reflexión total interna. También 
explicó un método para producir espejos parabólicos a partir de hierro. El 
trabajo de Witelo sobre Óptica fue tan extenso que la tarea de ampliarlo solo 
fue emprendida más de tres siglos después cuando Kepler publicó en 1604 
"Suplemento al trabajo de Vitelo en la parte óptica de la Astronomía”.

Las ideas aristotélicas sobre la simpatía de los cuerpos cargados eléctricamente 
y entre los atraídos por un imán y este, vigentes a través de los siglos, 

77
reciben una primera corrección,  en el camino de la problematización de este 
campo, por el ingeniero militar  Pierre de Maricourt.

Atraído por la utópica posibilidad de producir la añorada máquina del movimiento 
perpetuo a partir de una esfera sin rozamiento sobre la cual actuara 
permanentemente un imán, Peregrinus (como también se conoce) escribe su 
“Epístola de Magnete” (1269) en la que identifica las propiedades  de los 
imanes, sus polos, la atracción de polos diferentes, la repulsión entre polos de 
igual naturaleza,  y describe una nueva brújula que opera sobre un mecanismo de 
pivote. La Epístola es reconocida como una de las obras de la investigación 
experimental medieval y como precursora de la metodología científica moderna.

La teoría de Aristóteles sobre el movimiento de los cuerpos es revisada también 
y se tiene como pionero de los estudios de la física terrestre que seguirán mas 
tarde los físicos de la "balística" al filósofo frances Jean Buridan (1300? ­ 
1358). En esencia la teoría de los ímpetus de Buridan afirma que el impulso dado 
por el agente que provoca el movimiento de otro cuerpo es proporcional a la 
velocidad y la masa del primero. Estamos a dos siglos de los trabajos del 
maestro de Galileo, Giambattista Benedetti (1530 ­1590), con el cual se inicia 
el adiós definitivo a la dinámica de los ímpetus de Aristóteles.

Dante Alighieri (1265 ­ 1321) supone la última integración  
de   la   cultura   medieval   con   la   nueva   era   renacentista.   La  
Divina   Comedia   constituye   un   inventario   del   pensamiento  
político,   científico   y   filosófico   de   su   tiempo.   Beatriz 
Portinari,   representó   el   símbolo   supremo   del   amor   que  
inspiró su obra  maestra.  Dante no fue ajeno a los vientos  
políticos   de   la   Florencia   de   la   época.   Combatió   para   la  
causa de los güelfos, conoció del destierro de su ciudad, y  
se convirtió al partido de los guibelinos que deseaban la 
unificación   de   Europa   bajo   el   gobierno   de   un   emperador  
culto y competente.

La Escuela de Medicina de Bolonia que se desarrolla en el siglo XIII, es 
antesala de revolucionarios cambios en la práctica de la Medicina y entre los 
representantes de esta época sobresale Teodorico Borgognoni (1206­1298).  En su 
obra "Chirurgia" describe nuevas técnicas en la cirugía como la limpieza de las 
heridas con vino, la aplicación de anestesia mediante una esponja somnífera 
empapada en una mezcla de extracto de opio, beleño, mandrágora y otras drogas, y 
el empleo de la sutura de las heridas tras una  limpieza cuidadosa, con  lo 
cual  invierte  la práctica habitual de la época de  aplicar sustancias que  
estimulasen la  formación de pus. Utiliza para la sutura hilos preparados con 

78
intestinos de animales. Esta Escuela rompe con la tradición de la Escuela de 
Galeno y comienza a escribir las nuevas experiencias que se acumulan en el 
terreno de la mesa de operaciones.

Un punto de transición en el camino que convirtió la Alquimia en Farmacia viene 
representado por “El Libro de la Quintaesencia” atribuido a la figura pionera en 
la formación de la literatura catalana Ramón Llull (1232­1316), y a Johannes 
Rupescissa. Ellos tienen el mérito de aportar una nueva visión en la preparación 
de los medicamentos.

El más importante de los alquimistas europeos que firmaba sus documentos como 
Geber (el famoso alquimista árabe que viviera dos siglos antes) fue el primero 
en describir, hacia el año 1300, la forma de preparar dos ácidos fuertes 
minerales: el ácido sulfúrico y el ácido nítrico.  Poco tiempo después de Geber 
el estudio de la alquimia, por segunda vez en la historia, sería prohibido. En 
esta ocasión corresponde al Papa Juan XXII (Papa de 1316 al 1334) declararlo 
anatema. Sobrevendrían largos años de silencio o acaso de clandestinidad de la 
Alquimia que impidiera llegar hasta nosotros cualquier conocimiento producido.

Un gran vacío en la producción de los conocimientos científicos se advierte en 
el período de la gran epidemia de la peste (1340) que motivó la muerte de una 
cuarta parte de la población europea, y de la Guerra de los Cien Años (1337 ­ 
1453) conjunto de episodios bélicos que asoló a Europa.

En una ojeada hacia el Oriente, resulta de interés pasar revista primeramente al 
contexto bizantino que al heredar el legado cultural  romano podría haber 
representado el escenario donde se conservaran y desarrollaran las tradiciones 
intelectuales del mundo clásico mediterráneo. Sin embargo, los bizantinos 
cristianos tampoco se dedicaron al enriquecimiento de las obras de los filósofos 
y científicos griegos y latinos.  Sólo en tiempos de esplendor de Constantinopla 
como los casi dos siglos de dinastía macedónica, entre el 867 y el 1057, y más 
tarde durante la dinastía de los Paleólogo (1261 –1453), el mundo bizantino 
conoció una recuperación de la vida cultural que en materia secular representó 
la copia y reformulación extractada de algunos manuscritos antiguos y una 
renovada atención hacia las matemáticas y la astronomía. Este saber “recuperado” 
encontró sus vías de comunicación con Europa en tiempos de las Cruzadas y luego 
durante el éxodo de los eruditos a la caída de Bizancio en manos de los turcos 
(1453).

79
La expansión del dominio musulmán a la altura del  
siglo   VII   por   el   oeste   de   Asia   y   el   norte   de  
África;   los   contactos   con   restos   de   la   herencia  
cultural   griega   en   Persia   y   Egipto;   y   los  
intercambios   con   la   India   y   China,   fueron  
elementos   que   conformaron   una   asimilación  
multicultural de la cual emergen numerosos logros 
en particular en las Matemáticas, la Astronomía y 
la Alquimia.

Pero existe una aportación, que mezclada con la leyenda, merece un breve 
comentario. Hacia fines del siglo VII, en medio de la expansión hacia el norte 
de los musulmanes, la armada bizantina utiliza un arma incendiaria en batallas 
navales, mucho más potente que las conocidas hasta entonces, que sembró el 
pánico entre las naves atacantes. La receta de semejante arma, conocida luego 
con el término de Fuego Griego, fue tan celosamente guardada que 50 años después 
de su aparición en el escenario bélico sus propios dueños la habían perdido. Lo 
cierto es que Bizancio pudo organizar con éxito la defensa de Constantinopla del 
acecho de los musulmanes pero bien distinta fue la suerte corrida por los 
pueblos hacia el este y el oeste que fueron conquistados por los árabes.

De tal modo, paralelo al medioevo europeo, comienza rápidamente a expandirse un 
mundo islámico que gesta una brillante cultura cuyos logros fundamentales, 
examinaremos a continuación.  Conviene destacar que si la comunidad islámica 
llega a representar la civilización más fecunda de la época medieval esto se 
hace posible gracias a la política de integración de las culturas precedentes y 
vecinas al desarrollo del patrimonio propio alentada por las dinastías 
musulmanas primero de los Omeyas (661­ 750) y luego de los Abasis (s.VIII – 
s.XIII) que llegaron a dominar ya a mediados del siglo VIII desde las regiones 
periféricas de China y la India, por el este, hasta el norte de África y casi 
toda la península Ibérica, por el oeste.

Mientras los Omeyas al conducir la expansión del Islam por los vastos 
territorios conquistados instauraban un clima de tolerancia  religiosa  que 
favorecía la inmigración de eruditos, procedentes del dominio bizantino, donde 
sufrían persecución si profesaban creencias cristianas heterodoxas o paganas, 
tanto los Abasis como la dinastía Fatimí de Egipto se convirtieron en Mecenas de 
las ciencias, fundando instituciones como la Casa de la Sabiduría de Bagdad 
(siglo IX) para el estudio de las ciencias y para la traducción de los textos 
científicos y filosóficos griegos, o el recinto universitario cairota, dedicado 
a la enseñanza secular, la Universidad al­Azhar (siglo X).

80
Con relación al pensamiento matemático se destaca la aportación que viene de la 
India en el año 500 DC con la utilización del cero para evitar confusiones en el 
manejo del ábaco. La innovación más importante de este sistema, desarrollado más 
tarde por los árabes fue el uso de la notación posicional, en la que los 
símbolos individuales cambian su valor según su posición en el número escrito.

La   Casa   de   la   Sabiduría   (Dar   al­Hikma),   fundada   en 


Bagdad en el siglo IX por el califato Abasí, promovió  
un auge extraordinario de la Matemática, la Astronomía  
y   la   Alquimia.   Este   centro   propició   la 
profesionalización   del   trabajo   científico   y   en   él  
laboraron   en   armonía,   sabios   musulmanes,   judíos   y  
cristianos.   Este   beber   de   diferentes   culturas  
contribuyó   al   liderazgo   árabe   en   la   noche   medieval 
europea. 

La Astronomía que tanto desarrollo mostró en la cultura griega pasó más tarde 
hacia el este a los sirios, indios y árabes. Los astrónomos árabes recopilaron 
nuevos catálogos de estrellas en los siglos IX y X y desarrollaron tablas del 
movimiento planetario. Al hacerlo debieron beber de la obra clásica de las 
matemáticas y la astronomía hindú “La apertura del universo” escrita en el 628 
por Brahmagupta (598 – 670). Este científico fue director del observatorio en 
Ujjain, y su obra astronómica abarca el cálculo de las longitudes medias de los 
planetas, los eclipses solares y lunares, las conjunciones de los planetas unos 
con otros y con las estrellas fijas. Como matemático, a diferencia de la mayoría 
de los algebristas europeos de la Edad Media reconoció los números negativos e 
irracionales como raíces posibles de una ecuación.

El sistema de numeración posicional es uno de los más grandes inventos de la 
humanidad, ya que con sólo diez símbolos permite expresar fácilmente cualquier 
número y múltiples operaciones entre estos. La gloria se encarna en el árabe Al­
Khwarizmi (780 – 850), de cuyo nombre se deriva la palabra algoritmo, y que es 
considerado el primer matemático que reporta la notación posicional. En 810 
escribe un libro donde acuñó el término que en español queda como álgebra. La 
primera referencia escrita del uso de este tipo de numeración en Europa data del 
año 976. Al­Khwarizmi es un relevante representante de la Casa de la Sabiduría 
fundada por el califa al­Mamun en Bagdad, quien también construyó la principal 
biblioteca erigida después de la de Alejandría, donde se coleccionaron 
importantes trabajos de Bizancio, y edificó observatorios para enriquecer los 
conocimientos astronómicos acopiados por culturas precedentes. Además de 
traducir y estudiar manuscritos científicos griegos, Al­Khwarizmi escribió sobre 

81
álgebra, geometría y astronomía. Su libro Sindhind zij, basado en los trabajos 
astronómicos hindúes, resume sus aportaciones en este campo. Los principales 
tópicos incluidos en esta obra son los calendarios, los cálculos de las 
posiciones verdaderas del sol, la luna y los planetas, tablas de senos y 
tangentes, astronomía esférica y cálculos de eclipses y paralelajes. Al­
Khwarizmi escribió un trabajo fundamental sobre geografía que está basado en la 
Geografía de Tolomeo, y en el cual ofrece las longitudes y latitudes de más de 
2000 ciudades, montañas, rios, islas y mares como base para un mapa del mundo, 
en el cual sus aportaciones se refieren a las regiones del Islam, África y el 
Lejano Oriente.

A mediados del siglo X, el califato Fatimí   no reconoció la autoridad Abasí y 
gobernó la mayor parte del norte de África, desde Egipto hasta la actual 
Argelia, además de Sicilia y Siria. Ellos fundaron la ciudad del Cairo como la 
capital del nuevo imperio.   Al­Hakim, el segundo de los califas fatimís que 
comenzaron el reinado en Egipto, fue un líder cruel y sin embargo actúo como  un 
patrón de las ciencias, construyendo una biblioteca que fue segunda en 
importancia sólo de la Casa de la Sabiduría.

La   astronomía   árabe   bebió   de   las   fuentes   hindúes   y  


tuvo una gran influencia en el desarrollo posterior de  
la   astronomía   europea.   En   particular   la   obra   del 
astrónomo Abd al­Rahman al­Sufi (903 ­ 986), también  
conocido por su nombre latinizado de Azofi, "Libro de  
las estrellas fijas"  que incluye un catálogo de 1018  
estrellas,   con   sus   posiciones   aproximadas,   las  
magnitudes   y   colores,   fue   traducido   a   diferentes 
idiomas. En este libro escrito  en 964 se descubre la 
galaxia Andrómeda, a la que llamó "pequeña nube".

La galaxia Andrómeda a una distancia de 2,2 millones de años luz, representa  
la galaxia espiral más cercana y el objeto más distante que se puede observar 
a simple vista. Este fue el primer registro de un sistema de estrellas fuera  
de nuestra propia galaxia.

Para conducir el colosal empeño de Al­Hakim de regular el curso de las aguas del 
Nilo fue designado el sabio Abu Ali al­Hasan ibn al Haytham (965 ­1040).  Al 
Haytham vino a Egipto desde Basora para encabezar el equipo de ingeniería  pero 
a medida que avanzaba en la exploración del río mayores dificultades aparecieron 
para cumplir el proyecto, hasta que se vio en la necesidad de reconocer su 
inviabilidad.

82
El informe presentado por al­Haytham defraudó al califa que consideró 
incompetente al sabio y le asignó un puesto administrativo. Se afirma entonces 
que al­Haytham se hizo pasar por loco y fue recluido en su casa, lo que le 
permitió proseguir sus estudios científicos en la soledad de su residencia, 
hasta la muerte del califa. Las escrituras de Ibn al­Haytham abarcan más de 90 
trabajos, de los cuales sobreviven unos 55. Los temas principales que abordó 
fueron la teoría de la luz y de la visión. La mas importante contribución de al­
Haytham a la ciencia es su obra en siete libros traducida al latín en 1270 
como Opticae thesaurus Alhazeni. En el libro I se destaca la consideración de 
que la investigación de la luz debe basarse en evidencias experimentales más que 
en teorías abstractas. Advierte que la luz es la misma con independencia de la 
fuente, sea luz solar, o proveniente del fuego, o luz reflejada de un espejo, y 
ofrece la primera explicación correcta de la visión, mostrando que la luz 
reflejada por un objeto alcanza el ojo humano. Sus estudios lo conducen a 
concebir y proponer el uso de la cámara obscura. Desde el punto de vista 
matemático el libro IV es el más importante al discutir la teoría de la 
reflexión y describir la construcción y el uso de un instrumento de cobre para 
medir la reflexión desde espejos planos, esféricos, cilíndricos y cónicos, sean 
convexos o cóncavos. En el libro VII examina la refracción basada en la idea de 
que la luz es un movimiento que admite una velocidad variable (siendo menor en 
cuerpos más densos). Su estudio de la refracción le hace estimar en unos 15 km 
la altura de la atmósfera terrestre.

El final del siglo X y el comienzo del siglo XI fue un periodo de gran 
inestabilidad en el mundo islámico y en particular la zona de Persia controlada 
por la dinastía samaní que dominó los centros culturales de Samarcanda y Bujara 
fue sacudida por devastadoras luchas fraticidas. Estas circunstancias sacudieron 
la vida de los sabios de esta región y obstaculizaron el desarrollo de la 
cultura científica árabe. Entre los exponentes más destacados de este período se 
encuentran Abu Rayhan al­Biruni (973 ­ 1048) y Abu Ali al­Husain ibn Sina 
(Avicena) (980 ­ 1037).

Omar   Khayyam   (c.   1050­1122),   es   no   sólo   el   más   célebre  


astrónomo y matemático persa de la época, sino que es autor de  
uno   de   los   poemas   más   famosos   del   mundo. A   partir   de   sus 
propias   observaciones   astronómicas   Khayyam   midió   la   longitud  
del   año   como   365.24219858156   días.   La   medición   del   año   al 
final   del   siglo   XIX   fue   de   365.242196   días   y   hoy   es   de 
365.242190 días. El poema Rubaiyyat, del que se le atribuyen  
unas 1.000 estrofas habla del drama de la naturaleza y del ser  

83
humano.

Las contribuciones de al­Khwarismi a la geodesia y la astronomía fueron 
superadas un siglo más tarde por Abu Rayhan al­Biruni (973 ­ 1048). Al­Biruni 
también es oriundo de la misma región de Khwarasm. La introducción del método de 
la triangulación para medir la Tierra y las distancias le permitió calcular el 
radio del planeta en 6339.6 km, un valor no obtenido en Occidente hasta el siglo 
XVI. Su libro Masudic canoncontiene una tabla que ofrece las coordenadas de unos 
600 lugares, casi todos a través de sus propios conocimientos. Entre sus ideas 
originales sobresalen sus observaciones sobre que la velocidad de la luz es 
inmensamente mayor que la del sonido, su noción de la Vía Láctea como una 
colección de incontables fragmentos de estrellas nebulosas, y sus medidas 
precisas de los pesos específicos del oro, mercurio, plomo, plata, bronce, 
cobre, latón, hierro y estaño.

El volumen del trabajo escrito por al­Biruni es impresionante. Se estima que el 
escribió alrededor de 146 trabajos con un total de 13,000 páginas, cubriendo 
prácticamente todo los ámbitos de la ciencia de su tiempo. El más importantes de 
estos trabajos es Sombras que se cree fue escrito alrededor de 1021.Sombras es 
una fuente sobre la historia de las matemáticas, la astronomía y la física.  
También contiene ideas importantes como aquella que identifica el movimiento no 
uniforme con la aceleración del móvil, o la que anticipa la introducción de las 
coordenadas polares al definir la posición de un punto en un espacio de tres 
dimensiones, usando las tres coordenadas rectangulares.

La vida de Ibn Sina ­ Avicena en Occidente­  transcurrió en un contexto repleto 
de adversidades que debió sortear para producir una importante obra científica, 
que lo sitúa entre los más famosos doctores, matemáticos y astrónomos de su 
época.   Ibn Sina escribió alrededor de 450 trabajos de los cuales 240 se 
conservan,  unos 150 se relacionan con la filosofía natural y 40 se dedican a la 
medicina,  sus dos campos principales de estudio.  Una de las cuatro partes de 
su gran obra "El libro de las curaciones" se dedica a las matemáticas, 
incluyendo en esta sección sus investigaciones sobre astronomía y la teoría de 
la música. En particular sus observaciones astronómicas brindaron algunas 
aportaciones como la deducción correcta de que la distancia entre Venus y la 
Tierra era menor que la que separaba al lucero de la aurora del sol, y también 
ofreció el método para calcular la distancia entre Baghdad y Gurgan mediante la 
observación del tránsito del meridiano de la Luna a Gurgan. Una contribución 
instrumental de Sina a las mediciones astronómicas lo fue el dispositivo que 
permitió determinar las coordenadas de una estrella, su azimut y su altitud.   
Con el propósito de aumentar la precisión de las lecturas instrumentales inventó 
un artificio similar al nonio.

84
 

Ibn Sina ­ Avicena en Occidente­ es conocido sobre todo por  
sus   aportaciones   en   el   campo   de   la   medicina. En   Física, 
reconoce   como   diferentes   formas   de   energía   al   calor   y   la 
luz,   y   en   sus   estudios   sobre   mecánica   introduce   los  
conceptos   de   fuerza,   vacío   e   infinito.   Su   atisbo   de  
interconexión   entre   tiempo   y   movimiento   adelanta   la 
necesidad   de   los   experimentos   cuantitativos. La   percepción 
de la luz es para Ibn Sina debida a la emisión de un tipo de  
partículas por la fuente luminosa, y por otra parte dedujo  
correctamente que la velocidad de la luz es finita. También 
investigó sobre la gravedad específica de los cuerpos y usó 
un termómetro de aire.

Casi dos siglos después de los trabajos en óptica de Ibn al Haytham,  el sabio 
persa al­Farisi (1260 ­1320), conocido también como Kamal al­din, publica su 
obra Tanqih (Revisión). En este libro al­Farisi no busca una mera explicación a 
los trabajos de los maestros que le precedieron sino intenta desarrollar teorías 
alternativas allí donde advierte vacíos en los conocimientos sobre los fenómenos 
ópticos. Su trabajo sobre la luz, los colores  y el arco iris se exponen en esta 
obra, que explica en términos matemáticos satisfactoriamente la formación del 
arco iris.

Si al Haytham había propuesto que la luz solar es reflejada por una nube antes 
de alcanzar el ojo, al­Farisi propone un modelo donde el rayo de luz solar 
experimenta doble refracción por una gota de agua, y una o más reflexiones 
ocurren entre las dos refracciones. Este modelo permite la verificación 
experimental utilizando unas esferas de vidrio transparente llenas de agua. 
Naturalmente esto introduce dos adicionales fuentes de refracción, 
principalmente entre la superficie del vidrio y del agua. Al­farisi fue capaz de 
demostrar que la aproximación obtenida por su modelo era suficientemente buena 
para ignorar estos efectos secundarios.  Para poder explicar la formación de los 
colores al­Farisi acudió a un nuevo punto de vista teórico que rechazó la 
anterior hipótesis según el cual los colores eran el resultado de diferentes 
combinaciones de oscuridad y luz.

Las precisas mediciones de los pesos específicos de los metales preciosos 
realizadas por al­Biruni fueron superadas casi un siglo después por quien fuera 
un joven esclavo de la región del oasis de Merv, centro agrícola y comercial de 
la época (en territorio de la hoy República de Turkmestán). Al­Khazini (primera 
mitad del siglo XII) merece ser incluido entre los grandes físicos, por sus 

85
admirables determinaciones de pesos específicos. Impulsado por el propósito de 
comprobar la pureza de los metales, joyas y aleaciones con fines comerciales Al­
Khazini llevó a cabo refinamientos en la práctica de las balanzas que hacen de 
su conocida obra  la "Balanza de la sabiduría", (Mizan al­Hikma) un ejemplo de 
atención a la precisión científica en los resultados experimentales y uno de los 
más notables escritos del medioevo. Este tratado ha sobrevivido en cuatro 
manuscritos. En estos estudios se describe la balanza hidrostática, su 
construcción y usos así como la teoría de la estática e hidrostática sobre la 
cual descansa. En el primero de sus ocho capítulos pasa revista a los 
antecedentes encontrados en las obras de al­Biruni, al­Razi y Omar al­Khayam, y  
en los errores de los clásicos griegos para luego diferenciar claramente los 
conceptos de fuerza, peso y masa. También fue consciente del peso del aire y de 
la disminución de la densidad con la altitud. Varias observaciones de Al­Khazini 
constituyen algunas de las bases de la física moderna. Fue el primero en 
proponer la hipótesis de que la gravedad de los cuerpos varía dependiendo de su 
distancia al centro de la Tierra.

Las   mediciones   de   los   pesos   específicos   de   los 


metales, joyas y aleaciones para fines comerciales y 
la teoría en que descansa esta práctica fue objeto de  
estudio   de   la   ciencia   árabe.   En   este   campo   brilló  
quien fuera un joven esclavo. La obra de al­Khazini la  
"Balanza   de   la   sabiduría"   (Mizan   al­Hikma)   es   un  
ejemplo de atención a la precisión científica en los  
resultados   experimentales   y   uno   de   los   más   notables 
escritos del medioevo. En teoría al­Khazini distingue  
los conceptos de fuerza, peso y masa y reconoce que la  
densidad   del   aire   disminuye   con   la   altura.   Es   el  
primero en lanzar la hipótesis de que la gravedad de 
los   cuerpos   varía   dependiendo   de   su   distancia   al  
centro   de   la   Tierra,   fenómeno   descubierto   sólo   6  
siglos   después   con   el   desarrollo   d   la   teoría   de   la 
gravitación.

Conocidos como arabistas, la escuela árabe de Medicina superó a los médicos 
europeos del Medioevo. Entre los factores históricos de estos progresos se 
relaciona el encuentro de los árabes en Persia con los clásicos griegos 
conservados por los nestorianos cristianos. Entre las obras arabistas se 
encuentra la del médico cairiota Ibn al­Nafis (1205 –1288) que refleja el 
profundo dominio de la herencia hipocrática por parte de la medicina árabe. Sus 
principales aportaciones se refieren a la descripción de las técnicas 

86
quirúrgicas en atención a traumatismos y la representación de la circulación 
pulmonar, es decir del movimiento de la sangre desde el ventrículo derecho del 
corazón al izquierdo a través de los pulmones. Con este descubrimiento al­Nafis 
se antecede en casi cuatro siglos a la revolución fisiológica que provocó el  
redescubrimiento y el desarrollo de las ideas sobre el sistema circulatorio 
descrito por el inglés William Harvey (1578 – 1657).

Desde el al­Andalús español la cultura árabe irradió sus logros hacia el 
escenario medieval, aletargado, europeo. Este territorio fue cuna de filósofos, 
científicos, artistas y sabios, y en ella se forjaron pilares del saber que hoy 
ni sabemos con exactitud de dónde procedieron.  Hacia el siglo XI Córdoba llegó 
a ser la capital más culta de Europa.

El Almagesto de Ptolomeo y las llamadas Tablas Toledanas astronómicas del árabe 
Azarquiel (¿­ 1100), fueron rescatadas para el saber occidental gracias al 
movimiento de traducción que se desarrolla a partir de 1085 con la reconquista 
de la ciudad de Toledo por el rey Alfonso VI. Gerardo de Cremona (1114 – 1187), 
instalado en Toledo durante buena parte de su vida, contribuyó con su obra a la 
traducción de más de noventa tratados árabes. Así, el interés por las ciencias 
despertado a partir de entonces no puede ser separado del encontronazo entre dos 
culturas que adquirió en los siglos XII y XIII una expresión de tolerancia 
productiva entre judíos, cristianos y musulmanes.

Otro personaje que desempeña un papel muy destacado en la transmisión hacia 
Europa de la cultura grecolatina conservada por los árabes, es el filósofo y 
“físico” árabe del al­andalús medieval, Abul Waled Muhammad ibn Rusd, conocido 
como Averroes (1126 – 1198). Se le atribuye también haber sido de los pioneros 
en el estudio de la atracción magnética. En filosofía fue defensor de la 
doctrina de la doble verdad, la verdad de la filosofía natural y la verdad de la 
teología que más tarde se abrirá paso en Europa.

Hacia el  siglo XIII sobreviene el ocaso del mundo árabe cuando caen todas las 
regiones islámicas del Asia en manos del imperio mogol. Primero tuvo lugar la 
conquista y saqueo de las huestes de Hūlagū, nieto del conquistador mogol Gengis 
Kan, y a principios del XV otro mogol, Tamerlán (1336 ­1405) barrió de nuevo las 
otrora grandes capitales árabes.

87
El al­ Andaluz, dominio musulmán en la península ibérica, y  
en   particular   el   califato   de   Córdoba,   actuó   como   foco   de  
irradiación del conocimiento científico hacia la Europa del  
florecimiento   del  feudalismo   en   los  siglos  XII   y  XIII.  En 
particular el pensamiento europeo descubre a través de las  
traducciones árabes las grandes obras del mundo greco­latino  
y el repertorio de realizaciones de la ciencia islamita.  En 
la   imagen   la   mezquita   de   Córdoba.   Impresiona   la   Mezquita  
como síntesis cultural y como uno de los más excepcionales  
monumentos   del   planeta.  Hacia  el   siglo   XI  Córdoba   llegó   a 
ser la capital más culta de Europa.

Mientras, en la península ibérica en 1492, las tropas de los reyes católicos de 
Castilla derrotaban al reino Nazarí de Granada, último reducto del dominio 
árabe, concluyendo así el proceso llamado “Reconquista” en el cual los reinos 
cristianos se aprovecharon de las reiteradas divisiones internas de los árabes 
para empujarlos hacia el sur y finalmente infringirles la derrota. Ocho siglos 
atrás, la conquista musulmana de la Hispania visigoda había aprovechado la 
guerra civil que debilitaba al reino de Toledo, y con la Batalla de Guadalete 
sellaba la derrota y muerte del rey Rodrigo para abrir paso a una política de 
pactos y capitulaciones con la nobleza y las ciudades que llevo a los árabes a 
la ocupación de las posesiones visigodas.

En el período bajo examen las principales realizaciones del mundo oriental, 
relacionadas con el ámbito que nos ocupa, estuvieron centradas en la 
civilización china. China conoció por entonces tres grandes dinastías: la 
dinastía Tang (618­907), el reinado de los Song (960­1279), y el imperio Yuan 
(1279 – 1368).

La experiencia artesanal china, durante la dinastía Tang, comenzó a dominar la 

tecnología de hornos que alcanzaran entre 1250 ­ 1300 oC, intervalo de 
temperatura requerido para que una pasta constituida por caolín, cuarzo y 
feldespato se transformara en un material blanco, resonante y translúcido: la 
porcelana. Más tarde, en el período Song se hacían porcelanas con formas 
elegantes, decoradas con incisiones y barnices que iban desde el marfil y los 
verdes y azules más pálidos hasta los castaños rojizos e incluso el negro. Los 
objetos más importantes eran los de la cerámica de celadón en los que se imitaba 
lo colores del jade.

Pero los cuatro grandes inventos de la nación china, la fabricación del papel, 
la imprenta, la brújula y la pólvora, se registraron, durante las dinastías Song 

88
y Yuan. En cada uno de estas invenciones, se advierten enormes discrepancias 
entre los especialistas a la hora de fijar la fecha en que aparece introducido 
tal invento. Por lo visto estas diferencias se explican atendiendo al diferente 
criterio usado para datar su implementación. Por ejemplo existen fuentes que 
admiten como restos  del papel más antiguo el hallazgo arqueológico encontrado 
en el pueblo de Lou ­ Lan en el Turquestán chino, de fecha cercana al siglo II. 
Sin embargo aquella técnica para su obtención, a partir de la celulosa de la 
madera, que llegara a Europa a través de los árabes, la dominaron los chinos 
durante la dinastía Song.

La   impresión   de   libros   mediante   la   utilización   de   bloques   de   madera   con 


caracteres incisos fue empleada por los chinos para la reproducción en el 972 de 
los  escritos  sagrados  budistas  del   Tripitaka,  la  principal  colección  canónica 
budista, que constan de más de cien mil páginas.

Fue   a   fines   del   primer   milenio   de   nuestra   era   que   el  


inventor chino Bi Sheng ideó la impresión mediante tipos  
móviles, es decir, caracteres sueltos dispuestos en fila,  
de   manera   similar   que   en   las   técnicas   actuales,   para  
imprimir   la   sagrada   obra   budista   del   Triptaka.   Sin  
embargo,   un   obstáculo   resultó   insalvable   para   la  
aceptación   y   posterior   difusión   de   esta   notable   técnica  
en   el   contexto   chino:   su   idioma   posee   más   de   cinco   mil  
caracteres   diferentes.   Más   de   4   siglos   después,   en   la  
Europa del renacimiento, donde se inscribían en la agenda  
histórica   la   Reforma   y   el   Protestantismo,   surge   la  
imprenta de tipos móviles del germano Johann Gutemberg y  
el primer libro impreso: la Biblia.

La navegación marina tuvo también en un invento chino, la brújula, importante 
condicionante   para   su   desarrollo.   Desde   la   antigüedad   el   hombre   conocía   dos 
tipos  de  sustancias,  la  resina  fósil  conocida  como  ámbar  y  la  magnetita,  que 
mostraban la existencia de una fuerza de acción a distancia como la observada en 
la   caída   de   los   cuerpos   hacia   la   tierra.   Pero   la   utilización   de   agujas 
imantadas para orientarse en las expediciones por tierra y para el trazado de 
planos en los terrenos de construcción fue obra del ingenio de los chinos.  La 
invención de la brújula magnética para la navegación fue muy posterior y se fija 
hacia   el   siglo   X,   durante   la   dinastía   Song   (960   –   1279).   Penetrar   en   la 
naturaleza del electromagnetismo exigió de todo un complejo desarrollo iniciado 
justamente con el nacimiento del siglo XVII.

89
La pólvora es otro de los grandes inventos de la química artesanal china. Las 
crónicas chinas afirman haber fabricado pólvora durante la dinastía Song (960­
1279)   y   destacan   la   efectividad   de   sus   cohetes   de   guerra   en   1232   durante   el 
asedio de Kaifeng, y contra los invasores mongoles en 1279. Es precisamente en 
el siglo XIII que se registra el empleo de la pólvora en Europa. Ya en el siglo 
XV se ha extendido la utilización de los cohetes a las batallas navales, casi 
nueve siglos más tarde del empleo del Fuego Griego por la armada bizantina. La 
oficina   parisina   de   pólvora   y   salitre   del   siglo   XVIII   fue   asiento   para   el 
trabajo de Antoine Laurent Lavoiser (1743 – 1794), y rampa de lanzamiento de la 
primera Escuela de Ingeniería Química, la Escuela de Pólvora.

Al  proceso  de  decadencia  del   medioevo   en  el  escenario  europeo   le  acompaña   un 
deterioro general de la producción científica motivada por la gran epidemia de 
la peste (1340) y el conjunto de episodios bélicos conocido como la Guerra de 
los Cien Años (1337 – 1453) que asolaron el panorama europeo. Por la época, el 
imperio bizantino agoniza ante el empuje de los otomanos, la región asiática del 
imperio  árabe   ha  sucumbido  ante  el  ejército  mongol  desde  el  XIII,  China  está 
experimentando  el  declive  del  imperio  mongol  de  los  Yuan  que  concluye  con   el 
reordenamiento   de   la   dinastía   Ming,   y   en   la   Samarcanda   de   Ulugh   Beg   (1394   ­ 
1449),   nieto   del   gran   conquistador   Tamerlan,   se   construye   un   observatorio   de 
dimensiones   sin   precedentes   donde   se   elaboró   un   catálogo   estelar,   el   Zij­i 
Sultani,   publicado   en   1437,   que   fue   un   modelo   hasta   el   siglo   XVII   en   que   la 
astronomía   da   el   salto   concedido   por   el   uso   del   telescopio   y   se   produce   la 
revolución científica.

La pólvora fue inventada por los chinos para la fabricación  
de   fuegos   artificiales   obtenidos   por   la   combinación   de 
salitre   (nitrato   de   potasio),   carbón   de   leña   y   azufre.   Al 
redescubrirse   en  el  escenario   europeo,   este   ingenio   reveló  
importancia militar y fue empleado pronto en la guerra. La  
oficina   parisina   de   pólvora   y   salitre   del   siglo   XVIII   fue 
asiento para el trabajo de Antoine Laurent Lavoiser (1743 –  
1794),   y   rampa   de   lanzamiento   de   la   primera   Escuela   de 
Ingeniería Química, la Escuela de Pólvora.

En tanto Europa vivía su largo período medieval, la América precolombina conoció 
del período clásico de sus culturas mesoamericanas y andinas.

La civilización maya, uno de los imperios más poderosos de Mesoamérica, llegó a 
ocupar   un   territorio   equivalente   a   tres   veces   la   superficie   del   archipiélago 
cubano,   extendiéndose   desde   la   península   de   Yucatán   por   las   tierras   bajas   de 
México,   Belice   y   Guatemala   hasta   Honduras.   Las   ciudades   –   estados,   centros 

90
monumentales   que   supieron   erigir   tuvieron   su   mayor   esplendor   en   el   período 
clásico entre 200 d.C. – 900 d.C.

El triángulo geográfico que conformaron sus ciudades insignias en sus primeros 
tiempos históricos tenía en sus vértices a Palenque en Chiapas, Uaxactún en 
Guatemala y Copán en Honduras. Sus dominios se extendieron así por un área 
intrincada y selvática, atravesada por grandes ríos.

La   dimensión   cultural   alcanzada   por   la   civilización   maya   se   evidencia   en   su 


elaborado   sistema   de   escritura   jeroglífica,   su   impresionante   capacidad 
arquitectónica  y  el  notable  desarrollo  científico   y artístico   que  alcanzaron. 
Los   conocimientos   mayas   en   el   campo   de   las   matemáticas   y   la   astronomía 
constituyen ejemplo elocuente del talento creativo de este pueblo.

Aunque desde los primeros siglos de nuestra era, los territorios mesoamericanos 
se fueron poblando de observatorios astronómicos, fue durante el período clásico 
del   desarrollo   de   esta   cultura   que   se   acumulan   las   observaciones   y 
determinaciones solsticiales y los cálculos solares, lunares y planetarios, que 
hacen   alcanzar   los   triunfos   astronómicos   de   los   grandes   centros   como   Copán, 
Palenque y Quiriguá.

En Copán en el siglo VIII d.C. los sabios astrónomos mayas lograron determinar 
la duración real del año en 365.2420 días, que sólo difiere en dos diezmilésimas 
de días del cálculo  actual realizado con medios electrónicos.

Como todos los calendarios funcionaban con unidades enteras, se vieron obligados 
a   hacer   correcciones   y   a   poner   días   intercalados   que   armonizaran   el   año 
calendario   con   el   astronómico,   ya   que   este   que   cuenta   realmente   con   365.2422 
días, va acumulando una diferencia que debe ser ajustada de tiempo en tiempo. 
Los mayas, conscientes de esta acumulación sabían que su año corría más de prisa 
que el año solar verdadero.

Los mayas desarrollaron un elaborado sistema de escritura  
jeroglífica, formada por unos 800 glifos que combinan los  
símbolos   pictográficos,   los   signos   gráficos   para  
representar   palabras   (logográficos)   y   los   signos  
fonéticos para representar sonidos.

Copán,   ciudad   maya   radicada   en   territorio   de   la   actual  


Honduras, uno de los ejemplos de arquitectura monumental  
de esta civilización, posee el texto labrado más largo de  
América: la Escalera Jeroglífica.  Más de mil 250 bloques  
de   piedra   fueron   esculpidos   para   conmemorar   la   vida   de  

91
sus  antepasados.   Por   el  lugar  preeminente   que  ocupa  se  
ha   pensado   que   debió   conducir   a   un   templete   donde   se 
instalara el centro astronómico de Copán.

Ha   sufrido   la   erosión   del   tiempo   sin   que   una   acción  


oficial   impida   su   progresivo   deterioro.   La   cultura   de  
nuestra   América   siente   este   daño   como   una   pérdida  
irreparable.

Existen pruebas de que a partir del siglo VI y hasta el siglo VII d.C. fueron  
realizando diferentes correcciones, acercándose cada vez más a la duración real 
del año, hasta que en el 731 d.C la ciudad de Copán logró la determinación antes 
dicha. Su exactitud puede ser comprendida con esta tabla comparativa.

Cálculo actual 365.2422 días

Cálculo de Copán 365.2420 días

Año Juliano 365.2500 días

Año Gregoriano 365.2425 días

Durante   unos   522   años   los   mayas   anotaron   fechas   de   la   luna   en   muchos 
monumentos,   lo   que   indica   los   conocimientos   que   tenían   de   este   astro.   La 
duración del mes lunar (cambio de una fase a otra similar), según los astrónomos 
modernos es   de 29.53059 días.   Para los mayas, que no utilizaban fracciones,  
el problema era encontrar un número entero de lunas que igualase el número de 
días,   lo   que   permitiría   correlacionarlos   y   realizar   los   cómputos   que   se 
extendieran hacia el pasado o el futuro.

Como  ejemplo de esas fórmulas que combinaban lunas  y  días para determinar la 
cuenta con precisión, es usada una inscripción en   el Palacio de Palenque, que 
suma la cantidad de 4   193   días, que se acerca con bastante exactitud a 142 
lunas, que da para una lunación media de 29.528 días, un error de un 400 de día, 
cálculo   que   es   asombroso   para   el   año   603   d.C.   De   igual   modo   las   tablas   de 
eclipses de la astronomía occidental actual no superan ni siquiera en un solo 
día, los cálculos realizados  por los mayas en el siglo VIII, según aparecen en  
la   estela   de   Copán   erigida   en   el   756   d.C,   lo   que   evidencia   la   perfección 
lograda por los astrónomos mayas.

Venus   jugó   un   papel   de   primerísima   importancia   para   la   cultura  


mesoamericana  y  fue un elemento clave  en  el  sistema general del cómputo del 
tiempo. Los  mayas  lograron en sus observaciones de  este  planeta, triunfos de 
primera   magnitud   que   demuestran   no   sólo   su   capacidad   de   observación   sino   el 
cuidado   puesto   en   todas   sus   operaciones   de   cálculos   astronómicos.   En   su 

92
revolución sinódica, Venus presenta una oscilación  que va  desde  los 580 a los 
588 días, lo que hace  muy  difícil  los cálculos.

La famosa torre "El Caracol" levantada sobre las ruinas  
de   la   ciudad   maya   de   Chichén   Itzá   (México)   se   supone  
que   fuera   usado   como   observatorio   astronómico.   Su 
datación   se   hace   difícil   por   las   numerosas  
remodelaciones   a   que   fuera   sometido   a   lo   largo   del  
tiempo   pero   la   fecha   de   su   construcción   se   establece  
hacia el siglo IX, es decir a fines del período clásico  
de la civilización maya, que  comprende entre el 300 ­  
900. 

En el interior del núcleo cilíndrico principal, el Caracol tiene un pasadizo  
en forma de caracol, que da nombre a la torre. La astronomía maya, según las 
estelas   del   Centro   de   Copán,   reconoció   la   importancia   de   los   congresos   de  
astrónomos   y   de   estos   eventos   surgió   seguramente,   entre   otras   obras  
trascendentes, el calendario maya. Aunque complejo, era el más exacto de los  
conocidos   hasta   la   aparición   del   calendario   gregoriano   en   el   siglo XVI.   El 
día maya era llamado kin, un uinal, período comparable con el mes gregoriano,  
tenía   20   kines,   18   uinales   conformaban   el   tun   (360   días),   y   así   se 
establecían otros períodos de base 20.

Después   de   numerosas   observaciones   durante   siglos,   los   mayas   arribaron   a   un 


número entero para calcularla que es el  de 584  días promedio, cifra que puede 
relacionarse   muy   fácilmente   con   el   año   solar   de   365   días   y   el   calendario 
sagrado   de   260   días.   El   factor   común   entre   584   y   365   es   73,   así   73  
multiplicado por 8 es igual a 584, como 73 multiplicado por 5 es igual a  365.  
De  igual  modo  5 revoluciones sinódicas de  Venus  suman  igual número de días 
que 8 años solares (5 x 584=8 x 365=2 920).

Sin   embargo,   la   revolución   sinódica   de   Venus   en   términos   exactos,   dados   por 


instrumentos electrónicos es de 583.92 días, lo que forzosamente usando la cifra 
de   584   al   cabo   del   tiempo   acumula   un   error.   Así   que   después   de   siglos   de 
observación los mayas resolvieron esta situación, cada cinco ciclos hicieron una 
corrección de ocho días al final de la 57 revolución de Venus. Estos cálculos 
fueron tan exactos que solo presentan un error de un día cada seis mil años, 
éxito alcanzado en el siglo VIII según un monumento erigido en el 765 d.C

Con   el   mismo   procedimiento   que   el   explicado,   los   mayas   lograron   calcular   la 
revolución   sinódica   de   Marte,   Mercurio,   Júpiter   y   Saturno,   no   con   tanta  
exactitud   como   la   de   Venus   pero   aún   así   estos   cálculos   representan   grandes 

93
triunfos   tanto   más   si   se   reconoce   que   no   disponían   de   instrumentos   ópticos. 
También   conocían   y   estudiaron   estrellas   y   constelaciones   a   quienes   nombraban 
según   su   lengua,   pero   que   para   nosotros   son   Las   Pléyades,   Géminis,   La   Vía 
Láctea, la Estrella Polar, Rigel, Sirio, y Betelgeuse.

No existen ninguna duda entre los investigadores de que las ciudades mayas en su 
período   de   máximo   esplendor   emulaban   entre   ellas   para   ver   cual   realizaba   los 
cálculos más exactos. Parece ser que se realizaron varias reuniones o congresos 
astronómicos o matemáticos, entre los que sobresale el realizado en Copán en el 
siglo   VIII   dne.   Copán   fue   la   ciudad   maya   que   con   más   exactitud   realizó   los  
cálculos de la cuenta de la Luna, del año trópico solar, la cuenta de Venus y 
los eclipses de Luna.

Las   Estelas   mayas constituyen   imponentes   estructuras 


verticales   de   arenisca   labradas   con   la   efigie   del   rey  
rodeado de dioses y animales sagrados. Los laterales y  
la parte posterior de las estelas están epigrafiados con  
glifos   calendáricos,   correspondientes   a   fechas   de  
dedicación y de acontecimientos políticos y militares de 
importancia.
Quiriguá   representa   un   sitio   arqueológico   maya  
localizado   en   la  cuenca  del   río   guatemalteco   Motaguá.  
La Estela E de Quiriguá, datada en 771 d.C., es la mayor 
del Mundo Maya, pesa 65 toneladas, mide 10.5 m de alto y 
tiene   esculturas   que   cubren   paneles   de   8   m.   Los  
estudiosos   afirman   que   cada   cinco   años   era   instalada  
una   nueva   estela   en   Quiriguá.   Constituye   un   enigma   la  
forma en que los mayas transportaban estas enormes rocas  
a   través   de   la   selva   desde   lejanas   canteras,   sin  
disponer de vehículos de rueda ni bestias de carga.
 

La ciudad de Uaxactún en el Peten guatemalteco conservó dos marcas de la cultura 
maya. La fecha grabada más antigua,   el dia 9 del año 328, aparece impresa en 
una   pirámide   cercana,   la   E­VII   Sub.   Debieron   existir   otros   lugares   con  
dataciones   más   antiguas,   pero   probablemente   fueron   trabajadas   en   estuco, 
pintadas o grabadas en madera y por lo mismo no han llegado hasta nosotros.  Al 
mediar el siglo IX las fechas mayas en cuenta larga empiezan a escasear y casi 
llegan a desaparecer. Coincidentemente, es en la estela 12 de Uaxactún, esta vez 
cinco siglos y medio después, que se graba  la última datación que se conoce en 
una ciudad maya, 889.

94
El   enigma   de   la   desaparición   del   mundo   clásico   maya   ha   sido   explicado   desde 
diferentes perspectivas. Los expertos piensan que las guerras, la sobrepoblación 
y el resultante agotamiento de los recursos naturales acabaron por debilitar los 
centros urbanos del Mundo Maya. Otros han apuntado hacia diferentes catástrofes 
que pudieron sufrir sus grandes ciudades enclavadas en una región como Yucatán, 
de alta probabilidad ciclónica, o Quiriguá asentada en zona cercana a una gran 
falla geológica.

La hipótesis de la combinación de crecimiento demográfico con degradación del 
medio ambiente parece atestiguarse en la caída que experimenta Copán. El otrora 
fértil valle en determinado momento no resistió la continua explotación. Los 
esqueletos correspondientes a los años finales de Copán indican desnutrición, 
padecimiento de raquitismo y otras enfermedades relacionadas.

El   imperio   maya   resurgió   hacia   el   siglo   XI   en   la  


península   de   Yucatán   con   la   creación   de   nuevos 
centros   monumentales  y   la  reconstrucción   de  Chichén 
Itzá.   La   ciudad   –estado   de   Mayapán   con   fuerte  
influencia tolteca dominó hacia 1221 a Chichén Itza y  
a   partir   de   entonces   la   sociedad   maya   se   fue 
progresivamente   militarizando.   Así   a mediados   del 
siglo XIII, Mayapán se había convertido en la capital  
política   del   área   de   Yucatán.   La   decadencia   de   la  
cultura   maya   se   evidencia   por   la   pobreza   de   la 
cerámica   y   de   la   arquitectura   de   esta   ciudad   que  
habitada   por   artesanos,   guerreros   y   sacerdotes   no  
sobrepasó   nunca   los   15   mil   habitantes.   Finalmente, 
nuevos conflictos y problemas internos provocaron la 
disolución   del   imperio   maya,   coincidiendo  
prácticamente   con   la   llegada   de   los   españoles   al  
Yucatán.

La Piedra del Sol o Calendario Azteca constituye un  
monolito de roca basáltica de unas 25 toneladas que  
fuera   esculpido   a   fines   del   siglo   XV.   En   su 

superficie   de   algo   más   de   10   m2 está   tallado   el 


compendio   de   los   conocimientos   astronómicos   y 
cosmogónicos de la civilización mexica. En uno de los  
círculos   concéntricos   tallados   en   la   piedra   se  
representan   los   veinte   días   del   mes   mexica   (el 
calendario constaba de 18 meses de 20 días cada uno,  
más cinco días que se le adicionaban para totalizar  

95
los 365 días del año solar).

Los progresos en la Física y otros ámbitos relacionados en la época del 
Renacimiento

El Renacimiento como proceso de renovación cultural que se extendió por Europa 
durante los siglos XV y XVI, tuvo paradójicamente como paradigma la Antigüedad 
Clásica, y como sustento  económico, el florecimiento del capitalismo mercantil 
que demandaba el cambio de las estructuras rígidas y fragmentarias del sistema 
feudal caracterizado por una economía básicamente agrícola y una vida cultural e 
intelectual   dominada   por   la   Iglesia, por   nuevas   estructuras   asentadas   en   la 
economía urbana y mercantil que promovía el mecenazgo de la educación, de las 
artes y de la música, alentaba un espíritu de confrontación con las viejas ideas 
y empujaba ciertos desarrollos en el ámbito de la ciencia y la tecnología.

Históricamente, con la aparición y el avance del Renacimiento concurrieron 
numerosos procesos movilizadores del progreso social en Europa en tanto 
contradictoriamente las culturas del Nuevo Mundo comenzaron a experimentar el 
exterminio que les impuso la conquista, el África conoció el desarraigo y la 
esclavitud de sus hijos y se extendieron los apetitos imperiales de conquista y 
explotación de los recursos de otros continentes por las potencias europeas de 
la época.

Entre   los   acontecimientos   que   vive   la   sociedad   del   Renacimiento   europeo 


sobresalen:

§ El descubrimiento de nuevas rutas marítimas que lograron la expansión de un 
comercio   creciente   condicionado   por   el   surgimiento   de   la   economía 
capitalista, y la conquista de "un nuevo mundo".

Durante   el   Medioevo,   el   desierto   del   Sahara   constituía   una   barrera   para   el 
contacto   entre   las   culturas   desarrolladas   a   ambos   lados   de   esta   frontera 
natural. Los musulmanes del norte controlaban entonces el cruce de los ibéricos 
por   su   territorio,   ejerciendo   el   monopolio   del   comercio   hacia   el   África 
Occidental.   El  príncipe  portugués  Enrique  el  Navegante  (1394­1460)   se  impuso 
burlar este obstáculo e iniciar nuevas rutas marítimas. Para cumplir con estos 
propósitos fundó un observatorio y una escuela náutica en Sagres, en el Cabo de 
San Vicente, el extremo mas occidental de la península portuguesa. Con el asalto 
al   Atlántico   los   europeos   tropezaron   con   las Islas   Madeira en 1419 y 
posteriormente   con   las Islas   Azores en 1427,   convirtiéndolas   en   colonias 
portuguesas.

96
La Era de las Exploraciones tuvo sus condicionantes en 
una serie detecnologías e ideas novedosas surgidas en 
el Renacimiento, como los avances 
en cartografía, navegación y construcción naval. La 
invención de la carraca y posteriormente de 
la carabela en Portugal y la incorporación de nuevos 
instrumentos como la brújula, el astrolabio y el timón 
hicieron posible la salida de los barcos a mar abierto. 
La presión económica que impulsaba tales empresas en lo 
fundamental estaba dada por la ampliación del comercio 
mercantil y la explotación de los recursos de otras 
regiones geográficas.

La práctica colonialista se desarrollaba según la misma receta: la construcción 
de fuertes, la explotación de los recursos locales, que llegó a incluir a sus 
propios  habitantes.   Juan  II  (1455  –  1490),  continuó  la  empresa  de  Enrique,  y 
bajo su patrocinio se produjo la circunnavegación en 1487 – 1488 del Cabo de 
Buena Esperanza por Bartolomé Días (c.1450 ­1500). Unos diez años después, Vasco 
de Gama siguió la ruta de Días pero esta vez llegó a la India. Precisamente la 
nación líder de la exploración de las costas de este continente fue   el primer 
país   europeo   en   comenzar   la   práctica   de   la   esclavitud   de   africanos,   que 
pretendió cubrir la demanda de trabajo con la importación de esclavos. Para 1460 
Portugal traía anualmente desde diferentes puntos de la costa africana casi mil 
esclavos. La colonización de América desde el siglo XVI amplió los horizontes de 
esta cruel institución, promovió la diáspora de diferentes culturas africanas y 
el genocidio de millones de seres humanos.

La etapa de las exploraciones, fue seguida por una extracción masiva del oro y 
la plata de los yacimientos encontrados en el Nuevo Mundo y la imposición del 
monopolio español, que llevó a una generalización del comercio transoceánico. La 
importancia   del   comercio   fue   elevando   el   protagonismo   político   de   banqueros, 
comerciantes   y   mercaderes   que   iban   arrebatando   el   liderazgo   a   los   señores 
feudales.

En   el   capítulo   de   la   conquista,   las   culturas   precolombinas   conocieron   del 


despojo de sus obras y de la condena de sus productos culturales como herejes, 
durante la evangelización.

Cuando  se  inicia   la  conquista  española,  los  “mexicas”,  como  se  llamaron  a  sí 
mismos  los  aztecas,  llegaron  a  ser  la  unidad  política  más  importante  de  toda 
Mesoamérica cuando se inicia la conquista española. Según cuenta la leyenda, los 
mexicas debieron abandonar su legendaria ciudad norteña de Aztlán y fundar otra, 

97
allí   donde   encontraran   un   águila   devorando   a   una   serpiente.   El   escenario 
seleccionado   por   los   dioses   resultó   ser   la   cuenca   del   lago   Texcoco   donde   se 
asentaron   a   mediados   del   siglo   XII,   y   fundaron   su   capital,   Tenochtitlán,   en 
1325.

Cuando a escasos dos años del inicio de la conquista de  
la tierra de los quetzales en 1521, los expedicionarios  
de   Hernán   Cortés   (1485   –   1547)   y   sus   aliados  
tlaxcaltecas   luego   de   80   días   de   asedio   asaltaron   la  
capital   azteca   de   Tenochtitlan,   tenía   lugar   la 
destrucción   de   una   de   las   ciudades   más   hermosas  
construidas   por   el   hombre.   Fue   labor   de   ingenieros   y 
constructores   que   a   lo   largo   de   siglos   fundieron   sobre  
un grupo de islotes del lago de Texcoco las más antiguas  
ciudades   de   Tlatelolco   y   la   primigenia   Tenochtitlan, 
llegando a contar con una población estimada en casi un  
tercio de millón de aztecas. El entorno acuático de la  
ciudad   fue   dominado   por   este   pueblo   laborioso   que 
desarrolló técnicas de cultivo intensivo de legumbres y 
hortalizas sobre chinampas, especie de grandes balsas en  
las   cuales   los   troncos   se   ataban   con   cuerdas   de   ixtle 
(fibras   del   maguey).   Esta   agricultura   intensiva   se 
combinaba   con   la   ganadería,   la   caza   y   la   pesca   en   el 
lago,   y   un   importante   comercio,   a   corta   y   a   larga  
distancia.

Herederos de la tradición cultural de los toltecas, pueblo que ocupa la meseta 
central mexicana desde finales del siglo VII hasta mediados del siglo XII, y que 
llegó a fusionarse con la cultura maya en su expansión hasta el Yucatán, los 
aztecas   mediante   alianzas   militares   con   otros   grupos   y   poblaciones   se 
expandieron rápidamente entre los siglos XIV y XVI  dominando el área central y 
sur del actual México. El arte, la ciencia y la mitología mexica se nutren de 
los antecedentes mayas a través de los vasos comunicantes de los toltecas. 

Las realizaciones científicas de los aztecas estuvieron relacionadas ante todo 
con los avances por una parte en la medicina y la farmacopea y por otra con la 
astronomía. Emplearon el calendario de 365 días y el de 260, utilizando además, 
la   «rueda   calendárica»   de   52   años.   La   concepción   cíclica   del   tiempo   de   los 
aztecas, le hacían creer que el futuro es predecible, de ahí la importancia que 
le conferían a la observación astronómica y del calendario.

98
La educación fue importante, sobre todo, en lo que se refiere a la formación de 
los nobles, marcada por su carácter obligatorio y su firmeza. La formación de la 
élite abarcaba contenidos en derecho, historia, astronomía, religión, y se 
ejercitaban también  en poesía y canto. Se exaltaba el sentimiento de unidad 
entre los jóvenes y se organizaban órdenes militares.

El imperio inca llegó a extenderse en menos de un siglo a partir de 1450 por 
todo el cordón andino y la costa del pacífico desde el sur de Colombia hasta el 
norte de Argentina y Chile a lo largo de más de 3 500 km. La población inca 
compuesta por distintas culturas se estima que superaba los 10 millones de 
personas. La zona central de su imperio radicaba en el valle del Cuzco, al sur 
del Perú, donde se levantaba su capital. Los incas poseían grandes conocimientos 
sobre arquitectura, construcción de carreteras y astronomía.

A pesar de no contar con caballos (las llamas fueron los animales básicos de 
transporte), ni vehículos de ruedas ni un sistema de escritura, las autoridades 
de Cuzco lograron mantenerse en estrecho contacto con todas las partes del 
Imperio. Una compleja red de caminos empedrados que conectaban las diversas 
zonas de las regiones, permitía esta comunicación a través de mensajeros 
entrenados —los chasquis—que, actuando en relevos, corrían 402 km al día a lo 
largo de esos caminos. Los registros de tropas, suministros, datos de población 
e inventarios generales se llevaban a cabo mediante los quipus, juegos de cintas 
de diferentes colores anudados según un sistema codificado, que les permitía 
llevar la contabilidad. Botes construidos con madera de balsa constituían un 
modo de transporte veloz a través de ríos y arroyos.

Las fibras del maguey y el amate, las pieles curtidas  
del ciervo y el jaguar, o el lienzo del algodón eran  
las materias primas para la fabricación del papel con  
que los pueblos precolombinos escribieran su historia  
y   genealogía,   su   ciencia   y   mitología.   Sus   libros 
consistían en una larga tira que podía alcanzar más de  
diez   metros   y   que   adoptaba   una   forma   de   acordeón,  
cubierta con unas tapas de madera a menudo forradas de  
piel,   y   su   contenido   expresaba   un   tipo   de   escritura  
basada   en   logogramas.   El   encontronazo   cultural   que  
produjo la conquista tuvo su reflejo en la destrucción  
de   estas   obras,   llamadas   códices,   por   clérigos y  
autoridades   coloniales   que   las   consideraron   herejías  
mientras   los   indígenas   adoptaban   la estrategia   de 
resguardo   secreto   de   sus   sagrados   libros.   En   la 

99
combinación   de   estas   conductas   se   perdió   una   valiosa 
memoria histórica y científica.

Entre las expresiones artísticas más impresionantes de la civilización inca se 
hallan los templos, los palacios, las obras públicas y las fortalezas 
estratégicamente emplazadas, como Machu Picchu. Enormes edificios de mampostería 
encajada cuidadosamente sin argamasa, como el Templo del Sol en Cuzco, fueron 
edificados con un mínimo de equipamiento de ingeniería. Otros logros destacables 
incluyen la construcción de puentes colgantes a base de sogas (algunos de casi 
cien metros de longitud), de canales para regadío y de acueductos. El bronce se 
usó ampliamente para herramientas y ornamentos.

Al   finalizar   el   segundo   milenio   de   la   cultura  


occidental,   la   comunidad   internacional   recibía  
consternada la noticia de que el Intihuana (“donde se  
amarra   el   sol”   en   voz   quechua),   el   reloj   solar   inca  
había   resultado   dañada   en   su   estructura   durante   el  
rodaje   de   un   programa   comercial   de   la   TV   en   la  
legendaria   ciudad   sagrada   de   Machu   Picchu.   La  
estructura   pétrea   se   cree   que   era   un   elemento  
astronómico y servía para medir el tiempo, de acuerdo  
con   las   sombras   que   se   proyectaban   al   iluminarlo   el  
Sol.   El   Parque   arqueológico   de   Machu   Picchu,  
Patrimonio   Cultural   de   la   humanidad   merece   un  
reglamento especial que lo protega.

Cuando en 1911 el explorador estadounidense Hiram 
Bingham anunciaba al mundo haber descubierto a más 
de 2 mil metros de altura la ciudad de Vilcabamba,  
refugio de los soberanos incas rebeldes desde 1536 
hasta 1572, cometería un error pero la humanidad y  
en   particular   el   mundo   latinoamericano   le   guarda 
eterna   gratitud   por   habernos   legado   el   hermoso 
bastión   inca   de   Machu   Picchu.   La   legendaria 
Vilcabamba   permaneció   oculta   hasta   que   una  
expedición   española   en   1997   descubriera   sus 
restos.   Desde   allí,   Tupac   Amaru   organizó   la 
resistencia inca contra la dominación colonizadora  
hasta ser derrotado y pagar con su vida la defensa  

100
de su cultura…

El desarrollo de los intereses nacionales que diera origen al nacimiento 
de los estados. Estos intereses económicos se reflejaron en el movimiento 
de las reformas religiosas (siglo XVI) que condujo a una flexibilización 
del   control   de   la   Iglesia   sobre   el   proceso   de   construcción   del 
conocimiento.

Bohemia, la región Europa Central dominada en el siglo XV por el Sacro Imperio 
Romano Germánico,  fue el escenario dónde prendieron los sentimientos 
nacionalistas que encontraron expresión religiosa en las protestas de Jan Hus 
(c. 1372­1415), precursor de la Reforma protestante, contra el poder abusivo de 
la Iglesia Católica. En el  Concilio Eclesiástico que se reunió en la ciudad 
imperial de Constanza en 1414, Hus fue declarado hereje y conminado a 
retractarse de sus posiciones. El clérigo de Praga rechazó las ofertas de perdón 
y fue condenado a la hoguera.

Un siglo después de la rebelión husita en 1517, Martín Lutero (1483­1546) 
publicó sus tesis de Wittenberg que atacan los abusos de la autoridad 
eclesiástica y tres años después publica sus creencias en la libertad de la 
conciencia cristiana, formada sólo por la Biblia, el sacerdocio de todos los 
creyentes y una Iglesia mantenida por el Estado. La ruptura de Lutero con la 
Iglesia podría haber sido un hecho aislado si no hubiera sido por la invención 
de la imprenta. Sus escritos, reproducidos en gran número y muy difundidos, 
fueron los catalizadores de una reforma que no pudo contenerse geográficamente, 
triunfó en Suiza con las ideas reformistas de Ulrico Zuinglio (1484 ­1531), más 
tarde en Ginebra, Juan Calvino (1509 – 1564), publicó la primera gran obra de la 
teología protestante, Institución de la religión cristiana (1536) que se 
convertiría en el eje organizador de las Iglesias Protestantes.

Finalmente cabe destacar que la lucha entre católicos y protestantes no tuvo 
solo una expresión espiritual. Un siglo de enconadas contiendas religiosas entre 
1550 y 1650 provocaron la destrucción general del continente. No obstante, estas 
guerras religiosas se entrelazaron de forma compleja con las contiendas 
políticas, que finalmente adquirieron un papel de gran importancia en la 
configuración de las naciones europeas.

La toma de Constantinopla por los turcos (1453) que significa la caída del 
último   reducto   de   la   herencia   cultural   grecorromana   y   el   éxodo   de   los 
eruditos que trasladan consigo hacia Europa numerosas fuentes del antiguo 
saber griego.

101
La inauguración de la primera imprenta práctica por Johan Gutenberg (1397 
–   1468)   con   lo   cual   se   alcanza   una   reproducción   y   difusión   del 
conocimiento escrito no imaginado en épocas anteriores.

En este telón de fondo social, crece bruscamente el interés por la Astronomía y 
llegan tiempos felices para la trigonometría.

La técnica de publicación de libros con tipos móviles de  
impresión, mediante el perfeccionamiento de la prensa de 
imprenta   por   Gutenberg   multiplicó   las   posibilidades   de  
reproducir el acervo de conocimientos existentes para una 
sociedad que ya había aumentado su producción de material 
escrito   y   lo   anhelaba   vivamente.   La   invención   de   la  
imprenta representó además un logro mecánico, fue una de 
las   primeras   máquinas   estandarizadas,   manufacturada   en 
serie,   y   los   mismos   tipos   móviles   fueron   el   primer  
ejemplo   de   piezas   del   todo   estandarizadas   e  
intercambiables. Hacia finales del siglo XV habían más de  
mil   imprentas   públicas   solamente   en   Alemania,   y   en  
Nuremberg   existía   un   gran   negocio   de   imprenta   con   24  
prensas   y   un   centenar   de   empleados   entre   los   que   se  
encontraban   cajistas,   impresores,   encuadernadores   y  
correctores.

En la transición del pensamiento medieval al del Renacimiento aparece como un 
personaje importante el filósofo Nicolás de Cusa (1401 ­ 1464), considerado el 
padre de la filosofía alemana y uno de los primeros filósofos de la modernidad.  
En 1444, Cusa se interesa en la astronomía y elabora ciertas teorías que más 
tarde serán aceptadas y otras que aún estar por probar.  En su lenguaje arropado 
por una envoltura religiosa expresa que si Dios representa la unidad y la 
infinitud, el mundo también es infinito. Este es el paso radical a la física 
moderna: si el Universo es infinito, no tiene fin, se deriva pues que no existe 
centro del Universo, la Tierra no es el centro del Universo, todo es relativo y 
no hay un lugar de privilegio en el Universo. Tampoco hay quietud, sino que todo 
está en movimiento, incluido el Sol. En el mismo año de su muerte el cardenal 
redacta su “De ludo globo”, en el cual, aferrado a la perfección aristotélica 
pero interesado en encontrar causas físicas, explica el movimiento de un cuerpo 
perfectamente redondo sobre una superficie perfectamente lisa como un movimiento 
continuo y uniforme. La razón de este comportamiento radica en que la esfera 
toca al plano en sólo un punto, reproduciendo continuamente una posición de 
desequilibrio que alienta el ímpetu eterno. De Cusa lega la noción que aplicada 

102
a los orbes celestiales adoptará Copérnico. El giro eterno de los orbes, sin 
obstáculos, arrastra a los planetas engastados en ellos.

En el siglo XV, el profesor prusiano de la Facultad de Artes de la Universidad 
de   Viena,   Johannes   Muller   Regiomontanus   (1436   –   1476)   hizo   importantes 
contribuciones a la trigonometría y astronomía. Su obra De triangulis omnimodis 
(1464) en los libros III, IV y V desarrolla la trigonometría esférica que es por 
supuesto de máxima importancia para los estudios astronómicos. En enero de 1472 
hizo observaciones de un cometa que fueron bastantes precisas para identificarlo 
como   el   cometa   estudiado   por   Halley   en   1682   cuya   reaparición   pronosticó 
justamente para 1758. El interés de Regiomontanus en el movimiento de la Luna le 
permite describir un método para determinar distancias entre dos puntos de la 
Tierra a partir de la posición de la Luna en su libro Ephemerides editado en su 
propia imprenta por los años 1474­1506. Este libro tuvo la notable importancia 
de servir a Américo Vespucio y Cristóbal Colón para medir distancias en el Nuevo 
Mundo. Sus reflexiones críticas a la teoría lunar de Ptolomeo, las observaciones 

que   acusaban   que   el   planeta   Marte   se   encontraba   a   2o de   la   posición 


pronosticada,  y la determinación de las imprecisiones de las Tablas Alfonsinas, 
publicadas   en   Venecia   en   "Epitoma   del   Alamagesto"   atrajeron   la   atención   del 
entonces   estudiante   de   la   Universidad   de   Bolonia,   Nicolás   Copérnico   (1473   – 
1543).

Se ha afirmado que el espiritu del Renacimiento se encarna 
como en nadie en la personalidad de Leonardo da Vinci (1452  
­ 1519). Acaso con esta expresión se pretende identificar a  
quien   muestra   una   creatividad   impar,   anticipándose   en   el 
tiempo   a   realizaciones   pertenecientes   al   futuro   en   los  
campos más diversos de la actividad humana. Al servicio de 
diferentes   mecenas   de   la   época,   actúa   como   ingeniero 
militar,   arquitecto,   y   pintor.   Su   pupila   escudriña   la  
anatomía humana con la misma penetración que mira hacia el 
cielo y diseña artificios que amplían la imagen y recuerdan  
al telescopio.

Su   mano   traza   el   rostro   y   el   alma humana,   al   tiempo   que 


esboza   el   paracaídas   (1480),   idea   el   telescopio   (1490),  
proyecta   canales   para   desviar   el   rio   Arno   y   salvar   a   la  
Florencia   sitiada   (1503),   bosqueja   máquinas   voladoras  
(1492) y reloj de péndulo (1494), y planea fortificaciones  
militares.   Se   afirma   que   sus   cuadernos   de   anotaciones  
resultaron   indescifrables   para   sus   contemporáneos,   que  
junto   a   su   genio   mostraba   debilidad   para   concluir   sus  

103
proyectos,   que   la   dispersión   de   sus   actividades   restó  
tiempo   para   emprender   y   terminar   sus   inmortales   obras   de  
arte. La máquina del tiempo se encargó de cristalizar y aún 
superar   sus   proyectos   técnicos   más   audaces;   sus   pinturas 
ingresaron para siempre en el salón de la inmortalidad.

Precisamente el inicio de la revolución en la historia de la Astronomía se 
asocia a las aportaciones del célebre astrónomo polaco. En 1514, Copérnico 
distribuyó a varios amigos unas copias manuscritas de un pequeño libro, que en 
la página de presentación no incluía el nombre del autor. Este libro usualmente 
conocido como "Pequeño comentario" lanza la visión copernicana de un universo 
con el sol como centro en siete tesis presentadas como axiomas:

1.No hay centro en el universo

2. La Tierra no es el centro del universo.

3.El centro del universo está próximo al sol.

4.La distancia de la Tierra al sol es imperceptible en comparación con la 
distancia a las estrellas.

5.La rotación de la Tierra explica la aparente rotación diaria de las 
estrellas.

6.El aparente ciclo anual de movimientos del sol es causado por la 
rotación de la Tierra a su alrededor.

7.El aparente movimiento retrógrado de los planetas es causado por el 
movimiento de la Tierra desde la cual uno observa.

El más sobresaliente de los axiomas es 7, porque aunque sabios anteriores habían 
supuesto que la Tierra se mueve, algunos incluso llegaron a proponer que la 
Tierra gira alrededor del sol, nadie antes que Copérnico explicó correctamente 
el movimiento retrogrado de los planetas más externos. El propio Copérnico 
adelantó en su "Breve Comentario" que omitía las demostraciones matemáticas para 
incluirlas en un trabajo más completo que publicaría más tarde. Sólo 27 años 
después, ante la insistencia entusiasta de Georg Joachim Rheticus, su joven 
discípulo, profesor de astronomía de la Universidad de Wittenberg, Copernico 
superó su prolongada resistencia a entregar su obra “De revolutionibus orbium 
caelestium” (Sobre las revoluciones de los cuerpos celestes) para la 
publicación.

Rheticus entregó el manuscrito a un experto editor de Nuremberg que solicitó a 
Andreas Osiander, un teólogo luterano que hiciera la supervisión del texto por 

104
su experiencia en la impresión de textos matemáticos, y éste sustituyó el 
prefacio original de Copérnico con una carta al lector que explicaba que el 
contenido del libro no debería entenderse como la verdad, sino mas bien como un 
simple método de calcular las posiciones de los cuerpos celestes. La carta no 
fue firmada. Oslander también cambió sutílmente el título del libro para hacerlo 
menos orientado al mundo real.

La   obra   de Copérnico “De   revolutionibus   orbium   caelestium” 


(Sobre las revoluciones de los cuerpos celestes, 1543), viene  
a destronar la teoría de Tolomeo de un Universo egocéntrico,  
santificada   por   una   visión   idealista   del   universo, 
demostrando   que   los   movimientos   planetarios   se   pueden  
explicar   si   se   atribuye   al   Sol   una   posición   central.   Al  
establecer   un   nuevo   marco   de   referencia   dejó   intacto   la  
"santidad   circular"   de   las   órbitas   planetarias   por   lo   que  
tuvo que acudir también a la hipótesis de los  epiciclos para 
explicar   el   movimiento   relativo   de   los   planetas.  Sólo   la 
teoría   de   la   gravitación   universal   elaborada   por 
 Newton   150 años después ofrecería la fundamentación de la  
teoría heliocéntrica copernicana.

Algunos sienten indignación por el comportamiento de Oslander otros creen que 
gracias a estos cambios el trabajo de Copérnico fue leído y no inmediatamente 
condenado. Sólo la teoría de la gravitación universal elaborada por Newton 150 
años después ofrecería la fundamentación de la teoría heliocéntrica copernicana. 

Sin embargo estas ideas fueron rechazadas durante su siglo y el siguiente debido 
a   la   ortodoxia   católica,   luterana   (en   la   persona   del   propio   Lutero)   y 
calvinista. Estas ideas de Copérnico solo fueron aceptadas sin reservas por los 
neoplatónicos representados por Giordano Bruno (1548 – 1600) y Johannes Kepler 
(1571 ­ 1630).

Tycho Brahe (1546 – 1601), propuso un sistema con un carácter ecléctico entre 
las ideas del heliocentrismo y el geocentrismo y pidió a su discípulo  Johannes 
Kepler   (1571­1630)   que   utilizando   los   resultados   de   esas   observaciones   le 
confirmara la idea sobre su modelo. Nadie podrá saber si   Brahe   propuso este 
modelo   ante   el   temor   promovido   por   la   suerte   corrida   por   su   contemporáneo 
Giordano   Bruno   (1548   –   1600)   considerado   hereje   y   quemado   en   la   hoguera   por 
orden del tribunal de la Inquisición. De cualquier modo, las contribuciones de 
Tycho Brahe (1546 ­1601) a la Astronomía fueron enormes. A los 26 años observa 
una nueva estrella en la constelación de Casiopea, publicando un breve informe 
sobre   este   acontecimiento("Sobre   la   nueva   estrella   nunca   previamente   vista”, 

105
1573) que significó el descubrimiento de la primera supernova  y puso en duda la 
filosofía aristotélica vigente sobre la inmutabilidad de la región supralunar.

El napolitano Filippo (Giordano) Bruno (1548 ­ 1600) ingresó  
en   la   orden   de   los   dominicos   y   recibió   instrucción,   donde 
Tomas Aquino había enseñado, en la filosofía aristotélica. A  
los 29 años abandona Nápoles al haber llamado la atención de 
las  autoridades  inquisidoras   por  sus  tendencias  heterodoxas.  
Durante su residencia en Londres, en 1584   escribe sus obras  
"La   cena   del   miércoles   de   cenizas"   y   "Sobre   el   universo 
infinito y los mundos". En el primer libro, Bruno defiende la 
teoría heliocéntrica de Copernico, y en elsegundo desarrolla  
la   idea   de   la   infinitud del   universo,   y   sugiere   que   el 
universo   debe   contener   infinitos   mundos,   muchos   de   ellos  
habitados   por   seres   inteligentes.   Seis   años   después   de   la  
publicación de estos libros al viajar a Venecia es arrestado  
por la Inquisición. En 1592 es enviado a Roma y durante ocho  
años   es   sometido   a   prisión   e   interrogatorios   periódicos.   Al  
final   Bruno   rechazó   retractarse   siendo   declarado   hereje   y  
condenado a la hoguera. Las actas del juicio y de los cargos  
que le fueron imputados se perdieron. De cualquier modo, fue  
otro mártir de la ciencia...

A partir de entonces, Brahe queda convencido de que el progreso de la Astronomía 
exigía de observaciones más precisas del movimiento de los cuerpos celestes. Con 
tal   propósito   construye   un   observatorio   cerca   de   Estocolmo,   diseña,   fabrica, 
calibra   y   chequea   periódicamente   la   precisión   de   sus   propios   instrumentos   e 
instituye   las   observaciones   nocturnas ("Instrumentos   para   la   Astronomía 
renovada",   1598).   Pronto   este   observatorio   se   convierte   en   institución 
astronómica   de   referencia   en   toda   Europa.   Brahe   cambia   también   la   propia 
práctica de observación cuando no se contenta con apreciar las posiciones de los 
cuerpos   celestes   en   ciertas   posiciones   importantes   de   sus   órbitas   sino   que 
reporta el movimiento a través de sus órbitas. El resultado fue que una serie de 
anomalías nunca antes notificadas fueron reportadas por Brahe. Sin estas series 
completas de observaciones de precisión sin precedente, Johannes Kepler (1571 ­ 
1630) no habría descubierto que los planetas se mueven en órbitas elípticas.

La obra de Kepler, se publica en un período que abarca el final del siglo XVI y 
las tres primeras décadas del XVII. En 1597 Kepler   publicó su primer trabajo 
importante "Misterio Cosmográfico". Persigue “deducir” las órbitas planetarias, 
y en este empeño descubre que a medida que los planetas se alejan del sol su 

106
movimiento   se   hace   más   lento.   Su   aproximación   a   la   ley   de   la   gravitación 
universal en el lenguaje de este siglo se advierte en sus propias palabras: “O 
bien las almas movientes de los planetas son tanto más débiles cuanto más se 
alejan del  Sol,  o bien  hay  una sola alma  moviente  en el  centro  de todos los 
orbes, esto es, en el Sol, que mueve con más fuerza a los planetas más próximos 
a   ella   y   con   menos   a   los   más   alejados”.   Se   viene   gestando   la   nueva   dinámica 
celeste   que   intenta   explicar   las   causas   del   movimiento   y   su   formalización 
matemática.   Brahe   recibe   su   obra   y   lo   invita   a   Praga,   al   advertir   su 
extraordinario talento matemático, para que calcule nuevas órbitas a partir del 
arsenal   de   observaciones   acumuladas   en   su   observatorio.   Los   resultados 
sobresalientes de esta integración pertenecen al siguiente siglo.

Al   tiempo   que   la   Astronomía   sufre   ahora   en   Europa   un   despegue,   el   siglo   XVI 


representa   un   despertar   en   el   desarrollo   del   pensamiento   matemático,   que 
pretende edificar una nueva ciencia del movimiento asentada en los experimentos 
cuantitativos.

Cuando Brahe descubre un nuevo punto luminoso inmóvil en  
la   bóveda   celestial,   más   brillante   que   Venus,   los 
astrónomos creían observar un lento movimiento del astro  
que   demostrara   que   no   era   una   estrella   y   así   mantener 
viva la invariabilidad del orbe estelar. Fue la ocasión  
para   que   Brahe   desarrollara   un   sextante   gigantesco  
dotado   con   un   corrector   de   errores,   mostrando   lo   que  
constituiría   una   especie   de   obsesión   en   su   carrera,   la  
búsqueda   de   la   precisión   en   las   observaciones 
astronómicas para derivar cualquier generalización sobre  
el movimiento de los astros. Esta posición se explica en 
la   respuesta   dada   al   joven   Kepler   sobre   su   opinión  
acerca   de   su   primera   obra   “Misterios   del   Cosmos”:   “que  
haya   razones   para   que   los   planetas   realicen   sus  
circuitos,   alrededor   de   un   centro   u   otro,   a   distancias  
distintas de la Tierra o del Sol, no lo niego. Pero la  
armonía y proporción de este arreglo debe ser buscada a  
posteriori,   y   no   determinada   a   priori   como   vos   y 
Maestlin   queréis”.   Un   año   después   Kepler   era   su  
asistente principal, y luego al pie de la cama en que su  
tutor   se   le   despedía   para   siempre,   parece   haber   jurado  

107
que contra cualquier obstáculo, y fueron muchos los que  
les deparó su vida, sería fiel a este legado.

Los   estudios   de   balística y   la   solución   algebraica   de   la   ecuación   de   tercer 


grado   aparecidos   en   la   obra   Nova   Scientia,   en   1537   representan   una   original 
aplicación de los conocimientos matemáticos más avanzados de la época al fuego 
de   artillería,   y   a   la   descripción   de   la   trayectoria   de   los   cuerpos   en   caída 
libre.   El   autor   de   estos   trabajos,   Niccolo   Fontana   (ca.   1500­1557),   más 
conocido por su apodo de Tartaglia (en italiano tartamudo), fue víctima de un 
sablazo   recibido   de   pequeño   durante   la   ocupación   militar   de   su   ciudad   natal, 
Brescia,  que le provocó para el resto de su vida graves dificultades al hablar. 
No   parece   rara   la   inclinación   de   Tartaglia   por   los   estudios   balísticos   al 
conocer   que   en   Brescia   se   está   creando   por   entonces   lo   que   fuera   un   fuerte 
emplazamiento de la industria de armas.

La obra de Tartaglia sentó un criterio muy agudo: la trayectoria de un proyectil 
es siempre curva, y la bala comienza a descender desde el instante mismo en que 
abandona la boca del cañón. La afirmación, opuesta al sentido común que advierte 
que a escasa distancia el tiro se sitúa en el punto de mira, admite la acción de 
la   gravedad   durante   todo   el   recorrido   y   su   demostración   acude   al   modelo   de 
experimento imaginario que tanto emplea luego Galilei.

El periodo moderno del álgebra se relaciona con la obra Ars Magna (1545) escrita 
por el médico y matemático italiano Gerolamo Cardano (1501­1576). La atribulada 
vida   personal   de   Cardano   contrasta   con   la   extraordinaria   productividad 
profesional   alcanzada   en   diversos   ámbitos.   En   1551   escribe   su   “Opus   novum   de 
proportionibus” donde Cardano trata de aplicar métodos cuantitativos al estudio 
de   la   Física,   en   particular   a   la   caída   libre   de   los   cuerpos. Es   uno   de   los 
primeros en refutar la posibilidad del movimiento perpetuo excepto en el caso de 
los cuerpos celestes y realiza también importantes contribuciones al campo de la 
hidrodinámica. En  1552  alcanza  como  médico  celebridad  mundial  al  recuperar  la 
salud del arzobispo de St. Andrews, John Hamilton, aquejado de un asma severa 
que lo había llevado al borde de la muerte.  Cardano hace la primera incursión 
de la historia en el reino de la teoría de la probabilidad en su libro “Liber de 
Ludo   Aleae”,   sobre   juegos   de   azar,   probablemente   terminado   hacia   1563   y 
publicado un siglo más tarde. Se acredita a Cardano la invención del mecanismo 
de   articulación   entre   la   caja   de   velocidad   y   la   barra   de   transmisión   de   los 
autos   y   la   cerradura   de   combinación.   En   1570,   con   69   años   de   edad   fue 
encarcelado   por   el   cargo   de   herejía   y   acusado   de   hacer   el   horóscopo   de 
Jesucristo y alabar en un libro a Nerón, torturador de los mártires cristianos. 

108
Tras su liberación, cuatro meses después, se le vetó para desempeñar un puesto 
universitario y para cualquier publicación posterior de su obra.

 A   los   18   años,   Kepler   ingresa   en   la   Universidad  


Protestante de Tubinga, donde aprende  con el profesor de 
matemáticas Michael   Maestlin   (1550­1635),   la   teoría  
heliocéntrica   de   Copérnico.   En   sus   conferencias   Maestlin 
continuaba   enseñando   el   sistema   de   Ptolomeo   pero   en   los 
seminarios entrenaba a sus estudiantes más aventajados con 
los   detalles   técnicos   del   sistema   copernicano.   Kepler 
declaró mas tarde que ya por este tiempo era copernicano  
por   razones   físicas   y   metafísicas.   Con   sólo   23   años   es  
profesor de matemáticas de la Universidad Protestante   de 
 Graz,   donde   permanece   durante   6   años   hasta   1600, 
cuando todos los protestantes, en el marco de las medidas  
de   la   Contrareforma,   son   obligados   a   convertirse   al 
catolicismo   o   abandonar   la   provincia. Unos   años   antes   de  
terminar   el   siglo   publica   su   primera   obra   que   revela   su 
virtuosismo   matemático   en   el   cálculo   de   las   órbitas  
planetarias   y   contiene   los   gérmenes   que   producirán   sus 
tres famosas leyes en el siglo siguiente.    La ley de la 
gravitación   universal   sustentada   por   Newton   décadas   más 
tarde   encuentra   en   las   ideas   de   Kepler   uno   de   sus   más  
sólidos pilares. Se afirma que es el autor de la primera  
novela   de   ficción   “Sueños”,   donde   narra   la   epopeya   de 
viajeros a la Luna. ¿Fue su sueño?

La historia del pensamiento científico debe reconocer en Giambattista Benedetti 
(1530 – 1590), discípulo de Tartaglia y maestro de Galileo, el planteamiento de 
dos ideas originales que representan un adiós a la dinámica aristotélica de los 
ímpetus.   La   primera   concierne   a   la   forma   de   entender   el   movimiento   circular 
cuando afirma que este origina en los cuerpos un ímpetu tendente a moverse en 
línea recta (la idea de la fuerza centrífuga). La otra, de mayor trascendencia,  
se relaciona con la caída libre de los cuerpos y rompe una tradición inmemorial 
santificada   por   Aristóteles,   cuando   afirma   que   dos   cuerpos   caen   con   la   misma 
aceleración   con   independencia   del   peso   de   ellos.   Las   bases   de   la   teoría 
desarrollada por Benedetti se consideran muy parecidas a las que Galileo expone 
en 1590, en su obra no publicada, De Motu.

Hacia 1585, un ingeniero holandés, Simon Stevin (1548 ­ 1620), que se había 
destacado por su asesoría técnica a los ejércitos de las Provincias Unidas 

109
(territorios septentrionales de los Países Bajos) encabezadas por el príncipe 
Mauricio, Conde de Nassau, frente a las fuerzas españolas, escribió un par de 
libros que contenían sobresalientes aportaciones al campo de la estática y la 
hidrostática. Inspirado por la obra de Arquímedes, Stevin escribió importantes 
trabajos en mecánica. Sobresale su obra De Beghinselen der Weegconst publicada 
en 1586 donde desarrolla el famoso teorema del triángulo de fuerzas que le dio 
un nuevo impulso a la Estática. En este mismo año aparece su trabajo sobre 
hidrostática que lo hace merecedor según algunos de ser considerado un 
refundador de esta disciplina al demostrar que la presión ejercida por un 
líquido sobre una superficie depende de la altura del líquido y del área de la 
superficie. Como si fuera poco, tres años antes que Galileo, reporta que 
diferentes pesos caen desde una altura dada en el mismo tiempo. Sus experimentos 
fueron conducidos usando dos bolas de plomo, una diez veces más pesada que la 
otra, que eran dejadas caer desde la torre de una iglesia en Delft. 

A pesar de que los trabajos más importantes de Galileo cristalizan en el siglo 
XVII, una cualidad del pisano no tan bien conocida es la capacidad inventiva que 
despliega  en su  juventud y  que lo  convierte  a fines  del  XVI en  autor  de dos 
patentes   de   invención.   Según   se   narra,   en   1592   mientras   enseñaba   en   la 
Universidad de Padua, Galileo, dado su permanente interés en los dispositivos 
mecánicos, frecuentaba un lugar próximo a Padua dónde fondeaban y se cargaban  
las naves venecianas, poniéndose así en contacto con los adelantos de la época 
en materia de tecnologías náuticas y de construcción naval. Allí se enfrenta con 
el   problema   que   involucra   la   colocación   de   remos   en   las   galeras,   y   entonces 
concibe el remo como una palanca y el agua como punto de apoyo.

Galileo estudió en la Universidad de Pisa, y posteriormente 
se   desempeñó   como   catedrático   de   Matemáticas   desde   1589   a  
1592. Durante este tiempo, inició un libro, De motu ("Sobre  
el Movimiento"), que nunca publicó, pero que permite seguir  
el   desarrollo   inicial   de   sus   ideas   en   relación   al 
movimiento.   Una   de   las   proposiciones   fundamentales   de   la  
filosofía   aristotélica   es   que   no   hay   efecto   sin   causa.  
Aplicada al movimiento de los cuerpos se puede afirmar que 
no   hay   movimiento   sin   fuerza.   La   velocidad,   entonces   es  
 proporcional   a   la   fuerza   e   inversamente   proporcional 
a la resistencia.   Esta   noción   aplicada   a   los   cuerpos   que  
caen, reconoce al peso como la fuerza que impulsa al cuerpo  
hacia abajo y la resistencia es ofrecida por el aire o el  
agua.   Si   el   peso   determina   la   velocidad   de   la   caída,  
entonces cuando dos diferentes pesos son lanzados desde una  

110
altura   dada   el   más   pesado   caerá   más   rápidamente   y   el   más  
ligero   más   lentamente,   en  la   proporción  de   los   dos  pesos.  
Galileo es el representante por excelencia de la corriente  
que comienza en el siglo XVI a edificar una nueva ciencia  
del   movimiento   asentada   en   los   experimentos  
cuantitativos. Durante   las   dos   décadas   siguientes   Galileo  
refinó   los   experimentos,   cambió   sus   ideas,   y   llegó   a 
establecer la ley de la caída de los cuerpos.

Un año después, patentó un modelo de bomba, dispositivo sencillo que levantaba 
el agua usando sólo un caballo. Galileo describió su invención como: "estructura 
conveniente de muy fácil uso, y barata para la elevación de agua y la irrigación 
de terrenos, con el movimiento de un solo caballo, capaz de verter continuamente 
unos veinte cucharones grandes de agua”.   Por otro lado su afán por medir una 
propiedad asociada con el calor transferido por los cuerpos diseña y construye 
en 1597 un termómetro primitivo. El termoscopio, que aprovecha los cambios de 
densidades que experimenta el aire con las variaciones de temperatura, consiste 
en un bulbo de vidrio de forma y tamaño ovoidal con un largo y delgado cuello 
que  se  sumerge  parcialmente,  por  su  extremo  invertido,  en  un  frasco  lleno   de 
agua. Al calentar el bulbo ovoidal el aire se expande empujando la columna del 
agua. El instrumento simple e inexacto había dado nacimiento a la termometría y 
por consiguiente a la termodinámica.

El   representante   más   importante   del   movimiento   iniciado   en   el   campo   de   las 


Matemáticas  está  representado  por  el  francés  F.  Viéte  (1540  –  1603)  quien   se 
considera el primer autor de un tratado moderno de Álgebra por la obra publicada 
en la última década del siglo XVI. Sus trabajos especialmente en la teoría de 
números   sirvieron   de   antecedentes   para   las   investigaciones   matemáticas   del 
siguiente siglo.

La cartografía y la geografía también experimentaron notables progresos que se 
concretan en los estudios y la obra del matemático y geógrafo flamenco Gerardus 
Mercator (1512 ­ 1594). Mercator había ingresado en 1530 en la Universidad de 
Lovaina, en la casa de estudios que enseñaba durante dos años la filosofía 
aristotélica. Decepcionado con estos estudios decide emprender un viaje que lo 
lleva por diferentes ciudades, entre ellas Malinas y Amberes, que le despiertan 
un profundo interés por la Geografía. El primer mapa del mundo que produce 
Mercator usando el método de proyección aparece en 1538. Este mapa es notable 
por ser el primero en representar a América como un alargamiento desde las 
regiones norteñas a las regiones del sur y por dar a América del Norte este 
nombre. Durante diez años Mercator trabaja en la confección de un globo 
celestial que completa en 1551 usando el modelo del Universo descrito por 

111
Copérnico.  En 1568 ideó un sistema de proyección de mapas que lleva su nombre. 
Este sistema representa los meridianos como líneas paralelas y los paralelos de 
longitud como rectas que se cruzan con los meridianos formando ángulos rectos. 
Muy utilizado en navegación, permite trazar una ruta en línea recta entre dos 
puntos de un mapa, que se puede seguir sin cambiar la dirección magnética o de 
la brújula. La llamada “proyección Mercator”, durante 400 años ha sido aceptada 
como la verdadera representación plana de nuestro planeta.

Se afirma que el geógrafo flamenco Gerardus Mercator sufrió 
prisión   en   1544   por   supuesta   práctica   hereje   y   que   la  
Universidad   de   Lovaina   lo   apoyó   obteniendo   su   libertad  
meses   después.   Una   suerte   bien   distinta   corrió   otro 
graduado de esta Universidad, el medico y filosofo español  
Miguel   Servet   (1511­1553).   La   teocracia   calvinista   de 
Ginebra,   contraria   a   su   interpretación   de   la   Santísima  
Trinidad   y   lo   que   parece   mas   inconcebible   opuesto   a   la  
nueva  visión  fisiológica  de   Servet   lo   acusa   de  herejía  y  
blasfemia   contra   la   cristiandad,   y   lo   condena   a   morir  
quemado en la hoguera. En su obra Restitutio christianismi, 
Servet describe con rigor  la circulación pulmonar.

A partir del siglo XVI se suman a los médicos, como aliados del desarrollo de la 
Alquimia, los interesados en la minería. Tal vez la cabeza mas visible de los 
cambios que se vienen experimentando en este campo se personifica en la figura 
de T. Bombastus (Paracelso, 1493 – 1541). Paralceso inicia un movimiento 
conocido como iatroquímica o química médica. Aunque hereda el lenguaje místico 
de los alquimistas, sus ideas representaron un punto  de viraje, pues su quinta 
esencia no es fruto del anhelo estéril de transformación de metales en oro, sino 
fuente iniciadora, aún expresada vagamente, de la quimioterapia que siglos más 
tarde fundara Paul Erlich con el preparado arsenical conocido como salvarsán.

En el otro polo de la actividad pre­química  nos encontramos con Georg Bauer 
(Agrícola, 1494 – 1555), residente en la más grande región minera europea del 
siglo XVI, considerado como el padre de la mineralogía. La obra de Agrícola,  
despojada de la especulación alquimista es el primer tratado de mineralogía 
fundamentado en la observación, la práctica y las técnicas industriales más 
avanzadas de la época.

La medicina del renacimiento también marcó un viraje en diversas concepciones 
anatómicas aceptadas durante miles de años desde la obra de Galeno en el segundo 
siglo de nuestra era, en primer lugar gracias a las observaciones del cuerpo 

112
humano realizados por el anatomista y fisiólogo del renacimiento europeo, el 
belga Andrés Vesalio (1514­ 1564), e ilustradas fielmente en sus obras por un 
discípulo del Tiziano. Su etapa productiva se relacionó con sus investigaciones 
en la Universidad de Padua conducidas durante cinco años. Uno de los discípulos 
de Vesalio en la Universidad de Padua, Realdo Colombo (1516­1559), quién fuera 
luego su sucesor en la cátedra de Anatomía describió en su obra póstuma De Re 
Anatomica, la circulación pulmonar. La revolución en el terreno de la fisiología 
era cuestión de años y sería impulsada por la obra de un joven médico inglés, 
que vino del otro lado del Canal de la Mancha para doctorarse en Padua, de 
nombre William Harvey (1578­1657).

Para   la   Física,   el   final   del   siglo   XVI   va   a   representar  


pasos   balbuceantes   en   la   construcción   de   instrumentos 
ópticos   y   en   la   edificación   de   una   teoría   magnética.   El 
primer   microscopio   fue   construido   hacia   1595   por   los  
fabricantes   de   lentes,   hijo   y   padre,   Hans   y   Zacarias  
Janssen,   en   Milderburg,   Holanda.   Mediante   dos   lentes  
separadas construyeron un primitivo artificio que permitió 
la ampliación de la imagen del objeto entre 3 y 9 veces. 
Más   que   un   instrumento   científico   fue   considerado   una  
atractiva   curiosidad.   Alrededor   de   sesenta   años   faltaba 
para   que   fuera   perfeccionado   y   empleado   para   abordar   el  
mundo de los microorganismos.

La doble coyuntura en que se ve envuelto el cirujano francés Ambroise Paré 
(1507­1591),  las guerras religiosas y la aparición en el escenario bélico de la 
primera arma "ligera" portátil, el arcabuz,  le hace asistir a un numeroso grupo 
de heridos y lisiados. De esta experiencia, publica en 1545 su obra “El método 
de tratar las heridas hechas por los arcabuces y otras armas de fuego; y...; 
también de las quemaduras especialmente hechas por la pólvora de cañón” en la 
cual propone la sustitución del tratamiento por cauterización con aceite 
hirviente de las heridas por la sutura de los vasos,  innovaciones en  el 
tratamiento de las fracturas y promueve la inserción de extremidades 
artificiales. Se ha afirmado que Paré representa para la cirugía del 
renacimiento lo que Vesalio significó para la anatomía. 

Para la Física, el final del siglo XVI va a representar pasos balbuceantes en la 
construcción de  instrumentos ópticos y en la edificación de una teoría 
magnética. En 1571 un fabricante inglés de instrumentos de navegación,  Robert 
Norman publicaba en un pequeño libro “The Newe Attractive” un importante 
descubrimiento que ponía de relieve el magnetismo de la Tierra. Resulta que 
Norman observó que si una aguja estaba equilibrada sobre su eje antes de 
imantarse, posteriormente su extremo norte será atraído hacia abajo y habrá que 
golpearla ligeramente para restablecer su equilibrio. Esto demostraba que el 

113
campo magnético de la tierra no corría paralelo a su superficie sino que 
declinaba la aguja imantada al ejercer una fuerza dirigida hacia su centro.  

Apenas tres décadas después del descubrimiento de Norman, otro inglés este 
médico e investigador, William Gilbert (1544 ­ 1603), publicó una obra en 1600 
que se consideró un clásico de la época en materia de electricidad y magnetismo. 
En  “De Magnete” Gilbert, perteneciente a esa legión de egresados de Medicina 
según el currículo medieval que se ganan la vida cómo médicos (Gilbert sirvió en 
la corte de Isabel I), pero sienten la necesidad de investigar en otros campos, 
desarrolla las ideas primarias sobre el carácter sustancial de la electricidad  
al atribuirle propiedades semejantes a la de los fluidos, nociones que encajan 
bien con lasprimeras hipótesis sobre las diferentes formas de la energía que 
serían refinadas más de un siglo después.

Respecto a los fenómenos magnéticos, Gilbert, auxiliándose de  
imanes   pequeñísimos   pudo   seguir   las   líneas   de   fuerzas 
tangenciales de una esfera magnética en su convergencia hacia  
los   polos   y,  al   apreciar  la   diferente   inclinación   de  estos 
imancitos a diferentes latitudes respecto a los polos de la  
esfera   no   dudó   en   relacionar   estos   resultados   con   los  
obtenidos por Norman en sus estudios del comportamiento de la 
brújula.   En   resumen,   Gilbert   relaciona   la   polaridad   del  
magneto con la polaridad de la Tierra y edifica una filosofía  
magnética sobre la base de esta analogía. Ahora la causa del 
magnetismo apunta hacia el interior   de   la   tierra   y   no  
hacia los cielos como algunos habían supuesto. Sus principios 
fueron   aplicados   también   a   una   dinámica   celeste   que   ponía  
como   causa   del   movimiento   de   los   planetas   la   fuerza  
proporcional   –   según   el   propio   Gilbert   ­   a   la   cantidad   de  
materia   del   imán   contenido   en   la   capa   interior   de   cada  
planeta.

Mientras la Matemática avanza,  la Alquimia agoniza para dar paso a una ciencia 
experimental,  la Medicina destierra los errores de Galeno e incuba grandes 
avances, y la Física, luego de generar un cambio de paradigma en la Astronomía 
que se mantuvo vigente durante más de mil años, profundiza en la modelación del 
movimiento mecánico de los cuerpos. Se abona así el terreno para cristalizar la 
obra de Newton en el siglo XVII. Toda la Ciencia posterior iba a recibir su 
impacto.

114
Si   el   Renacimiento   en   las   ciencias   se   asocia   a   la  
Revolución   astronómica   promovida   por   la   visión  
copernicana del sistema solar, el siglo XVI se despedía 
con   un   descubrimiento   que   confirmaría   la   variabilidad  
celestial.   El   descubrimiento   en   1596   de   la   primera  
estrella   variable   (Mira,   en   latín   Mirus:   maravilloso)  
correspondió   al   astrónomo   y   pastor   luterano   David  
Fabricius   (1564   ­1617).   Su   nombre   se   relaciona   también 
con el descubrimiento de las manchas del sol, pero este 
hallazgo reportado en el siguiente siglo se disputa por 
varios astrónomos.

Mira   es   una   estrella   gigante   roja   que   sufre   dramáticas 


pulsaciones, que la convierten en una estrella más de 100  
veces más brillante en el curso de un año. Mira es una de  
las mayores estrellas conocidas, con un diámetro de 354 
millones de km, algo mayor que el diámetro de la órbita  
de   la   Tierra.   y   está   solo   a   400   años   luces   de   nuestro  
planeta.

Bibliografía:

Abascal, Juan Manuel; Almagro­Gorbea, Marín (2004): América Precolombina. 
Historia y Arqueología de las Civilizaciones. Biblioteca Virtual Miguel D 
Cervantes.

http://www.cervantesvirtual.com/portal/antigua/aprecolombina.shtml

Altshuler José (2003): A propósito de Galileo. Editorial Gente Nueva. La Habana.

Barattin Luisa (2000): Galileo Galilei. Institute and Museum of the History of 
Science of Florence, Italy. http://galileo.imss.firenze.it/museo/4/index.html

Briceño Monico (1999): Culturas precolombinas. Universidad de Guadalajara.

http://mexico.udg.mx/historia/precolombinas/olmecas/index.html

Barile Margherita (2002):  Viète, Francois . Scientific 
Biography. Mathematicians.  A Wolfram Web Resource. 
 http://scienceworld.wolfram.com/biography/Viete.html

Darling David (2006): Al Sufi Abd Al­Rahman (903 ­ 986). The Encyclopedia of 
Astrobiology, Astronomy and Spaceflight. 
http://www.daviddarling.info/encyclopedia/A/Al­Sufi.html

Davidson Michael W (2003): Pioneers in Optics. Florida State University.

115
Alhazen (965 ­ 1040)

http://micro.magnet.fsu.edu/optics/timeline/people/alhazen.html

Witelo de Silesia (1230 ­ 1275)

http://micro.magnet.fsu.edu/optics/timeline/people/witelo.html

Zacharias Janssen (1580­1638)

http://micro.magnet.fsu.edu/optics/timeline/people/janssen.html

Debus Allen G. (1998): Paracelsus and the Medical Revolution of the 
Renaissance. U.S. National Medicine 
Library. http://www.nlm.nih.gov/exhibition/paracelsus/paracelsus_2.html

De la Selva Teresa (1993): De la Alquimia a la Química. Fondo de Cultura 
Económica. México. 
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/118/htm/alquimia.h
tm 

Ead Hamed (1998): Arabic (or Islamic) Influence on the Historical Development 
of Medicine. Faculty of Science ­University of Cairo, Giza.

http://www.levity.com/alchemy/islam19.html

IDEM: The Time of Al­Khwarizmi. First Half of Ninth Century. History of Islamic 
Science. Faculty of Science ­University of Cairo. Giza.

http://www.levity.com/alchemy/islam13.html

Escohotado Antonio (2006): Génesis y evolución del análisis científico.

Tema XII. La Cosmología Renacentista.

http://www.escohotado.com/genesisyevoluciondelanalisiscientifico/tema12.htm

Tema XIII. La Ciencia Nueva.

http://www.escohotado.com/genesisyevoluciondelanalisiscientifico/tema13.htm

Enciclopedia Encarta (2006): 3 Las Matematicas en el Medioevo. 4 Las 
Matemáticas durante el Renacimiento. "Matemáticas." Microsoft® Encarta® 2006 
[DVD]. Microsoft Corporation, 2005.

IDEM: 5. Astronomía en la Edad Media y 6. La teoría de 
Copérnico. Astronomía. Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 
2005.

116
Figurovski N.A.(1989): Historia de la Química. Editorial Pueblo y Educación . La 
Habana. 
Período de la Alquimia. 12 ­ 17

La época del Renacimiento y su influencia en el desarrollo de la Química. 18 ­ 
26.

Hach Robert A. (1999):  History of Science. Department of History. University of 
Florida.

http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­Rev/SCI­REV­Teaching/HIS­SCI­
STUDY­GUIDE/index.htm

Copernicus' major works

http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­Rev/SCI­REV­Teaching/HIS­SCI­
STUDY­GUIDE/0046_copernicusMajorWorks.html

The Copernican System

http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­Rev/SCI­REV­Teaching/HIS­SCI­
STUDY­GUIDE/0050_copernicanSystem.html

The Scientific Revolution

http://web.clas.ufl.edu/users/rhatch/pages/03­Sci­Rev/SCI­REV­Teaching/HIS­SCI­
STUDY­GUIDE/0044_scientificRevolution.html

Hacyan Shahen (1996): La Revolución de Copérnico y sus consecuencias. Capítulo 
2: El Fin de los mitos. El Descubrimiento del Universo.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/06/html/descubri.h
tml

IMSS (2006): Galilean patent. Institute and Museum of the History of  Science. 
Florence. Italy.

IV.7 Thermoscope

http://brunelleschi.imss.fi.it/museum/esim.asp?c=404007

IV.15 Water­raising machine

http://brunelleschi.imss.fi.it/museum/esim.asp?c=404015

IET (2006): Peter Peregrinus. Archives. Biographies and Features.  The 
Institution of Engineering and 
Technology. http://www.iee.org/TheIEE/Research/Archives/Histories&Biographies/Pe
regrinus.cfm

117
Martí Beatriz (2005): Los enigmáticos códices. Historia. Mundo Maya Online.

http://www.mayadiscovery.com/es/historia/default.htm

Mitchell John S. (2005): El enigma de Quiriguá. Arqueología. Mundo Maya Online.

http://www.mayadiscovery.com/es/arqueologia/default.htm

Monzur Ahmed (1998): Muslim Scientists and Scholars. The Muslim Directory on 
line.

Mohammad ibn Musa al­Khawarizmi (780­850)

http://www.ummah.net/history/scholars/KHAWARIZ.html

Abu Raihan  al­Biruni (973 ­ 1048)

http://www.ummah.net/history/scholars/BIRUNI.html

Abu Ali al­Husain ibn Abdallah ibn Sina (Avicenna) (980 ­ 1037)

http://www.ummah.net/history/scholars/ibn_sina

Omar al­Khayyam (c. 1050­1122)

http://www.ummah.net/history/scholars/KHAYYAM.html

MuslimHeritage.com (2005): Al­Khazani ­ Merv's Physicist. Category: Science

http://www.muslimheritage.com/uploads/Merv.pdf

O'Connor J.J., Robertson E.F. (1999): History of Mathematics. Mathematicians. 
 School of Mathematics and Statistics. University of St. Andrews. Scotland.

Brahmagupta (598 – 670)

http://www­groups.dcs.st­and.ac.uk/~history/Mathematicians/Brahmagupta.html

Kamal al­Din Abu'l Hasan Muhammad al­Farisi (1260 ­1320)

http://www­history.mcs.st­andrews.ac.uk/Biographies/Al­Farisi.html

Leonardo Pisano Fibonacci (1170 ­1250)

http://www­history.mcs.st­andrews.ac.uk/Mathematicians/Fibonacci.html

Saint Albertus Magnus (1200 – 1280)

http://www­history.mcs.st­andrews.ac.uk/Mathematicians/Albertus.html

Roger Bacon (1214 – 1292)

http://www­history.mcs.st­andrews.ac.uk/Mathematicians/Bacon.html

118
Ulugh Beg (1393 ­1449)

http://www­groups.dcs.st­and.ac.uk/~history/Mathematicians/Ulugh_Beg

http://turnbull.dcs.st­and.ac.uk/~history/ Mathematicians/Ulugh_Beg.html

Nicholas of Cusa (1401 – 1464)

http://www­history.mcs.st­andrews.ac.uk/Biographies/Cusa.html

Johann Müller Regiomontanus  (1436 – 1476)

http://www­history.mcs.st­andrews.ac.uk/Biographies/Regiomontanus.html

Leonardo da Vinci (1452­1519)

http://www­history.mcs.st­andrews.ac.uk/history/Mathematicians/Leonardo.html

Simon Stevin (1548 – 1620)

http://www­history.mcs.st­andrews.ac.uk/Biographies/Stevin.html

Pla Alberola, Primitivo (2006): Cristóbal Colón. Biblioteca Virtual Miguel de 
Cervantes.

http://www.cervantesvirtual.com/portal/colon/include/pcolon_colon.jsp?
nomportal=colon

Ribnikov K. (1987): 4.3 Las matemáticas en Europa en la Edad Media y en la 
Época del Renacimiento. 118 – 138. Historia de las Matemáticas. Editorial MIR. 
Moscú.

Salah Zaimeche (2005): Al­Khazani ­ Merv's Physicist. MuslimHeritage.com.

http://www.muslimheritage.com/uploads/Merv.pdf 

Smith W, Henry (1904): History of Science. Project Gutenberg File Converted into 
HTML pages by Nalanda Digital Library under Etext Conversion Project (ECP).

Book II
Chapter I. Science in the dark age.

Chapter II. Medieval Science among the arabians.

Chapter III. Medieval Science in the west.

Chapter IV. The new cosmology ­­ Copernicus to Kepler and Galileo.

http://www.nalanda.nitc.ac.in/resources/english/etext­
project/history/science/book2.section2.html

119
The Franklin Institute (2006): Chinese Inventions. Ancient arts and science of 
China.  http://sln.fi.edu/tfi/info/current/inventions.html

Verdugo Pamela (1997): Nicolás Copérnico. Los Matemáticos y su 
Historia. Universidad de Santiago de Chile. 
http://www.mat.usach.cl/histmat/html/cope.html

Westfall, Richard S. (1995): Catalog of the Scientific Community in the 16th 
and 17th Centurias.  Department of History and Philosophy of Science. Indiana 
University.

Nicholas Copernicus (1473 – 1543)

http://galileo.rice.edu/Catalog/NewFiles/coprnics.html

Giovanni Battista Benedetti (1530 ­ 1590)

http://galileo.rice.edu/Catalog/NewFiles/benedeti.html

William Gilbert (1544 ­1603)

http://galileo.rice.edu/sci/gilbert.html

Tycho Brahe (1546 – 1601)

http://galileo.rice.edu/sci/brahe.html

Giordano Bruno (1548 ­ 1600)

http://galileo.rice.edu/chr/bruno.html

David Fabricius (1564 ­1617)

http://galileo.rice.edu/sci/fabricius.html

Johannes Kepler (1571 – 1630)

http://galileo.rice.edu/sci/kepler.html

Zubov V. P. (1962): Las ideas básicas de la Física, ensayos sobre su 
desarrollo. Ediciones Pueblos Unidos. Montevideo.

Las ideas físicas del Medioevo, p. 87  – 120. Las ideas físicas del 
Renacimiento, p. 135 – 163  

120
REVOLUCIÓN DE LA FÍSICA Y SU IMPACTO EN LAS CIENCIAS DEL SIGLO XVII

Rolando Delgado Castillo y Francisco Arturo Ruiz Martínez

Universidad de Cienfuegos.

Contexto y avances en la formalización matemática

Nuevos instrumentos y revolución en la Astronomía

Antecedentes inmediatos de los Principia

La obra de Newton

Progresos en los fenómenos en que interviene la luz

Los métodos cuantitativos penetran los ámbitos de la Química y la 
Biología.

Bibliografía

La   Europa que   sirve   de   escenario al   despegue   de   las   ciencias   y   más 


particularmente   a la   Revolución de la   Físicaen la   Inglaterra de   Isaac   Newton 
(1643 –1727), conformó un complejo panorama político, económico y social.

Domina el acontecer político de la primera mitad del siglo, la guerra de los 30 
años, (1618 – 1648) resultado de choques de intereses religiosos, políticos y 
económicos. A partir de la paz de Westfalia, Europa se convierte en un mosaico 
de estados nacionales que representan el fin del poder del Imperio y del Papado. 
A la secularización del estado correspondió una secularización del pensamiento 
que impulsó el progreso de las ideas científicas.

Hacia la segunda mitad se destacan los desarrollos de dos modelos políticos:

El   esplendor   de   la   monarquía   absoluta   de   Luis   XIV   (1643­1715)   que 


cristaliza el liderazgo francés.

121
El agitado paisaje de las sociedad inglesa con la guerra civil (1642) que 
conduce a la instauración y vida de la República de Cromwell (1649­1660), 
la posterior restauración de los Estuardos, y finalmente la abdicación de 
Jacobo   II   (1660   –1688)   mediante la   Revolución pacífica   de   1688.   Esta 
revolución se considera el hito histórico que inaugura el dominio inglés 
de los mares, del comercio y de la Revolución Industrial.

En lo económico se producen zigzageos pero la tendencia expresa un incremento 
del   comercio   colonial   reflejado   en   la   constitución   de   las   grandes   compañías 
de la Indias en las tres potencias que emergen como líderes, Holanda, Inglaterra 
y   Francia.   Aparecen   las   instituciones   que   prefiguran   el   naciente   capitalismo 
como la   Bolsa de   Amberes   y la   Banca nacional.   El   transito   de   la   producción 
artesanal,   doméstica,   a   la   manufactura   se   traduce   en   la   creación   de 
instalaciones,  se  incuban  novedosas  técnicas  y  proliferan  las   profesiones  que 
gestan las propias instituciones de nuevo tipo.

No se puede decir que los científicos del siglo mostraron indiferencia por los 
reconocidos movimientos sociales que bajo el término de Reforma tuvieron lugar. 
Desde John Neper (o Napier, 1550 ­1617) en Escocia hasta Newton en Inglaterra 
tomaron partido ante los acontecimientos que adoptaron un ropaje religioso.

Corresponde a esta etapa un momento singular dentro de la 
actividad   científica:   la   fundación   de   las   Sociedades   que 
institucionalizan   la   profesionalización   del   hombre   de  
Ciencia,   posibilitan   el   intercambio   y   divulgación   de   los 
resultados,   e   intentan   hacer   coherente   y   uniforme   el 
lenguaje   naciente   de   las   ciencias.   En   1662,   se   inicia la 
Sociedad Real   (Royal Society), la Academia inglesa de las 
Ciencias, que tendría como su presidente  a partir de 1703, 
durante 24 años  a sir Isaac Newton.

Es hacia mediados de este siglo que se crean, en los grandes polos de Europa, 
las primeras sociedades científicas. En 1662 abre sus puertas la famosa sociedad 
londinense   “Royal   Society”,   uno   de   cuyos   fundadores   fue   el   más   importante 
químico   –   físico   del   siglo,   el   irlandés   Robert   Boyle   (1627   –   1691);   poco 
después,   en   la   próspera   Florencia   del   Ducado   de   Toscana,   comienza   sus 
actividades la Academia de Cimento, actuando como su fundador el célebre físico 
Evangelista Torricelli (1608 – 1647); en 1666 el ministro de Economía y mecenas 
del   arte   y   de   las   ciencias   francesas   Jean­Baptiste   Colbert   (1619   –   1683) 
inaugura la   Academia de   Ciencias   de   París, y   cierra   el   período   la   fundación 
de la   Academia de   Ciencias   berlinesa,   bajo   la   inspiración   del   pionero   del 

122
cálculo, el matemático alemán Gottfried Wilhelm Leibniz (1646 ­ 1716).

La aparición de grandes obras filosóficas en el siglo XVII,   repercuten en el 
camino que toman las Ciencias Naturales. En este marco es necesario destacar la 
obra del filósofo inglés Francis Bacon   (1561 ­ 1626). Bacon reclamaba para el 
trabajo científico la aplicación del método inductivo de investigación en lugar 
del   viejo   método   deductivo   en   que   se   basaba   la   escolástica   y   defendía   el 
experimento   organizado   y   planificado   como   el   procedimiento   fundamental   para 
conducir la investigación. Sus ideas tuvieron una amplia repercusión, primero en 
Inglaterra y luego en otros países.

La etapa de naciente formación en las Ciencias tal vez explique la inclinación 
abarcadora de los científicos de la época. Los grandes matemáticos incursionan 
con frecuencia en el campo filosófico, se esfuerzan por explicar los fenómenos 
en  su  totalidad,   e intentan  construir   los  instrumentos  matemáticos  requeridos 
para la formalización de los experimentos en el campo de la Mecánica.

La   geometría   analítica   cartesiana,   el   cálculo   diferencial,   el   cálculo   de   las 


variaciones, y la teoría matemática de la probabilidad constituyeron logros de 
las   matemáticas   que   sirvieron   en   lo   inmediato   para   apoyar   el   despegue   de la 
Mecánica ,   y   en   el   posterior   desarrollo   de   la   formalización   matemática   para 
describir las leyes de los objetos que son abordados. 

La fijación en la memoria escrita de las prioridades en  
los   descubrimientos,   los   informes   presentados   en   las  
recién  inauguradas  Academias,  el  afán   de  alimentar  el  
debate   que   ofreciera   la   necesaria   luz   en   los   temas  
investigados,   constituyeron   fuerzas   motrices 
para insertar en la matriz del tiempo la publicación de  
las   revistas   científicas   periódicas.   El   nacimiento   de  
tales revistas tuvo como escenario histórico el Londres 
de la   Royal   Society y   el   París   de la   Academié ,   en 
fecha   de   1665,   portando   como   título   “Journal   des  
  Scavans”   y   “Philosophical   Transactions”.   La   última  
llega hasta hoy como publicación de la Royal Society en 
dos   series.   La   serie   A   dedicada   a   problemas   de   las  
ciencias matemáticas, físicas y de las ingenierías y la 
serieB a los problemas de las ciencias biológicas.

La monumental obra de René Descartes (1596 ­ 1650) nos lega la creación de la 
Geometría Analítica. Descartes introduce la noción de plano cartesiano y combina 
el Álgebra y la Geometría de manera que a partir de sus trabajos los problemas 

123
geométricos   podían   resolverse   algebraicamente   y   las   ecuaciones   algebraicas 
podían ilustrarse geométricamente. Se asiste así a una de las bases del cálculo 
moderno.

Asombra pensar que ya a la altura de este siglo aparecen los primeros inventos 
modernos de sistemas mecánicos para efectuar cálculos aritméticos. Existen las 
pruebas documentales de que el matemático escocés John Neper (1550 ­ 1617) ya a 
fines   del   XVI   proyecta   diferentes   sistemas   mecánicos   para   realizar   cálculos 
aritméticos. Pero Neper alcanza la celebridad por la publicación, apenas tres 
años antes de morir, de sus tablas de logaritmos que fueran muy utilizadas en 
los siglos siguientes. Además fue uno de los primeros en introducir la moderna 
notación   decimal   para   expresar   fracciones.   Neper   fue   seguidor   del   movimiento 
de la   Reforma en   Escocia   y   años   más   tarde   tomó   parte   activa   en   los   asuntos 
políticos promovidos por los protestantes.

La invención de los logaritmos fue aprovechada por el matemático inglés William 
Oughtred   (1574   –   1660),   quién   en   1632   descubrió   que   al   disponer   dos   reglas 
juntas con las escalas logarítmicas impresas, y deslizar una regla sobre la otra 
podían efectuarse cálculos mecánicamente por medio de logaritmos. La regla de 
cálculo fue perfeccionada por en 1671, y se convirtió con el paso del tiempo en 
un   instrumento   imprescindible   para   los   cálculos   aproximados   de   ingenieros   y 
técnicos. Sólo tres siglos más tarde la calculadora electrónica lo remitió al 
museo de instrumentos de cálculo.

La teoría matemática de la probabilidad fue inicialmente desarrollada de manera 
conjunta por Pierre de Fermat (1601 ­1665) y Blaise Pascal (1623 – 1662). Una 
gran   resonancia  tuvo  la  teoría  de  las  probabilidades  en  el  desarrollo  de  las 
estadísticas matemáticas y sociales.

Cuando Pascal aún no había cumplido los 19 años, veinte años después del invento 
de la regla de cálculo por el matemático inglés William Oughtred, inaugura el 
camino de las invenciones de las máquinas calculadoras. Su máquina podía sumar y 
restar mediante un complejo mecanismo de ruedas dentadas, cada una marcada del 
uno   al   diez   en   su   borde.   Pascal   debió   resolver   muchos   problemas   técnicos 
derivados de la moneda usada en la Francia de la época, una libra contenía 20 
soles y un sol, doce dinares, de modo que con esta división de la libra en 240 
unidades el mecanismo se tornaba mucho más difícil que si la división hubiera 
sido en 100 unidades. Sin embargo para 1652 se habían producido 50 prototipos de 
los cuales unos pocos se había vendido. La manufactura de la máquina de Pascal 
cesó   este   año.   Casi   al   finalizar   el   siglo   XVII   Leibniz   diseña   una   máquina 
superior, pero aún habría que esperar un par de siglos para que se inventara la 
calculadora comercial electrónica.

124
La construcción del cálculo infinitesimal fue desarrollada 
casi simultáneamente por Leibniz y Newton hacia fines del  
siglo XVII. En rigor, se reconoce que el sistema de Leibniz  
fue publicado tres años antes que el propuesto por  Newton, 
y la notación adoptada universalmente fue la propuesta por  
el primero.  La época debió generar  tal herramienta y dos  
genios la construyeron. Se enfrascaron luego en una larga  
disputa   por   la   prioridad   y   la   gloria.   Con   el   Cálculo   se  
inicia la alta Matemática y se parte en dos la historia de 
esta Ciencia.

En   el   año   de   1669   Newton   desarrolló   el   Cálculo   Diferencial   o   método   de   las 


fluxiones   y   lo   relaciona   con   el   Cálculo   Integral,   como   una   herramienta 
matemática   necesaria   para   armonizar   sus   teorías   en   el   campo   de la   Física. 
En rigor histórico tres años antes Leibniz había publicado su sistema para el 
cálculo infinitesimal. Pero a Leibniz se deben también importantes aportaciones 
en el campo de las invenciones prácticas tales como el diseño de una máquina 
superior a la de Pascal que multiplicaba por repetición automática de la suma y 
dividía   por   repetición   de   la   resta,   y   la   invención   de   una   máquina   para   el 
cálculo de tablas trigonométricas. Leibniz, redescubre el sistema de numeración 
binario ideado por los chinos 3000 a .C., que posteriormente sería fundamental 
en el campo de la Informática.

La   Historia reconoce   que   es la   Física,   la   ciencia   que   en   todo   este   período 


impulsa el desarrollo de la formalización matemática para describir las leyes de 
los   objetos   que   estudia,   en   particular   el   movimiento   de   los   cuerpos   bajo   un 
enfoque dinámico. No es casual que como veremos a continuación el nacimiento del 
Cálculo Diferencial estuviera vinculado con necesidades del propio crecimiento 
de las Ciencias Físicas.

Es también a partir del siglo XVII que se introduce sólidamente en las prácticas 
de las investigaciones el método experimental, con el cual se conducen una serie 
de grandes descubrimientos. El propio diseño del experimento físico impulsó el 
desarrollo de los instrumentos de medición.

El listado de los instrumentos que resultan exigencia de la época son diseñados 
y   construidos   generalmente   por   los   propios   investigadores   y   generan   una 
dialéctica   entre   teoría   y   práctica   que   representa   el   apoyo   o   rechazo   de   la 
teoría preconcebida o significa el nacimiento de la nueva ley sustentada por la 
data experimental. El propio Galileo estrena su pequeño telescopio de refracción 
y encabeza la revolución astronómica; Hooke y Huygens se disputan el título de 

125
mejor mecánico del siglo y pretenden registrar el tiempo con la mayor exactitud 
posible;   Torricelli   inventa   el   barómetro   y   al   hacerlo   derriba   el   supuesto 
principio del “horror vacui”; von Guericke inventa la bomba de vacio con la que 
se abre un nuevo campo para la experimentación; y de nuevo Hooke que perfecciona 
el  microscopio  y  descubre   un  nuevo  mundo,  e  inventa  el  primer  higrómetro,   un 
anemómetro, el barómetro de cuadrante, mecanismos de registros automáticos, que 
inauguran la meteorología como disciplina científica.

Siete   años   después   de   la   creación   del   barómetro   por 


Torricelli,   el   gran   experimentador   alemán   Otto   von 
Guericke   (1602   ­   1686)   inventó   la   bomba   de   vacío   que 
aunque   primitiva   proporcionó   una   importante   herramienta  
para   la   experimentación.   En   1657,   Guericke   condujo   su  
famosa demostración de que caballos tirando en sentidos 
opuestos   eran   incapaces   de   apartar   dos   hemisferios   de  
una esfera en cuyo interior se había evacuado el aire.

También   demostró   que   usando   un   pistón   en   un   cilindro 


cuando el vacío era creado en un lado de un pistón, la  
atmósfera podía mover el pistón y una considerable masa  
a lo largo de una determinada distancia, realizando así  
un   trabajo. Este   era   el   principio   básico   de   trabajo   de  
la   máquina   de   vapor   de   Newcomen   que   construida   a 
principios   del   XVIII   comenzó   la   transformación   del  
mundo. Su   experimento   confirmó   los   descubrimientos   de 
Torricelli y demostró los efectos espectaculares de las 
presión atmosférica.

Históricamente   la   invención   del   telescopio   óptico   que   impulsa   una   verdadera 


revolución   astronómica   se   disputa   entre   varias   personas.   Todo   lo   que   puede 
decirse es que la solicitud de la patente de Hans Lipershey (1570 ­ 1619) es el 
registro   más   temprano   de   un   telescopio   realmente   existente.   Lipershey  
fabricante de espejuelos en la floreciente ciudad holandesa de Middelburg, es el 
primer inventor en solicitar la patente (1608) de un dispositivo por medio del 
cual   todas   las   cosas   situadas   a   una   gran   distancia   pueden   verse   como   si 
estuvieran cercanas.

La astronomía telescópica tiene en Galileo Galilei a uno de sus fundadores. En 
alrededor de dos meses, entre diciembre de 1609 y el enero siguiente, Galileo, 
auxiliado   de   su   estrenado   telescopio   de   refracción   hizo   más   descubrimientos 
astronómicos que los que nadie había hecho nunca antes. Descubrió las lunas de 
Júpiter,   estructuras   alrededor   de   Saturno,   estrellas   de la   Vía Láctea ,   los 

126
cráteres de la Luna , y las fases de Venus. Este último descubrimiento indicaba 
que este planeta gira alrededor del Sol lo que constituía una evidencia a favor 
de la teoría copernicana.  Sus hallazgos celestiales aparecen publicados en un 
pequeño libro “Mensajero Estelar” editado en mayo de 1610 en Venecia. Alrededor 
del   descubrimiento   de   las   lunas   de   Júpiter   quizás   se   estableció   la   primera 
disputa   de   prioridad   en   el   terreno   astronómico.   El   litigio   surge   cuando   el 
astrónomo germano Simon Marius, (1573­1624), quién había viajado a Praga para 
aprender   las   técnicas   de   Brahe,   y   luego   asistido   a la   Universidad de   Padua, 
 publicó en 1614 "El Mundo Joviano descubierto en 1609 mediante el telescopio 
holandés".   Allí afirma haber hecho las primeras observaciones de las lunas de 
Júpiter, lo que motivó en 1623 la respuesta airada de Galileo en el "Analizador" 
acusándole  del robo de su descubrimiento. Sin embargo Mundus Iovialis contiene 
otro hallazgo telescópico que no fue nunca cuestionado: el descubrimiento de la 
Nebulosa de   Andrómeda,   que   por   entonces   no   era   resuelta   como   sistema   de 
estrellas.

La   inmensa   figura   de   Galilei   tal   vez   pueda   resumirse   para  


todos los tiempos por su célebre frase: " E pour si muove! "  
símbolo   de   la   desesperada   impotencia   ante   la   ciega 
intolerancia   de la   Inquisición.   Tenía 69   años   cuando   fue  
obligado a abjurar de su obra y se le impusiera la pena de  
cadena perpetua (condena que fuera conmutada por el arresto  
domiciliario)   pero   sus   ideas,   su   pensamiento   creativo,   no 
pudieron   ser   encerradas   y   aún   publica   en   1638   su   última 
obra que resumiría los resultados sobre el movimiento y los 
principios   de la   Mecánica. En   1992,   cuando   se   cumplían   400 
años   de   la   conferencia   inaugural   del   joven   profesor   de 
matemáticas   en   la   Universidad   de   Padua,   el   primer   papa   no  
italiano desde 1523, Juan Pablo II (1920 ­ 2005), en nombre 
de la Iglesia Católica admitió que en el caso de Galileo se 
habían   cometido   errores   por   los   consejeros   teológicos   pero  
no   reconoció   explícitamente   que   se   cometiera   un   error   al 
condenar a Galileo por el cargo de herejía por su creencia  
de   que   la   Tierra   rota   alrededor   del   sol.   Así   declaró  
cerrado  el caso de Galileo.

Una   avalancha   de   descubrimientos   astronómicos   viene   sucediendo   al   empleo   del 


telescopio. El propio astro rey revela ahora un nuevo fenómeno. Aparecen manchas 
en su superficie y estas manchas observan un desplazamiento relativo.  En estas 
primeras observaciones sobre el fenómeno solar participaron notables astrónomos, 

127
amén   de   quién   desde   1610   había   revolucionado   el   conocimiento   de   la   bóveda 
celeste. Galileo reportó la existencia de las manchas solares en su “Discurso 
sobre   cuerpos   flotantes”   (1612),   y   más   detenidamente   en   “Cartas   sobre   las 
manchas del sol” que aparecen en 1613.

Con fecha de junio de 1611, con antelación suficiente para su presentación en la 
feria otoñal del libro de Frankfurt, Johannes Fabricius (1587 – 1616), hijo del 
astrónomo   danés   David   (1564   ­1617),   que   en   1596 había   descubierto   la   primera 
estrella   variable,   escribió   un   informe   sobre   las   manchas   solares   impreso   en 
Wittenberg. Al relatar las observaciones hechas, Fabricius no ofrece las fechas 
de observación ni se muestra un esquema del desplazamiento de las manchas, pero 
se defiende la idea de que estas manchas pertenecen a la superficie solar y sus 
desplazamiento revelan que el sol probablemente rota sobre su eje.

Por uno u otro motivo las conclusiones del breve ensayo de Fabricius se eclipsan 
por la publicación en 1612 del brillante astrónomo alemán Christopher Scheiner 
(1575­1650)   sobre   las   manchas   solares   en   la   cual   ofrece   una   medida   de   la 
inclinación del eje de rotación de estas manchas al plano de la eclíptica que se 
desvía   sólo   en   unos   pocos   minutos   del   verdadero   valor.   Scheiner   no   solo 
sobresale por sus aportaciones en la astronomía sino por sus inventos que cubren 
ámbitos   tan   distantes   como   el   pantógrafo   (1603)   y   el   telescopio   terrestre 
(1609). Pero antes que Fabricius y Scheiner, existe el registro de que ya en 
1610,   el   físico   británico   Thomas   Harriot   (1560   ­   1621)   informó   sobre   la 
existencia   de   las   manchas   del   sol   en   círculos   afines   aunque   nunca   llegó   a 
publicarlos. Esta falta profesional acompañó la vida de Harriot, y aunque hoy se 
sepa que este físico había descubierto la ley de la refracción de la luz antes 
que lo hiciera en 1621 el profesor de la Universidad de Leiden, Willebrord van 
Roijen   Snell   (1580   –   1626),   el   reconocimiento   universal   corresponde   a   este 
último.

Convencido de que al menos algunos cuerpos no giraban alrededor de la Tierra , 
Galileo comenzó a escribir a favor del sistema de Copérnico. En febrero de 1632, 
luego de 6 años de trabajo, publica su “Diálogo concerniente a los dos sistemas 
principales del mundo: Ptolemaico y Copernicano”. Desafortunadamente, dentro de 
las verdades inobjetables a favor del sistema copernicano que la obra defiende, 
Galileo desarrolla una errónea teoría de las mareas, que ya había sido explicada 
correctamente por Kepler.

128
Con   la   muerte   en   1601   de   Tycho   Brahe,   su   asistente  
Kepler   se   convierte   en   sucesor   en   el   cargo   de  
Matemático   Imperial,   y   permanece   en   este   puesto   hasta  
1612.   En   Praga,   Kepler   muestra   la   fecundidad   de   quién  
al   finalizar   el   pasado   siglo   abordara   los   “Misterios  
del   Cosmos”   iniciando   la   profundización   de   la   teoría  
heliocéntrica.   Orientado al   estudio   de   Marte,   le  
obsesiona una discrepancia entre cálculo y observación  
detectada en su órbita. La divisa kepleriana de que «el 
origen   de   las   discrepancias   debe   hallarse   en   nuestras  
hipótesis   iniciales»   le   conduce   a   rechazar   la 
circularidad   de la órbita marciana y la   uniformidad 
del movimiento planetario.

En   1609   Kepler   anuncia   en   “Astronomía   Nova”   que   el  


movimiento de Marte describe una elipse teniendo al sol  
en   uno   de   sus   focos   y que los   radios   vectores   del 
planeta   barren   en   tiempos   iguales   áreas   iguales.  El 
resultado   concuerda   con   los   resultados   modernos   tan  
exactamente   que   la   comparación   tiene   que   tener   en 
cuenta   los   cambios   seculares   en   la   órbita   de   Marte  
desde la época de Kepler.

En rigor histórico defender a Copérnico después de la obra de Kepler significaba 
desconocer   la   dinámica   gravitacional   y   aceptar   la   santa   circularidad   de   las 
revoluciones   planetarias,   pero   resulta   incomprensible   la   invisibilidad   de   los 
trabajos de Kepler ante la pupila de Galileo. Poco después de la publicación de 
la obra, la Inquisición prohíbe su venta y ordena a Galileo presentarse en Roma. 
Encontrado culpable, fue condenado a cadena perpetua, pena que en realidad fue 
convertida en arresto domiciliario.

Entre   1618   –   1621,   Johannes   Kepler   (1571   ­1630)   concluye   y   publica   su   obra 
“Epitome astronomiae copernicarnae” que resume su colosal descubrimiento de las 
leyes que rigen el movimiento planetario alrededor del sol. La santidad circular 
de las orbitas de Copérnico queda enterrada ante la evidencia kepleriana de que 
las orbitas planetarias describen una elipse con el sol en un foco. La segunda 
ley de Kepler, o regla del área, deja establecido que los planetas no giran con 
un   movimiento   circular   uniforme   sino   que   se   desplazan   con   mayor   velocidad   a 
medida   que   se   aproximan   al   sol,   barren   iguales   áreas   en   igual   período.   La 
importancia de esta ley reside en sustituir el movimiento uniforme “resultante 
de   una   perfección   natural”   por   una   uniformidad   física   (la   conservación   del 

129
movimiento   angular),   absolutamente   acorde   con   la   observación   y   que   abre   paso 
hacia   una   nueva   formalización   e   interpretación   dinámica.   La   ley   de   la 
elipticidad y la ley de las áreas relacionaron el movimiento de cada planeta con 
el Sol, pero la ley armónica que deduce en 1619 cuando ya está en imprenta su 
obra “ La Armonía del Mundo” integra el movimiento de los planetas en un solo 
sistema.   Los   cuadrados   de   los   tiempos   empleados   en   las   revoluciones   de   los 
planetas   son   entre   sí   como   los   cubos   de   sus   distancias   medias   al   Sol   está 
anunciando el nacimiento de la fórmula de la gravitación universal.

La obra del físico – matemático holandés Christian Huygens (1629 ­1695) abarca 
varios campos de la Física del XVII, pero inicia sus trabajos en los ámbitos de 
la   matemática   y   la   astronomía.   Alrededor   de   1654,   su   fina   capacidad   como 
instrumentista le permite desarrollar nuevos lentes. Usando una de sus propias 
lentes, Huygens detectó, en 1655, la primera luna de Saturno. El año siguiente 
descubrió la verdadera forma de los anillos de este planeta.

La   función   predictiva   de   la   ciencia   astronómica   ha 


sorprendido en toda época a la humanidad. La predicción de  
los   tránsitos   de   Venus   y   Mercurio   a   través   del   Sol  
requieren un conocimiento profundo del movimiento orbital 
de estos planetas interiores y esta tarea fue cumplida por  
Kepler   a   inicios   del   siglo   XVII.   Entonces   predijo  un 
tránsito  de Mercurio  en  noviembre  de 1631 y  un tránsito 
Jeremiah  Horrocks de Venus un mes después, sin que la vida le alcanzara para 

verlos. El   tránsito   de   Mercurio   fue   observado   en   París,  


justo   el   mismo   día   predicho,   por   el   astrónomo   Pierre 
Gassendi   (1592­1655), pero   la   predicción   del   tránsito   de 
Venus no pudo constatarse ya que el evento ocurrió en la  
madrugada   cuando   aún   era   de   noche   en   Europa.   El   joven  
astrónomo   Jeremiah   Horrocks   (1618   ­   1641)   corrigió   los 
datos reportados por Kepler y auguró que el 4 de diciembre  
de   1639   sería   observado   desde   Inglaterra   un   tránsito. 
Horrocks   no   sólo   observó   el   fenómeno   celeste   sino   que   a  
partir   de   sus   observaciones   dedujo   la   distancia   de la 
Tierra al   Sol   en   unos   94   millones   de   km,   la   más   precisa 
estimación hasta entonces realizada. Su obra Venus in Sole  
no fue publicada hasta 1662, había muerto 20 años antes,  
al cumplir los 23 años.

En Systema Saturnium (1659), Huygens explicaba las fases y cambios en la forma 
del   anillo   y   describe   sus   observaciones   sobre la   Luna ,   los   planetas,   y   la 

130
nebulosa   de   Orión.   Sus   observaciones   estelares   le   llevaron   a   admitir   el 
principio   de   que   la   comparación   del   brillo   entre   dos   astros   serviría   para 
determinar sus distancias relativas. Suponiendo que la estrella Sirio, la más 
brillante   del   cielo,   es   igual   al   Sol,   Huygens   estimó   que   la   distancia   de la 
Tierra a   Sirio   era   27   664   veces   la   distancia   que   separa   al   Sol   de   nuestro 
planeta.   El   error   cometido   demuestra   la   elevada   imprecisión   de   su   método,   la 
distancia real es más de 20 veces mayor que la estimada por Huygens.

En   1668,   el   matemático   escocés   James   Gregory   (1638   –   1675)   en   su   obra 


“Geometriae   pars   universales”   incluye   una   sección   dedicada   a   fenómenos 
astronómicos   en   la   que   retoma   la   idea   de   Huygens   para   calcular   distancias 
cósmicas a partir del brillo relativo de los astros. Esta vez compara a Sirio 
con   Júpiter,   cuyo   brillo   relativo   con   respecto   al   Sol   puede   calcularse 
indirectamente   a   partir   de   la   distancia   y   la   reflectividad   del   planeta.   El 
método es esencialmente correcto  y Gregory encontró que Sirio se encuentra a 83 
190   unidades   astronómicas   (unidad   astronómica:   distancia   de la   Tierra al   Sol, 
aproximadamente 150 millones de kilómetros), unas 7 veces menos que los 8,7 años 
– luz que la separan de nuestro planeta. Comenzaba el hombre a penetrar en el 
conocimiento por lo pronto aproximado de las distancias estelares.

En la segunda mitad del siglo XVI, desde el Observatorio  
de París, el astrónomo genovés Giovanni Cassini, (1625 ­  
1712)   hace   descubrimientos   revolucionarios   que   fueron  
generalmente   interpretados   por   él   de   manera  
conservadora. Entre   1664   y   1666   midió   el   periodo   de  
rotación  sobre  su  eje  de  Júpiter  y  de  Marte, y  observó 
que   el   primero   estaba   aplanado   en   sus   polos. Una   audaz 
deducción   devino   de   las observaciones   de   las   lunas   de 
Júpiter en 1668, cuando afirmara que las discrepancias en  
los   datos   debían   atribuirse   a que   la   luz   tenía   una  
velocidad finita y que el tiempo requerido para atravesar 
una   distancia   igual   al semidiámetro   de   la   órbita 
de la Tierra le lleva entre diez y once minutos.

Pero   su   punto   de   vista   tradicional   le   hizo   pronto  


rechazar esta idea y buscar otras explicaciones. Resulta  
irónico que los datos de Cassini fueron usados por Römer  
para calcular la velocidad de la luz ocho años más tarde.  
En 1672, el astrónomo danés Ole Christensen Roemer (1644­
1710)   comenzó   a   trabajar   en   el   Observatorio   Real   de  
París.   Pronto   Roemer   orientaría   su   telescopio   hacia   la 
luna   de   Júpiter   Io   y   al   determinar   el   período   de   sus  

131
frecuentes   eclipses  volvió   a  encontrar   desviaciones   en 
sus observaciones que relacionó con las variaciones en el  
tiempo que debía demorar la luz en hacer su recorrido al  
variar   las   distancias   entre   la   Tierra   y   Júpiter. 
 Aplicando los cálculos relativamente imprecisos para las  
distancias entre la Tierra y Júpiter, disponibles durante  
el   siglo   XVII,   Roemer   fue   capaz   de   hacer   la   primera  
estimación de la  velocidad de la luz en 220 mil km/seg. 
  (En la imagen: Ole Christensen Roemer.

En 1634, con casi 70 años y habiendo sido juzgado como hereje dos años antes, 
Galileo   reaborda   y   perfecciona   las   ideas   no   publicadas   en   1590   en   "De   Motu" 
sobre   los   problemas   relacionados   con   los   ímpetus,   momentos,   y   centros   de 
gravedad y escribe sus "Discursos y demostraciones   matemáticas sobre las dos 
nuevas ciencias". La obra fue enviada clandestinamente a Leiden, Holanda, dónde 
se publica. En los "Discursos" desarrolló sus ideas sobre el plano inclinado y 
más tarde describe un experimento con el empleo del péndulo para verificar su 
postulado sobre el plano inclinado que le permite deducir el teorema sobre la 
aceleración de los cuerpos en caída libre. Allana así, al final de su vida, la 
construcción   de   lo   que   hoy   todos   reconocen   como   una   parte   integrante   de   la 
Física : la Mecánica.

No   solo   desarrolla   el   tratamiento   matemático   del   movimiento   acelerado   de   los 


cuerpos en la caída libre, sino que diseñó sus famosos experimentos de cuerpos 
deslizándose por planos inclinados para comprobar sus resultados matemáticos y 
además   para   obviar   la   dificultad   que   para   la   época   significa   la   medición   de 
pequeños intervalos de tiempo. Al estudiar el lanzamiento de proyectiles pudo 
desarrollar   las   ideas   sobre   la   inercia.   También   pudo   enunciar   su   famoso 
principio   de   relatividad   del   movimiento,   relacionado   con   la   imposibilidad   de 
distinguir si un cuerpo está en reposo o en movimiento rectilíneo y uniforme con 
experimentos realizados desde el propio cuerpo. Más tarde, con los trabajos de 
Newton se confirmaron y perfilaron estas ideas sobre el principio de relatividad 
galileano y solo con los trabajos de Einstein, en la Teoría de la Relatividad, 
se comprendió que este principio es limitado al caso de las pequeñas velocidades 
de los cuerpos.

En forma totalizadora puede afirmarse que aunque no vinculó sus estudios de la 
mecánica de los cuerpos en la Tierra con sus ideas sobre el movimiento de los 
cuerpos celestes, sus investigaciones pulverizan las ideas aristotélicas sobre 
el movimiento y demuestran la importancia de introducir el método matemático – 
experimental en las Ciencias Físicas.

132
Hacia   1641,   Evangelista   Torricelli   (1608   –   1647),   quién   actúo   como   asistente 
de  Galileo   en  los  último  diez  meses  de  la  vida   del  pisano,   había  completado 
buena parte del trabajo que iba a publicar como Ópera Geométrica en 1644. En la 
segunda de las tres secciones de este libro bajo el título de "De motu gravium" 
Torricelli   profundiza   en   el   estudio   de   Galileo   sobre   el   movimiento   de 
proyectiles desarrollando la teoría que describe la trayectoria parabólica de un 
proyectil lanzado a cualquier ángulo y ofreciendo tablas numéricas para ayudar a 
los tiradores a encontrar la correcta elevación de sus armas para el alcance del 
blanco.

De   la   correspondencia   sostenida   en   1632   por   el   joven 


asistente   Evangelista   Torricelli   (1608   –  1647)   con   Galileo 
queda claro que  se sentía fascinado por la astronomía. Pero 
después   del   juicio   seguido   contra   su   maestro   entendió   que  
iba a transitar un camino peligroso y decidió orientar sus  
estudios   hacia   otros   problemas   menos   controvertidos.   A 
juzgar por los resultados de su reorientación no perdió la  
ciencia   nuevas   contribuciones: el   Teorema   de   Torricelli   se 
considera   la   página   fundacional   de la   Hidrodinámica y   en 
1643   fue   la   primera   persona   en   crear   un   vacío sostenido   y 
descubrir   el   principio   del   barómetro.En   1647   Torricelli 
contrajo la fiebre tifoidea y a los pocos días murió a la  
edad de 39 años cuando solo había publicado su ópera prima.

En   esta   obra   también   demuestra   que   el   flujo   de   un   líquido   a   través   de   un 


orificio es proporcional a la raíz cuadrada de la altura del líquido, resultado 
ahora conocido como el teorema de Torricelli. Esta fue una de las sobresalientes 
aportaciones de Torricelli a la Hidrodinámica por lo cual ha recibido el título 
de "padre" de esta disciplina. Además fue la primera persona en crear un vacio 
sostenido   y   descubrir   el   principio   del   barómetro.   En   1643   propuso   un 
experimento más tarde conducido por su colega Vincenzo Viviani (1622­ 1703) que 
demostró que la presión atmosférica determina la altura a la cual un fluido se 
elevará en un tubo invertido sobre el mismo líquido. 

El   repertorio   de   nuevas   ideas   desarrollado   por   Copérnico,   Kepler   y 


Galilei representa   el   principal   arsenal   con   que   cuenta   Isaac   Newton   (1642   – 
1727)   para   su   trabajo   de   axiomatización   de la   Mecánica. Pero alrededor   de   la 
segunda mitad del siglo y aún paralelamente con el trabajo de Newton se vienen 
produciendo   progresos   notables   en   la   expansión   del   conocimiento   acerca   del 
movimiento de los cuerpos.

133
Por esta época, la Real Sociedad londinense había incluido en su agenda como un 
tema de investigación, la colisión de los cuerpos elásticos. A esta convocatoria 
responderían en 1668 con informes o publicaciones de forma independiente John 
Wallis  (1616  ­  1703),  Christopher  Wren  (1632  –  1723)   y  Huygens.  El  fruto  de 
estos trabajos apunta al descubrimiento de la primera ley de conservación. En 
particular Huygens demuestra experimentalmente que el momento de una dirección 
fija antes de la colisión de dos cuerpos es igual al momento en esa dirección 
tras la colisión.

En el Horologium Oscillatorium sive de motu pendulorum (1673), Huygens describió 
el   primer   sistema   dinámico   jamás   estudiado   –   el   péndulo   compuesto.   Con   el 
tratamiento   de   Huygens   de   los   fenómenos   de   impacto,   el   movimiento   circular 
uniforme y el movimiento del péndulo fueron clarificados los conceptos primarios 
de la Física, la masa, el peso, el momento, la fuerza y el trabajo.

Como   una   derivación   de   la   ley   de   la   fuerza   centrípeta   para   el   movimiento 


circular   uniforme,   Huygens   comparte   con   Hooke,   Edmund   Halley   (1656   –   1742)   y 
Wren   la   formulación   de   la   ley   del   cuadrado   inverso   para   la   atracción 
gravitatoria.  Halley  había  mostrado  que  la  tercera  ley  de Kepler implicaba  la 
ley   de   atracción   del   inverso   del   cuadrado   y   presentó   sus   resultados   en   una 
reunión en la Royal Society en 1684. La discusión sostenida entre Wren, Hooke y 
Halley   en   1684   durante   la   presentación   del   informe   de   Halley   en la 
SociedadReal no llegó a demostrar que la ley del inverso del cuadrado implicara 
órbitas  elípticas  para   los  planetas.  Halley   no  dudó  en  consultar  a  Newton   en 
Cambridge   y   allí   comprobó   que Newton había   logrado   una   solución   para   este 
problema,   así   como   otros   resultados   significativos   que   no   tenía   intención   de 
publicar.

A poco de la muerte de Torricelli, en 1647 Pascal publicaba  
“Nuevos   experimentos   concernientes   al   vacío”   que   provocó   la  
duda de numerosos científicos de la época. Descartes escribió  
a Huygens “tiene demasiado vacío en la cabeza”. Pero Pascal 
continuó   sus   observaciones   que   le   permitieron   descubrir   que  
la   presión   atmosférica   decrece   con   la   altura   y   le   hizo 
suponer   que   por   encima   de   la   atmósfera   existe   el   vacío.   En  
otro   ámbito   que   lo   hermana   con   Torricelli 
en el estudio de la Mecánica de los Fluidos   escribe   en   1653 
su “Tratado sobre el equilibrio de los líquidos”, en la cual  
explica   la   ley   de   Pascal.Este   tratado   representa   una  
descripción  total  de un  sistema  de  hidrostática,  el primero  
en la historia de la ciencia.

134
Ya en medio de la epidemia de la peste de 1665, que condujo a la clausura de la 
Universidad de Cambridge, apenas con   23 años, Newton comprendió que la fuerza 
responsable   de   la   caída   de   la   manzana   era   la   misma   que   obligaba   a la   Luna a 
girar   alrededor   de la   Tierra :   la   gravitación   universal.   Alrededor   de   1666 
Newton   tenía   versiones   tempranas   de   sus   tres   leyes   de   movimiento.   Había 
descubierto también la ley que daba la fuerza centrífuga de un cuerpo que se 
movía   uniformemente   en   una   trayectoria   circular.   Sin   embargo,   no   tenía   una 
correcta comprensión de la mecánica del movimiento circular. La nueva idea de 
Newton   de   1666   fue   imaginar   que   la   gravedad   de la   Tierra influenciaba   a la 
Luna ,  contrarrestando  su  fuerza  centrífuga.  A  partir  de  su  ley   de  la  fuerza 
centrífuga   y   de   la   tercera   ley   del   movimiento   planetario   de   Kepler,   Newton 
dedujo   la   ley   del   cuadrado   inverso.   Pero   estos   progresos   permanecían   sin 
publicar   hacia   1686,  cuando Halley   convenció   a   Newton   de   la   necesidad   de 
publicar un tratado completo de su nueva física y su aplicación a la astronomía. 
Un   año   después   salían   de   la   imprenta   sus Philosophiae   naturalis   principia 
matemática.

La resonancia alcanzada por sus Principia no ha sido igualada por ningún otro 
libro   científico.   Newton   analizó   el   movimiento   de   los   cuerpos   en   medios 
resistentes   y   no   resistentes   bajo   la   acción   de   fuerzas   centrípetas.   Los 
resultados fueron aplicados a los cuerpos en órbita, proyectiles, péndulos, y a 
la   caída   libre   cerca   de la   Tierra.   Además demostró   que   los   planetas   eran 
atraídos hacia el Sol por una fuerza que varía con el cuadrado inverso de la 
distancia y generalizó que todos los cuerpos celestes se atraen mutuamente unos 
a otros.

Una   generalización   posterior   condujo   a   Newton   a   la   ley   de   la   gravitación 


universal   “...   toda   la   materia   atrae   a   toda   la   otra   materia   con   una   fuerza 
proporcional al producto de sus masas e inversamente proporcional al cuadrado de 
la distancia entre ellos”.

La capacidad de su teoría de integrar una amplia variedad de fenómenos  tales 
como las órbitas excéntricas de los cometas, las mareas y sus variaciones, la 
precesión del eje de la Tierra , y la perturbación del movimiento dela Luna por 
la gravedad del Sol,  convertiría con el tiempo a Newton en una leyenda de las 
ciencias.

135
Los   historiadores   coinciden   que   si   no   fuera   por   Halley  
probablemente   la   obra   de   Newton   “Principia   Matemática”  
no   hubiera   existido.   Se   reconoce   en   Halley   la   devoción  
que muestra por la obra de su colega, que le aparta de  
su propio trabajo, y asume los gastos de impresión. Esta 
misión   la   asume   cuando   a  la   muerte   de   su   padre   se  vio  
envuelto   en   asuntos   legales,   familiares   y   de   propiedad 
que exigían de su atención. Desde 1695 Halley emprendió  
un cuidadoso estudio de la orbita de los cometas.

Se   atrevió   a   rechazar   el   criterio   de Newton sobre   el 


carácter   parabólico   de   las   órbitas   de   los   cometas 
proponiendo   que   podían   describir   órbitas   elípticas. 
Utilizando   su   teoría,   calculó   que   el   cometa   de   1682 
(ahora   llamado   cometa   Halley)   era   periódico   y   era   el 
mismo   objeto   que   el   cometa   de   1531   y   1607.   En   1705 
publicó   la   predicción   de   que   volvería   en   76   años, 
indicando   que   aparecería   en   diciembre   de   1758.   Con 
cierto   retraso,   se   haría   observable   la   trayectoria   del 
cometa, quince años después de la muerte de Halley.

Sin embargo en su época sus teorías no fueron universalmente reconocidas y no 
pocos  científicos   rechazaban   la   idea   de   la   acción   a   distancia   y   continuaban 
creyendo en la teoría del vórtice de Descartes en la que las fuerzas funcionan a 
través   del   contacto. Para   el   propio   Newton   esta   concepción   sólo   fue   admitida 
como   una   necesidad   resultante   de   la   observación.   La idea   sobre   los   campos 
físicos,   ejemplo   de   los   cuales   es   el   campo   gravitatorio,   y   de   su   carácter 
objetivo, no había sido aún desarrollada.

En  particular,  en  el  primer  libro  “El  movimiento  de  los   cuerpos”   estudia  los 
casos de las llamadas fuerzas centrales del tipo de dependencia con el inverso 
del cuadrado de la distancia, y la ley de las áreas, enunciada por Kepler, que 
le permitió establecer su Teoría de la Gravitación Universal y que llevó a las 
ideas sobre las propiedades inerciales y gravitacionales de los cuerpos medidas 
a  través  de las  masas.  En  este primer  libro  también  se trata el  caso  de los 
movimientos   ascendentes   y   descendentes   de   los   cuerpos   y   la   teoría   sobre   el 
movimiento   pendular.   Concluye   el   libro   con   el   estudio   del   movimiento   de   los 
cuerpos pequeños y con la explicación de las leyes de la reflexión y refracción 
de la luz considerando el rayo luminoso como un haz de pequeñas partículas.

En el segundo libro “Movimiento de los cuerpos en medios resistentes” analiza el 

136
caso de las fuerzas viscosas dependientes funcionalmente de varias formas con la 
rapidez   del   movimiento   de   los   cuerpos   en   dichos   medios.   También   incluye la 
Hidrostática y la Dinámica de los Fluidos, las ondas en medios elásticos y el 
estudio de los vórtices en fluidos.

En el tercer libro “El sistema del mundo” presenta sus cuatro reglas para el 
“razonamiento filosófico” que son:

1. “No se deben admitir otras causas que las necesarias para explicar los 
fenómenos.”

2.  “Los   efectos   del   mismo   género   deben   siempre   ser   atribuidos,   en   la 
medida que sea posible, a la misma causa.”

3. “Las cualidades de los cuerpos que no sean susceptibles de aumento ni 
disminución y que pertenecen a todos los cuerpos sobre los que se pueden 
hacer   experimentos,   deben   ser   miradas   como   pertenecientes   a   todos   los 
cuerpos en general.”

4. "En la filosofía experimental, las proposiciones sacadas por inducción 
de los fenómenos deben ser miradas, a pesar de las hipótesis contrarias, 
como   exactas   o   aproximadamente   verdaderas,   hasta   que   algunos   otros 
fenómenos   las   confirmen   enteramente   o   hagan   ver   que   están   sujetas   a 
excepciones.”  

Newton,   el genio,   fue   una   personalidad   inestable   que 


mostró   un   enfermizo   recelo   a   la   crítica   que   podrían  
recibir sus trabajos, motivo por el cual se retrasaba en  
publicar sus resultados. Ya con 45 años desde su cátedra  
universitaria se opuso a los designios del Rey Jacobo II  
por convertir Cambridge en una institución católica. Esta 
posición   le   brindó   relaciones   con   los   dirigentes   del 
régimen   que   sucedió   a la   Revolución   Gloriosa de   1688,   y 
ocupó   durante   los   últimos   24   años   de   su   vida   la 
presidencia de la Royal Society.

Sin embargo desde 1693, tras sufrir una segunda depresión 
nerviosa, Newton   se retiró   de   la   investigación  y   solo 
intervino   en   la   larga   controversia   con   Leibnitz   por   la 
paternidad del cálculo infinitesimal. 

137
Estas   reglas   tienen   un   incalculable   valor   epistemológico   para la   Ciencia. 
Las dos   primeras   están   relacionadas   con   el   método   de   la   modelación,   que 
consiste en esencia en la acumulación de datos de la observación de un conjunto 
de   fenómenos   y   al   extraer   lo   esencial   de   ellos,   proponer   un   modelo   físico   – 
matemático de esos fenómenos y de los sistemas donde ellos se producen y luego 
pasar al experimento, diseñado al efecto, para comprobar la validez del modelo.

De otro lado, estas dos primeras reglas expresan el pensamiento newtoniano sobre 
la relación causa – efecto penetrado por el enfoque determinista emanado de su 
propia   descripción   de la   Mecánica ,   pero   sin   dudas,   y la   Ciencia lo   ha 
demostrado plenamente, son válidas estas ideas para los casos de los sistemas 
macroscópicos. La tercera regla avanza un método para la generalización de las 
conclusiones científicas, lo que ha sido un poderoso instrumento en manos de la 
Ciencia.

Por último, la cuarta regla hace referencia a la objetividad del conocimiento si 
este   es   levantado   sobre   una   sólida   base   experimental   y   a   la   vez   permite   la 
adecuada   combinación   entre   el   carácter   absoluto   de   ese   conocimiento   en   un 
momento histórico determinado y su carácter relativo en el decursar del tiempo, 
fertilizando   la   idea   de   lo   que   más   tarde   se   conoció   como   el   Principio   de 
Correspondencia, que invalida la concepción del relativismo a ultranza. 

La obra de Newton se destaca por haber erigido la Mecánica sobre la base de tres 
leyes   básicas,   capaces   de   resolver   todos   los   casos   de   movimientos   de   cuerpos 
(macroscópicos) referidos a un sistema inercial de referencia. Para tener una 
idea del grado de validez de este núcleo teórico, para el caso macroscópico de 
bajas velocidades, bastará con saber que el diseño, control y corrección de las 
órbitas de los satélites terrestres y las naves cósmicas que el hombre utiliza 
en la actualidad, son realizados enteramente con arreglo a las predicciones de 
estas tres leyes.

Robert Hooke (1635 – 1702), asistente de Boyle en Oxford, y  
primer   director   de   experimentación   de la   Real   Sociedad de 
Londres libró encendidas polémicas con Newton y con Huygens. 
Reclamó la prioridad y acusó de robo de sus ideas a Newton al  
publicar en 1672 su teoría de la luz, y reaccionó de igual  
manera   al   publicarse   la   primera   edición   de   los   Principia  
desatando una disputa sobre la paternidad de la ley de las  
fuerzas   del   cuadrado   inverso.   Newton   respondió   indignado  
eliminando   toda   referencia   a   Hooke   en   sus   trabajos.   Los  
historiadores han reconocido que en todo caso Hooke no supo  
convertir en teorías comprehensivas sus ideas originales. 

138
En   la   década   del   60   construyó   un   microscopio   perfeccionado  
con lámpara y condensador gracias al cual fue el primero en  
descubrir la existencia de células en tejidos vegetales que 
reporta ya en 1665 en una de las obras magistrales del siglo  
XVII,  Micrographia. En 1660 había descubierto un caso de la  
ley de Hooke mientras trabajaba en los diseños de muelles de  
balance   de   relojes.   Sin   embargo   Hooke   sólo   anunció   la   ley 
general de elasticidad en su conferencia "De Resortes" dada 
en 1678.

La principal crítica a las ideas newtonianas se relaciona con su concepción del 
espacio   y   el   tiempo   como   receptáculos   vacíos   en   los   cuales   se   mueven   los 
cuerpos. Pero se necesitaron 218 años para que Einstein pusiera en la palestra 
sus ideas sobre el carácter relativo de estas formas de existencia de la materia 
con   su   Teoría   de la   Relatividad   Especial y   luego   con la   Teoría   General de la 
Relatividad que le permitiría actualizar las concepciones sobre la gravitación 
universal.

No dejan de tener interés las ideas de Newton acerca de la naturaleza de la luz. 
Su explicación de las leyes de la reflexión y refracción de la luz considerando 
el haz luminoso como un haz de pequeñas partículas, encontró la contraposición 
de   otros   investigadores.   Este   debate   estuvo   precedido   por   un   grupo   de 
descubrimientos que serán brevemente considerados.

Según Newton, el primer desarrollo sugerente de la teoría del arco iris se debió 
al veneciano Marco Antonio de Dominis (1566­ 1624). Dominis en 1611 publica en 
Venecia, un trabajo científico titulado: "Tractatus de radiis visus et lucis in 
vitris, perspectivis et iride", en el cual admite que en cada gota de lluvia la 
luz sufre dos refracciones y una reflexión intermedia. El reconocimiento a este 
descubrimiento es atribuido más generalmente a Descartes. Dominis, personalidad 
contradictoria   formada   en   las   Universidades   de   Padua   y Brescia escribió   a su 
salida de la Sociedad de Jesús,   virulentos ataques a las autoridades de Roma. 
Luego de largos años de acusaciones y de perdones finalmente la Inquisición lo 
declara   hereje   y   lo   confina   en   el   Castillo   de   San   Angelo,   donde   muere.   Su 
proceso   continúa   después   de   su   muerte   y   a   los   pocos   meses   es   ratificada   su 
herejía, quemados sus restos y sus obras. 

Como fue deslizado anteriormente, entre las conquistas en el campo de la óptica 
de este siglo se encuentra el descubrimiento en 1621 de la ley de la refracción 
de   la   luz.   Snell   encontró   una   relación   característica   entre   el   ángulo   de 
incidencia y el ángulo de refracción. La ley demuestra que cada sustancia tiene 
una   relación   de   desviación   específica,   el   índice   de   refracción.   A   un   mayor 

139
ángulo   de   refracción   corresponde   un   mayor   índice   de   refracción   para   una 
sustancia específica. Al morir en 1626, a la temprana edad de 46 años en Leiden, 
no podía imaginar que unos setenta años después se reconocería su descubrimiento 
y este hecho haría ingresar su nombre en los libros de óptica de cualquier fecha 
posterior. Pero ya Snell en 1617, al publicar “Eratosthenes Batavus”,describía 
la metodología de la triangulación para medir la Tierra con lo cual tejía las 
bases de la geodesia moderna.

Cuando   en   1658   el   célebre   físico   danés   Christian   Huygens  


(1629 ­1695) publica los principios para la construcción de  
un reloj de péndulo la relojería comenzó a perfeccionarse y  
la   variable   tiempo   es   atrapada   por   el   hombre   con   mayor  
precisión. Gracias a la obra de Huygens en el terreno de la 
Mecánica fueron   clarificados   los   conceptos   primarios   de la 
Física,   como   la   masa,   el   peso,   el   momento,   la   fuerza   y   el  
trabajo.

En   Inglaterra   Huygens   participó   en   sesiones   de la   Real 


Sociedad donde   conoció   a Newton,   y   otros   grandes   de la 
Mecánica pero   se   ignora   qué   discusiones   hubo   entre   ellos.  
Existen   los   testimonios   que   atestiguan  la   admiración  que 
profesó hacia Newton pero se sabe que calificó de absurda la  
teoría   de   la   gravitación   en   el   sentido   de   considerar   la 
acción   a   distancia   de   las   fuerzas.   Por   otra   parte   Huygens  
desarrolló   la   óptica   ondulatoria   como   modelo   opuesto   a   la  
teoría corpuscular desarrollada por Newton.

Se ha afirmado que la obra del profesor jesuita Francesco M. Grimaldi (1613 – 
1653) atrajo a Newton al campo de la óptica. En 1666 aparece publicada la obra 
“Física­matemática de la Luz” en la cual se sugiere la naturaleza ondulatoria de 
la luz y se formula las bases geométricas para una teoría ondulatoria de la luz. 
Grimaldi  se  considera  el  descubridor  de  la  difracción  de  la  luz,   fenómeno   al 
cual le dio su nombre: división en fracciones. Ofrece con su estudio las bases 
para   la   posterior   invención   de   la   red   de   difracción,   tarea   conducida   a 
principios del siglo XIX, por el óptico alemán Joseph von Fraunhofer que impulsó 
el nacimiento de la espectroscopia. A Grimaldi corresponde también el mérito de 
ser   el   primero   en   nombrar   los   accidentes   visibles   de   la   luna   en   1651.   Con  
Giovanni   Batista   Riccioli   (1598   ­   1671)   compuso   un   muy   preciso   selenógrafo, 
publicado en la obra de Riccioli "Almagestum Novum",  la mejor descripción de la 
superficie lunar construida por el hombre hasta esa época. 

En  1669   el  profesor   de la  Escuela de  Medicina  de la  Universidad de  Copenhague 

140
Erasmus   Bartholin   (1625   ­1698)   descubre   el   “insólito”   fenómeno   de   la 
polarización   de   la   luz   al   atravesar   un   cristal   de   espato   de   Islandia.   En   su 
“Experimenta crystalli Islandici disdiaclastici quibus mira & insolita refractio 
detegitur” Bartholin   describe   la   geometría   de   los   cristales   y   la   doble 
refracción que experimenta la luz a su paso. Durante sus experimentos observó 
que cuando los cristales del espato de Islandia son rotados sobre sus ejes, uno 
de   las   dos   imágenes   se   mueve   en   un   círculo   alrededor   de   la   otra,   lo   que 
constituye   una   fuerte   evidencia   de   que   los   cristales   dividen   la   luz   en   dos 
diferentes rayos. Bartholin creía que el cristal tenía dos conjuntos de poros 
por donde el rayo de luz se dividía y se propagaba. Es también reconocido por su 
trabajo en la medicina en particular por la introducción de la quinina en la 
lucha contra la malaria.

En 1676  Huygens regresó a la Haya y se afirma que entonces se sintió atraído 
por el estudio de la obra de Bartholin y el fenómeno de la doble polarización. 
También por entonces conoció de los trabajos de Römer que daban una velocidad 
aproximada para la luz determinada por la observación de las lunas de Júpiter, 
lo que confirmaba sus tesis de la finitud de la velocidad de la luz. Dos años 
más   tarde   publica   en   París   su Traité   de   la   lumiere,   en   el   cual 
considera la luz como la propagación de un movimiento   ondulatorio   en   un   medio 
sutil, el éter que llena todo el espacio y a partir de estos supuestos explica 
con éxito las leyes de la óptica geométrica. Huygens constató que una esfera de 
luz en expansión se comporta como si cada punto en el frente de onda fuera una 
nueva fuente de radiación de la misma frecuencia y fase. Al concebir la luz como 
ondas mecánicas, explica diferentes fenómenos ópticos entre los que se incluye 
la polarización de la luz.

Fermat   no   compartió   con   Descartes   sus   puntos   de   vista   sobre 


óptica,   publicados   en   "Dioptrica"   como   un   apéndice   a   su  
Discurso   del   Método   (1637).   A   partir   de   la   hipótesis   de  
que  la   luz   viaja   más   rápidamente   en   el   más   denso  de   los   2 
medios   involucrados,   Descartes   deduce   la   ley   de  
refracción.   Muchos años después Fermat encontró la hipótesis 
cartesiana   contradictoria   con   el   principio  aristotélico   de 
que en la naturaleza, el camino más corto se toma siempre. Con  
esta   idea   en   la   mente   y   a   través   del   uso   de   su   método   para  
determinar mínimos y máximos, Fermat estableció en 1658 lo que  
normalmente   se   describe   como   el   principio   del  
tiempo mínimo. De   esta   máxima  pueden   deducirse   la   ley   de 
refracción y la ley de reflexión de la luz.

141
Los estudios sobre la electricidad en este siglo encontraron, a 29 años de la 
publicación   de   “De   Magnete”,   una   relativa   continuidad   con   los   trabajos   del 
jesuita italiano Niccolo Cabeo (1596 – 1650). En su obra “Philosophia magnetica” 
publicado   en   1629,   se   describen   observaciones   de   que   los   cuerpos   cargados 
eléctricamente podían atraer a objetos no electrificados y también notó que dos 
objetos   cargados   se   repelen.   Estos   efectos   eléctricos   se   atribuyeron   a   la 
liberación   por   el   cuerpo   electrificado   por   frotamiento   de   un   efluvio   que 
desplaza   al   aire   alrededor   del   objeto   ligero   provocando   su   aproximación. La 
repulsión   no   es   vista   como   una   nueva   fuerza   creada   sino   simplemente   como   la 
reocupación del aire original del espacio entre los cuerpos que separa al objeto 
ligero.   La   comprobación   experimental   de   estas   hipótesis   debió   esperar   por 
mecanismos de creación de un vacío relativo. Y esto sólo ocurrió cuando el grupo 
de  Oxford  investigaba  diversos  fenómenos   con  el  vacío  creado  por  la  bomba   de 
Hooke.

La   publicación   de   Robert   Boyle   en   1675   “Experiments   and   Notes   about   the 


Mechanical Origine or Production of Electricity” da cuenta de que los fenómenos 
eléctricos   eran   igualmente   observables   en   sistemas   a   presiones   reducidas   y 
rechazó así el efecto puramente mecánico del efluvio eléctrico de Cabeo.

Pero   por   los   tiempos   que   Boyle   investigaba   estos   efectos,   precisamente   el   ya 
mencionado inventor de la bomba de vacío Otto von Guericke no solo construyó la 
primera   máquina   que   producía   electricidad   por   fricción   en   1672   sino   que 
descubrió la atracción y la repulsión eléctrica. Su máquina eléctrica consistió 
en   una   esfera   de   azufre   montada   sobre   un   eje   de   hierro   que   en   cierto   modo 
imitaba la rotación de la Tierra. Cuando esta esfera se rotaba y frotaba con la 
mano   manifestaba   reacciones   eléctricas,   es   decir,   toda   suerte   de   pequeños 
fragmentos, como hojas de papel, oro o plata, se veían atraídos por el globo de 
azufre. Esta acción se observaba también con gotas de agua o el humo que pasaran 
cerca de la esfera. Von Guericke, a diferencia de Cabeo reconoció la repulsión 
como “una virtud expulsiva”. Y estuvo a punto de describir la descarga eléctrica 
de   los   cuerpos   cargados   por   contacto   con   algún   otro   objeto,   al   apreciar   que 
cuando esto ocurre el objeto se siente re­atraído por el cuerpo electrificado. 
 Sus experimentos con el globo de azufre y una pluma revelan que una conexión 
existe entre la virtud expulsiva y el aire caliente procedente de una vela, pues 
al   pasar   la   pluma   a   unas   pulgadas   del   foco   caliente   la   conducta   de   la   pluma 
cambia súbitamente y vuela hacia el globo en “búsqueda de protección”, como si 
la virtud expulsiva fuera disipada.

En la última década del siglo el astrónomo inglés Edmund Halley  sugiere que la 
Tierra   consiste   de   esferas   dentro   de   esferas   cada   una   de   las   cuales   rota 
lentamente con respecto a la otra y es independientemente magnetizada. Era un 

142
primer intento de explicar por qué la declinación magnética varía con el tiempo.

Hasta la invención de la maquina de producir electricidad 
por   fricción   de   Von   Guericke   nadie   había   observado   la 
transferencia   de   electricidad   de   un   cuerpo   a   otro.   Sus 
experimentos   demostraron   que   conectando   a   un   globo   de 
azufre  electrificado  un  hilo   de  lino  se  ejerce   su  virtud  
eléctrica atractiva sobre un cuerpo. Ademá Guericke reporta 
que   la   bola   de   azufre   en   la   oscuridad   cuando   era  
enérgicamente frotada se hacía luminosa.

Da la impresión de que el propio Guericke no aprecia la trascendencia de sus  
descubrimientos, al no continuar profundizando sobre estos hechos y desviar su  
atención hacia otros campos de la investigación.

En   el   otro   extremo   de   la   cuerda, en   el   ámbito   de la   Biología,   los   métodos 


cuantitativos y experimentales de la Mecánica no dejarían de tener una notable 
resonancia. No sorprende que fueran Padua y Bolonia los escenarios desde donde 
se   iniciara   este   movimiento   como   tampoco   que   fuera la   Medicina la   disciplina 
escogida por la historia para producir esta nueva orientación.

Desde   el   siglo   XVI,   la   Universidad   de   Padua   representaba   uno   de   los   centros 


promotores de la revolución anatómica que encuentra en  Fabrici el fundador de 
la embriología científica y de cuyas observaciones de las venas emerge la obra 
“De venarum ostiolis” (1603) con representaciones sistemáticas y precisas sobre 
las válvulas venosas.

Un   año antes de la publicación de la obra de Fabrici se doctoraba en Padua, 
luego de cinco años de estudios, un joven médico inglés, graduado en Cambridge, 
de nombre William Harvey (1578­1657). Harvey en las próximas décadas demostraría 
que la función del corazón en el cuerpo humano es bombear la sangre a través de 
un torrente circulatorio que cumple una trayectoria circular. Se abría paso una 
Revolución   en   la   Fisiología   que   se   apartaba   de   los   designios   sobrenaturales 
atribuidos a los procesos vitales y en particular al corazón.

En la región fronteriza entre la Física y la Química se van dando los primeros 
pasos hacia una comprensión de la naturaleza del calor y la máxima galileana de 
“medir todo lo que es mesurable y pretender hacer mesurable lo que por ahora no 
lo es” va penetrando el pensamiento y la acción de los que investigan en este 
campo.

El   renacimiento   de   la   atomística   antigua   se   ve   impulsado   por   el   filósofo   y 


matemático francés referido arriba, Descartes, quien penetra diversos campos del 

143
conocimiento   en   el   siglo   XVII.   De   manera   hipotética   Descartes   planteó   la 
singular idea de que las propiedades de las sustancias dependían de   la forma 
que adoptaban sus partículas constituyentes. Así el agua debía presentar como 
corpúsculos   elementales   partículas   largas,   lisas   y   resbaladizas;   partículas 
puntiagudas   debían   formar   las   sales;   pesadas   y   redondas   debían   ser   las   del 
mercurio.   Puede   considerarse   a   Descartes   el   iniciador   de la   Estereoquímica o 
Química Espacial, pero sus ideas no podrían tener un ulterior desarrollo en esta 
época.   Debía   antes   desarrollarse la   Mecánica de   Newton,   para   que   Dalton,   a 
inicios del XIX, pudiera   atribuir a la masa, la propiedad fundamental de los 
átomos.

Correspondió   a   Santoro   Santorio   (1561­1635),   en la 


Universidad de   Padua,   ser   el   primero   en   inscribir   en la 
Medicina el precepto del padre de la nueva Mecánica el pisano  
Galilei, “medir todo lo que sea medible” cuando introduce en la  
práctica   médica   instrumentos   de   medición   como   la   primera  
versión del medidor del pulso (pulsilogium) sobre la base de la  
longitud   del   péndulo   que   se   hacia   isocrónico   con   las  
pulsaciones   cardíacas,   o   versiones   apropiadas   del   termoscopio  
galileano para la medición de la temperatura de los pacientes  
en la mano, la boca o en el aire exhalado.

Pero no es Descartes un exponente único de esta línea de pensamiento, incluso 
antes el químico holandés Daniel Sennert (1572­1637), defendía la existencia de 
partículas   elementales   a   las   cuales   llamó   mínimas   e   intentó   interpretar 
diferentes   transformaciones   físico­   químicas   como   las   condensaciones   y 
destilaciones a partir de las mínimas. Su contemporáneo Joachim Jungius, (1587­
1657) consideraba igualmente que numerosas transformaciones implicaba el cambio 
de   los   átomos   y   poco   después   el   autodidacta   italiano   de   Química   y   Medicina, 
Angelo   Sala   (1576   –1637)   atribuye   a   los   corpúsculos   función   esencial   en   las 
transformaciones,   considerando   la   fermentación   como   una   reagrupación   de 
partículas elementales que conducía a la formación de nuevas sustancias.

Anteriormente Galilei había inventado el termoscopio (1592), instrumento simple 
e   inexacto   pero   con   el   cual   había   dado   nacimiento   a   la   termometría   y   por 
consiguiente   a   la   termodinámica.   Fueron   precisamente   sus   discípulos,   los 
académicos   florentinos   los   que   convierten   el   instrumento   de   Galileo   en   el 
termómetro   de  líquido  llenado  al  principio  con   agua,  luego   con  alcohol   y por 
fin, ya en el siguiente siglo con mercurio. Ellos descubrieron que la lectura 
dada por un termómetro para la temperatura de mezclas de agua y hielo es siempre 
la   misma.   La   práctica   demostraba   que   existían   estados   con   temperaturas 

144
constantes, pero el desarrollo de una escala termométrica debió esperar por los 
trabajos del discípulo del gran químico holandés Hermann Boerhaave, el físico 
alemán Daniel Gabriel Fahrenheit (1686­1736) en las primeras décadas del XVIII.

En 1628 el médico inglés William Harvey (1578­1657), 26 años  
después   de   doctorarse   en   Padua,   publica   “De   motus   cordis”, 
donde concluye que tanto en el hombre como en los animales la  
sangre es mantenida en un circuito con un tipo de movimiento  
circular incesante, y que ésta es una actividad o función del  
corazón que lleva a cabo por medio de su pulsación, y que en  
suma   constituye   la   única   razón   para   ese   movimiento   pulsátil  
del corazón. Se abría paso una Revolución enla Fisiología que 
se   apartaba   de   los   designios   sobrenaturales atribuidos a los 
procesos vitales y en particular al corazón.

El fisiólogo italiano Marcello Malphigi (1628­1694) introduce el 
microscopio de Hooke para realizar observaciones de los tejidos  
y   ello   le   permite,   al   tiempo   que   inaugura la   Anatomía 
Microscópica ,   descubrir   la   red   de   capilares   pulmonares   que 
conectan las venas con las arterias, y que vienen a explicar el 
vacío   dejado   por   Harvey   en   la   explicación   del   ciclo  
circulatorio.   No   es   Malpighi   un   representante   aislado   de   los  
cambios generados por la matriz de la época, a partir de ahora 
los   planteamientos   y   soluciones   de   los   problemas   de   esta 
disciplina se apoyan cada vez más en los logros de la Mecánica 
de   la   Física   y   de la   Química apartándose   de   explicaciones 
basadas en tendencias esenciales o en designios sobrenaturales.

La   hipótesis   de   que   el   calor   está   asociado   al   movimiento   interno   de   las 


partículas diminutas constituyentes de los cuerpos nos viene del filósofo inglés 
Francis Bacon (1561 – 1626), que arriba a la misma basándose en la observación 
común de que el martilleo sobre una lámina de metal produce su calentamiento. 
Otra   suposición   engendrada   a   principios   de   siglo   (1613)   era   defendida   por 
Galilei al considerar el calor como sustancia, cuerpo o fluido termógeno que no 
se produce ni se elimina, solo se redistribuye entre los cuerpos. Anteriormente 
Galilei   había   inventado   el   termoscopio   (1592),   instrumento   simple   e   inexacto 
pero con el cual había dado nacimiento a la termometría y por consiguiente a la 
termodinámica.

Asombra que un anatomista como Franciscus Sylvius (1614 –1672) haya abordado la 

145
investigación   del   calor   liberado   cuando   se   mezcla   un   ácido   con   alambres   de 
hierro dando los primeros pasos de la termoquímica desarrollada en el siguiente 
siglo por el británico Joseph Black (1728 – 1799), convirtiéndose así en uno de 
los   fundadores   de   la   tradición   forjada   en la   Universidad de   Leiden.  Su 
magisterio se exalta con la labor de mentor de Burchard de Volder (1643­1709), 
un entusiasta   seguidor   de   Boyle   que   fundó   el   primer   laboratorio   de   Física   de 
Leiden   y   que   influye   notablemente   en   el   célebre   profesor  holandés,   Hermann 
Boerhaave (1668­1738).

En la línea de medir los cambios en la masa newtoniana durante las reacciones 
químicas aparece un personaje que es para muchos el más auténtico protagonista 
del período de transición de la alquimia hacia la química, el médico, y químico­
físico flamenco Johannes Baptiste van Helmont (1577 –1644).

Este afán por introducir la balanza, adelantándose casi un siglo a las prácticas 
de   la   experimentación   cuantitativa   de la   Escuela   Francesa liderada   por 
Lavoisier, que debía conducir más tarde o más temprano a los fundamentos de la 
ley de conservación de la masa, se refleja también en la actividad del francés 
Jean Rey (1583­1645). Van Helmont y Rey “rozaron” la fomulación de la ley de 
conservación   la   masa   enunciada   más   de   un   siglo   después   por   el   químico   ruso 
Mijaíl Vasílievich Lomonósov (1711­1765).

Un personaje que es para muchos el más auténtico protagonista  
del período de transición de la alquimia hacia la química, el  
médico,   y   químico­físico   flamenco   Johannes   Baptiste   van  
Helmont (1577 –1644) se destaca por su apasionada defensa de  
que   el   estudio   de   la   naturaleza   debía   conducirse   por   los 
naturalistas y no por los sacerdotes. La célebre Universidad  
de Lovaina (fundada en 1425) donde recibió su enciclopédica  
formación   consideró   sus   ideas   como   herejía   y   presentó   la  
correspondiente   acusación   ante la   Santa 
Inquisición. Condenado a tres años de prisión, luego de ser  
liberado   sufre   un régimen   de   arresto   domiciliario   y 
la prohibición   de   publicar   sus   trabajos   sin   previa  
autorización de la Iglesia.

En  la  obra   del  químico­físico  irlandés  Robert  Boyle  (1627  –  1691)  “Origen   de 
formas y características según la filosofía corpuscular” publicada en 1666, el 
autor   desarrolla   el   atomismo   de   sus   predecesores   y   postula   la   existencia   de 
partículas de materia primaria que se combinan de diversas maneras para formar 
lo que él llamó corpúsculos, de cuyo movimiento y estructura se derivaban todos 

146
los fenómenos observables.

La actuación como figura central del llamado grupo de Oxford integrado además 
por    Hooke y el médico y fisiologo inglés John Mayow (1641­1679) alienta el 
objetivo  de  descifrar  el  papel  del  aire  en  fenómenos  aparentemente  distantes 
como   la   combustión   de   materias   orgánicas,   la   oxidación   de   metales,   y   la 
respiración. Corre el 1665 cuando demuestra empleando una bomba de vacio que una 
vela no arde en el vacio y los animales no pueden vivir sin el aire, lo que 
traducido al pensamiento teórico origina el criterio de que la respiracion y la 
combustion son dos fenómenos similares. Hooke, compartía las ideas básicas de su 
mentor y en su obra “Micrographia”, publicada en 1665 consideraba el aire como 
una mezcla de partículas diferentes entra las cuales hay un tipo responsable de 
la combustión y otra clase que no se alteraba durante las reacciones químicas y 
daba   cuenta   de   la   elasticidad   observada.   Por   su   parte   Mayow   suma   nuevas 
evidencias, perfeccionando las experiencias neumáticas de Boyle, de que el aire 
es   una   mezcla   de   componentes   y   que   en   la   respiración   al   igual   que   en   la 
combustión sólo participa una parte de él.

El profesor pisano Giovanni Borelli   (1608­1679) se dedicó 
a   preservar   y   hacer   avanzar   la   tradición   galileana   en   el  
ámbito   de   la   fisiología.   Borelli   es   particularmente  
recordado   por   sus   investigaciones   microscópicas   de   las  
células de los globulos rojos y sus observaciones precisas 
de   la   regularidad   en   el   movimiento   de   las   estomas   en   las  
plantas.   Su   más   famoso   trabajo,  “Sobre   el   movimiento   de 
los   animales”,  que   no   llega   a   ver   publicado,   sale   de  
 imprenta en  dos   partes  entre   1680   y   1681, 
y  en  esta  obra expone sus  estudios fisiológicos basados 
en sólidos principios mecánicos que incluye el análisis del  
movimiento de los músculos, una ilustración matemática del 
salto   y   la   carrera,   y   una   explicación   que   anticipa   las  
causas  de la fatiga muscular y  del dolor.    Se considera 
el  padre de la biomecánica. 

147
Aunque la más conocida contribución del químico­físico irlandés  
Robert Boyle (1627 – 1691) a las ciencias, sea la llamada ley  
de   Boyle   –   Mariotte,  ley   de   compresibilidad   de   los   gases, 
publicada en 1662 en la segunda edición de su obra “Elasticidad 
y peso del aire” y descubierta de manera independiente y hacia 
la   misma   fecha   por   el   físico   francés   Edme   Mariotte   (1620­
1684),  lo   cierto   es   Boyle   representa   lo   más   avanzado   en   el 
pensamiento químico de la época. En el balance del XVII hay que  
reconocer   que   Boyle   fue   una   de   las   figuras   centrales   en   el  
proceso   de   demolición   del   entramado   alquimista, en el 
conocimiento   de   las   relaciones   entre   las   sustancias,   en   el  
fortalecimiento de la práctica de introducir la balanza en el 
examen   de   los   fenómenos   químicos,   y   en   la   reevaluación   del  
papel   de   los   aires   a   la   luz   de   su   participación   en   los 
importantes procesos de combustión y de respiración.

Con la  Revolución  Científica inaugurada   por  Newton  se  abría  paso  el  paradigma 
mecánico, que exigiría en este siglo, y propiciara en el XVIII, el desarrollo de 
un nuevo instrumental matemático. Un invento, aparentemente casual, desplazaría 
la pupila de investigadores hacia la electrostática. Mientras, la irrupción de 
los métodos de la experimentación cuantitativa hacia la Alquimia y otros campos 
de la   Medicina,   provocaría   el   fallecimiento   de   la   primera   y   el   nacimiento   de 
nuevas áreas en la segunda.   

Bibliografía:

Altshuler José (2003): A propósito de Galileo. Editorial Gente Nueva. La Habana.

Barattin Luisa (2000): Galileo Galilei. Institute and Museum of the History of 
Science of Florence, Italy. http://galileo.imss.firenze.it/museo/4/index.html

Blatchley R., Shepelavy J (1992): Robert Boyle: Mighty Chemist.  History of 
Chemistry. Woodrow Wilson Summer Institute. 
http://www.woodrow.org/teachers/chemistry/institutes/1992/Boyle.html 

Collections thématiques Gallica (2003):  La création des académies et des 
périodiques. Les sciences au XVIIe siècle. Gallica, la Bibliothèque numerique: 
Bibliothèque Nationale de France. http://gallica.bnf.fr/themes/SciXVII.htm

Davidson Michael W. (2003): Pioneers in Optics.  Timeline in Optics. Florida 
State University.

148
http://micro.magnet.fsu.edu/optics/timeline/people/index.html

Giovanni Borelli

Pierre de Fermat

Christiaan Huygens

Hans Lippershey

Marcello Malphigi

Ole Christensen Roemer

Willebrord Snell

De la Selva, Teresa (1993): III. En donde se ve que, en 1690, Mecánica y 
Astronomía van delante de la Química. Fondo de Cultura Económica. México. 
 http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/118/htm/alquimia.
htm

Díaz Pazos Patricio (2002): Biografías. A Horcajadas en el Tiempo.

William Herschel http://www.astrocosmo.cl/biografi/b­w_herschel.htm

Christian Huygens http://www.astrocosmo.cl/biografi/b­c_huygens.htm

Johannes Kepler. http://www.astrocosmo.cl/biografi/b­j_kepler.htm

Gottfried Wilhelm von Leibniz. http://www.astrocosmo.cl/biografi/b­g_leibniz.htm

Enciclopedia Encarta (2006): 3 La Física a partir de 
Newton. "Física." Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.

Escohotado Antonio (2006): 3. Kepler. Tema XII. La Cosmología 
Renacentista. Génesis y evolución del análisis científico.

http://www.escohotado.com/genesisyevoluciondelanalisiscientifico/tema12.htm

Idem: 1. Proyectiles y otros graves. 2. El genio de Pisa. Tema XIII. La Ciencia 
Nueva. Génesis y evolución del análisis científico.

http://www.escohotado.com/genesisyevoluciondelanalisiscientifico/tema13.htm

Ibidem: 1.El atomismo. 2. Los principios matemáticos de la Filosofía Natural. 
Tema XV. La visión newtoniana del mundo. Génesis y evolución del análisis 
científico.

http://www.escohotado.com/genesisyevoluciondelanalisiscientifico/tema13.htm

Hormigón M.y Ausejo E. (2002): Historia de las Ciencias y las 

149
Técnicas. Cronología. IV Revolución Científica S XV – XVII. Universidad de 
Zaragoza http://www.campus­oei.org/salactsi/historia4.htm

MacDonell Joseph (2005): Jesuit Scientists. Mathematics Department.
Fairfield University. Connecticut. Estados Unidos.

http://www.faculty.fairfield.edu/jmac/sjscient.htm

Scheiner

http://www.faculty.fairfield.edu/jmac/sj/scientists/scheiner.htm

Riccioli

http://www.faculty.fairfield.edu/jmac/sj/scientists/scientists/riccioli.htm

Grimaldi

http://www.faculty.fairfield.edu/jmac/sj/scientists/grimaldi.htm

O'Connor J. J., Robertson E. F. (2000): Mathematicians born from 1500 to  1599. 
School of Mathematics and Statistics. University of St Andrew. 
Scotland. Napier, Galilei, Kepler, Oughtred, Jungius, Gassendi, Descartes, 
Harriot.  

http://www­history.mcs.st­andrews.ac.uk/Indexes/1500_1599.html

Idem: Mathematicians born from 1600 to  1649.   Bartholin, Boyle, Hooke, 
Horrocks, Huygens, Leibniz, Newton, Pascal, Torricelli, Wallis.

 http://www­history.mcs.st­andrews.ac.uk/Indexes/1600_1649.html

Mathematicians born from 1650 to 1699.

Halley

Ibidem: History Topics. School of Mathematics and Statistics. University of St 
Andrews. Scotland.

http://www­history.mcs.st­andrews.ac.uk/history/Indexes/HistoryTopics.html

Pérez Tamayo Ruy (1998): II.4 William Harvey. II. Los científicos de la 
Revolución Científica: Vesalio, Galileo, Harvey, Newton, Hooke y 
Leibniz. ¿Existe el método científico? El Colegio Nacional y el Fondo de Cultura 
Económica. México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/161/html/sec_14.ht
ml

The Royal Society (2000):  History of the Royal 

150
Society. http://www.royalsoc.ac.uk/royalsoc/index.html

Universidad Católica de Chile (2004): IX. Medicina del Barroco. Apuntes de 
Historia de la Medicina. Escuela de Medicina. Pontificia. Universidad Católica 
de Chile. http://escuela.med.puc.cl/publ/HistoriaMedicina/Indice.html

http://escuela.med.puc.cl/paginas/publicaciones/HistoriaMedicina/HistMed_10.html

Vega Miche Rebeca: Siglos XVI y XVII. Historia de la Química. Facultad de 
Química de la Universidad de la Habana.

http://www.fq.uh.cu/fich.php?id=12&in_id=4

Verdugo Pamela (1997): Los matemáticos y su Historia. Universidad de Santiago de 
Chile. http://www.mat.usach.cl/histmat/html/desc.html

Westfall Richard S. (1995): Catalog of the Scientific Community in the 16th and 
17th Centuries. Consultados: Boyle, Boerhaave, Cabeo, David and Johannes 
Fabrici, Guericke, Halley, Harvey, Harriot, Hooke, Kepler, Lipperhey, Mayow, 
Marius, Mercator,Newton, Santorio, Sylvius, Viviani, 
Wren.http://galileo.rice.edu/lib/catalog.html

http://galileo.rice.edu/Catalog/NewFiles/wren.html

http://galileo.rice.edu/sci/viviani.html

http://galileo.rice.edu/sci/lipperhey.html

http://galileo.rice.edu/sci/santorio.html

http://galileo.rice.edu/Catalog/NewFiles/cabeo.html

http://galileo.rice.edu/Catalog/NewFiles/halley.html

http://galileo.rice.edu/Catalog/NewFiles/helmont.html

Williams S. Henry, Williams H. Edward (1904): A History of Science, vol II. 

Chapter VIII. Medicine in the sixteenth and seventeenth centuries. 

Chapter X.    The successors of Galileo in Physical Science.  

Chapter XII. Newton and the Law of Gravitation.   

Chapter XIII. Instruments of precision in the age of Newton.

Chapter XIV. Progress in electricity from Gilbert and Von Guericke to Franklin.

http://www.nalanda.nitc.ac.in/resources/english/etext­
project/history/science/book2.section8.html

151
Zubov V.P. (1962): Los principios fundamentales de la Física de Newton. 193 – 
205.   Las   ideas   básicas   de   la   Física:   ensayos   sobre   su   desarrollo.   Ediciones 
Pueblos Unidos. Montevideo.

152
ELECTRICIDAD, CALOR Y REVOLUCIÓN QUÍMICA EN EL XVIII

Rolando Delgado Castillo y Francisco Arturo Ruiz Martínez

Universidad de Cienfuegos.

Avances técnicos de la época y los progresos en las matemáticas

153
La electrostática de Hauksbee a Galvani

Adelantos en la termometría y las nociones sobre el calor

El debate en la Óptica y descubrimientos astronómicos

Resonancias de la Física en la Biología

La Química experimenta su Revolución

Bibliografía 

Al siglo XVIII se le conoce por el nombre de siglo de las luces. Semejante 
bautizo encuentra razón en el movimiento que invade a Europa en el terreno de 
las ideas, promoviendo la modernización y el rechazo a todo lo que representara 
el Antiguo Régimen.

Las monarquías, a tenor con estos nuevos aires, conducen las reformas 
financieras y educativas que caracterizan al despotismo ilustrado como sistema 
de gobierno, para continuar con el status quo de dominación clasista y 
perpetuación de sus privilegios económicos.

Por su parte la burguesía, aliada de los cambios que significaban el progreso 
social, prosigue minando las bases del régimen monárquico. Con este propósito 
levanta las banderas del liberalismo político y económico y abraza como suyo el 
modelo racional empirista.

Esta atmósfera social unida a la crisis que se desarrolla hacia la segunda mitad 
del siglo provoca una oleada de movimientos revolucionarios que tiene su más 
alta expresión en la Revolución Francesa. El dominio colonial se estremece con 
la explosión de la Rebelión Haitiana, la Guerra de Independencia de las 13 
Colonias, y la sublevación de Tupac Amaru en el Perú. Se asiste al comienzo de 
la llamada Era Moderna.

La segunda mitad del siglo XVIII es testigo de las innovaciones tecnológicas, 
principalmente la máquina de vapor de Watt (1769) y el telar mecánico de 
Cartwright (1783), que en el contexto económico favorable del Reino Unido 
provoca una transformación renovadora de la industria siderúrgica y textil 
conocida como Revolución Industrial.

La Revolución Industrial no sólo se caracterizó por los incrementos en la 
productividad derivados de la introducción de las innovaciones tecnológicas y de 
las mejoras organizativas del proceso productivo sino también por la creación de 

154
grandes empresas en escenarios geográficos concentrados lo que provocó oleadas 
migratorias desde el campo a la ciudad con la aparición de los barrios obreros y 
la hacinación de una mayoría de la nueva población urbana.

Desde fines   del   siglo   anterior   y   principios   del   XVIII   se 


viene   gestando   las   invenciones   de   máquinas   que   aprovechan  
la energía del vapor para realizar el trabajo mecánico de 
extraer   agua   de   las   minas   de   carbón   inglesas.   El   herrero  
Thomas Newcomen (1663 ­ 1729) se antecede a  la  Revolución 
Industrial   cuando   inventa   su   máquina   de   vapor   atmosférica  
en   1705.    En   1763   James   Watt   (1736   ­   1819),   notable 
Imagen:  fabricante de instrumentos, asistente en la Universidad de 
www.umassd.edu/ Oxford,   al   reparar   una   de   las   máquinas   de   Newcomen  
aprecia   las   posibilidades   de   perfeccionar   su   eficiencia.  
ir/slides2/BigS
Después de seis años de investigación, en 1769  patenta una 
naps/p1.jpg
máquina   que   superaba   a   las   de   su   antecesor   por   su   mayor  
rapidez   en   la   carrera   del   pistón   y   por   ser   mucho   más  
económica   en   cuanto   al   consumo   de   combustible.   El   propio 
Watt   en  1781   ideó   la   forma   de   usar   la   máquina   para   hacer 
girar   un   eje   y   por   lo   tanto,   abrir   sus   aplicaciones   a  
muchos otros usos además del bombeo.

Otro signo de la época que debuta con la Revolución Industrial viene dado por el 
comienzo indiscriminado de la tala de los bosques europeos que prácticamente 
desaparecerán en el próximo siglo en búsqueda del más primitivo de los 
combustibles, la leña. La cultura del humo y la chimenea inaugura el proceso de 
contaminación atmosférica que marcaría el paisaje urbanístico de las grandes 
urbes nacientes, al tiempo que estrena la agresión despiadada del capitalismo 
irracional al entorno natural del hombre, con el exponencial crecimiento de las 
emisiones de los gases de la combustión.

A partir de ahora una creciente interrelación se establece entre la tecnología y 
la ciencia, pero si al siglo pasado correspondió esencialmente la Revolución de 
la Mecánica, al siglo XVIII toca el cambio de paradigma en el ámbito de la 
Química.

El pensamiento enciclopédico signo de la época, y la etapa de naciente formación 
en las Ciencias tal vez explique la inclinación abarcadora de los científicos de 
la época. Los grandes matemáticos incursionan con frecuencia en el campo 
filosófico, se esfuerzan por explicar los fenómenos en su totalidad, e intentan 
construir los instrumentos matemáticos requeridos para la formalización de los 

155
experimentos en el campo de la Mecánica. Un notable exponente de esta corriente 
es la personalidad de Jean Le Ronde d’Alambert. Comienza a los 22 años su 
relevante producción científica con la publicación de “Memoria sobre el cálculo 
integral” y cuatro años después sale a la luz su obra más importante “Tratado de 
Mecánica” donde desarrolla su conocido principio de D’Alambert. No ha cumplido 
los 30 años cuando escribe las primeras aplicaciones de las ecuaciones en 
derivadas parciales para abordar las causas de los vientos. Fue uno de los 
principales colaboradores de Denis Diderot (1713 ­1784) en esa monumental obra 
de 35 volúmenes conocida como la Enciclopedia francesa.

Se considera que las Matemáticas Puras, como sistema teórico, se deben al siglo 
XVIII. Y en este esfuerzo racionalizador de muchos destaca la figura del más 
brillante matemático del siglo XVIII, el suizo Leonhard Euler (1707­1783). En su 
copiosa obra realizó el primer tratamiento analítico completo del Álgebra, la 
Teoría de Ecuaciones, la Trigonometría y la Geometría Analítica. Además de su 
empresa matemática incursiona con notables aportaciones en el campo de la 
Mecánica, a la cual suma el estudio del movimiento de los sólidos rígidos, y de 
los fluidos.

Le pusieron por nombre Jean Le Rond (1717­1783), aludiendo a 
la   Iglesia   en   que   lo   encontraron   abandonado   una   fría   noche  
parisina de 1717. De adulto se autonombró D´Alambert. Ahora en  
todas las Universidades se estudia el principio de D´Alambert 
y  se aplican las  reglas generales  para  la resolución  de  las 
ecuaciones   diferenciales   propuestas   por   él   a   los   26   años.   D
´Alambert   será   para   todos   uno   de   los   enciclopedistas   que 
iluminó el espíritu de la Revolución francesa de 1789. Ingresó 
en   el   año   1741   en   la   Academia   de   Ciencias   de   París,   donde  
trabajó por el resto de su vida, cumpliendo en ella la función  
de secretario perpetuo. Su vida concluyó, luego de una vejez 
solitaria y cargada de dolores por una larga enfermedad, en su  
París, seis años antes de la Toma de la Bastilla. 

Otro representante de los matemáticos sobresalientes de este siglo lo 
encontramos en el francés Gaspard Monge (1746 – 1818). Monge desde los 19 años 
ocupa la cátedra de Física en Lyon y poco después desarrolla las bases de la 
Geometría Descriptiva. Sus nuevas ideas sobre la curvatura de las superficies 
geométricas resultaron los fundamentos de los trabajos de Gauss en este terreno.

En la tradición de búsqueda de nuevos instrumentos matemáticos para resolver 
problemas de la Física se inscribe la actividad del francés Joseph Lagrange 

156
(1736­1813). En su principal obra (1788) Mecánica Analítica, abordó el estudio 
de la Mecánica utilizando el Cálculo de Variaciones creado por él; sistematizó 
el campo de las Ecuaciones Diferenciales; y trabajó en la Teoría de Números. 
Durante el periodo de la Revolución Francesa, estuvo a cargo de la comisión para 
el establecimiento de un nuevo sistema de pesos y medidas.

La Dinámica de los Fluidos recibe un poderoso impulso con las aportaciones del 
más notable representante de la destacada familia Bernoulli, Daniel (1700 – 
1782). La ecuación de Bernoulli presentada por primera vez en su Hydrodinámica 
cubre un amplio abanico de aplicaciones en esta disciplina. Es considerado 
además el primero que desarrolla  una teoría cinética de los gases y lo hace 
sobre conceptos atomísticos y probabilísticos.

Una de las tareas más importantes seguidas en la línea del desarrollo del cuadro 
mecánico del mundo, fue el desarrollo de la teoría de la gravitación de Newton a 
los movimientos planetarios en el Sistema Solar. Por entonces ciertas 
violaciones observadas en las órbitas de los planetas en relación con lo 
predicho desconcertaba a los astrónomos. Así por ejemplo estaba bien establecido 
que Júpiter y Saturno se adelantaban a veces, y otras se retrasaban con respecto 
a las posiciones que debían ocupar en sus órbitas. La relación de este 
comportamiento con perturbaciones gravitacionales temporales producto de las 
interacciones entre los planetas y con los cometas  fue explicada por el 
matemático francés Pierre Simon Laplace (1749 – 1827).  En 1796  adelantó una 
hipótesis sobre el origen del universo a partir de una nebulosa originaria.  
Laplace legó un proceso de formalización matemática que constituyó un modelo en 
las investigaciones posteriores en los campos de la Termodinámica y el 
Electromagnetismo.

La constante gravitacional de Newton fue determinada experimentalmente en este 
siglo por el físico y químico inglés Henry Cavendish (1731­1810) y lo hizo 
burlando la debilidad de la fuerza gravitacional con una precisión superada sólo 
un siglo más tarde, a través de la determinación de la fuerza atractiva que 
ejercían esferas de plomo de una gran masa sobre pequeñas masas unidas a un 
péndulo de torsión. Cavendish resulta insuperable en materia del diseño 
experimental para mediciones cuantitativas de propiedades físico – quimícas  de 
las sustancias. Será pues una referencia obligada a lo largo de este siglo.

157
El padre de Euler aspiraba a que su hijo siguiera sus pasos  
y lo envió a la Universidad  para prepararle como ministro,  
pero   la   geometría   trocó   su   destino   al   convertirse   en   su  
asunto   favorito,   transformándose   con   el   tiempo   en   el  
matemático más prolífico de la historia. Entre 1726 y 1800  
publica   866   libros   y   artículos   lo   que   representa  
aproximadamente  una   tercera  parte  del  cuerpo  entero  de  la  
investigación   en   la   Matemática,   Física   teórica,   y   la  
Ingeniería   Mecánica   de   la   época.   Notable   resulta   conocer  
que   antes   de   cumplir   los   treinta   años   había   perdido 
parcialmente   la   visión   quedando   totalmente   ciego   al   final  
de su vida.

El desarrollo de los conocimientos teóricos y prácticos sobre la mecánica y la 
combustión tuvo su influencia en los avances experimentados en la tecnología de 
los dos procesos productivos que se convirtieron en los protagonistas 
principales de la Revolución: la industria textil y la industria minero­
metalúrgica. Una compleja interacción se teje entre la técnica que promueve la 
Revolución Industrial y la naciente ciencia que la apoya y sobre cuyos adelantos 
se impulsa. La aplicación de nuevas tecnologías posibilitaba el rápido 
crecimiento de la producción textil y siderúrgica.

En 1764, el inventor británico James Hargreaves (1720­1778) inventó una máquina 
para cardar lana o algodón que preparaba la fibra para el hilado en hebras. Esta 
máquina de hilar, cuya invención se le reconoció a Hargreaves en 1764 y a la que 
le dio el nombre de su hija Jenny, hizo posible la producción automática de 
algodón en hebra con lo que revolucionó la industria textil.

El segundo paso trascendental en la revolución de la industria textil vino con 
el telar mecánico Edmund Cartwright (1743 – 1823). Incluso antes de comprobar en 
la práctica el funcionamiento de su invento presentó en 1785 la patente 
correspondiente y dos años después construyó en Doncaster  una segunda versión 
del telar mecánico. En 1789 instaló patentó su telar mecánico en 1785 antes de 
comprobar como su invención funcionaba en la práctica. Una segunda versión 
mejorada del mismo fue construida en 1787 en Doncaster. Dos años más tarde fue 
instalada una máquina de vapor para accionar mecánicamente su telar, con lo cual 
se inauguraba una época de mayor productividad y producción textil en gran 
escala. Sin embargo los trabajadores, viendo en peligro sus puestos de trabajo 
desplazados por la máquina, no dudaron en pegarle fuego a la instalación.

158
Por otro lado, la expansión de la extracción minera demandó el incremento de la 
fabricación de las máquinas de vapor, y esto resultaba un reto para la industria 
de fundición del hierro y su maquinado para la producción de los cilindros y 
demás piezas requeridas.

No es extraño entonces que en esta dinámica de necesidades en cadena, se 
considere la segunda mitad del siglo la época del desarrollo de 
las máquinas herramientas modernas. En 1774, el inventor británico John 
Wilkinson (1728 – 1808) patentó una taladradora horizontal que permitía 
conseguir superficies cilíndricas interiores. Esta máquina taladradora era 
esencial para la manufactura de las máquinas de vapor de Watt.

El   inventor   estadounidense   Eli 


Whitney   (1765­   1825)   es 
recordado por su invención de la 
desmotadora   de   algodón   y   la  
revolución que produjo em 

su   producción   agrícola.   Si   bien   esta   máquina   es   expresión   de   importantes  


avances mecánicos que se producen en la época, Whitney debe reconocerse como  
el  padre  del método  de producción  masiva. Fue  en 1798 cuando al  firmar  el  
contrato para producir 10 000 mosquetes, ideó cómo fabricarlos con la ayuda  
de máquinas y con un sistema organizativo que en cada puesto realizara una  
operación   específica.   El   ensamblaje   de   las   piezas   intercambiables   así  
producidas,   originaba   el   producto   final   de   la   cadena.   Se   afirma   que   en   el  
escenario   estadounidense,   la   desmotadora   de   algodón   fortaleció   el   poderío 
económico del Sur en tanto la tecnología de Whitney contribuyó a la victoria  
del Norte en la Guerra Civil.

En la década de 1780 el inventor francés, uno de los primeros y mas grandes 
autómatas de todos los tiempos,  Jacques de Vaucanson (1709 – 1782) construyó un 
torno industrial en el que un tornillo manual hacia avanzar el portaherramientas 
deslizante. Hacia 1797 el ingeniero mecánico e inventor británico Henry Maudslay 
(1771 – 1831) patentó el primer torno integro de metal con un husillo guía 
patrón, que empleaba como medidor un micrómetro que podía medir hasta la 
milésima de pulgada. La combinación de introducir máquinas herramientas más 
eficientes  y  organizar el proceso productivo siguiendo una secuencia de 
operaciones especializadas favoreció el incremento de la productividad del 
trabajo fabril.

En el campo de la electricidad, el inicio del siglo trajo los trabajos del 
discípulo de Boyle, Francis Hauksbee (1660 ­1713), uno de los primeros en 

159
construir máquinas electrostáticas por fricción y estudiar los fenómenos de la 
descarga eléctrica, incluso a través de aire enrarecido, observando el 
resplandor producido en los primitivos barómetros. Estos estudios fueron 
antecedentes de la luminiscencia eléctrica en gases enrarecidos. Por otra parte, 
la principal fuente de electricidad para la mayor parte de las experiencias del 
siglo XVIII fueron tales máquinas eléctricas por fricción. La máquina fue 
sometida a diferentes innovaciones como la sustitución de la esfera de vidrio 
que giraba rápidamente mediante un sistema móvil por un disco y el acople de un 
tubo metálico que permitía la transmisión de la electricidad producida hasta el 
lugar deseado.

Precisamente en esta dirección se desarrollaron las investigaciones del 
astrónomo y físico inglés Stephen Gray (1666 – 1736). Durante los últimos años 
de la década del 20, Gray demostró que los materiales conductores pueden ser 
electrizados si están aislados, y que esta carga eléctrica adquirida puede ser 
trasladada distancias considerables (200 metros) desde un extremo electrificado 
conectado a un hilo conductor hasta el otro extremo convenientemente dispuesto 
para captar la señal recibida. Es por ello que estos estudios han sido 
considerados la antesala de los trabajos de la telegrafía que vinieron a 
cristalizar en la práctica algo más de un siglo más tarde.

El profesor de Química francés Charles Francois de Cisternay Dufay (1698­1739) 
abordó en la década del 30 el problema de determinar los tipos de carga 
eléctrica. A partir de sus estudios demuestra que hay solamente dos tipos de 
electricidad y le llama vítrea a aquella que se libera frotando vidrio (que se 
asocia luego a la carga positiva) y resinosa a aquella que se libera frotando 
ebonita (que corresponde a la carga negativa). Introduce el principio universal 
de que las cargas del mismo tipo se repelen y de diferente clase se atraen.

Henry   Cavendish   (1731­1810)   comparó   las   conductividades  


eléctricas   de   soluciones   equivalentes   de   electrólitos   y 
expresó   una   primera   versión   de   la   ley   de   Ohm.   Sus  
experimentos   en   electricidad   fueron   publicados   un   siglo 
después de haberlos realizado cuando Maxwell los redescubrió  
en 1879. Fue Cavendish el primero en determinar la constante  
gravitacional de Newton, junto con la masa y la densidad de  
la   Tierra.   La   precisión   de   este   resultado   no   fue   mejorado  
hasta el siguiente siglo. A Cavendish corresponde también el  

160
mérito   de   haber   determinado   las   constantes   físicas   que  
permitieron   objetivamente   diferenciar   unos   gases   de   otros. 
Así   pudo   descubrir   en   1766   al   gas   más   ligero   de   los  
conocidos, el llamado más tarde por Lavoisier, Hidrógeno.

En 1746 el físico holandés Pieter van Musschenbroek (1692 – 1791), profesor de 
la Universidad de Leiden, publica los resultados obtenidos en el intento 
práctico de acumular electricidad estática en una botella y provocar su descarga 
conectando su borne central a tierra. Casi simultáneamente el inventor alemán 
Ewald Georg von Kleist (1700­1748) descubre un dispositivo similar al del 
holandés que pasa a la historia con el nombre de "Botella de Leiden", y que 
representa el antecesor de los condensadores modernos. El aparato que acumulaba 
o condensaba electricidad llegó a convertirse en un dispositivo útil para la 
experimentación.

Poco después de la difusión del dispositivo construido por Musschenbroek, el 
Abad Jean­Antoine Nollet (1700­1770) propuso en la Academia parisina el uso de 
la electrificación estática como técnica de recuperación física para diferentes 
casos de parálisis motora. Nollet  describió en detalle el método para producir 
y aplicar la electricidad “friccional”. La idea de que la electrificación podría 
tener valor terapéutico recorrió toda Europa.  Sin embargo, los resultados de la 
electroterapia fueron muy contradictorios porque los médicos de la época lo 
aplicaron indistintamente sin distinguir las causas de la parálisis.

En la próxima década entran en el repertorio de nociones físicas la inducción 
eléctrica y la conservación de la carga. En torno a este desarrollo aparece la 
figura de Benjamín Franklin (1706­1790). En 1751 publica sus resultados en 
Londres con gran éxito. En el período que media entre 1746 y 1756 desarrolla 
importantes investigaciones que lo llevan a importantes inferencias  a partir 
del principio de conservación de la carga.

Joseph Priestley, el genial físico­químico británico, fue 
amigo de Franklin y en su relación epistolar le confiesa  
(20   años   antes   de   los   experimentos   de   Coulomb)   su 
deducción   de   que   la   atracción   electrostática   debía   estar  
sujeta, de acuerdo con ciertas experiencias conducidas por  
Franklin, a leyes del mismo carácter matemático que las de  
la gravitación. Formado para  ser Ministro de una Iglesia  
se   convierte   en   un   brillante   investigador.   Por   su   apoyo 

161
  declarado a la Revolución Francesa una turba enardecida en 
1791   le   quemó   la   casa   y   sus   pertenencias.   Obligado   a 
emigrar, muere diez años después en los Estados Unidos.

Benjamín   Franklin   no   solo   representa   el   científico   que  


construye   una   teoría   para   explicar   el   fenómeno 
electrostático   implicado   en   la   botella   de   Leiden,   el  
experimentador incansable que propone la hipótesis de que 
las   tormentas   son   un   fenómeno   eléctrico,   el   inventor   del  
pararrayos,   y   el   político   sagaz,   sino   también   el  
investigador preocupado por la creciente emisión de gases 
contaminantes   que   idea   sistemas   para   controlar   el   exceso 
de   humo   de   las   chimeneas   y   el   inventor   de   estufas   más  
eficientes que producen más calor con menos   combustible. 
Benjamín Franklin fue   el   principal   seguidor   de   los 
postulados de Isaac Newton en América.

En   su   Pensilvania   fue   presidente   de   la   Sociedad  


Abolicionista   y   dos   meses   antes   de   morir   firmó   una 
petición al Congreso de los EU instando a la abolición de  
la esclavitud.

La nueva teoría deducida por Franklin rechazaba la teoría de du Fay sobre la 
existencia de dos tipos de electricidad, y afirmaba que todos los cuerpos portan 
un fluido único que en exceso o defecto de un valor “normal” producía los 
efectos eléctricos. Franklin supuso que las propiedades atractivas y repulsivas 
observadas en diferentes materiales bajos distintas circunstancias eran debidas 
a las cantidades relativas de este fluido más que a diferentes tipos de fluidos. 
Concluyó también que este fluido se encontraba en todas las cosas, de modo que 
podía ser transferido de una cosa a otra. La pérdida del fluido en un cuerpo 
resulta en la ganancia de la electricidad en el otro. Este llegó a ser conocido 
como el principio de conservación de la carga eléctrica. También se debe a 
Franklin el primer convenio relacionado con la electricidad. Los materiales que 
ganan una carga según la teoría de Franklin eran positivos, mientras aquellos 
desde los que la carga se cedía eran negativos. La electricidad se mueve 
entonces desde el positivo (el cuerpo con mayor carga) al negativo (el cuerpo de 
menor carga). La teoría del fluido único asentada en los postulados de la 
mecánica newtoniana, abona el camino de progresos que en el campo del 
electromagnetismo se alcanzan en el siguiente siglo. La creatividad de Franklin 

162
lo lleva a combinar teoría y práctica de manera que realiza numerosas 
invenciones entre las que se destaca el  pararrayos, la primera aplicación 
práctica que emerge del campo aún joven de la electricidad y que tiene la 
inapreciable virtud  de ahorrar incontables vidas. Franklin  no sólo fue un 
eminente hombre de Ciencia sino se considera uno de los fundadores de  los 
Estados Unidos de América.

El hito que inaugura la electrostática como disciplina científica viene 
representado por el descubrimiento de su ley fundamental en 1 777 por el físico 
francés Charles Coulomb (1736 ­ 1806). Coulomb inventa la balanza de torsión 
para medir la fuerza de atracción entre cuerpos eléctricamente cargados y 
obtiene así la expresión matemática que recuerda a la ley de la gravitación 
universal y atrapa en lo cuantitativo el fenómeno de atracción o repulsión 
electrostática. La unidad de medida de la carga eléctrica, el Coulomb,  perpetúa 
su memoria.

El último tramo del siglo XVIII nos trae en materia de electricidad los trabajos 
de uno de los pioneros en el campo de la  biofísica, el médico italiano Luigi 
Galvani (1737­1798). En verdad cuando Galvani empezó sus trabajos estimulando 
eléctricamente patas de rana, el problema de la irritabilidad animal y de si los 
nervios eran conductores de un “fluido nervioso” análogo al eléctrico, ya era 
ampliamente debatido en los círculos médicos de la Universidad de Bolonia.

Galvani   fue 33 años profesor de la Universidad de Boloña  
y   sus   trabajos   son   los   primeros   que   apuntan   a   la  
existencia   de   fuerzas   bioeléctricas   en   el   tejido   animal.  
Fue   este   cirujano,   que   renunciara   a   su   cátedra  
universitaria cuando la invasión napoleónica para morir un 
año después, el primer biofísico de la historia.

La teoría del fluido eléctrico animal fue rechazada por el  
también   italiano   Alessandro   Volta   y   el   debate   Galvani   ­ 
Volta fue uno de los episodios notables con que nacen las  
ideas modernas sobre la electricidad.

La pila de Volta, la primera batería eléctrica, hizo posible la  construcción 
de   dispositivos   para   mantener   una   corriente   eléctrica   por   un   circuito  
dado,   y   abordar   el   problema   de   los   nexos   entre   la   electricidad   y   el  
magnetismo. Una vez presentados sus trabajos en la Academia francesa de la  
Ciencia, aceptó el título de Conde de Lombardía, territorio ocupado por las  
tropas napoleónicas.

163
Galvani propuso que la rana y todos los otros seres vivos poseían una 
electricidad inherente y sospechó que la electricidad era transferida a las 
fibras musculares desde los extremos de los nervios, actuando cada fibra 
muscular como una minúscula botella de Leyden. La principal contribución de 
Galvani fue abrir el camino para el estudio de los mecanismos de la generación y 
propagación de las señales eléctricas en el sistema nervioso.  Al morir Galvani 
en 1798, el físico italiano Alejandro Volta había comenzado a cuestionar que el 
origen de las contracciones musculares de la rana observadas por su compatriota 
fuera la electricidad de naturaleza animal. Volta demostraría que usando discos 
de metales diferentes separados por telas humedecidas en ácido, se genera una 
corriente eléctrica. Hizo así uno de los inventos más grandes del siglo.

La idea de que el calor era una forma de movimiento de la sustancia ya había 
sido esbozada en el siglo anterior, primero por Galilei y sus discípulos y en la 
segunda mitad de la centuria por Robert Boyle y Robert Hooke.

Las nociones elaboradas por el sabio ruso Mijail Lomonosov (1711 – 1765) sobre 
el calor se inscriben en el desarrollo del atomismo que desde el siglo anterior  
lo relaciona con el movimiento corpuscular. Lomonosov comparte y critica la obra 
de Boyle, sosteniendo que la ley del irlandés sobre los gases debe sufrir una 
desviación notable para la región de las altas presiones debido al volumen 
ocupado por los átomos.

Los experimentos que pretendían medir los intercambios de calor entre los 
cuerpos exigían el desarrollo de la termometría que habían iniciado los 
académicos florentinos del siglo XVII. Ya en 1702 el instrumentista francés 
Guillaume Amontons (1663 – 1705) había demostrado la relación entre la presión 
de un gas y su temperatura, proponiendo la construcción de un termómetro de gas 
a volumen constante. Estas ideas sugerían la existencia de una temperatura 
mínima.

El estudio sistemático de la combustión empleando las mejores balanzas y 
termómetros disponibles en esta época, llevó al médico holandés, profesor de la 
Universidad de Leiden, Hermann Boerhaave (1668­1738), considerado uno de los 
padres de la física – química,  a demostrar que el agua es uno de los productos 
de esta reacción, probar que el calor es imponderable, y realizar las 
investigaciones calorimétricas iniciales. En esta empresa contó en las primeras 
décadas de este siglo con la colaboración de un discípulo que mostraba una 
especial vocación y aptitud para la fabricación de instrumentos de medición y el 
soplado del vidrio: el eminente instrumentista de origen polaco Daniel G. 
Fahrenheit (1686 – 1736).

164
A los 19 años el joven Mijail dejó su aldea natal y puso  
proa   a   Moscú   cargado   de   avidez   por   los   saberes.   Trece  
años más tarde, dos antes de ser elegido académico y aún  
viviendo   en   condiciones   de   extrema   pobreza,   solicita   de  
la   Academia   de   Ciencias   Rusa   la   creación   de   un  
laboratorio   “para   desarrollar   las   ciencias   naturales   en  
el   Imperio   Ruso   y   aplicarlas   en   la   práctica”.   La 
respuesta   no   se   hizo   esperar:   “Negar   la   solicitud   del  
auxiliar   de   catedrático   pasante   Lomonosov”.   Supo 
sobreponerse   a   todos   los   obstáculos   y   su   tesón   y 
 talento   lo   convirtieron   en   poeta   brillante, 
reformador de la lengua rusa, fundador de la Universidad,  
y   uno   de   los   más   fecundos   hombres   de   ciencia   de   la  
primera mitad del XVIII.

Fahrenheit continúa los trabajos por el sendero de la termometría. La práctica 
había demostrado que existían estados con temperatura constantes. Fahrenheit 
descubre que la temperatura de ebullición del agua es sólo constante a una 
presión barométrica dada y propone en 1714 la primera escala basada en dos 
puntos fijos: la temperatura de fusión del hielo al que asignó un valor de 32 y 
la temperatura del cuerpo de un hombre saludable, para la cual fijó un valor de 
96.

La escala centígrada nacería cuando en 1741, el profesor de astronomía de la 
Universidad de Uppsala Anders Celsius (1701 – 1744) construye un termómetro de 
mercurio que marca el cero para la temperatura de ebullición del agua y el 100 
para la temperatura de fusión del hielo. Celsius se haría inmortal cuando la 
Novena Conferencia General de Pesos y Medidas en 1948 aprobó referir los grados 
de la escala centígrada como “grados Celsius”.

No menos trascendentes resultaron los experimentos de Fahrenheit y Boerhaave al 
estudiar el intercambio de calor entre iguales masas de agua y mercurio puestas 
en contacto a diferentes temperaturas. Resultó que la temperatura final no es en 
este caso el promedio aritmético de las temperaturas iniciales.

La interpretación de este comportamiento experimental se debe al médico y físico 
químico escocés Joseph Black (1728 – 1799). Los complejos vasos comunicantes que 
conectaran los trabajos de Boerhaave con las ideas de Black se encuentran en la 
influencia recibida por su mentor William Cullen (1710­1790), primer profesor de 
Química en Escocia y descubridor del efecto de refrigeración producido por la 
evaporación de los líquidos, de parte de otro importante eslabón en esta cadena 

165
de transmisión, el introductor de la enseñanza de la química moderna en las 
islas británicas, discípulo de Boerhaave en Leiden, Andrew Plummer (1698­1756).

Black admitió como correcta la hipótesis de que la sustancia termógena cedida 
por la sustancia caliente era obtenida por la sustancia fría, pero estas 
cantidades de calor iguales varían de distinta forma la temperatura de iguales 
masas de agua y mercurio. El agua y el mercurio, según el razonamiento de Black 
presentaban diferentes capacidades para el calor. A él se debe también la 
introducción de los conceptos del calor específico y el calor latente de 
vaporización de las sustancias.

La actividad del médico y físico­químico escocés, de origen 
francés,  Joseph Black (1728 – 1799) se centra en dos polos  
del   conocimiento   físico   químico.   Por   una   parte   asiste   al  
nacimiento de la Termodinámica   y sus estudios, desde 1766 
hasta 1796, en la cátedra de Química de la Universidad de  
Edimburgo influyen en el instrumentista James Watt (1736­
1819),   quien   en   1769   patenta   la   máquina   de   vapor   que  
perfeccionaba el ingenio creado por   Thomas Newcomen (1663 
– 1729) en 1725. De otro lado los descubrimientos de Black  
al investigar la descomposición de la piedra caliza y las  
reacciones   de   combustión   demuestran   que   “los   aires” 
 tienen   un   comportamiento   químico   que puede   ser 
estudiado, inaugurando una época que conduce directamente a  
la llamada Revolución de la Química.

Estas nociones desarrolladas por Black representan los primeros logros de la 
naciente  termodinámica. Le corresponde además el mérito, no destacado lo 
suficiente, de haber influido sobre su ayudante, el instrumentista de la 
Universidad de Edimburgo,  James Watt (1736­1819), quien con sus innovaciones a 
la primera máquina de vapor llevó a la práctica sus descubrimientos.

Cavendish, contemporáneo de Black, hizo contribuciones relevantes al desarrollo 
inicial de la termodinámica. Aplica nuevas técnicas cuantitativas para descifrar 
la interacción del calor con las sustancias, midiendo calores de fusión y 
evaporación de sólidos y líquidos. Es también Cavendish el primero en descubrir 
la existencia de composiciones en las disoluciones que ofrecen  temperaturas 
mínimas de congelación.

El repertorio de resultados experimentales conformado hacia la segunda mitad del 
siglo cristaliza en la concepción del carácter sustancial del calor propuesto 

166
por Antoine Laurent de Lavoisier (1743­1794), explicada en los siguientes 
términos:

1. Es una sustancia sutil que no puede ser creada ni destruida, pero si 
fluir de un cuerpo a otro cuando estos estén en contacto.

2. Se comporta como un fluido elástico y sus partes se repelen entre sí, 
pero son atraídas por las partículas que componen los cuerpos y esta 
atracción depende de la naturaleza de cada cuerpo.

3. Se puede presentar en estado “sensible” o “latente” de forma que en el 
primer estado se encuentra rodeando a las partículas como si fuera una 
especie de atmósfera a su alrededor y en estado latente se halla combinado 
con las partículas materiales en formas semejantes a las  combinaciones 
químicas.

En 1798, las ideas sobre la naturaleza sustancial del calor son rechazadas por 
los experimentos conducidos por el estadounidense Benjamín Thompson (1753 – 
1814) que vienen a demostrar su naturaleza cinética. Thompson escribió: “todo 
aquello que un cuerpo o sistema de cuerpos aislados pueda continuar 
suministrando sin limitación, no puede, de manera alguna, ser una sustancia 
material, y me parece extremadamente difícil, si no imposible, imaginar algo 
capaz de producirse y comunicarse, como el calor en esos experimentos, a no ser 
el movimiento”.

En   tanto   la   teoría   sobre   el   calor   iniciaba   su  


desarrollo, la práctica de la reducción del hierro 
en los altos hornos había comenzado una revolución 
con la introducción del coque como agente reductor 
ya en la Inglaterra de 1711. El advenimiento de la 
máquina   de   vapor   de   Newcomen   creó   un   importante  
mercado para el hierro y en 1758, la fundición de  
Abraham   Darby   III   (1711­1763)   había   producido   100  
cilindros para este ingenio. En 1779 en los hornos 
de Coalbrookdale, como símbolo de la nueva era del  
hierro, se fundían las piezas del primer puente de  
arco de hierro sobre el rio de Severn, en la zona  
que se  convirtiera  en

La comprobación de que el trabajo mecánico podía producir calor, debió 
fertilizar el camino para la aceptación del calor como una forma de energía y 
contribuir al desarrollo de la ley de conservación.

167
Sin embargo las ideas que prevalecieron en la comunidad científica de la época 
se corresponden con una etapa del desarrollo de las ciencias en que se 
introducen un conjunto de agentes sustanciales como el flogisto, el éter, y el 
calórico. Estas posiciones, un tanto ingenuas se basaban en el principio de no 
introducir la acción a distancia para explicar los fenómenos físicos al no 
disponer de conceptos y núcleos teóricos acerca de los campos, de las múltiples 
formas de energía, y de sus transformaciones de unas formas en otras. No sería 
hasta mediados del próximo siglo XIX que nuevos resultados experimentales 
permitieran la edificación de un cuerpo teórico acerca del calor, como energía 
en tránsito.

El prolífico matemático suizo Leonardo Euler entró en el debate sobre la 
naturaleza de la luz y consideró, en contra de la autoridad de Newton, que la 
luz no estaba constituida por partículas. La teoría de la luz de Euler se basaba 
en la existencia del eter que servía como medio de propagación de vibraciones 
luminosas. La mayor parte de sus ideas sobre la luz se recogen en el tratado 
Dioptrica, cuyo primer volumen se publicó en 1769. En Dioptrica se exponen las 
propiedades de los lentes, se establece el fundamento para el cálculo de los 
sistemas ópticos, y se proporcionan las descripciones de microscopios y 
telescopios.

Los astrónomos creyeron ver que el movimiento de los cometas seguía leyes 
diferentes al de los planetas hasta que Edmund Halley (1656­1742) se encargó de 
demostrar que estos cuerpos celestes estaban sometidos a las mismas atracciones 
gravitacionales. En su análisis de las observaciones de los cometas, Halley 
apreció que tres visitantes en 1531, 1607 y 1682 mantuvieron una trayectoria tan 
similar que debían tratarse del mismo cometa cuya órbita, según sus 
estimaciones, era una elipse elongada. De acuerdo con la periodicidad de su 
movimiento en 1705 propuso en  Synopsis of the Astronomy of the Comets, que el 
objeto retornaría 76 años después de su última aparición es decir en 1758. La 
vida no le alcanzó para comprobar su predicción pero su nombre fue asociado para 
siempre con el cometa.  Además de este estudio de los cometas, en 1718 Halley 
publicó el descubrimiento del movimiento de las estrellas que antes se creía que 
permanecían fijas en el firmamento.

168
La óptica del siglo XVIII se inicia a partir del tratado  
de   Newton,   Opticks   or,   a   Treatise   of   the   Reflexions,  
Refractions,   Inflexions   and   Colours   of   Light",   cuya 
primera edición data de 1704. En la obra se abordan los  
más variados fenómenos ópticos desde la reflexión de la  
luz,   la   refracción,   la   formación   de   imágenes   por   las  
lentes, la descomposición espectral, la recomposición de  
los   colores,   la   invención   del   telescopio   refractor, 
hasta la teoría del  arco iris. Lo más  destacado de la  
óptica   newtoniana   es   la   teoría   corpuscular   de   la   luz.  
Para   Newton,   la   luz   está   constituida   por   pequeñas  
partículas   desprendidas   de   los   cuerpos   luminosos   o 
iluminados  que al interaccionar con el ojo producen el  
efecto   de   la   visión.   Según   este   modelo,   los   fenómenos  
ópticos son fenómenos puramente mecánicos, perfectamente 
explicables   a   partir   de   los   Principios   de   la   Dinámica  
newtoniana.

En 1728 el astrónomo inglés James Bradley (1693 ­ 1762) informó a la Real 
Sociedad de Londres que en la búsqueda infructuosa de la determinación del 
desplazamiento paraláctico de la estrella Eltanin, la más brillante de la 
constelación Dragón, había descubierto el fenómeno de la aberración de la luz. 
Bradley al encontrar un desplazamiento de la estrella en la dirección opuesta a 
la esperada, dedujo correctamente que la variación observada en la posición 
estelar era debido al movimiento que anima a un observador desde la Tierra 
respecto a la velocidad finita de la luz. Mediante el análisis de las mediciones 
del ángulo de la aberración estelar y teniendo el dato de la velocidad orbital 
de la Tierra, Bradley arribó a una estimación notablemente precisa de la 
velocidad de la luz en 295 000 km/s. Veinte años después de este descubrimiento 
y luego de observar durante un ciclo completo de 18,6 años el movimiento de los 
nodos de la Luna, Bradley anunció un nuevo descubrimiento astronómico: el 
movimiento oscilatorio del eje de rotación de la Tierra, la llamada nutación del 
planeta. Cuando Halley murió en 1742, Bradley fue nombrado su sucesor como 
Astrónomo real del Observatorio de Greenwich.

Había cumplido los 35 años cuando el músico de origen alemán, nacionalizado 
británico, William Herschel (1738 ­ 1822) despertó un gran interés por la 
Astronomía que le condujo a manuales sobre los telescopios y a la fabricación de 
sus propios instrumentos. Ocho años de perseverante búsqueda  astronómica y de 
perfeccionamiento de sus telescopios de reflexión le premió con un 

169
descubrimiento trascendente. Desde la Antigüedad se conocían seis planetas 
observables a simple vista, pero en 1781, Herschel apreció en la constelación de 
Géminis un nuevo objeto celeste que inicialmente confundió con un cometa al cual 
llamó "Estrella de Jorge", en honor del rey Jorge II pero poco después el 
astrónomo alemán Heinrich Olbers(1758­1840), quien en 1779 había elaborado un 
método para calcular las órbitas de los cometas, todavía hoy utilizado, descartó 
que se tratara de este tipo de objeto celeste y precisó que se trataba de un 
nuevo planeta. A partir de fines del XIX, el séptimo planeta del sistema solar 
fue rebautizado como Urano.  Seis años después de su hallazgo, Herschel observó 
dos de los satélites de Urano, los de mayor tamaño, a los cuales nombró como 
Oberon y Titania, dioses de las hadas de la comedia de Shakespeare, "Sueño de 
una noche de verano" (1595).

Uno   de   los   principales   desarrollos   de   la   “Mecánica  


Celeste”   en   el   siglo   XVIII   se   debe   a   la   obra   del  
matemático   y   astrónomo   francés   Pierre   S.   Laplace.   La 
teoría   de   Laplace   sobre   el   movimiento   planetario   ha  
resistido   la   prueba   del   tiempo.   Su   hipótesis   nebular 
sobre  la formación  del  sistema  solar  nutrió  el  arsenal 
de ideas de la cosmología de la época. Y por último, sus  
formalismos matemáticos no solo encuentran aplicación en 
 
la   gravitación   sino   también   en   la   electricidad   y   la  
termodinámica.   En   1796   publica   su   “Exposición   del  
sistema del mundo” que intenta resumir la historia de la  
Astronomía. En   su   “Sistema   del   Mundo”,   Laplace   analiza  
la predicción del astrónomo inglés John Mitchel sobre la 
existencia de   las   “estrellas   oscuras”,   estrellas   tan  
masivas que impedirían la salida de la luz. Se formulaba  
la   primera   versión   de   los   “agujeros   negros”   que   en  
1912 poco   antes   de   su   muerte, fueran   descritos   por el 
matemático   alemán   Karl   Schwarzschild   (1873­1916).   Fue  
necesario   esperar   a   fines   del   siglo   XX   para   que   el 
radiotelescopio   Hubble   instalado   en   una   sonda   espacial  
confirmara   la   existencia   de   un   agujero   negro   en   el  
centro de una enorme galaxia llamada M87.

La obra de Herschel en el siglo XIX estuvo fuertemente influida por los trabajos 
del geólogo y físico británico John Mitchell (1724 ­ 1793). En 1767 publicó una 
investigación sobre las estrellas dobles y los cúmulos de las Pléyades en la que 
concluye que muchas de las estrellas visibles en el cielo deben formar pares 

170
físicos o cúmulos de acuerdo con alguna ley general del universo. Pero la idea 
cósmica más interesante que desarrolló Mitchel, aparece en una carta de 1784 
dirigida a Cavendish, su amigo de toda la vida, en la cual predice la existencia 
de “estrellas oscuras”, estrellas tan masivas y compactas que tendrían un campo 
gravitatorio tan fuerte que ni la luz podría escapar. Sus ideas fueron 
publicadas en dos sucesivas ediciones del "Sistema del Mundo" de Laplace pero 
fueron excluidas en la tercera edición. Tal vez la noción de “los agujeros 
negros” no cabía aún en el pensamiento de la época sobre el universo. Estamos a 
132 años de 1916, cuando poco antes de su muerte el matemático alemán Karl 
Schwarzschild (1873­1916) describiera las características de tales sistemas.

En el ámbito de las ciencias de la vida destacaremos sólo los logros relevantes 
que demandaron una pronta penetración del conocimiento físico – químico, 
estrechando los nexos entre estas disciplinas y la Biología.

El bando papal de Sixto IV, que autorizara la disección de los cadáveres en el 
siglo XV y su posterior ratificación por Clemente VII un siglo más tarde se 
reconocen entre las causas que provocaron la Revolución en la Anatomía, iniciada 
por Vesalio y continuada en el XVII por los profesores de las Universidades de 
la Italia Septentrional entre los cuales Malpighi cierra el siglo XVII con el 
desarrollo de la Anatomía microscópica. A lo largo de las primeras décadas del 
XVIII, Giambattista Morgagni (1682­1771) heredero de la cátedra de Anatomía de 
la Universidad de Padua, desarrolla la Anatomía patológica, con ayuda de la cual 
descubre la íntima relación existente entre alteraciones funcionales y físicas 
de los órganos.

El siglo XVIII fue testigo de los descubrimientos que constituyen la base de la 
moderna fisiología vegetal, la rama de la botánica que estudia las funciones 
básicas de las plantas. Una de las primeras tentativas de abrirse paso en el 
terreno de la fisiología con las armas que brindaba el conocimiento físico – 
químico fue realizada por el inglés Stephen Hales  (1677­1761), clasificado como 
físico­químico, botánico y fisiólogo. Hales demostró en 1726 que la circulación 
sanguínea ejerce una determinada presión, logrando medir la presión de la sangre 
en un caballo. Un año después publica “Estática Vegetal” considerada la primera 
obra de fisiología vegetal. En esta obra Hales describe la respiración y 
transpiración de las plantas, así como la evaporación desde las hojas y el 
movimiento de los líquidos a través de las raíces y de las plantas.

171
Spallanzani,   desde   la   cátedra   de   física   de   las 
Universidades   de   Módena   y   Pavía,   desarrolla   las 
investigaciones   que   lo   hacen   merecedor   de   considerarlo 
uno de los  pioneros  de  la  biología  experimental. Aborda  
problemas tan disímiles como el rechazo experimental a la  
teoría de la generación espontánea de la vida a partir de  
la   materia   no   viviente,   el   trasplante   de   órganos   en  
animales   inferiores,   la   acción   de   los   jugos   digestivos  
sobre   los   alimentos,   la   circulación   pulmonar   y   el  
intercambio   gaseoso   al   nivel   de   tejidos   demostrando   que  
el   aire   desflogisticado   (oxígeno)   se   transforma   en   aire  
fijo (dióxido de carbono).

En conexión con los trabajos de Hales, Joseph Priestley demostró que las plantas 
en crecimiento "restauran" la naturaleza vivificante del aire saturado de 
flogisto por la llama de las velas o la respiración de los animales. Esta 
observación fue ampliada poco después por el fisiólogo holandés Jan Ingenhousz 
(1730­1799) al descubrir que hace falta luz solar para que las plantas cumplan 
esta función. Asistimos así al primer acto en la comprensión del fenómeno de la 
fotosíntesis. Demoró aún más el desarrollo de una conciencia sobre la necesidad 
de preservar “los pulmones” del planeta.

Lazzaro Spallanzani (1729 – 1799), continuador de la tradición investigativa en 
el campo de la Biología experimental iniciada en las Universidades florentinas 
del siglo XVII, anuncia en el propio título de su más importante trabajo 
"Dissertazioni di fisica animale e vegetale" (Modena, 1780) que esta vez desde 
la cátedra de Física, surge el científico que rechaza con experimentos la teoría 
de la generación espontánea, aborda la caracterización de los jugos digestivos, 
inicia el camino de la inseminación artificial, y en sus últimos estudios, 
cuando apenas se estaban esclareciendo por los químicos de la época la 
composición del aire, pretende aclarar el intercambio gaseoso que caracterizaba 
la respiración pulmonar, y el mecanismo de la respiración  al nivel de los 
tejidos.

La revelación de una gran diversidad de faunas y de flores representa un 
acontecimiento decisivo para las ciencias de la vida del siglo XVIII. Las 
colecciones descubiertas por las misiones de exploración permitieron crear los 
gabinetes y museos de Historia Natural. En este momento se erigieron como los 
principales objetivos de los naturalistas la identificación y clasificación de 
los organismos y la comprensión de la diversidad de los constituyentes de la 
vida.

172
Las ciencias de la vida en el siglo XVIII encontraron como un imperativo de los 
descubrimientos de una gran diversidad de faunas y de flores la identificación y 
clasificación de los seres vivos. En esta tarea histórica brilló el sueco Carl 
von Linneo (1707 – 1778) que inauguró en 1735 el sistema binomial de 
clasificación en género y especie. Una parte genérica y una parte específica 
debieran condensar “lo general y particular” característico para un animal o 
planta. La concepción de Linneo de que cada especie es un atributo invariante de 
la Creación va siendo minada por los naturalistas que estudian la historia de 
las especies, su capacidad de adaptación y variabilidad.

La humanidad está en deuda con el médico británico Edward 
Jenner (1749­1823) que en la última década de este siglo  
descubriera   la   vacunación.   En   1796   Jenner   inoculó   a   un  
niño humores de la viruela vacuna y seis semanas después  
le aplicó una segunda inoculación, esta vez de la viruela 
mortal,   con   resultados   positivos.   Había   descubierto   la 
vacuna contra esta enfermedad y al mismo tiempo pondría  
el   primer   peldaño   en   el   desarrollo   de   la   inmunología.  
Debió   enfrentarse   a   toda   suerte   de   críticas,   desde  
 aquellos   que   rechazaban   el   procedimiento  adoptando   una 
posición   pseudoreligiosa   hasta   ciertos   círculos   médicos  
que   exageraban   los   riesgos   implícitos   en   una   nueva  
técnica. Lo acompañaban su ira y su fe en el triunfo del  
hombre sobre las enfermedades que como la tuberculosis le 
arrebataron primero a su hijo menor y luego a su esposa.  
Casi   200   años   después   la   Asamblea   Mundial   de   la   Salud  
declaraba   en   1980   al   planeta   libre   del   flagelo   de   la 
viruela.

En el progreso de la “historicidad” de la naturaleza constituye un hito la obra 
del naturalista francés Georges Louis Leclerc, conde de Buffon (1707­1788). En 
un período de cuarenta años que cubren casi completamente la segunda mitad del 
XVIII  Leclerc publica un tratado en 36 volúmenes de Historia Natural. En esta 
obra introduce nociones que bombardean “principios inconmovibles” como la edad 
de la tierra fechada por la iglesia en seis mil años, o la creación divina e 
inmutable de las especies. Buffon sugiere la ascendencia común de los mamíferos 
y trata la cuestión delicada de las semejanzas entre los hombres y los grandes 
simios.

El desarrollo de la minería y la mineralogía condicionó el surgimiento de  
diferentes Escuelas de químicos que a lo largo de este siglo realizara numerosos 

173
aportes en el análisis de minerales, en la comprensión y gobierno de los 
procesos de su reducción, enterrando definitivamente el ideal alquimista de 
transformar metales nobles en oro.

Toda la práctica de la especie humana anterior al siglo XVIII había producido el 
hallazgo de 13 elementos químicos, entre ellos nueve metales típicos. La 
expansión de los conocimientos químicos significó en esta centuria  sumar trece 
elementos al repertorio de los metales. En poco más de cincuenta años se 
superaría el número de metales descubiertos por más de seis siglos de 
infructuosa búsqueda alquimista. Con el paso del tiempo, estos metales se 
emplearían en la fabricación de materiales estratégicos para el avance 
tecnológico.

El más notable representante de la generación de químicos suecos del siglo XVIII 
y campeón absoluto en la lid de los descubrimientos de elementos de esta 
centuria fue Carl W. Scheele (1742­1786). En 1770 estableció contacto con el 
líder de los químicos suecos de la época T.O. Bergman (1735­ 1784) y recibió su 
ayuda pero nunca cursó estudios formales de Química. No obstante Scheele se 
convirtió en uno de los más grandes químicos experimentales de todos los tiempos 
tomando parte en el hallazgo de nuevas sustancias entre las que se encuentran 
los compuestos del cloro, flúor, manganeso, bario, molibdeno, wolframio y 
oxígeno.

Considerado entre los padres de la Química Analítica, Martín Heinrich Klaproth 
(1743­1817) promueve la tradición alemana en este campo desde la cátedra de 
Química de la recién fundada Universidad de Berlín (1810). A Klaproth se deben 
los descubrimientos del zirconio y del uranio. El uranio fue descubierto en 
1789, en la pechblenda. Más de un siglo transcurrió para que en 1896, el físico 
francés Antoine Henri Becquerel descubriera la radiactividad.

En 1772, el químico sueco Carl Scheele  logro aislar el aire 
desflogisticado   de   Prietsley,   al   cual   bautizó   con   más 
propiedad   aire   incendiario,   para   destacar   que   en   su   seno 
ardía   vivamente   una   vela   y   una   astilla   incandescente  
rápidamente   se   inflamaba.   Sin   embargo   no   publicó   sus  
investigaciones hasta 1777, en el libro de sugerente título 
“Tratado   Químico   sobre   el   aire   y   el   fuego”.   En   este   libro  
describe   los   procedimientos   para   determinar   la   composición  
del aire, que según demuestra está constituido por “fluidos 
ligeros de dos géneros”. Por primera vez está apuntando la 
existencia   de  los   dos   principales   componentes   del   aire:   el 
nitrógeno y el oxígeno. Se venia derrumbando la noción del  
aire como algo elemental e inerte.

174
Nadie podía imaginar entonces que estos nuevos elementos hermanados en fechas de 
descubrimiento, luego aparecieran hermanados en los reactores nucleares del 
siglo XX: las aleaciones de zirconio resultan especialmente útiles para la 
fabricación de los materiales de revestimiento de los elementos de uranio 
combustible.

La importancia práctica de los procesos de combustión determinó que una de las 
primeras prioridades en el estudio de las transformaciones estuviera enfilada a 
explicar lo que acontecía durante la quema de los combustibles. No es posible 
olvidar que en la Europa de la segunda mitad del siglo XVII la industria 
metalúrgica experimenta cierta expansión, y este desarrollo implicaba un costo 
energético que se sustentó en la tala de los bosques europeos. Resulta 
sorprendente sin embargo que fueran tempranamente emparentados las reacciones de 
combustión y el enmohecimiento que sufrían los metales.

Esta conexión fue revelada por el médico­químico alemán Georg E. Stahl (1660 –
1734) para quien el flogisto podía considerarse como un principio elemental que 
se liberaba rápidamente por los combustibles al arder y durante la calcinación 
de los metales, o lentamente durante su enmohecimiento. Siguiendo el pensamiento 
del flogista, el metal representaba la sustancia compuesta mientras la escoria 
oxidada, resultante de la pérdida del flogisto, significaba la sustancia más 
elemental.

Esta teoría, aunque presentaba el cuadro químico del mundo al revés representó 
una explicación racional de la combustión, estimulando el desarrollo de 
experimentos sobre la combustión, la oxidación, la respiración, y la 
fotosíntesis.

En 1766, Cavendish presentó en la Royal Society su informe sobre “Factitious 
Air” en el que con particular atención describe las propiedades sobresalientes 
del gas liberado durante la reacción del ácido clorhídrico con algunos metales. 
Lanzó entonces la hipótesis de haber aislado el propio flogisto. Al hacerlo se 
basó en dos de sus propiedades: era el gas más ligero de los conocidos y 
presentaba una alta inflamabilidad. En otros experimentos, haciendo saltar 
chispas eléctricas por las mezclas de los nuevos aires descubre que la reacción 
de su aire inflamable con el aire desflogisticado produce agua, enterrando para 
siempre la visión milenaria del agua como sustancia elemental y primigenia. De 
forma similar, la mezcla húmeda de aire flogisticado y desflogisticado 
reaccionaba, impulsada por la fuerza del rayo local, para dar el acqua fortis de 
los grabadores (el ácido nítrico).

175
España contó con la gloria de que dos hermanos, Juan José  
(1754­1796) y Fausto Elhúyar (1755­1833), inscribieran sus  
nombres entre los descubridores de elementos químicos del  
siglo   XVIII.   Juan   José   en   1781   se   entrenó   durante   seis 
meses en Suecia en los laboratorios de Bergman. Corría el 
año 1783 cuando los hermanos, en la Escuela de Explotación  
Minera   de   Vergara,   lograron   el   descubrimiento   del 
wolframio.
Los intereses de la Corona los llevan a la administración 
de minas en el Nuevo Mundo y  allí  Juan  José  encuentra  
su muerte en la Nueva Granada, Granada (Colombia) mientras  
su   hermano   Fausto   alcanza   celebridad   en   la   Nueva   España  
(México) donde investiga sobre los métodos de amalgamación 
de la plata en frío y funda una Escuela de Minas que goza  
de prestigio por lo avanzado de su currículo.

Los resultados cuantitativos que iban acumulándose se encargaban de revelar la 
inconsistencia de la teoría del flogisto y sin embargo la mayoría de los 
investigadores de la segunda mitad del siglo continuaba esforzándose por encajar 
sus resultados en los marcos de sus presupuestos. En suma, de manera 
contradictoria empujó al desarrollo de la experimentación y empañó la 
interpretación de los resultados.

Las dos décadas que sucedieron al descubrimiento del “aire inflamable” de 
Cavendish resultaron decisivas para comprender la composición del aire y su 
papel en los procesos de respiración y combustión. En 1772,el joven químico 
escocés Daniel Rutherford (1749 – 1819), discípulo de Black creyó obtener un 
aire totalmente flogisticado (saturado de flogisto). Confinó un ratón en un 
recipiente cerrado hasta provocar su muerte. En el aire residual hizo arder 
pálidamente una vela hasta apagarse y a continuación provocó una fugaz ignición 
del fósforo. El aire que entonces quedó lo hizo pasar a través de una solución 
alcalina de modo que fuera absorbido “el gas fijo” de su mentor. Tenía en sus 
manos una muestra de aire inerte al que llamó gas “noxious”  en el que no podía 
vivir un ratón, ni podía realizarse la combustión. Podría imaginar que estaba 
frente a un gas agotado del componente vital y al mismo tiempo responsable de la 
combustión pero su hipótesis fue bien otra. En los marcos de la teoría del 
flogisto tanto la criatura viviente al respirar como el material al arder 
liberan flogisto y llegan a saturar el aire de esta sustancia. Por tanto el aire 
que logró inequívocamente aislar no era otro que un “aire flogisticado”, 
saturado de flogisto.

176
Antes, Cavendish en carta a Priestley da cuenta de un aire resultante de la 
circulación repetida por una muestra de carbono incandescente y posterior 
eliminación del aire fijo con potasa cáustica al cual llamó aire mefítico. Hacia 
1776 Lavoisier demuestra su carácter de sustancia elemental y en 1789 sugiere el 
nombre de azote para significar que es un gas opuesto a la vida. Sin embargo el 
nombre que se aceptó más tarde y llega hasta nuestros días fue propuesto en 1790 
por el químico francés Jean Antoine Chaptal (1756­1832) en sus “Éléments de 
chimie”, para indicar que engendra la sal de nitro (nitrógeno).

Mientras los químicos intentaban racionalizar el problema de  
la   combustión,   el   inventor   inglés   William   Murdock   (1754   ­  
1839)   perteneciente   al   grupo   de   ingenieros   mecánicos   que  
participaron   en   las   mejoras   de   la   máquina   de   vapor,   se 
encontraba investigando el aprovechamiento del gas de coque  
como   posible   fuente   de   iluminación.   Con   tal   propósito, 
Murdock instaló una retorta de hierro en el traspatio de su  
casa   desde   donde   condujo   hasta   la   sala   una   tubería   que 
transportaba el gas para alumbrar la habitación. Corría el  
1792, y sólo 10 años más tarde, resueltos los problemas de  
seguridad   y   de   fabricación   de   los   equipos   necesarios,   la 
compañia de Bolton y Watt comenzó la empresa comercial de la  
iluminación artificial  con gas de coque.
Ya   a   fines   de   la   segunda   década   del   XIX,   una   ciudad   como  
Londres  disponía  de  una  red  de  tuberías  de  288   millas  que  
alimentaban a más de 71 mil quemadores.

Poco después de los experimentos de Rutherford, Prietsley demostró que luego de 
largas horas de permanencia de una planta en el seno de aire flogisticado, este 
resultaba vivificante, pues en él un ratón se mostraba especialmente activo y 
juguetón. Al mismo tiempo observó que en este aire inicialmente "saturado de 
flogisto", y luego modificado por la acción de las plantas, los materiales 
ardían con más facilidad. Desde otro ángulo, estos resultados representaron los 
primeros indicios de que plantas y animales formaban un equilibrio químico que 
hacía respirable la atmósfera de la tierra. La enorme significación de este 
equilibrio ha sido lentamente comprendida por la humanidad. Pero en el siglo 
XVIII de nuevo la teoría del flogisto impuso una línea de pensamiento que hacía 
ver la obtención de un aire desflogisticado, la antítesis del aire aislado por 
Rutherford.

En el verano de 1774, Priestley comprueba que el sólido formado durante la 
reacción del aire con el mercurio, al calentarse regeneraba el mercurio y se 

177
liberaba un gas que podía colectarse por desplazamiento del agua y que mostraba 
las cualidades correspondientes a su aire vivificante ("un aire 
desflogisticado"). Es este experimento el causante de la polémica histórica 
alrededor del descubrimiento del oxígeno.

La interpretación que da Lavoisier a la calcinación de los metales o a la 
reacción de combustión, a partir de los resultados cuantitativos es bien 
distinta a la de sus colegas británicos. Los metales no liberan flogisto al 
calcinarse sino que se combinan con un elemento componente del aire que se 
corresponde con el aire “puro” y de ahí su incremento en peso. A partir de 
entonces nombra este nuevo elemento gaseoso como oxígeno. Al componente gaseoso 
residual de la combustión correspondiente a las cuatro quintas partes en volumen 
del aire, caracterizado por su relativa inercia química (el aire flogisticado de 
Black) lo denomina azote. Y por último, al enigmático gas inflamable de 
Cavendish, capaz de arder produciendo vapores que condensan en forma de gotas de 
agua, lo llama hidrógeno. Quedaba resuelto así, en términos del reconocimiento 
de sustancias elementales determinadas, lo que Sthal  pretendió asociar con 
sustancias combinadas con flogisto.

Los trabajos de la Escuela Francesa de la segunda mitad del siglo encabezada 
por  Lavoisier actúan como rampa de lanzamiento del estudio de la Química sobre 
bases cuantitativas. A partir de ahora queda abonado el camino para la 
explicación de las reacciones químicas sobre una plataforma atomística.

Al terminar la década de los 70, se había cerrado el capítulo inicial del 
aislamiento y estudio de las propiedades de los gases comenzado con Boyle el 
siglo pasado y continuado por los investigadores que llevaron a cabo la 
Revolución de la Química en el siglo XVIII. Estos progresos tuvieron su reflejo 
en los primeros pasos en la conquista del ascenso por los aires y el vuelo 
dirigido por el hombre.

En   1789,   casi   coincidiendo   con   la   Revolución   Francesa,  


Lavoisier publicó su “Tratado Elemental de Química” en el que  
expone el método cuantitativo para interpretar las reacciones 
químicas y propone el primer sistema de nomenclatura para los 
compuestos químicos del que aún perdura su carácter binomial.  
Se  está   asistiendo  al  nacimiento  de  un  nuevo  paradigma  como  
coronación   de   un   proceso   revolucionario   en   el   campo   de   las 
ideas.   Cinco   años   más   tarde   fue   declarado   culpable   de 
corrupción en sus labores como funcionario por un Tribunal de  
la Revolución Francesa y ejecutado em la guillotina. Su amigo  
el   célebre   matemático   J.   Lagrange   diría:   “un   segundo   bastó  

178
para separar su cabeza del cuerpo, pasarán siglos para que una  
cabeza como aquélla vuelva a ser llevada sobre los hombros de  
un  hombre de  ciencias”.

En esta empresa se enrolaron dos físicos experimentales. En 1783,  el mismo año 
en que los hermanos Joseph (1740 – 1810) y Étienne de Montgolfier (1745 ­1799) 
por primera vez “lanzaron” un globo lleno con aire caliente por el cielo 
parisino,  el físico­químico francés Jacques Alexandre César Charles (1746 – 
1823) llenó un globo con el hidrógeno de Cavendish y lo liberó para provocar su 
ascenso y vuelo durante dos horas, recorriendo 43 km. Otro físico francés, Jean­
François Pilâtre de Rozier (1756­1785), inauguró la época de los viajes en globo 
tripulados cuando ascendió primero en un globo cautivo y luego en otro libre.

El siglo XIX traería un nuevo paradigma para el universo físico, el 
Electromagnetismo; otra vez los más célebres matemáticos aportarían el 
instrumental para operar con las magnitudes físicas y no pocas veces 
contribuirían de forma decisiva en la construcción de los significados; 
la Biología construiría la teoría celular, las leyes de la herencia y las tesis 
sobre la evolución de las especies, la Química iniciaría un vertiginoso 
ascenso, en particular hacia la segunda mitad del siglo, con el desarrollo de la 
síntesis de nuevos materiales que superarían en cierto sentido, a los productos 
naturales. De todo esto trataremos en el próximo tema.

La   primera   ley   química   nace   en   medio   de   una   fuerte  


controversia entre dos exponentes de la Escuela francesa,  
el emigrante Joseph L. Proust (1754 –1826, en la imagen)  
y   Claude   Louis   Berthollet   (1748   –   1822).   El   primero  
defendía   la   composición   constante   de   los   compuestos 
químicos   mientras   el   segundo   abogaba   por   la   composición 
variable en dependencia de la relación en que se ponían a  
reaccionar   las   sustancias   elementales   que   lo   componen.  
Los   resultados   experimentales   comprobaron   la   validez   de  
la ley de Proust, derivándose que, de un polo al otro del 
planeta,   los   compuestos   químicos   presentan   idéntica  
composición. Pero   en   el   siglo   XX   aparecieron   en   escena 
compuestos especiales que en un determinado intervalo la  
violan. Se demostraba el carácter temporal y relativo del  
conocimiento   científico.Imagen:Histoire   de   la   Chimie. 

179
histoirechimie.free.fr/

En 1783, luego de los progresos alcanzados en el estudio  
de   los   gases,   aparecen   las   primeras   aplicaciones  
prácticas   que   pretenden   aprovechar   las   propiedades   de  
estas   sustancias   en   una   conquista   acariciada   por   la  
humanidad: el vuelo por los aires. Dos físicos franceses  
tienen   un   rol   protagónico   en   esta   empresa:   Jacques  
Alexandre   César   Charles   y   Jean­François   Pilâtre   de  
Rozier.   El   primero   archiva   el   mérito   adicional   de 
descubrir en 1787 la relación entre el volumen de un gas  
y   su   temperatura   conocida   como   ley   de   Charles   y   Gay­
Lussac.   Pilâtre   de   Rozier   representa   un   héroe   de   la  
técnica pues dos años después de su primer vuelo exitoso  
que atravesara el Sena, intentó el cruce del canal de la  
Mancha   pero   esta   vez   el   accidente   producido   por   el  
estallido del globo de hidrógeno le costó la vida.

La proeza fue lograda en 1785 por el aeronauta francés  
Jean   P.   Blanchard   y   el   científico   estadounidense   John 
Jeffries   (1744   –   1819).   Jeffries   fue   pionero   en   la  
investigación de la atmósfera a diferentes altitudes con  
el empleo de los globos. A  más  de dos siglos de estos 
intentos   los   globos   con   radiosonda   constituyen   una  
herramienta de rutina en la predicción meteorológica.

BIBLIOGRAFIA:

Aber, James S.  (2007): Mikhail Vasil'evich Lomonosov. History of Geology. 
 Earth Science Department. Emporia State University . 
http://academic.emporia.edu/aberjame/histgeol/lomonos/lomonos.htm

Antón   Fos   Gerardo   M.   (2005):   Daniel   Gabriel   Fahrenheit.   Epónimos 


Científicos. Universidad   Cardenal   –   Herrera.   Moncada.   Valencia. 
http://www.uch.ceu.es/principal/eponimos_cientificos/Fahrenheit.asp

Archiving Early America (2001): The autobiography of Benjamin Franklin.

http://earlyamerica.com/lives/franklin/index.html

Beeson Malcolm, Dawson Vicky (2003): Edward Jenner and smallpox. Edward Jenner 
Museum. England. http://www.jennermuseum.com/

180
Bertemeu   J.   (2000): Capítulo   III   La   composición   del   aire. Textos   clásicos   de 
Historia   de   la   Química.Departament   d’História   de   la   Ciència   i   Documentació. 
Universitat de Valencia.

www.uv.es/~bertomeu/material/clasico/lavoisier.htm

Bowden Mary Ellen (2005): Chemical Achievers: The human face of the Chemical 
Science. Chemical Heritage Foundation.

Forerunners

James Priestley

http://www.chemheritage.org/classroom/chemach/forerunners/priestley.html

Antoine­Laurent Lavoisier

http://www.chemheritage.org/classroom/chemach/forerunners/lavoisier.html

Chemistry of Life

Jan Ingenhousz

http://www.chemheritage.org/explore/life­ingenhousz.html

Braun Eliezer (1992): Electromagnetismo de la Ciencia a la Tecnología. Fondo de 
Cultura Económica. México.

La Electricidad hasta 1800.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/sec_4.htm

El Magnetismo hasta 1800.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/sec_5.htm

Calinger   R.   (2000): Euler,   Leonhard,   Escuela   de   matemáticas,   Facultad   de 


Ciencias, Universidad Central de Venezuela.

http://euler.ciens.ucv.ve/matematicos/

Giunta Carmen (2003): Selected Classic Papers. Le Moyne College. Department of 
Chemistry. 

Experiments on Air. Henry Cavendish. Philosophical Transactions 75, 372 (1785).

http://web.lemoyne.edu/~giunta/cavendish.html

Experiments upon Vegetables, Discovering Their great Power of purifying the 
Common Air in the Sun­shine, and of Injuring it in the Shade and at Night. To 

181
Which is Joined, A new Method of examining the accurate Degree of Salubrity of 
the Atmosphere. Jan Ingenhousz (1730­1799). London 1779.

http://web.lemoyne.edu/~giunta/Ingenhousz.html

De la Selva, Teresa (1993): IV. Y en donde se ve que un siglo después de los 
Principia se enuncia una ley fundamental y nace la Química. De la Alquimia a la 
Química. Fondo de Cultura Económica. México. 
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/118/htm/alquimia.h
tm

Davidson Michael W. (2003): Pioneers in Optics.  Timeline in Optics. Florida 
State University.

http://micro.magnet.fsu.edu/optics/timeline/people/index.html

Edmund Halley

James Bradley

Díaz Pazos Patricio (2002): Biografías. A Horcajadas en el Tiempo.

Pierre­Simon Laplace. http://www.astrocosmo.cl/biografi/b­p_laplace.htm

William Herschel. http://www.astrocosmo.cl/biografi/b­w_herschel.htm

Enciclopedia   Encarta   (2006): 3   La   Física   a   partir   de  


Newton. "Física." Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.

Encarta   (2006): "Juan   José   Elhúyar   y   Lubice   y  Fausto   Elhúyar   y   Lubice.” 


Microsoft® Encarta®2006 [DVD]. Microsoft Corporation, 2005.

EucheMS   (2005): 100   Distinguished   European   Chemists.   18th   Century.  European 


Association for Chemical and Molecular Sciences.

http://www.euchems.org/Distinguished/18thCentury/index.asp

Bergman, Torbern Olof (1735­1784)

Berthollet, Claude Louis (1748­1822)

Black, Joseph (1728­1799)

Cavendish, Henry (1731­1810)

Klaproth, Martin Heinrich (1743­1817)

Scheele, Carl Wilhelm (1742­1786)

Figurovski N.A.(1989): Historia de la Química.  Editorial Pueblo y Educación. La 
Habana.

182
 5. La Crisis de la Teoría del Flogisto. 26 – 39. 6. La Revolución Química. 39 
–46.

Fresquet José L. (2005): Historia de la Medicina. Universidad de Valencia. 
http://www.historiadelamedicina.org/

Galeotti Paolo (1999): Lazzaro Spallanzani (1729 – 1799). Uomo i Scienziato. 
UNIVERSITA' DEGLI STUDI DI PAVIA. Centro Interdipartimentale di Servizi. "Musei 
Universitari"

http://www.unipv.it/webbio/spalla99/spallanz.htm

Hernández­Falcón J., Ramón F. (2006): La electricidad estática. La Electricidad 
en Biología. Facultad de Medicina. Universidad Autónoma de México.

http://www.facmed.unam.mx/historia/Electricidad.html

Kuznietzov B.G. (1962): Líneas esenciales en el desarrollo de las ideas físicas 
del siglo XVIII.

205 ­227.  Las ideas básicas de la Física: ensayos sobre su desarrollo. 
Ediciones Pueblos Unidos. Montevideo.

Martín   Landrove   Rafael   (1997): Primeras   observaciones   de   los   fenómenos 


eléctricos   y   magnéticos.Evolución   del   pensamiento   científico.   Departamento   de 
Física.   Universidad   Central   de   Venezuela. 
http://fisica.ciens.ucv.ve/~rmartin/hfishtm/heym1.html#gray1

O'Connor   J.   J.,   Robertson   E.   F.   (2000): Mathematicians   born   from   1700   to  


1749. School of Mathematics and Statistics. University of St Andrew. Scotland.

http://www­groups.dcs.st­and.ac.uk/~history/Indexes/1700_1749.html

Daniel Bernoulli

Charles Augustin de Coulomb.

Leonhard Euler

Benjamin Franklin

Joseph­Louis Lagrange

Georges Louis Leclerc

Gaspar Monge

Overview of the History of mathematics. History Topics.  

http://www­history.mcs.st­andrews.ac.uk/history/HistTopics/History_overview.html

183
Peacock Doug (2007): Understanding the Industrial Revolution. The full story of 
the world’s greatest social upheaval. Cotton Times.

The Great Inventors. http://www.cottontimes.co.uk/invento.htm  

Richard Arkwright

Edmund Cartwright

James Hargreaves and the Spinning Jenny.

Thomas Newcomen

James Watt

The Steam engine

Engineers. http://www.cottontimes.co.uk/engineero.htm

Darby Dynasty

William Murdoch

Petrusson Louise (2004):  Carl Linnaeus. Botanical History. Department of 
Phanerogamic Botany. Swedish Museum of Natural History

http://www2.nrm.se/fbo/hist/linnaeus/linnaeus.html.en

Pérez Tamayo Ruy (1997):   VI La Medicina en la Edad Barroca (Siglos XVII – 
XIX). De la magia primitiva a la medicina moderna. Fondo de Cultura Económica. 
México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/154/html/sec_14.ht
ml

Perich Campana, Danny (2002): Jean D’Alambert. Historia de la Matemática. Sector 
matemática; Municipalidad de Punta Arenas. Chile. 
http://www.sectormatematica.cl/biografias/dalembert.htm

Poirier Jean Pierre (1996) : Antoine­Laurent de Lavoisier (1743­
1794). LAVOISIER, THE CHEMIST.Chemistry in the mid­eighteen century.

http://historyofscience.free.fr/Lavoisier­Friends/a_chap2_lavoisier.html

Ribnikov   K.   (1987): 6.   Desarrollo   de   las   partes   fundamentales   de   las  


matemáticas en el siglo XVIII.Historia de las Matemáticas. Editorial MIR. Moscú.

Rosell Ned (1996): Daniel Fahrenheit and Anders Celsius left their marks. Alaska 
Science Forum. December 24, 1996. 
http://www.gi.alaska.edu/ScienceForum/ASF13/1317.html

184
Sedgley Site (2007): Abraham Darby: "Ironbridge and the Sedgley connection".  

http://www.sedgleymanor.com/people/abraham_darby.html

Scot­Gaz (2007): William Murdock, 1754 ­ 1839. The Gazetteer for Scotland. 
University of Edinburgh.  http://www.spartacus.schoolnet.co.uk/SCmurdock.htm

The Eli Whitney Museum (2006): Eli Whitney: The Inventor. From: American Science 
and Invention: A Pictorial History. Mitchell Wilson, Simon and Schuster, New 
York, 1954; pp. 78­83

http://www.eliwhitney.org/test/inventor.htm

The Open Door Web Site (2006): John Wikilson (1728 – 1808). Iron and Steel 
Manufacture. The Industrial Revolution.

http://www.saburchill.com/history/chapters/IR/036.html

Universidad Católica de Chile (2004): XI. Figuras de la Medicina de la 
Ilustración. Apuntes de Historia de la Medicina. Escuela de Medicina. 
Pontificia. Universidad Católica de Chile

http://escuela.med.puc.cl/publ/HistoriaMedicina/Indice.html

http://escuela.med.puc.cl/publ/HistoriaMedicina/IlustracionMorgagni.html

Westfall Richard S. (1995): Catalog of the Scientific Community in the 16th and 
17th Centuries.

Guillaume Amontons

http://galileo.rice.edu/Catalog/NewFiles/amontons.html

Hermann Boerhaave

http://galileo.rice.edu/Catalog/NewFiles/boerhaav.html

Stephen Gray

http://galileo.rice.edu/Catalog/NewFiles/gray.html

Stephen Hales

http://galileo.rice.edu/Catalog/NewFiles/hales.html

Edmund Halley

http://galileo.rice.edu/Catalog/NewFiles/halley.html

Francis Hauksbee

http://galileo.rice.edu/Catalog/NewFiles/hauksbee.html

185
Thomas Newcomen

http://galileo.rice.edu/Catalog/NewFiles/newcomen.html

Georg Stahl

http://galileo.rice.edu/Catalog/NewFiles/stahl.html

Williams S. Henry, Williams H. Edward (1904): A History of Science, vol II.

Chapter XI. Newton and the composition of light. 

http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolum
eII/chap36.html

Chapter XIV. Progress in electricity from Gilbert and Von Guericke to 
Franklin.  

http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
II/chap45.html

Part II. The Experiments of Stephen Gray

Part III Experiments of Cisternay Dufay

Part IV: Dufay Discovers Vitreous and Resinous Electricity.

Part VI: The Leyden Jar Discovered

Idem: A History of Science, Modern Development of the Physical Sciences. vol III

Chapter I. The successors of Newton in Astronomy.

http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap2.html

Bradley and the Aberration of Light

French Astronomers

Leonard Euler

Chapter II. The progress of Modern Astronomy.

http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap6.html

Part X Double Star

Part XI. The Distance of the Stars

Part XII Revelations of the Spectroscope

186
Chapter VI. Modern Theories of Heat and Light

Part II Count Rumford and the Vibratory Theory of Heat

http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap43.html

187
NUEVO PARADIGMA ELECTROMAGNÉTICO EN EL SIGLO XIX

Rolando Delgado Castillo y Francisco Arturo Ruiz

Universidad de Cienfuegos.

Contexto y progresos en las Matemáticas

La potencia motriz del calor y los nuevos ingenios para el transporte

El mundo de las ondas electromagnéticas y la lluvia de invenciones eléctricas

La óptica, la astronomía y el nacimiento de dos nuevas técnicas

Antecedentes de un nuevo paradigma atómico

Vasos comunicantes con la Química

Resonancias en la Biología

Bibliografía

Contexto y progresos en las Matemáticas

Ni la Santa Alianza, concertada en el Congreso de Viena (1815) luego de la 
derrota definitiva en Waterloo de las tropas bonapartistas, ni las monarquías 
“legítimas” restauradas para supuestamente lograr la estabilidad europea 
consiguieron detener los profundos procesos en constante aceleración del 
desarrollo de las relaciones capitalistas.

El último tercio del siglo XIX resulta un período relativamente pacífico de 
expansión capitalista que fertiliza el camino para las grandes realizaciones que 
sobrevendrían en la ciencia y la técnica. Las mejoras asociadas a la 
civilización urbana en los escenarios en que estas se viene produciendo, aunque 
cargadas de desigualdades y contradicciones,  provocan una explosión demográfica 
que  eleva la cifra de los habitantes del planeta por encima de los 1 600 
millones de seres y hace crecer las necesidades en un amplio abanico de esferas 
de la vida material y espiritual de la sociedad.

Las metrópolis europeas desde la Rusia zarista hasta la Corona británica 
realizaron importantes contribuciones al desarrollo científico decimonónico pero 

188
pueden advertirse tres polos exponentes de la vanguardia: La Confederación 
Germánica, el Reino Unido, y la Tercera República francesa.

La unificación tardía de Alemania, capitaneada por la Prusia de Bismarck a 
partir de 1871, se traduce en un arrollador auge económico que tiene un momento 
brillante en los años 90 e influye en el esplendor de las instituciones germanas 
y en su movimiento científico.

La economía británica, luego de siglo y medio de liderazgo absoluto observó 
cierto declive, y las clases dominantes convinieron una nueva ronda de expansión 
colonial. El mercado de las zonas subordinados a la Gran Bretaña experimentó 
entonces un notable crecimiento: Afganistán, Egipto, Sudán, Birmania y  extensos 
dominios de los zulues sudafricanos fueron anexados. La producción científica 
británica principalmente a través de sus instituciones líderes continuó su 
brillante desarrollo.

La III República Francesa apostó también a la dominación colonial y resultaron 
conquistados los territorios de Túnez, África Ecuatorial, África Occidental, 
Madagascar y Vietnam. La Escuela Francesa heredera de la tradición de los 
fundadores de esta ciencia prosiguió generando personalidades y producción 
científica de primera línea.

Las   postrimerías   del   siglo   XIX   se   caracterizan   por   un  


crecimiento   del   empleo   del   acero   que   hace   legítimo   en  
cierta   medida   el   bautizo   de   esta   época   como   era   del 
acero.  Entre 1870 y 1900 la producción del acero aumentó 
en 56 veces. En justicia, a la producción del acero se ha  
de   sumar   la   fabricación   de   la   piedra   artificial   (el  
cemento   Portland),   y   la   obtención   industrial   del   vidrio  
para   completar   la   tríada   de   los   materiales   de 
construcción   imprescindibles   para   levantar   no   sólo   la  
monumental Torre Eiffel parisina o el Crystal Palace del  
Hyde   Park   londinense,   sino   los   primeros   rascacielos   que  
siguieron al edificio neoyorkino de la Western Union.

Al otro lado del Atlántico, Estados Unidos conocía de una rápida expansión 
económica. En breve lapso concluida la Guerra de Secesión (1861­1865), la Unión 
avanzaba firmemente hasta alcanzar hacia la última década del siglo un lugar 
cimero en la economía mundial. Paralelamente al despliegue económico de la joven 
y pujante nación iban desarrollándose las doctrinas políticas de dominación 
hemisférica.  La amalgama de estos factores con la emprendedora inmigración que 
experimentó el país lo transformó en una Meca de la innovación.

189
La emancipación de América Latina, nutrida por el ideario de la Revolución 
Francesa y la Independencia de los Estados Unidos y sustentada por la 
contradicción económica entre Metrópoli y territorios dominados, no condujo a la 
cristalización del sueño bolivariano de un gran escenario de naciones integradas 
por idioma, religión y cultura comunes, sino al nacimiento de un mosaico 
fragmentado de países de acuerdo a estrechos intereses de las burguesías locales 
que en lugar de orientar a la región hacia el progreso económico la sumergió en 
frecuentes escenarios de conflictos, marginándola de los procesos sociales de la 
ciencia y la tecnología.

En tales circunstancias históricas, se suceden apenas iniciado el siglo, como en 
reacción en cadena, aquellas invenciones que producirían primero una revolución 
en el transporte marítimo y terrestre y luego un diluvio de artefactos 
eléctricos.

En unos treinta años desde que el ingeniero norteamericano Robert Fulton (1765 ­ 
1815) inventara el  buque accionado por el vapor, la travesía por el Atlántico 
para enlazar los puertos industriales de América y Europa se convertiría en un 
recorrido de unos catorce días. Por estos tiempos, el transporte terrestre 
experimenta el nacimiento y meteórico desarrollo del ferrocarril. Si en 1814 el 
ingeniero inglés autodidacta George Stephenson (1781 – 1848) construye la 
primera locomotora a vapor, hacia 1870 doscientos diez mil kilómetros de vía 
férrea enlazaban los principales nudos y núcleos poblacionales del  mundo 
industrializado.

Este fantástico incremento de la actividad del transporte trajo incontables 
consecuencias: abarató el traslado de las materias primas hacia las fábricas y 
de los productos industriales hacia los mercados de venta, contribuyó al 
crecimiento del mercado interior y exterior,  aumentó la necesidad de metal y de 
combustible y por tanto impulsó las industrias correspondientes y los procesos 
de industrialización de una serie de países.

En 1876 Thomas Alva Edison (1847 ­ 1931) construyó en  
Menlo Park, una pequeña villa situada a 25 millas  de 
Nueva   York,   un   laboratorio   de   investigación.   Pronto 
en   este   lugar   se   gestaron   grandes   inventos.   La 
primera gran invención de Edison en Menlo Park fue el  
fonógrafo de una lámina de estaño en 1877. Dos años  
después  era  logrado  su  mayor  desafío,  el  desarrollo 
de   una   bombilla   incandescente   práctica   y   en   1881 
edifica   en   Nueva   York una   planta   de   corriente 
continua que genera y distribuye la energía a través  

190
de una red de líneas,  tal como en ese entonces ya se  
hacía con el gas y el agua. En septiembre de 1882 se  
ilumina la primera calle que en Nueva York recibe los  
servicios de la planta.

Pero el sello de un nuevo paradigma en este siglo se asocia con la revolución en 
las comunicaciones y una nueva ola de invenciones en el transporte que están 
precedidas esta vez por los colosales descubrimientos en el área del 
Electromagnetismo.

A diferencia de momentos anteriores, en los que la práctica, precedía 
significativamente a la teoría, ahora la fuerza de los conocimientos de las 
nacientes ciencias impulsa y establece un complejo tejido de interacción con la 
tecnología. Si la máquina de vapor apareció en escena antes de la elaboración de 
la teoría de las máquinas térmicos, la construcción del motor eléctrico resultó 
posible solamente después de los avances de la teoría del electromagnetismo.

El dominio de una nueva forma de energía, la energía eléctrica inauguraba toda 
una época en el desarrollo de la sociedad. El tranvía eléctrico como forma de 
transporte público y el invento de la locomotora eléctrica, unidos a los 
primeros prototipos de móviles accionados por motores de combustión interna son 
los exponentes de la nueva oleada de equipos de transporte. El estreno del 
telégrafo y del teléfono y su rápida difusión, la grabación del sonido y la 
primera producción del fonógrafo, la instalación de las primeras plantas 
eléctricas y la iluminación de las ciudades con esta energía representan signos 
de los colosales cambios que se operan a la vista de una generación. No 
terminaría el siglo sin que las ondas hertzianas comunicaran a través del Canal 
de la Mancha a Inglaterra y Francia.

Así la faz del hábitat humano; sus medios de transporte; las vías de 
comunicación y de información; la producción de textiles, colorantes, 
explosivos, alimentos y medicinas van sufriendo a lo largo de este siglo una 
profunda revolución de la cual se sirve y a la cual apoya el progreso de las 
ciencias.

En una compleja dialéctica, al filo de la necesidad y la casualidad, siendo 
portadores de los progresos determinadas personalidades históricas que fueron 
fortaleciendo el papel de las comunidades (Sociedades Científicas), en contextos 
sociales principalmente dados por las naciones que encabezan el desarrollo 
monopolista de la época, se produce el firme progreso de las ciencias.

191
En el campo de las Matemáticas se realizan trascendentales aportaciones que 
posibilitan el asalto que se produciría el próximo siglo al mundo de las 
partículas subatómicas; y se desarrollan nuevas ideas y mecanismos electrónicos 
que incuban revolucionarios diseños de máquinas de cálculo.

A partir de 1822 y hasta 1848, Charles Babbage proyectaría 
e   intentaría   construir   sus   máquinas   de   cálculo.   Necesitó 
dinero   y   obtuvo   préstamos.   Incumplió   con   los   plazos   y  
padeció   de   crisis   nerviosas.   Pero   la   teoría   y   los  
principios   de   su   "máquina   analítica",   es   la   de   una 
computadora   digital,   una   verdadera   computadora   que   en   el 
XIX sólo un genio pudo haber imaginado.
En   1991   científicos   británicos   construyeron   una   máquina 
diferencial   a   partir   de   las   detalladas   especificaciones 
dejadas por Babbage y en efecto, a más de un siglo de su 
diseño, la máquina fue capaz de realizar complejos cálculos 
con una gran exactitud.

El libro de Carl F. Gauss (1777­1855), Disquisitiones arithmeticae, con que nace 
el siglo XIX, marca el comienzo de la era moderna de la teoría de los números. 
Ya en su tesis doctoral planteó el teorema que aun hoy se conoce como teorema 
fundamental del Álgebra. En la teoría de la probabilidad, desarrolló el 
importante método de los mínimos cuadrados y las leyes fundamentales de la 
distribución de la probabilidad. El diagrama normal de la probabilidad se sigue 
llamando curva de Gauss. Es uno de esos científicos que pueden calificarse de 
físico­matemáticos pues desarrolla brillantes aplicaciones de la matemática a 
diversos campos de la Física, en particular, al electromagnetismo. Una unidad de 
inducción magnética perpetúa su nombre.

La teoría de los grupos, que resultaría muy útil más tarde en el desarrollo de 
la Mecánica Cuántica, fue formulada en 1830 por el matemático francés Evariste 
Galois (1811­1832).   Sus manuscritos se publican más de una década después  
para alcanzar la inmortalidad. Muchas de sus construcciones, que hoy se 
denominan grupo de Galois, cuerpos de Galois y teoría de Galois, permanecen como 
conceptos fundamentales en el Álgebra moderna.

En 1854, el matemático inglés George Boole (1815­1864) al emprender la 
investigación sobre las leyes del pensamiento, logra relacionar la Matemática 
con los argumentos lógicos y da origen a la Lógica Simbólica. El Álgebra de 
Boole es fundamental en el estudio de las Matemáticas puras y en la programación 
de las modernas computadoras.

192
El estadounidense Herman Holleritch (1860­1929) en 1880 inventa la calculadora 
electrónica y luego funda  la Tabulating Machine Company (1896), que está 
considerada como una antecesora de la IBM (International Business Machines 
Corporation). Alrededor de medio siglo antes el matemático e inventor británico 
Charles Babbage (1792­1871) había concebido  una máquina que debía funcionar con 
tarjetas perforadas como lo hace un telar, y que fuera capaz de almacenar 
respuestas parciales, utilizables posteriormente en otras operaciones. 

En el año 1874, apareció el primer trabajo revolucionario de Georg Cantor (1845­
1918)  sobre la teoría de conjuntos. El estudio de los infinitos por parte de 
Cantor fue considerado por Leopold Kronecker (1823 ­1891), una autoridad en la 
materia, como una locura matemática. Por este supuesto atacó vigorosamente a 
Cantor que mostró fragilidad y terminó a los 39 años en un manicomio.  No 
obstante, en sus momentos de lucidez siguió trabajando, obteniendo en este 
periodo sus resultados más interesantes. La teoría de Cantor, forma hoy parte de 
los fundamentos de las Matemáticas y de la Lógica Matemática. Nuevas 
aplicaciones ha encontrado su teoría en el tratamiento de sistemas fluidos 
turbulentos. Murió en el manicomio de Halle en 1918.

El   joven   Galois,   tendría   una   convulsa   vida   y   trágica  


muerte. Rechazado su ingreso en la Escuela Politécnica de  
París;   calificados   sus   trabajos   como   incomprensibles;  
expulsado de la Escuela Normal por su actividad política al 
lado   de   la   República;   y   perdido   su   genio   en   duelo  
caballeresco,   es   Galois,   en   solo   un   lustro   de   actividad  
científica,   uno   de   los   gigantes   de   las   Matemáticas   del  
siglo XIX. Poco antes de su muerte, a la edad de 21 años,  
escribió   de   forma   precipitada   algunas   de   sus   teorías 
algebraicas.   Una   década   más   tarde   serían   alcanzados   sus  
manuscritos y alcanzado la inmortalidad.

Transcurridos más de dos mil años de las ideas de Euclides sobre el espacio, en 
el siglo XIX el matemático ruso Nikolai Lobachevski (1793­1856) formuló la 
Geometría no euclidiana (Hiperbólica), suponiendo que por un punto exterior a 
una recta pueden pasar infinitas paralelas, y no una sola como suponía Euclides. 
Bernhard Riemann (1826­1866), por su parte, fundamentó la nueva geometría 
esférica en el supuesto que por un punto exterior a una recta no exista ninguna 
paralela. El impacto de estas nuevas Geometrías con sus grandes abstracciones 
fue decisivo para el desarrollo de la Física Teórica Moderna.

193
La potencia motriz del calor y los nuevos ingenios para el transporte

En el universo de la Física los estudios sobre “la potencia motriz” del calor se 
apuntaron en la agenda del siglo XIX  con el desarrollo de nuevas leyes y 
principios, y una desconocida hasta entonces mirada estadística hacia los 
sistemas moleculares.

La Escuela Francesa de físicos – matemáticos que aplican novedosas herramientas 
matemáticas al desarrollo de una teoría sobre el calor cuenta entre sus más 
sobresalientes representantes de inicios del siglo a Joseph Fourier (1768 – 
1830). Fourier empleó una nuevas series trigonométricas (series de Fourier) en 
su tratado “Teoría analítica del calor” publicado dos años antes de la obra 
clásica de Carnot.  En 1824 el joven ingeniero francés Sady Carnot (1796 ­ 
1832), el mismo año del nacimiento de Lord Kelvin, publica su  famosa memoria 
“Reflexiones sobre la potencia motriz del calor y sobre las máquinas apropiadas 
para desarrollar esta potencia”, en donde se dedicó a razonar sobre la pregunta 
general de cómo producir trabajo mecánico (potencia motriz) a partir de fuentes 
que producen calor. Carnot, en momentos en que se trabaja en el 
perfeccionamiento de estas máquinas, demuestra que no puede concebirse una 
máquina térmica más eficiente operando entre dos temperaturas prescritas que la 
suya y anuncia una de sus proposiciones fundamentales: La fuerza motriz del 
calor es independiente de los agentes usados en producirla; su cantidad está 
determinada unívocamente por las temperaturas de los dos cuerpos entre los 
cuales ocurre, finalmente, el transporte del calórico.

Antes de los trabajos del ingeniero y físico francés Émile Clapeyron (1799­1864) 
la obra de Carnot era poco conocida en los círculos científicos. En 1834 aportó 
su primera contribución a la creación de la termodinámica moderna, al publicar 
una memoria titulada Force motrice de la chaleur (Fuerza motriz del calor). En 
esta publicación Clapeyron desarrolló las ideas de Carnot sobre el calor de 
forma analítica, con la ayuda de representaciones gráficas. Sus trabajos 
ejercieron una notable influencia en las ideas de Thomson y Clausius que 
derivaron en el segundo principio de la Termodinámica.

Acaso   la   figura   de Clapeyron refleje   los   intereses   de   la 


época en que el nacimiento de la locomotora por una parte  
empuja el desarrollo de ingenios térmicos más eficientes y  
por   otra,   demanda   transformaciones   en   la   construcción   de 
puentes   y   caminos.   Egresado   en   1818   de   la   École  
Polytechnique parisina, Clapeyron asiste a Rusia, contratado 
durante diez años, para la formación matemática e ingenieril 
de los especialistas que debían levantar los ferrocarriles y 

194
puentes   en   esta   gran   nación.   A   su   regreso,   participa  
en   el   diseño   de   líneas   férreas  y   de   locomotoras 
en Francia. Entretanto elabora la formulación matemática del 
ciclo   de   Carnot,   y   publica   obras   fundacionales   de   la  
termodinámica.

Paralelamente con los trabajos iniciales que pretendieron analizar la eficiencia 
de las máquinas térmicas, el problema de la interrelación entre trabajo y el 
calor  fue abordado por el médico alemán Julius Robert von Mayer (1814 – 1878). 
Mayer estableció, en 1842, que si la energía, en sus formas de energía cinética 
y potencial, se transformaba en calor, este debía poder transformarse en esas 
dos formas de la energía sentando las bases del principio de conservación en los 
fenómenos biológicos y en los sistemas físicos. Mayer fue capaz de encontrar una 
relación cuantitativa entre el calor y el trabajo basándose en los resultados de 
las mediciones de las capacidades caloríficas de los gases.

Unos años más tarde el también médico alemán Hermann von Helmholtz (1821 – 1894) 
pretende publicar un trabajo "Sobre la conservación de la fuerza" (1847) que 
defiende la conservación de la energía como un principio universal de la 
naturaleza así como la posibilidad de conversión de la energía cinética y 
potencial en "formas químicas, electrostáticas, voltaicas y magnéticas". La 
lectura de su trabajo en la Sociedad Física de Berlín fue considerado por sus 
miembros más viejos como demasiado especulativo y rechazada su publicación en la 
Revista alemana Annalen der Physik.

En la década de los cincuenta el físico británico James P. Joule (1818­1889) 
desarrolla los experimentos que permiten determinar el llamado “equivalente 
mecánico del calor”. Joule considera el calor como movimiento y propone la 
estructura corpuscular de la sustancia, con lo cual inaugura la Teoría Cinético 
– Molecular de los gases, que  intenta explicar el comportamiento de los gases 
ideales, teniendo como antecedentes los trabajos desarrollados por Boyle, 
Jacques A.C. Charles (1746 – 1823) y Joseph Gay Lussaac (1778 – 1850).

En los años siguientes Joule alcanza la confirmación experimental de las ideas 
de von Helmholtz. Se formula entonces la ley de conservación y transformación de 
la energía, que se constituyó en principio de capital importancia. Las 
implicaciones de esta ley en el desarrollo ulterior de los conocimientos físicos 
tuvieron tal alcance que algunos autores consideran al periodo que le sucedió 
como una segunda etapa en el desarrollo de las Ciencias Físicas, basada en la 
aplicación de los principios de conservación.

A treinta años del Principio de Carnot aparece la expresión del llamado 2do 
principio de la Termodinámica en forma de dos enunciados que se complementan. El 

195
enunciado del irlandés William Thomson, Lord Kelvin (1824 ­ 1907) establece que 
no existen las máquinas térmicas perfectas pues no es posible construir un motor 
térmico que operando cíclicamente convierta en trabajo todo el calor absorbido.

Joule, hijo de un cervecero, fue discípulo de John Dalton  
en Manchester.   Al igual que Faraday, fue un excepcional  
experimentador.   Sus   primeros   trabajos   fueron   sobre 
electricidad,   pues   perseguía   como   propósito   estudiar   las  
eventuales ventajas del motor eléctrico sobre la máquina 
de   vapor.   Terminó   por   inaugurar   lo  que   se   considera   una 
segunda   etapa   en   el   desarrollo   de   las   ciencias   físicas,  
basada   en   la   aplicación   de   los   principios   de  
conservación.   Fundó   en   su   ciudad   natal   la   “Manchester  
Literary andPhilosophical Society”.

Por su parte, en la visión complementaria del alemán Rudolf Clausius (1822 ­ 
1888) para un ciclo refrigerante queda establecido la imposibilidad de extraer 
calor a una baja temperatura para entregar a una temperatura más alta sin que se 
suministre una determinada cantidad de trabajo al sistema.

Las aportaciones desarrolladas por Thomson entre 1848 y 1852 a la Termodinámica 
le colocan entre sus fundadores. En 1848 a partir de la noción de entropía 
desarrollada por Clapeyron propuso una escala de temperatura absoluta, cuyo cero 
lo situó en –273° C. En 1852, como resultado de la colaboración con Joule 
descubrieron y explicaron el efecto Joule­Thomson relacionado con el 
enfriamiento que experimenta un gas cuando se expande lentamente a través de un 
tabique poroso. Este fenómeno encuentra importantes aplicaciones pues se logra 
obtener temperaturas muy bajas. Más de medio siglo de ejercicio de la docencia 
en la Universidad de Glasgow le aseguraron la difusión de su obra en diferentes 
ámbitos de la Física.

Hacia 1866, en forma independiente de Maxwell, Ludwig Boltzmann (1844 – 1906) 
había formulado las bases de la teoría cinética de los gases. Esta teoría 
constituyó el primer eslabón de lo que más tarde se denominó Física Estadística 
como rama de la Física que estudia los sistemas de muchas partículas. Para estos 
sistemas existe objetivamente una dificultad en los cálculos que se supera 
mediante la descripción estadística. Su teoría  significó un cambio de un 
concepto de certidumbre (el calor visto como un flujo de lo caliente hacia lo 
frío) hacia una noción estadística del movimiento de las moléculas.  Su nueva 
visión no rechazó los anteriores estudios de termodinámica sino explicó mejor 
las observaciones y experimentos. 

196
Todos los resultados anteriores posibilitaron enunciar ya en este siglo tres de 
los cuatro principios que constituyen los núcleos de la disciplina llamada 
Termodinámica:  el Principio Cero  que establece la posibilidad y el método de 
medición de la temperatura absoluta de un sistema como parámetro del equilibrio 
termodinámico; el Primer Principio en esencia reflejo de la expresión más 
general de la ley de conservación y transformación de le energía; y el  Segundo 
Principio, también conocido como el principio de aumento de la entropía,  que 
expresa el carácter irreversible de los procesos naturales y las relaciones 
entre el orden y el desorden empleando el concepto de entropía como una medida 
logarítmica del número de estados accesibles del sistema.

Es difícil sobreestimar la contribución de Boltzmann en el  
desarrollo de la Física. Gracias a él se unieron dos mundos:  
el de las propiedades macroscópicas con los parámetros del  
movimiento   de   los   átomos   y   moléculas.   Filosóficamente,   la 
Termodinámica Estadística que construyen entre él y Maxwell  
significó un cambio de un concepto de certidumbre (el calor  
visto como un flujo de lo caliente hacia lo frío) hacia una  
noción   estadística   del   movimiento   de   las   moléculas.   Su 
nueva   visión   no   rechazó   los   anteriores   estudios   de  
termodinámica   sino   explicó   mejor   las   observaciones   y 
experimentos.
Pero las ideas vanguardistas de Boltzmann chocaron con los  
que   defendían   la   dirección   descriptiva   en   la   Física.   En  
particular   su   violenta   polémica   con   Ernest   Mach   (1838   ­  
1936), profesor titular   de la Cátedra de Filosofía de las 
Ciencias   de   la   Universidad   de   Viena   lo   lleva   a   Leipzig, 
donde   comienza   a   padecer   de   trastornos   síquicos.   Un   día  
festivo, mientras su esposa e hija nadaban,  termina con su  
vida. Poco después los experimentos confirmaban sus ideas.

En 1880 coinciden dos descubrimientos trascendentes: uno para la física de los 
gases y el otro para la física del estado sólido. Este año, el físico holandés 
Johannes Diderik van der Waals (1837 – 1926) produjo su segundo gran 
descubrimiento cuando publicó la Ley de los Estados Correspondientes. Esta ley 
mostraba que si la presión, el volumen y la temperatura se expresan 
respectivamente como una función simple de la presión crítica, el volumen 
crítico y la temperatura crítica, se obtiene una forma general de la ecuación de 
estado aplicable a todas las sustancias. Siete años antes, durante la defensa de 
su tesis doctoral “Sobre la continuidad entre el estado gaseoso y el líquido”, 
se convirtió en el primer físico en apuntar la necesidad de tener en cuenta el 

197
volumen de las moléculas y las fuerzas intermoleculares en el establecimiento de 
las relaciones entre la presión, el volumen y la temperatura de los gases.

La obra de van der Waals, según la opinión del premio Nobel de Física (1913),  
Heike Kamerlingh Onnes (1853 – 1926), fue una guía para el trabajo experimental 
del Laboratorio de Criogenia de Leiden donde se montó la primera planta de 
producción de aire líquido en 1894 y ya en el siguiente siglo se hicieron 
trascendentes descubrimientos sobre el comportamiento de gases y metales a 
temperaturas extremadamente bajas. En este camino de la licuefacción de gases un 
hito de fines del XIX fue la obtención del hidrógeno líquido por vez primera en 
1896 en el laboratorio del físico y químico escocés James Dewar (1842 ­ 1923).

El otro descubrimiento, el efecto piezoeléctrico, fue reconocido en los círculos 
científicos de la época  como un nuevo ámbito para la producción de electricidad 
que se distinguía de la electricidad estática generada por fricción o la 
piroelectricidad (originada mediante el calentamiento de cristales). No 
obstante, los hermanos Pierre (1859 – 1906) y Jacques Curie afirmaron que 
debería existir una correspondencia entre los efectos eléctricos observados por 
el cambio de temperatura, y por la presión ejercida sobre un cristal dado. Para 
ellos el hallazgo fue una confirmación de las predicciones que naturalmente 
derivaron de la comprensión de los orígenes microscópicos cristalográficos de la 
piroelectricidad (esto es a partir de ciertas asimetrías del cristal). Los 
hermanos sin embargo no predijeron que los cristales que exhibían el efecto 
piezoeléctrico directo (electricidad a partir de la presión ejercida) también 
podrían exhibir el efecto piezoeléctrico inverso (deformación como respuesta a 
un campo eléctrico aplicado). Esta propiedad fue deducida en 1881 a partir de 
los principios fundamentales de la termodinámica, por el físico luxemburgués 
Gabriel J. Lippmann (1845 ­ 1921), y casi inmediatamente confirmada por los 
Curie. Luego continuaron obteniendo pruebas cuantitativas de la reversibilidad 
completa de las deformaciones electro­elasto­mecánicas en cristales 
piezoeléctricos.

Van der Waals, con 30 años se gana la vida como Director de  
una Escuela Secundaria en el núcleo industrial de Deventer, 
al centro de los Países Bajos. Seis años después, en 1873,  
publica   su   tesis   doctoral   “Sobre   la   continuidad   entre   el 
estado gaseoso y el líquido” y se incluye en la vanguardia  
de los físicos que se esfuerzan por construir una ciencia  
al nivel molecular. Al conocer esta obra, Maxwell le dedica  
los   más   entusiastas   elogios.   En   1876   es   designado   como  
primer profesor de Física de la Universidad de Ámsterdam, 

198
en   donde   permanece   hasta   su   retiro. En   1910   recibe   el 
premio Nobel de Física.
Imagen:   En   el   célebre   Laboratorio   de   Criogenia   de   la 
Universidad de Leyden, van der Waals (a la derecha) junto 
su colega Heike K. Onnes.

Este andamiaje teórico contribuyó a la comprensión de innumerables hechos 
experimentales, los mecanismos del intercambio de calor, de masa y de momentos 
lineales, base de los actuales esquemas de transferencia que son propios de las 
tecnologías químicas, y lo que es más importante, ofreció los fundamentos de los 
sistemas llamados máquinas térmicas y de los mecanismos de refrigeración. A 
diferencia de la ciencia del XVIII que se mantuvo a la zaga de los avances 
técnicos en el período inicial de desarrollo de la máquina de vapor ya en el XIX 
las leyes de la Termodinámica que se descubren y todo la plataforma conceptual 
que se construye sirve de apoyo a la teoría de la máquina de vapor y a toda  
práctica relacionada con las transformaciones energéticas.

Inglaterra, la cuna de la revolución Industrial, había construido hasta 1840 más 
de 40 coches y tractores propulsados a vapor. Hacia la mitad del siglo 
circulaban regularmente unas 9 diligencias a vapor, capaces de transportar cada 
una entre 10 y 20 pasajeros a unos 24 km/h. Pero esta naciente industria 
británica tuvo una breve vida. Los intereses de la industria de las locomotoras 
frenó el desarrollo alternativo del transporte por carretera y trajo como 
resultado que los ingenieros ingleses, líderes en la tecnología de la máquina de 
vapor, no contribuyeran a las grandes invenciones que precedieron la revolución 
que significó la industria del automóvil.

En 1860 el ingeniero belga Étienne Lenoir (1822­1900) inventó y patentó en París 
un motor de combustión interna alimentado con gas de alquitrán, de doble acción 
con ignición por chispa eléctrica. Tres años después mejoró el motor usando 
petróleo y un primitivo carburador y lo acopló a un vagón de tres ruedas que 
completó un histórico recorrido de 50 millas.

Inspirado en el motor diseñado por Lenoir, el ingeniero alemán Nicolaus A. Otto 
(1832­1891) junto con el técnico Eugene Langen (1833 – 1895) diseña el primer 
motor de gas con el cual ganan medalla de oro en La Exposición Mundial de París 
de 1867. En mayo de 1876 Otto construye el primer motor práctico con pistones y 
ciclo de cuatro tiempos. Para 1884, Otto había inventado el sistema de ignición 
magnético para bajo voltaje de ignición. A partir de entonces el monopolio de la 
innovación de los motores de combustión interna está principalmente en manos de 
los inventores alemanes.

199
Entre 1885 y 1887 se produjo el acoplamiento de un motor  
a un vehículo, cuando Karl Benz (1844­1929) y   Gottlieb 
Daimler (1834­1900) introdujeron los primeros automóviles  
de gasolina eficaces.  En 1889, Daimler inventó un motor  
con válvulas en forma de hongo, de cuatro tiempos con dos  
cilindros,   en   forma   de   V.   El   nuevo   motor   de   Daimler 
estableció las bases para todos lo motores de autos que  
se producirían más adelante.
También en 1889, Daimler y Wilhem Maybach (1846 – 1929)  
construyeron   el   primer   automóvil   en   su   totalidad,   sin  
adaptar   como   había   sido   hecho   hasta   el   momento   otro  
vehículo. El nuevo automovil de Daimler tenía transmisión  
de   cuatro   velocidades   y   desarrollaba   velocidades   de   10 
millas por hora.

En 1885, el ingeniero mecánico alemán, Karl Benz  diseñó y construyó el primer 
automóvil práctico del mundo en ser impulsado por un motor de combustión 
interna: era un triciclo. Benz construyó su primer automóvil de cuatro ruedas 
con su marca en 1891. En 1893, el Benz Velo se volvió el primer automóvil 
barato, producido en masa en el mundo. La Compañía Benz, fundada por el 
inventor, se volvió el fabricante más grande del mundo de automóviles en 1900, 
llegando a producir para esa temprana fecha unos dos mil quinientos vehículos.

Un eficiente motor de combustión interna, utilizando gasoil como combustible, 
fue patentado en 1892 por el ingeniero alemán Rudolf Diesel (1858­1913). La 
eficiencia de este motor es mayor que cualquier motor de gasolina, llegando a 
superar el 40%. Los motores Diesel se aplicaron en instalaciones generadoras de 
electricidad, en sistemas de propulsión naval y en camiones y autobuses.  En 
1897 y luego de años de esfuerzos, Robert Bosch (1861 ­ 1942) consiguió 
desarrollar un magneto de encendido de aplicación práctica y casi 
simultáneamente comenzó a funcionar el motor de autoencendido de Diesel, que no 
requería de un sistema eléctrico de ignición.

Toda esta colosal revolución en los medios de transporte demandaba con urgencia 
el descubrimiento de fuentes de combustibles que convirtieran la energía química 
en mecánica. Por entonces no se avizoraban los peligros que entrañaría más tarde 
la despiadada explotación del petróleo, una reserva geológica del 
planeta. Sucedió entonces que en el Condado de Alberta, New Brunswick, el médico 
y geólogo  canadiense Abraham Gesner (1797­1864) descubrió un mineral oscuro 
bituminoso, que al destilarse  exhibe una llama excepcionalmente brillante para 
la época. La lámpara de keroseno, anunciada en 1846 a 34 años de la patente para 
la fabricación de la primera bombilla eléctrica por Thomas Alva Edison (1847 ­ 

200
1931), se convertía en un poderoso estímulo para la prospección del petróleo y 
el desarrollo ulterior de la industria petrolera.

Mucho más allá fue el químico estadounidense Benjamín Silliman Jr. (1816 – 1885) 
en su "Report on Rock Oil, or Petroleum, from Venango County, Pennsylvania"  
publicado en 1855. En esta obra Silliman predice los usos del petróleo  para los 
próximos 50 años y describe los métodos principales de preparación y 
purificación de sus productos.   Silliman separó por destilación fraccionada 
diferentes componentes del petróleo crudo y evaluó las cualidades de cada 
fracción. Usando el fotómetro determinó que el petróleo destilado es mucho más 
brillante que los combustibles conocidos  hasta el momento. También destacó el 
potencial uso de las fracciones menos volátiles como lubricantes y el prolongado 
empleo que podía dársele a este producto. El estudio de Silliman constituyó un 
estímulo importante para iniciar la búsqueda del petróleo no sólo para dar 
respuesta a la crisis del combustible para la iluminación.

En el   verano de 1859, la casualidad premió el esfuerzo de  
Edwin L. Drake (1819 ­ 1880) y a sólo 69 pies de profundidad  
en   las   tierras   de   Titusville,   Pennsylvania   se   encontró   un  
depósito rico en gas natural del cual emergía con fuerza el  
petróleo.   Como   si   fuera   poco,   a   este   hallazgo   sumó   Drake  
tiempo   después   el   método   para   separar   del   petróleo   la  
fracción de queroseno, producto que Gesner había descubierto  
como   un   sustituto   ideal   del   aceite   de   ballena   para  
combustible en las lámparas. A pesar de sus dos trascendentes  
innovaciones,   Drake   muere   en   la   pobreza   al   no   patentar   su 
método de extracción   y   llevar la empresa a  la  ruina, sin  
ver la expansión de la industria petrolera ni soñar tal vez  
siquiera la revolución que se produciría en el transporte.

Si al final del siglo XVIII, París había conocido el primer asalto del hombre a 
la  conquista  del   aire,  el  segundo  capítulo  de  esta  conquista  sería  escrito  a 
partir   de   la   segunda   mitad   del   siglo   XIX   y   siguió   diferentes   caminos:   los 
dirigibles ­segunda generación de los globos­ que aprovechaban la menor densidad 
de   los   gases   ligeros   para   la   ascensión   y   los   mecanismos   de   la   propulsión 
mecánica para enrumbar el vuelo; los planeadores, móviles alados para sostener 
un vuelo individual; y los aeroplanos que perseguían despegar una estructura más 
densa   que   el   aire   venciendo   la   gravitación,   establecer   un   vuelo   sostenido   y 
guiado, y   garantizar   luego   el   aterrizaje   suave.   En   semejante   empresa   se 
enrolaron aquellos que combinaron ideas ingeniosas y los últimos adelantos en 
materia de motores y otros aditamentos mecánicos, con una audacia a toda prueba.

201
El   primer   dirigible   tripulado   apareció   en   los   cielos   de   París   en   1852.   Su 
inventor fue el ingeniero francés Henri Giffard (1825 ­ 1882). La nave aérea de 
Giffard   propulsada   por   una   hélice   acoplada   a   un   motor   de   vapor   fue   elevada 
utilizando un especie de balón en forma de tabaco de casi 40 metros de longitud 
lleno de dihidrógeno (el gas más liviano) y despegando   del Hipódromo de París 
mantuvo una velocidad promedio de unos 10 km/h recorre una distancia de 27 km.

Por otro camino iba el inventor británico John Stringfellow (1799 ­ 1883) que 
entre 1846 y 1848   se ocupó de construir un pequeño modelo, de tres metros de 
envergadura,   provisto   de   una   máquina   de   vapor,   que   accionaba   dos   hélices 
propulsoras,   situadas   detrás   de   las   alas. Probado   en   una   gran   nave   de   una 
fábrica   abandonada   realizó   con   éxito   vuelos   limitados   por   las   paredes   de   la 
nave. A Stringfellow, por tanto, debe corresponder la gloria de ser el primer 
hombre   del   mundo   que   construyó   un   aeroplano   manejable   provisto   de   motor.   Sin 
embargo, es dudoso que sus experimentos hubieran tenido éxito al aire libre.

La tragedia estuvo presente en estos primeros intentos de dominar las alturas. 
Este es el caso del inventor alemán   Otto Lilienthal (1848 ­ 1896). Su primer 
monoplano   fue   construido   en   1891   y   mostró   capacidad   para   hacer   vuelos   de 
considerable longitud, lanzándose desde lo alto de una colina.  Lilienthal  hizo 
más   de   mil   vuelos   exitosos   con   monoplanos   y   biplanos.   Estaba   precisamente   a 
punto   de   adaptar   un  motor   a   su   último   planeador   cuando   se   mató   en   agosto   de 
1896, a consecuencia de la rotura de su aparato.

El proyecto frustrado de Lilienthal en Alemania fue cumplido por el profesor de 
Física de la Universidad Occidental de Pensilvania, quién había estudiado los 
principios de la aerodinámica,  Samuel Pierpont Langley (1834­1906). Langley en 
1896 hizo volar en dos ocasiones un monoplano sin piloto que recorría unas diez 
cuadras, antes de que su motor se apagara y descendiera suavemente en las aguas 
del río Potomac.

A   un   año   del   deceso   de   Lilienthal,   el   ingeniero   brasileño 


Alberto   Santos   Dumont   (1873­1932)   inició   su   carrera   de  
pruebas de vuelos con dirigibles construidos por él mismo. A 
su primer intento fallido realizado en París le siguió en el  
98   un   vuelo   exitoso   con   un   dirigible   cilíndrico.   Dumont 
inaugura el siglo XX haciendo volar un dirigible aditado con 
un motor de gasolina de una potencia de 4.5 caballos de vapor 
que cubre feliz vuelo de ida y vuelta entre la Torre Eiffel y  
el   cercano   poblado   a   orillas   del   Sena   de   Saint'Cloud,   se  
había recorrido unos 20 Km.

202
El mundo de las ondas electromagnéticas y la lluvia de invenciones eléctricas

Mas el verdadero viraje en la carrera del binomio técnica ­ ciencia se produce 
con el descubrimiento del mundo de las ondas electromagnéticas, ahora la ciencia 
se convierte en el factor precedente de la invención técnica.

El debate Galvani ­ Volta fue uno de los episodios notables con que nacen las 
ideas modernas sobre la electricidad. Luigi Galvani (1737 ­ 1798) fue 33 años 
profesor de la Universidad de Boloña y sus trabajos son los primeros que apuntan 
a la acción fisiológica de la electricidad demostrando la existencia de fuerzas 
bioeléctricas en el tejido animal. Fue este cirujano, que renunciara a su 
cátedra universitaria cuando la invasión napoleónica para morir un año después, 
uno de los primeros biofísicos de la historia. La teoría del fluido eléctrico 
animal fue rechazada por el también italiano Alessandro Volta (1745 ­ 1827). A 
Volta se debe el invento en el 1800 de la primera batería eléctrica que hizo 
posible la construcción de dispositivos para mantener una corriente eléctrica 
por un circuito dado, y abordar el problema de los nexos entre la Electricidad y 
el Magnetismo. Una vez presentados sus trabajos en la Academia Francesa de la 
Ciencia, aceptó el título de Conde de Lombardía, territorio ocupado por las 
tropas napoleónicas.

En 1820 el físico y químico danés, profesor de Física de la Universidad de 
Copenhague Hans C. Oersted (1777 – 1851) descubrió que alrededor de un 
conductor por el que circulaba una corriente eléctrica se instauraba un campo 
magnético semejante al que se lograba con un imán permanente.

La relación conocida hoy como Ley de Ohm apareció publicada en 1827 cuando el 
profesor alemán Georg Simon Ohm (1787 ­ 1854) fue capaz de definir la relación 
fundamental entre voltaje, corriente, y resistencia. Ohm había cumplido los 
cuarenta años cuando haciendo uso de los recursos construidos por él mismo en 
un laboratorio escolar, descubre la ley considerada la verdadera apertura hacia 
el análisis de los circuitos eléctricos. Sin embargo entre la comunidad 
científica alemana los trabajos de Ohm fueron acusados de una excesiva 
formalización matemática e ignorada su trascendencia. Fue la Royal Society 
londinense la que en 1841  reconoce la importancia de su descubrimiento pero no 
es hasta ocho años más tarde que cumple sus sueños cuando le ofrecen la cátedra 
de Física Experimental de la Universidad de Munich.

203
A   unas   semanas   de   los   trabajos   de   Oersted,   el   científico  
francés   André   Ampere   (1775   –   1836)   logró   formular   y  
comprobar experimentalmente la ley que pretende explicar en  
términos   matemáticos   las   posibles   interacciones   que  
relacionan magnetismo y electricidad. Su memoria se perpetúa  
en   la   unidad   de   intensidad   de   la   corriente   eléctrica,   el  
Amperio (A). Su vida personal ofrece el contraste entre una  
carrera exitosa y un destino desventurado.

Su   padre,   notario   público,   murió   ejecutado   bajo   la 


guillotina   de   la   Revolución   Francesa;   perdió   su   primera  
esposa víctima de una cruel enfermedad.

Un momento trascendente en los estudios sobre el electromagnetismo se produjo 
al establecer M. Faraday en 1831, la llamada Ley de Inducción Electromagnética 
que establece que en cualquier punto de una región donde esté instaurado un 
campo magnético y exista una variación de su vector inducción magnética, 
aparecerá un campo eléctrico inducido. Esta la ley física sustenta el 
funcionamiento tanto de los generadores de electricidad movidos por distintas 
fuentes de energía en las plantas generadoras; como de los transformadores, con 
sus múltiples aplicaciones.

La invención de un equipo eléctrico que permitiera emitir y captar señales 
según un código de impulsos eléctrico aparece disputada por dos pares de 
físicos renombrados en polos científicos de Europa y un profesor universitario 
de Arte al otro lado del Atlántico en la pujante atmósfera neoyorquina.

La historia reconoce que en 1831, el físico estadounidense Joseph Henry (1797 ­ 
1878) diseñó y condujo un experimento que permitía la comunicación a larga 
distancia al enviar una corriente eléctrica por el cable a una milla de 
distancia para activar un electroimán que causaba el repiqueteo de una campana. 
Esta prueba significó el nacimiento del telégrafo eléctrico. 

Uno de los primeros registros de comunicación telegráfica se reporta en la 
célebre Universidad de Gotinga. La intención fue dejar comunicados dos 
laboratorios donde trabajaban el profesor de electrodinámica Wilhem Weber (1804 
­ 1891), quien debió abandonar a los 33 años la Universidad por problemas 
políticos vinculados con su pensamiento liberal, y el físico matemático  Carl 
Friedrich Gauss (1777 ­ 1855).

La primera patente europea por la invención de un telégrafo eléctrico les fue 
concedida en 1837 al ingeniero William F. Cooke y el físico Charles Wheatstone 
(1802­1875) de la universidad londinense, por los mismos años que Samuel Morse 

204
(1791­1872), se asomaría con sorpresa al mundo de la transmisión y recepción de 
señales eléctricas.

Pero inobjetablemente la invención de Henry fue económicamente explotada 
mediante el ingenio del profesor de arte y diseño de la Universidad de Nueva 
York.   En 1838, el primer mensaje telegráfico contenía una cita bíblica 
propuesta por la joven hija de un amigo, Annie Ellsworth: ¿Qué ha hecho Dios?  
El sistema primitivo de Morse producía una copia sobre papel con puntos y rayas 
que debía ser traducida por un operador adiestrado. Este podía llegar a 
transmitir 40 ­ 50 palabras por minuto.

Michael Faraday (1791 – 1867) es considerado un paradigma de 
experimentador,   y   lo   clasifican,   hecho   ya   no   común   en   el 
siglo XIX, como físico y como químico. Y es que   este hijo 
de herrero, y por feliz casualidad encuadernador de libros,  
hizo   aportes   relevantes   para   ambas   ciencias.   Pero   lo 
inmortaliza   el   descubrimiento   de   la   llamada   ley   de 
inducción   electromagnética.   Esta   ley   revela   un   efecto 
inverso al descrito por Oersted, es decir que el movimiento  
de   un  imán   en   las  proximidades  de   un  cable  induce   en  éste  
una corriente eléctrica. Fue por tanto el fundamento para la 
construcción   de   los   generadores   de   electricidad,   de   los 
transformadores, y de los frenos magnéticos. No es exagerado  
decir que la lluvia de artefactos eléctricos que se inventan 
en la segunda mitad del siglo XIX, principios del XX tiene  
su principal aliento en la obra de Faraday. 

La empresa Western Union en 1861 construyó a lo largo de las vías férreas su 
primera línea telegráfica transcontinental. Pronto se presentó la necesidad de 
ampliar la red telegráfica entre Europa y América. Fue gracias al gran talento 
del eminente físico inglés William Thomson, Lord Kelvin (1821­1907), que se 
hicieron los estudios necesarios para instalar en 1866 el primer cable  
trasatlántico que conectó a Wall Street en Nueva York con Londres.

Los litigios por los derechos para explotar un invento fue una constante en 
todos estos años de verdadero diluvio de invenciones. El nacimiento de una 
tecnología parecía conspirar con el florecimiento de otra, así el teléfono 
parecía que iba a destronar los intereses económicos desarrollados en torno del 
telégrafo.

La intención original de perfeccionar el sistema telegráfico obsesionaba a las 
mentes creativas. Este fue el propósito original del inmigrante de origen 

205
escocés Alexander Graham Bell (1847 ­ 1922), por entonces profesor de 
fisiología vocal de la Universidad de Boston, que fue girando hacia el objetivo 
de transmitir por el cable conductor la propia voz humana. Para alcanzar el 
éxito ellos necesitaron construir un transmisor con una membrana capaz de 
variar las corrientes electrónicas y un receptor que invirtiera el proceso 
pudiendo  reproducir estas variaciones de la corriente eléctrica en frecuencias 
audibles. El 14 de febrero de 1876  Bell presentó su solicitud de patente de 
invención de un dispositivo capaz de transmitir eléctricamente la voz.   El 
mismo día Elisha Gray (1835 ­ 1901) asentaba en la oficina de patentes una 
solicitud de invención similar. Gray y Bell se enfrentaron a una batalla legal. 
Unas pocas horas de ventaja le adjudicaron a Bell y la Corte inclinó la balanza 
hacia el profesor de fisiología vocal. La historia reconoce muchos casos como 
este, la verdad es que el equipo estaba en el orden del día histórico, 
correspondió a uno llevarse la gloria.

El desarrollo del telégrafo y el teléfono creó la necesidad de contar con 
electricistas hábiles, y por consiguiente empujó a la apertura de escuelas 
técnicas y superiores de las que egresarían los que posteriormente se llamarían 
ingenieros electricistas. Los diferentes problemas técnicos que se presentaron 
en el tendido de los cables, en el mejoramiento de los equipos telegráficos, y 
en el desarrollo de la teoría de la transmisión de señales fueron materia de 
investigación en departamentos científicos de las universidades.

Pronto   los   físicos   asediaron   la   posibilidad   de   transmitir   y  


captar las señales eléctricas para inaugurar un nuevo sistema  
de comunicación a distancia, pero fue el ingenio del profesor  
de   arte   y   diseño   de   la   Universidad   de   Nueva   York.   Morse   no 
sólo   comprobó   que  las   señales  podían  ser   transmitidas  por   el 
alambre   sino   que   usó   pulsos   de   corriente   para   deflectar   un  
electroimán que accionaba un dispositivo para producir códigos  
escritos sobre una tira de papel, que representaron gracias a  
su agudeza una especie de sistema alfabético electrónico.Morse  
hizo en 1838 una demostración pública de su invento pero solo  
seis   años   más   tarde   pudo   cristalizar   su   realización   al  
construirse una línea telegráfica a una distancia de 40 millas,  
desde Washington hasta Baltimore.

Entretanto en el mundo de la teoría, que se encargaba de iluminar la práctica y 
las invenciones de los artefactos eléctricos,  tuvo lugar un trascendental paso 
que se convirtió en resumen y totalización del electromagnetismo en la región 
clásica. Este salto fue dado por James Clerk Maxwell (1831 – 1879) cuando en 

206
1865 estableció la simetría que existe entre los campos eléctrico y magnético y 
completó el contenido de la llamada Ley de Ampere de forma que introduciendo el 
concepto de corriente de desplazamiento logró establecer que en un punto de una 
región donde esté instaurado un campo eléctrico variable con el tiempo, aparece 
un campo magnético inducido. Con esto se completó el sistema de ecuaciones que 
describen todos los fenómenos del electromagnetismo en la región clásica y se 
produjo la primera unificación conformando el concepto de un solo campo: el 
electromagnético, que puede presentar como manifestaciones particulares los 
casos del campo electrostático y el magnetostático.

La significación desde el punto de vista epistemológico de la obra de Maxwell es 
notable porque cristalizó la idea de la unificación de dos interacciones que se 
creían de naturaleza distinta y marcó pauta para la búsqueda de otras 
unificaciones entre otros tipos de interacciones, de modo que ya en el próximo 
siglo se establecería la unificación entre la interacción débil y la 
electromagnética (interacción electrodébil)  y las explicaciones sobre el origen 
del universo en las cuales se supone que en los primeros instantes después de la 
gran explosión, solo existía un tipo de interacción y al irse rompiendo las 
simetrías, estas interacciones se fueron separando con características bien 
definidas y diferenciadoras.

A partir de este momento el nacimiento y desarrollo de la industria eléctrica, 
en contraste con otras más antiguas, tuvo desde sus inicios un carácter de 
empresa científica derivada de los logros de la investigación. En este afán 
brilló el inventor estadounidense Thomas Alva Edison. El alcance de la invención 
de Edison no se reduce a inventar solo la luz eléctrica incandescente sino 
también un sistema de iluminación eléctrica con todos los elementos necesarios 
para hacer la luz incandescente práctica, segura y económica.   Después de año y 
medio de pruebas, obtuvo el éxito cuando una lámpara incandescente con un 
filamento carbonizado trabajó durante trece horas y media.

La primera demostración pública del sistema de iluminación incandescente fue 
realizada en diciembre de 1879 cuando el complejo del Laboratorio de Menlo Park 
fue iluminado con luz eléctrica. Alrededor de esta invención mayúscula se gestan 
otras de menor trascendencia pero de esencial importancia práctica que fueron 
desarrolladas por los laboratorios de Edison y que en esencia llegan hasta los 
días de hoy. Estos siete sistemas inventados fueron: el circuito paralelo; la 
bombilla duradera; un dinamo perfeccionado; la red conductora básica; los 
dispositivos para mantener el voltaje constante; los fusibles de seguridad, los 
materiales aislantes; y por último los soques e interruptores.

207
En   Cambridge   donde   cursa   estudios   superiores   (1850   –  
1854), Maxwell se   vincula   con   un   denominado   Movimiento  
Socialista   Cristiano   y   actúa   como   profesor   de   cursos  
nocturnos   extraoficiales   para   la   instrucción   de   modestos  
artesanos. Unos 20 años más tarde se convierte en el primer  
profesor   de   Física   del   Instituto   Cavendish.   A   Maxwell   se  
debe   el   resumen   y   totalización   de   la   teoría   sobre   el 
electromagnetismo   cuando   en   1865   completó   el   sistema   de 
ecuaciones   que   describen   en   la   región   clásica   todos   los  
fenómenos electromagnéticos y formuló la primera unificación  
conformando   el   concepto   de   un   solo   campo:   el 
 electromagnético, que   puede   presentar como   manifestaciones 
particulares   los   casos   del   campo   electrostático   y   el  
magnetostático.

Edison debió entonces impulsar la creación de una industria generadora de 
energía eléctrica. En 1881 Edison edifica en Nueva York  una planta de corriente 
continua que genera y distribuye la energía a través de una red de líneas,  tal 
como en ese entonces ya se hacía con el gas y el agua. En septiembre de 1882 se 
ilumina la primera calle que en Nueva York recibe los servicios de este 
revolucionario sistema.

A pesar de sus extraordinarios logros, el empleo de la corriente directa trajo 
no poco  problemas. En primer lugar, la utilización de circuitos en paralelo 
requirió que los cables fueran muy gruesos, lo cual generaba costos altos. En 
segundo lugar, y de más importancia, al aumentar la demanda de iluminación se 
necesitaron cargas cada vez más altas que implicaban corrientes eléctricas 
enormes. Por lo tanto, se estaba ante la alternativa de enviar corrientes muy 
altas a través de grandes cables de cobre, lo cual era muy ineficiente, o de 
construir muchas plantas generadoras de electricidad cercanas a los usuarios, 
con el respectivo aumento considerable de los costos.

La solución a estos dilemas se encontró con la invención del transformador y la 
construcción de generadores de corriente alterna. Un inventor francés, Lucien H. 
Gaulard (1850 ­1888), originalmente interesado en la química de los 
explosivos,   obtuvo en 1882 una patente para un dispositivo que llamó generador 
secundario y que fuera una versión primitiva de lo que hoy llamamos 
transformador. Después de esta invención, Gaulard en 1884 instaló un sistema de 
iluminación en el cual usó corriente alterna y lámparas incandescentes. Su 
muerte prematura víctima de una fuerte depresión nerviosa le impidió ver 
coronado con éxito sus empeños iniciales. George Westinghouse (1846 ­ 1922), fue 

208
testigo de las demostraciones de Gaulard en Italia con motivo de la Exposición 
Internacional de Turín y advirtió el potencial de la electricidad.

En 1884 Westinghouse contrató a un joven ingeniero eléctrico, William Stanley 
(1858– 1916), quien  un año después ya  había superado la eficiencia de todos 
los transformadores diseñados hasta entonces. Dos años más tarde fundó la 
Compañía Eléctrica Westinghouse que pronto llegó a contar con una fuerza laboral 
de 200 hombres con el propósito de desarrollar y producir aparatos para la 
generación, transmisión y aplicación de la corriente eléctrica alterna.

En   1888   Tesla,   investigador   de   origen   croata,   obtuvo   una 


patente   por   un   generador   polifásico   alterno   que   producía  
gran   potencia   eléctrica;   muy   pronto   este   tipo   de   máquina 
fue la más usada. Hoy en día se emplean generadores que son  
versiones muy mejoradas del generador polifásico de Tesla. 
Westinghouse obtuvo los derechos exclusivos de las patentes  
de Tesla y persuadió al inventor a unirse a su Compañía.

Al   morir Tesla había sido destituido, perdido su fortuna 
y reputación científica. Hoy es considerado uno de los que 
pavimentaron   el   camino   hacia   el   desarrollo   de   muchas 
tecnologías de los tiempos modernos. La unidad de medida de  
inducción  magnética   en  el  sistema  internacional  recibe  en 
su honor el nombre de "Tesla”.

En 1886 se edificó, bajo la dirección de Stanley,  la primera planta eléctrica 
en el poblado de Great Barrington, Massachusetts, un centro de manufactura 
floreciente de poco más de 2 500 habitantes.  Esta planta operó con corriente 
alterna, con un generador que produjo una corriente de 500 V y que por medio de 
transformadores redujeron a 100 V, que es el valor que se requiere para hacer 
funcionar las lámparas.  El resultado fue un gran éxito y de inmediato 
Westinghouse inició la manufactura y venta de equipos para distribuir 
electricidad por medio de corriente alterna.

Haciendo uso de los inventos del ingeniero croata Nicola Tesla (1856 – 1943), la 
Compañía de Westinghouse diseñó e instaló el sistema de Iluminación de la 
Exposición Mundial de Chicago en 1893. Poco después asume la encomienda de 
construir la Hidroeléctrica sobre las Cataratas del Niágara y ya en 1896 se 
inaugura exitosamente la Planta del Niágara que transmitió la energía eléctrica 
hasta Búfalo, a 20 millas de distancia. Con esta planta quedó confirmada la 
superioridad práctica de la corriente alterna sobre la directa y la posibilidad 
de ofrecer la energía desde un circuito para múltiples propósitos.

209
Una vez que la electricidad pudo ser generada y distribuida para la iluminación, 
se aprovechó para ser utilizada como fuerza motriz. Se puso así a disposición de 
la industria y de los transportes un nuevo medio universal de distribución de 
energía que dio un gran impulso a la utilización de los motores eléctricos.  

La naturaleza de la luz fue explicada por la perspectiva maxwelliana que 
desarrolla la Teoría Electromagnética Ondulatoria de la Luz (TEM).  Siguiendo 
esta teoría, la luz en su sentido más amplio está formada por ondas 
electromagnéticas que no son más que las oscilaciones automantenidas del campo 
electromagnético. Este logro científico de primer orden permitió al hombre 
explicar toda la Óptica Ondulatoria sobre bases científicas y desechar la idea 
del éter, amén de las múltiples aplicaciones que generó en el campo de las 
radiocomunicaciones y las telecomunicaciones.

Precisamente de los experimentos en búsqueda de la comprobación sobre la 
existencia del éter, y en particular de la obra del físico alemán Heinrich 
Rudolf Hertz (1857 – 1894),  se obtuvo el triunfo total de la teoría de Maxwell 
y se fueron preparando las ideas para el surgimiento, en el siglo XX, de la 
Teoría de la Relatividad.  Entre 1885 y 1889, Hertz descubrió que la 
electricidad podía transmitirse en forma de ondas electromagnéticas que se 
propagan a la velocidad de la luz conforme Maxwell había anticipado. Este 
descubrimiento puso en la agenda histórica  las invenciones de la telegrafía y 
la radio inalámbrica.

Entre 1885 y 1889 el físico alemán  Heinrich R. Hertz  desde 
su cátedra en la Escuela Técnica de Karlsruhe descubrió que  
la   electricidad   podía   transmitirse   en   forma   de   ondas 
electromagnéticas  que   se  propagan   a  la   velocidad  de   la  luz 
conforme   Maxwell   había   anticipado.   Este   descubrimiento   puso 
en   el   orden   del   día   histórico   las   invenciones   de   la  
telegrafía y la radio inalámbrica. Algunos le consideran su  
inventor   pero   lo   cierto   es   que   los   37   años   de   su   breve 
existencia   le   impidieron   ir   más   lejos   y   cristalizar   en  
invenciones   desarrolladas   sus   resultados   experimentales.   La  
unidad de frecuencia lleva su nombre y se simboliza por Hz.

En 1892 el físico­químico William Crookes (1832­1919) publicó un trabajo en la 
revista inglesa Fortnightly Review, en el que proponía las bases para utilizar 
ondas electromagnéticas como medio para transmitir señales telegráficas a través 
del espacio, es decir, telegrafía sin hilos o inalámbrica.

210
Dos años después  el ingeniero italiano Guglielmo Marconi (1874­1937) leyó la 
biografía de Hertz e inmediatamente empezó a trabajar en la idea de usar las 
ondas electromagnéticas para transmitir señales. Construyó los aparatos 
descritos por Hertz, a los cuales les añadió un cohesor, que es un tubo de 
vidrio que contiene limaduras de hierro, y conectó tanto el transmisor como el 
receptor a una antena. Una señal eléctrica que pase por el cohesor hace que las 
limaduras se unan durante el intervalo que dura la señal; de esta manera este 
dispositivo detecta ondas electromagnéticas. En 1895 Marconi probó sus aparatos, 
con los cuales logró enviar señales hasta distancias de un par de kilómetros. En 
1898 transmitió señales a través del Canal de la Mancha y ya en 1901 logró una 
transmisión a través del Océano Atlántico: desde Inglaterra hasta Canadá. Las 
señales inalámbricas probaron su efectividad en la comunicación para el trabajo 
de rescate durante accidentes marítimos. Numerosas líneas oceánicas instalaron 
equipos inalámbricos.

La óptica, la astronomía y el nacimiento de dos nuevas técnicas

El primer tercio del siglo XIX fue testigo de una revolución en el campo de la 
óptica. No había transcurrido aún un siglo de la publicación de Opticks cuando 
el médico y físico inglés Thomas Young (1773 ­ 1829) casi con el nacimiento del 
siglo desafiaba la teoría corpuscular de la luz desarrollada por Newton. La 
teoría de Young sobre la necesidad de aceptar la naturaleza ondulatoria de la 
luz para explicar el fenómeno de interferencia, a pesar de la relevante posición 
que ocupó desde 1802 hasta su muerte como secretario externo de la Royal 
Society, fue acogida con una buena carga de escepticismo por la ciencia 
británica. A una década de los trabajos de Young, el físico francés Augustine 
Jean Fresnel (1788 ­ 1827) formaliza matemáticamente con gran rigor  las leyes 
que rigen  los fenómenos de interferencia y difracción de la luz.

Desde el inicio del siglo se suceden los descubrimientos que demuestran la 
existencia de  regiones del espectro de radiación solar invisible para el ojo 
humano.  En 1800 el astrónomo británico de origen alemán William Herschel (1738­
1822) determina experimentalmente la temperatura asociada a cada color del 
espectro solar  y descubre que justamente por encima del rojo en la región del 
espectro visible existe una radiación que tenía más alta temperatura, que puede 
ser medida y sentida pero no ser vista: la región infrarroja.

211
En   1818   Agustin­Jean   Fresnel   presentó   en   la   Academia   de 
Ciencias de París un informe  con un tratamiento matemático  
riguroso   de   los   fenómenos   de   interferencia   y   difracción 
sobre la base de la teoría ondulatoria propuesta por Young  
que   le   merecieron   el   premio   de   la   Academia   del   año  
siguiente.   Anteriormente,   en   1811   junto   con   el   físico 
François   Arago   (1786­1853)   habían   establecido   las   bases   de  
las leyes de la interferencia de la luz polarizada.

Fresnel había mostrado un lento aprendizaje durante la niñez  
y   aún   com   ocho   años   no   había   aprendido   a   leer.   Luego   fue  
egresado de las instituciones de la ingeniería francesa, la  
Escuela Politécnica y la Escuela de Puentes y Caminos. Murió  
con   sólo   39   años,   víctima   de   la   tuberculosis,   cuando   aún 
muchos de sus trabajos no habían sido publicados.

Un año después el joven físico alemán, con sólo 25 años de edad,  Johann W. 
Ritter (1776 ­ 1810) descubre que hacia el otro extremo del espectro solar se 
extiende luego de la radiación correspondiente al violeta una radiación 
invisible que provoca un oscurecimiento más intenso y rápido de las sales de 
plata. El espectro de la radiación se ampliaba ahora y "nacía" la región 
ultravioleta.

En 1802, el médico inglés William Hyde Wollaston (1766 ­ 1828), descubrió las 
bandas oscuras en el espectro de la luz solar, que más tarde serían aclaradas 
por los estudios  de Franhoufer. Wollaston que había abandonado la práctica 
médica al perder parcialmente la visión se entregó a las investigaciones 
científicas con resultados notables. Por ejemplo invadió el campo de la 
mineralogía y al inventar en 1809 el goniómetro de reflexión, instrumento 
diseñado para medir los ángulos de los cristales, le dio a esta disciplina todos 
los caracteres de una ciencia exacta. También puso en manos de los artistas de 
la época un simple instrumento óptico compuesto por un prisma de cuatro caras 
sostenido sobre un pequeño soporte que le ayudaba a obtener la perspectiva de la 
imagen, la llamada cámara lúcida (1807).

Entre 1812 y 1814 el óptico y físico alemán Joseph von Fraunhofer (1787­1826) 
redescubre las líneas oscuras del espectro solar,  e identifica una gran número 
de las 500 líneas que podía observar con el espectroscopio de red, inventado por 
él, que más tarde sería desarrollado para su aplicación en la espectroscopia 
ultravioleta y de rayos X. Las líneas de Franhoufer serían utilizadas 
eventualmente para descubrir la composición química de la atmósfera solar. En 
1821 inventa la red de difracción construida con 260 alambres dispuestos juntos 

212
paralelamente. Pertenece a la extirpe de talentos desaparecidos prematuramente, 
víctima de la tuberculosis, con lo cual la ciencia perdía ulteriores 
realizaciones.

Muchas de las innovaciones desarrolladas en el siglo XIX a la técnica de la 
microscopía se deben al egresado de ingeniería de la Universidad de Bolonia, y 
luego profesor de Matemáticas de la Universidad de Modena, Giovanni Baptiste 
Amici (1786 – 1863). En 1827 Amici inventó el primer sistema de lentes para un 
microscopio acromático y en 1840 introduce la técnica de inmersión en aceite que 
minimiza las aberraciones ópticas, y luego en 1855 desarrolla el objetivo de 
inmersión en agua. Su interés investigativo abarcó no solo el universo 
microscópico sino también el espacio sideral. Un cráter en el lado oscuro de la 
Luna perpetúa su memoria.

El   efecto   que   se   produce   cuando   una   fuente   en   movimiento 


emite ondas fue descubierto y explicado por primera vez en  
1842,   durante   las   sesiones   de   un   congreso   de   ciencias 
naturales celebrado  en  Praga por el profesor del Instituto  
Técnico   de   esta   ciudad,   el   matemático   austriaco   Christian  
Johan Doppler (1803 – 1853). Este efecto consiste en que un  
observador   situado   delante   de   la   fuente   registrará   la  
frecuencia   de   las   ondas   mayor   que   la   realmente   emitida, 
mientras   que   un   observador   situado   detrás   de   la   fuente 
reconocerá   una   menor   frecuencia.   Más   tarde,   el   fenómeno 
pasaría   a   la   historia   como   “el   efecto   Doppler”.   La 
demostración de que el efecto Doppler también era observado  
en la luz emitida por los astros que se acercaban o alejaban 
de nuestro planeta nunca fue demostrado antes de su muerte, 
provocada por la tuberculosis que padeció.

La teoría ondulatoria sobre la imagen microscópica fue formulada en 1872 por el 
físico­matemático alemán Ernest Abbe (1840 ­ 1905). Abbe y el fabricante de 
material óptico de Jena, Carl Zeiss (1816 ­ 1888) inventaron un nuevo aparato 
para la iluminación del microscopio. De acuerdo con las deducciones de Abbe, 
Zeiss comenzó a fabricar 17 nuevos objetivos de microscopios que pronto se 
ganaron una reputación universal por la excelente calidad de las imágenes 
obtenidas.

Como resultado de las investigaciones de Zeiss con el químico Otto Schott (1851­
1935) sobre las formulaciones de nuevos vidrios de grado óptico introdujeron en 
1886 un nuevo tipo de lente objetivo el apochromat.  Los objetivos de 
Apochromat  eliminaron la aberración cromática y llevaron el poder de 

213
resolución  del microscopio al límite que disfruta hoy. Conforme Abbe había 
calculado, ningún refinamiento del vidrio o del cálculo teórico sobre la forma 
de la lente podría superar el límite de resolución para luz visible que está 
sobre la media micra.

La expansión del conocimiento cósmico estuvo relacionada con el 
perfeccionamiento de las lentes telescópicas, el estudio de las perturbaciones 
de las trayectorias de diferentes astros a partir de la mecánica celeste 
newtoniana, y sobre todo con el análisis espectral de la radiación procedente de 
los astros.

Ya a comienzos del siglo XIX, el astrónomo británico, de origen alemán, William 
Herschel había descubierto las estrellas dobles. En sus sistemáticas 
observaciones de la bóveda celeste pudo apreciar que muy frecuentemente se 
encuentran dos estrellas brillantes muy cercanas una de la otra. Como no podía 
determinar si se trataba de un alineamiento casual o de un par físico, Herschel 
derivó de consideraciones estadísticas que el número de binomios ópticos 
observados era mucho mayor que el pronosticado por formación aleatoria. Concluyó 
que las estrellas constituyen pares físicos. Posteriormente logró detectar en 
algunos casos movimientos de una estrella en torno a la otra, lo que confirmó su 
afirmación inicial. Las investigaciones posteriores demostraron que la mayoría 
de las estrellas que se ven en el cielo son dobles o incluso múltiples. La 
espectroscopia permitía descubrir la existencia de estrellas dobles aún cuando 
se encontraran muy próximas y su movimiento orbital fue determinado por los 
diferentes  efectos Doopler mostrados en sus espectros.

El   asistente   del   laboratorio   de   Gay­Lussac   y   aspirante   al  


puesto   de   profesor   de   Química   de   l'École   polytechnique   de  
París, Urbain­Jean­Joseph Le Verrier aceptó en 1837 la plaza 
de   profesor   de   astronomía   y   geodesia   y   se   consagró   a   la  
Mecánica Celeste. Por entonces el director del Observatorio  
Imperial de París Dominique F. J. Arago le sugirió estudiar 
las   anomalías   observadas   en   la   órbita   de   Urano.   En   1846 
publica los elementos de la órbita de un planeta hipotético.  
Había descubierto con la fortaleza de los cálculos un nuevo 
planeta   cuya   existencia   sería   anunciada meses   más   tarde 
desde   el   Observatorio   Imperial   de   Berlín   por   el  
 astrónomo  Johann Gottfried Galle (1812 ­ 1910).    Existen 
los testimonios que demuestran que en septiembre de 1845 el 
astrónomo   inglés   John   Couch   Adams   (1819   ­   1891)   le 
transmitió   al   entonces   director   del   Observatorio   de 

214
Cambridge,   James   Challis   (1803­1882),   el   resultado   de   sus 
cálculos sobre la posición precisa de un nuevo planeta más  
lejano   que   Urano,   pero   inexplicablemente,   una   información 
tan   valiosa   no   recibió   la   atención   merecida   y   Adams,   de  
acuerdo con su carácter,  no reclamó el necesario examen de 
su solicitud.

Desde el Observatorio de  Königsberg que dirigió desde los 29 años hasta su 
muerte, el matemático y astrónomo alemán Friedrich Wilhelm Bessel (1784­1846) 
emprendió en 1838 la tarea de determinar el paralaje de la estrella 61 Cygni, 
perteneciente a la importante constelación del hemisferio norte llamada Cisne 
(Cignus), y al resolverla calculó con exactitud por primera vez la distancia de 
una estrella a la Tierra en 10,3 años­luz. Sus “Observaciones astronómicas” 
fueron publicadas en 1842. Un año antes había anunciado que Sirio, la estrella 
más brillante del firmamento, tenía una estrella compañera, lo que se confirmó 
diez años mas tarde, al calcularse la órbita de Sirio B. Esta estrella fue 
observada en 1862 por el fabricante estadounidense de potentes telescopios Alvan 
Graham Clark (1804 – 1887), después se comprobó que era una enana blanca.

El siglo cierra con resonantes éxitos de la ciencia y la técnica en el arte de 
atrapar las imágenes de las cosas sobre materiales fotosensibles. No sólo se 
hará a partir de ahora perdurable la reproducción en imagen del acontecimiento o 
del personaje para todos los tiempos, sino que el hombre ha aprendido a captar 
las señales de lejanos confines del universo, contribuyendo a descifrar su 
composición mediante una nueva técnica que ha sido llamada espectroscopia.

El descubrimiento de la espectroscopia fue el resultado del estudio de la 
interacción entre la radiación visible y la sustancia abordado hacia mediados de 
siglo por el  físico alemán  Gustav Kirchhoff (1824 ­ 1887) y el químico Robert 
Bunsen (1811­1899). Según sus resultados, cada elemento cuando se calienta hasta 
el estado incandescente emite una luz de color característico que separada en 
sus componentes origina un patrón único. Esto hizo posible el nacimiento del 
análisis espectroscópico para identificar la composición química de las 
sustancias.  Pero más lejos aún llegaron con el descubrimiento de que los gases 
de los elementos absorbían luz de longitudes de onda específicas. Esto significó 
el descubrimiento de un método para identificar la composición química de 
remotos astros en el firmamento estelar.

En 1862, fascinado por los trabajos espectroscópicos de Kirchoff y Bunsen, el 
astrónomo francés Pierre Jules César Janssen (1824 – 1907) inició sus estudios 
del espectro solar. Después de sus observaciones del eclipse solar de 1868 en la 
India Janssen sugirió que algunas de las líneas espectrales observadas por 

215
encima del extremo del sol eran debidas a un  elemento químico hasta entonces 
desconocido. Al año siguiente, trabajando en colaboración con el astrónomo 
inglés J. Norman Lockyer (1836 – 1920)  descubrieron una línea espectral 
cromosférica de un elemento desconocido al cual llamaron Helio. Más de un cuarto 
de siglo después en 1895 el químico inglés William Ramsay descubrió al Helio en 
el laboratorio.

Cuando   a   mediados   del   siglo   el   físico   alemán   Gustav  


Kirchhoff y su compatriota el químico R. Bunsen descubren  
el   carácter   de   “huella   dactilar”   de   los   espectros   de 
emisión   de   los   átomos   excitados   o   de   absorción   de   la 
radiación   solar   por   los   gases   se   estaba   inaugurando   una  
nueva   técnica   de   poder   analítico   insospechado:   la 
espectroscopia.   Ella   permitiría   descubrir   la   composición  
química   de   remotos   astros   en   el   firmamento   estelar   y  
contribuiría   a   demostrar   la   unicidad   material   del 
universo.   Kirchhoff   es   conocido   además   por   el 
descubrimiento   de   las   leyes   que   describen   el 
comportamiento   de   la   corriente   en   un   circuito   eléctrico  
con derivaciones interconectadas y por ser el primero en  
predecir que un impulso eléctrico viaja a la velocidad de 
la luz.

Uno de los pioneros en combinar la espectroscopia con la fotografía fue el 
profesor de física de la Universidad de Upsala, Anders Jonas Angstrom (1814 – 
1874). En 1862, descubre al hidrógeno en la atmósfera solar mediante el análisis 
de su espectro.   Angstrom fue el primero en analizar el espectro de la aurora 
boreal, en 1867. Después, en el año 1868, publicó un mapa espectrográfico del 
sol: "Recherches sur le spectre solaire", que incluye medidas detalladas de más 
de 1000 líneas espectrales.  Para expresar las longitudes de onda propuso como 
unidad de medida la diezmillonésima parte de un milímetro que en su homenaje se 
llama Ángstrom. A pesar de no ser reconocida por el sistema internacional de 
unidades el Ángstrom (símbolo Å) se utiliza en las medidas atómicas y para las 
longitudes de onda de la radiación electromagnética. 

El empleo de la espectroscopia combinado con el método que ideó para fotografiar 
los espectros, condujo al astrónomo británico  William Huggins (1824 — 1910) y 
su esposa Margaret Lindsay (1848 – 1915) a relevantes descubrimientos. En 1864  
logra la primera evidencia que permite distinguir entre nebulosas y galaxias.  
Huggins descubre que algunos sistemas tienen espectros típicos de gases (como la 
nebulosa de Orión), mientras otros tienen espectros característicos de las 

216
estrellas (galaxia gigante de Andrómeda).  Por otra parte los espectros 
estelares de Huggins demuestran la unidad material del  universo al evidenciar 
que las sustancias que componen las estrellas se encuentran también en la 
Tierra.

Un problema que desborda la imaginación del hombre fue dilucidado por la 
investigación científica justamente en la mitad del siglo XIX. El físico francés 
Jean Bernard Leon Foucault (1819 ­ 1868) registró la velocidad de la luz en 298 
000 km por segundo usando el método del espejo rotatorio. Un año más tarde 
descubrió que la velocidad de la luz depende del medio de propagación al 
encontrar diferencias en el agua y en el aire.

En 1865 Maxwell determina matemáticamente que las ondas electromagnéticas viajan 
a la velocidad de la luz. Maxwell no cree que esto sea una simple coincidencia y 
concluye que la luz es un tipo de ondas electromagnéticas.  Al respecto 
escribiría: "Se nos hace difícil evitar la conclusión de que la luz consiste en 
ondas transversales del mismo medio que causa los fenómenos eléctricos y 
magnéticos".  Esta noción no sólo unifica las teorías sobre la electricidad y el 
magnetismo sino también de la óptica.  La electricidad, el magnetismo  y la luz 
pueden ser consideradas a partir de ahora como aspectos de un fenómeno común: 
las ondas electromagnéticas.

La alianza de la ciencia con la técnica en el nacimiento de  
la   fotografía   se   expresa   en   un   primer   plano   por   las  
contribuciones   de   John   W.   Herschel   (1792   ­   1871)   en   el  
escenario inglés y el apoyo al desarrollo de la técnica en  
Francia   por   el   eminente   físico   François   Arago.   El  
científico británico, publica ya en 1819 sus estudios sobre  
la   impresión   fotoquímica   de   las   imágenes   y   durante   los  
siguientes   20   años   establece   los   fundamentos   científicos,  
los   términos   básicos   de   la   fotografía,   descubre   la   acción  
del tiosulfato de sodio sobre las sales de plata   y   brinda 
valiosa   ayuda   privada   a   Fox   Talbot.   En   París,   Arago   actúa  
como promotor de  los trabajos de Daguerre   tanto   en  la  
Academia   de   Ciencias   como   en   la   Cámara   de   Diputados 
de la capital francesa.

Maxwell también contribuye en el terreno de la práctica al desarrollo de la 
fotografía en colores.   En 1861, su análisis sobre la percepción del color 
condujo a la invención del proceso tricromático.  Mediante el uso de los filtros 
rojo, verde y azul creó la primera fotografía en color.  El proceso tricromático 
es la base moderna de la fotografía en color. 

217
Atrapar la imagen en materiales fotosensibles fue una tarea que tocó a las 
puertas de físicos y químicos y exigió la alianza de la ciencia y la técnica. A 
los 61 años, el físico francés Joseph Nicéphore Niépce (1765­1833) en la París 
de la tercera década del XIX, expone una placa de estaño recubierta con un betún 
(derivado del asfalto) durante unas ocho horas en la cámara obscura enfocada 
hacia el patio de su casa y obtiene la imagen que es considerada por los 
expertos como la primera fotografía obtenida.

Este proceso fue bautizado por Niépce como Heliografía o "grabado con la luz 
solar". Desde otro frente francés, el pintor Louis Jacques Mandé Daguerre (1787­
1851) fijaba la imagen mediante largas exposiciones, en la cámara obscura, con 
placas de cobre recubiertas con plata pulida y sensibilizadas con vapor de yodo 
hasta que la imagen aparecía en ellas.

Mientras en Francia tenían lugar los estudios de Daguerre, en Londres el 
científico William Henry Fox Talbot (1800 ­ 1887) iba por un camino diferente 
hacia el objetivo común.  Se discute si el descubrimiento de la imagen latente y 
posterior revelado es obra de Daguerre o de Talbot, pero se conoce que fue 
Talbot el primero en emplear como sustancia fotosensible el yoduro de plata, 
como revelador el ácido gálico y como fijador el tiosulfato sódico. El calotipo, 
que así le llamó a su técnica, fue reemplazado a los pocos años pero  sentó las 
bases de la fotografía moderna y produjo la más decisiva revolución en el 
dominio de la imagen: el negativo que permite sucesivas copias.

Talbot publicó en 1844  el primer libro ilustrado con fotografías,  "The pencil 
of Nature", el cual  contiene  una detallada explicación de sus trabajos. A 
partir de entonces se desarrolla una carrera de invenciones que persiguen 
emplear medios de fijación más eficaces y que permitieran reducir los tiempos de 
exposición. Cuatro décadas más tarde George Eastman (1854­1932), inventor 
estadounidense,  patentó  la primera película en forma de carrete que empezó a 
ser práctica.  Se habían superados las principales barreras para la inauguración 
de la era fotográfica.

Ya en tiempos de la Grecia antigua se conoció el fenómeno de la persistencia de 
la imagen en la retina. Pero su cabal comprensión sólo fue posible a partir de 
los estudios del físico belga Joseph Antoine Plateau (1801 ­1883).

218
Sesenta y tres años después de la invención del disco mágico  
de Plateau los hermanos Lumière, Louis (1864­1948) y Auguste 
(1862­1954), patentaron el cinematógrafo, un dispositivo que  
funcionaba   como   cámara   de   cine,   proyector   e   impresor   de 
copias. Se cumplía en este ingenio el principio establecido 
por   Plateau:   una   manivela   se   ocupaba   del   arrastre  
intermitente de la película a una velocidad de 16 imágenes  
por segundo. Casi al finalizar el 1895, un 28 de diciembre,  
se   estrenaba   en   París   las   primeras   películas   rodadas   cada  
una   con   un   minuto   de   duración.   La   época   del   séptimo   arte  
había   nacido   y   con   él   una   nueva   industria   generalmente  
dominada por las leyes del mercado.

Plateau no sólo condujo los experimentos demostrativos de los factores 
influyentes en la persistencia retiniana sino que inventó en 1832 un dispositivo 
precursor del cine, el llamado disco mágico de Plateau  que rodando las imágenes 
a una velocidad superior a 10 cuadros por segundo, lograba  dar la impresión de 
animación de las imágenes. Plateau perdió la vista en medio de su consagración a 
los experimentos y no pudo arribar a la  invención del cine. El tremendo impacto 
que tuvieron las primeras proyecciones en el nuevo público espectador anunciaron 
las potencialidades de la nueva técnica naciente. La primera cinta filmada por 
los hermanos Lumiere: "Salida de los obreros de la fábrica Lumière" constituyó 
un importante documento social antecesor de los primeros documentales.

Antecedentes de un nuevo paradigma atómico

Por otra parte, en los últimos 25 años del siglo se producen los antecedentes 
inmediatos para un cambio de paradigma en la concepción del átomo y la 
consiguiente necesidad de la elaboración de un modelo atómico:

∙        En 1879, William  Crookes (1832 – 1919) investigando el paso de la 
electricidad a través de un gas enrarecido en un tubo de descarga, pudo 
descubrir la emisión de un haz de rayos que se propagan en trayectoria 
rectilínea,  a los que llamó rayos catódicos.

∙        Johaann Jakob Balmer (1825 –1898), al estudiar el espectro de 
emisión del Hidrógeno, establece en 1885 que sus líneas espectrales se pueden 
agrupar en series cada una de las cuales converge a una frecuencia dada. Más 
tarde, Rydberg (1854 – 1919) obtiene la ecuación empírica para calcular la 

219
longitud de onda de la luz correspondiente a cada línea espectral en la serie 
de Balmer.

∙        Dos años después de que en 1893 el mundo conociera  asombrado el 
espectáculo de la iluminación eléctrica en la Exposición Mundial de Chicago, 
los resultados de la experimentación con el paso de la electricidad a través 
de un gas enrarecido en un tubo de descarga estremecerían las concepciones 
físicas de la época. Jean Perrin (1870 – 1942), en 1895, al estudiar el 
comportamiento de los rayos catódicos en el tubo de Crookes, cuando se 
exponen a la acción de un campo  magnético, demuestra que constituyen 
partículas cargadas negativamente. Este propio año de 1895 nos trae el 
reporte de Roentgen acerca de una nueva radiación observada en el tubo de 
descarga de Crookes, emitida esta vez por el anticátodo a la cual llamó, ante 
la polémica surgida acerca de su naturaleza corpuscular u ondulatoria, rayos 
X.

El 8 de noviembre de 1895, el físico alemán Wilhelm Conrad  
Roentgen   (1845   –   1923)   descubre   unos   extraños   rayos   que 
exhiben   un   alto   poder   de   penetración.   Ante   el 
desconocimiento de su naturaleza, los llama rayos X, como en  
álgebra se designa a la incógnita. En diciembre él los había  
usado para tomar fotos de los huesos humanos, y al año era 
bien comprendido su extraordinario valor práctico. La rápida 
difusión   de   los   rayos   X   a   través   del   mundo,   demostró   la 
forma   en   que   científicos,   ingenieros,   e   inventores   podrían  
convertir   descubrimientos   fundamentales   en   revolucionarias  
tecnologías en el entrante siglo XX.

Un año después del descubrimiento de Roentgen, Antoine H. Becquerel (1852 – 
1908), físico por herencia,  descubre casualmente que ciertas  sales de 
uranio emiten una radiación invisible. En 1898, a dos años del descubrimiento 
de la radiación de Becquerel, Marie Sklodowska (1867 – 1934)  y Pierre Curie 
(1859 – 1906), al analizar ciertos minerales uránicos descubrieron un metal 
vecino del Bismuto en la Tabla Periódica al cual llamaron, en honor al país 
natal de Marie, Polonio. Otros dos radioelementos serían descubiertos en el 
laboratorio de los Curie antes del fin de siglo: el radio y el actinio. A los 
elementos de núcleos inestables “los transuránicos” le correspondería jugar 
un papel sin precedentes en la historia del hombre: el dominio de la llamada 
energía nuclear.

∙        Al determinar experimentalmente la relación carga –masa de los rayos 
catódicos, Sir Joseph John Thomson, (1856 ­ 1940) demuestra inequívocamente 

220
que se tratan de partículas subatómicas y por consiguiente es universalmente 
reconocido como el científico que descubre e identifica el electrón. Sucesor 
de Maxwell en la dirección  del Laboratorio Cavendish en Cambridge,  Thomson 
recibe el Premio Nóbel de Física en 1906, y archiva el merito de que siete de 
sus investigadores asistentes, incluyendo a su hijo George merecieron 
igualmente este galardón.

Estos hechos experimentales reclamaban la construcción de un modelo atómico. 
Tales modelos aparecieron ya en el siglo XX dando así lugar al nacimiento de la 
Física Atómica y a la Física Nuclear y al dominio por el hombre de inusitadas 
fuentes de energía.

Al siglo XIX pertenece la primera patente sobre un sistema de televisión 
electromecánico. Esta fue obtenida en 1884 por un estudiante de ingeniería, 
alemán, Paul G. Nipkow (1860 –1940). Nipkow imaginó la posibilidad de provocar 
la disección secuencial de una imagen, su transmisión y su recepción sincrónica, 
recomponiéndola en una pantalla. Al hacer esto estaba apuntando hacia el 
principio de exploración de la imagen en el sistema de televisión. Un disco 
rotatorio con un sistema de rendijas que permitía el barrido de la imagen y la 
proyección de las diferentes intensidades de luz sobre un elemento de selenio 
fotosensible capaz de generar una señal eléctrica proporcional a la luminosidad 
del punto explorado, fueron los elementos de la primitiva imagen de 18 líneas 
que lograba. Algo más de un lustro después de la patente de Nipkow, que 
adelantaba el primer sistema de televisión electromecánico, el ingeniero 
eléctrico Alan Archibald Campbell Swinton (1863 – 1930)  expone en la Sociedad 
Roentgen  de Inglaterra un esquema que en principio constituye el sistema de la 
tecnología televisiva actual. Otros 24 años hicieron falta para que la idea de 
Campbell se transformara en el primer sistema mundial de fotografía electrónica.

Doctorado   en   1872   bajo   la   dirección   de   von   Helmholtz,   el  


físico   alemán   Karl   F.   Braun   (1850   –   1918)   es   célebre   por  
inaugurar el estudio de la conductividad de los cristales de 
sulfuros   metálicos   que   más   tarde   se   convertirían   en   los  
detectores de cristal, y en 1897 inventar el tubo de rayos  
catódicos   o   tubo   de   Braun   que   ha   sido   empleado   en   los  
receptores de televisión, los oscilógrafos y los radares. La  
combinación del disco de Nipkow como cámara con el tubo de  
Braun   como   receptor   fue   el   éxito   ya   en   1910   del   primer  
sistema de televisión. En 1909 Braun compartió con Marconi  
el premio Nobel de Física.

221
Vasos comunicantes con la Química

Los vasos comunicantes entre la Física y la Química aparecen casi en cada 
descubrimiento de esta última disciplina. Cuando con el nacimiento del siglo XIX 
el fisico­químico inglés John Dalton (1766 – 1844) publicara su obra “Nuevo 
sistema de filosofía química” defendía un modelo de átomo como partícula 
indivisible en las reacciones químicas que parece un retorno a las ideas de los 
atomistas griegos pero que sitúa en su centro a la masa newtoniana como la 
propiedad distintiva de los átomos. A partir de este momento, las diferencias 
observadas en las propiedades de los elementos se pretenden relacionar con el 
peso atómico.

A los avances en el dominio de la electricidad, corresponde el nacimiento de la 
electroquímica, el desarrollo de técnicas electrolíticas que permiten el 
descubrimiento de nuevos elementos, y la invención de dispositivos que 
aprovechan la energía química para la generación de electricidad.  Como 
resultados de los adelantos en el campo de la óptica y la producción de nuevos 
instrumentos ópticos, aparecen las técnicas analíticas espectroscópicas que 
permiten determinar la composición de gases y minerales. Los progresos en el 
terreno de la termodinámica determinan la comprensión y el gobierno de los 
procesos químicos.

En 1804 el profesor de Física de la Sorbona Joseph L. Gay­Lussac (1778 ­1850) 
incursionó en la tradición francesa de los vuelos en  globos para estudiar la 
composición y temperatura del aire a diferentes altitudes. Cinco años después, 
Gay­Lussac enunció la ley de los volúmenes de combinación de los gases. Hacia 
1811, el físico italiano Amadeo Avogadro (1776 ­ 1856) sugirió que volúmenes 
iguales de cualquier gas a la misma temperatura y presión contienen el mismo 
número de partículas, postulado que pasa a la Historia como "Ley de Avogadro".  
La combinación de la noción de molécula y esta hipótesis explicaba perfectamente 
la ley de los volúmenes de combinación. Sin embargo no fue hasta el Congreso de 
Karlsruhe, ya desaparecido Avogadro,  que Stanislao Cannizaro (1826 
­1910) demuestra la importancia de sus conceptos para obtener no sólo las masas 
moleculares, sino también indirectamente las masas atómicas.

Nacen   las   ideas   atomistas   en   el   campo   de   la   reflexión  


filosófica   de   los   griegos.   Renacen   en   el   siglo   XVII   con   la  
hipótesis mecanicista de Descartes. Cristalizan en el   XIX en 
el   ámbito   de   la   Química   con   los   postulados   de   Dalton   para  
explicar  las  reacciones  entre  las  sustancias,   y  penetran  ya 
en las postrimerías del propio siglo XIX en el  universo de la 
Física,   al  descubrir,  en  los  experimentos  conducidos  con  los  

222
tubos de descarga, los rayos catódicos. Comienza   entonces un 
período   de   crisis   de   la   Física   que   da   pie   a   la   Revolución 
Científica del XX. 

La necesidad de explicar en virtud de qué tipo de fuerzas se enlazan los átomos 
se erige en problema, y entre los primeros intentos por aclarar este enigma se 
destaca la teoría electroquímica creada por el químico sueco Jons J. Berzelius 
(1779 – 1848) en momento tan temprano como el 1810.  Su original hipótesis 
considera que cada átomo tiene dos polos de signos contrarios, pero predomina 
uno. Así clasificaba a los elementos como electropositivos o electronegativos 
según predominara el polo positivo o negativo del átomo. Siguiendo su hipótesis 
la fuerza atractiva entre los átomos enlazados era un resultado de la atracción 
entre los polos predominantes de cada átomo. El período de vida de tal teoría, a 
pesar de sus interesantes bases, fue relativamente fugaz al no poder explicar la 
existencia de las agrupaciones atómicas (moléculas) estables constituidas por 
átomos de igual naturaleza (concebidas por Avogadro) y por tanto de la misma 
predominante polaridad.

Dos factores contribuyeron de forma decisiva al vertiginoso descubrimiento de 
nuevos elementos químicos que acompañó al siglo XIX: la aplicación de la pila 
voltaica y los ingenios que se inventaron posteriormente para conducir la 
descomposición de las sustancias; y la introducción de las técnicas espectrales 
al análisis de muestras de minerales tratadas convenientemente.

La Antigüedad reconoció siete elementos metálicos (oro, plata, hierro, cobre, 
estaño, plomo y mercurio) y dos no metales (carbono y azufre); el esfuerzo de la 
alquimia medieval sumó el conocimiento de otros cinco (arsénico, antimonio, 
bismuto, cadmio, zinc y fósforo); y el siglo XVIII, con el estudio de los gases 
dejó como fruto el descubrimiento de cinco nuevos elementos (hidrógeno, flúor, 
cloro, nitrógeno y oxígeno) mientras el análisis de minerales aportaba la 
identificación de 14 elementos, trece de ellos metales típicos y un semimetal, 
(cobalto, platino, níquel, magnesio, manganeso, tungsteno, molibdeno, uranio, 
zirconio, titanio, ytrio, berilio, cromo y teluro). En total a las puertas del 
siglo XIX eran conocidos 35 elementos químicos, una década después del 
descubrimiento de Mendeleiev hacia 1880, se había duplicado el número de 
elementos químicos conocidos. Ochenta años de actividad científica habían 
igualado más de seis milenios de práctica humana.

En la década del 30 el químico y meteorólogo británico John Frederic Daniell 
(1790 ­ 1845) se sintió profundamente interesado en los trabajos de su amigo 
Faraday y giró el centro de su actividad hacia la Electroquímica. Los 
experimentos de Daniell por mejorar la batería de Volta con sus problemas de dar 

223
una inestable y débil fuente de corriente datan de 1835. Un año después el 
inventó una celda primaria en la cual el  dihidrógeno fue eliminado en la 
generación de electricidad y por tanto había resuelto el problema de la 
polarización. Hacia fines de esta década la pila de Daniel era usada para 
alimentar de energía  los nacientes sistemas telegráficos de Gran Bretaña y los 
Estados Unidos.

El   mérito   de   haber   iniciado   la   aplicación   del   invento   de  


Volta a la a electrodescomposición de las sustancias químicas  
correspondió a Sir Humphry Davy (1788   –1829), quien llegó a 
presidir   en   1820   la   Sociedad   Real   londinense.   Entre   sus 
notables   hallazgos   Davy   archiva   el   descubrimiento   de   5 
metales activos en dos años.   Cinco fueron precisamente los  
elementos descubiertos en siglos por la Alquimia Medieval. La 
historia reconoce que Davy no pudo escapar del sentimiento de  
envidia   hacia   su   discípulo   Faraday   e   intentó   bloquear   su  
entrada   en  la   Royal   Society.   No   siempre   los   científicos  
han   dado   muestras   del   altruismo   que   debe   caracterizar   las  
relaciones entre las personas.

La primera pila secundaria o acumulador es inventada en 1859 por el físico 
francés Gastón Planté (1834 ­ 1889). Este invento puede ser considerado una de 
las grandes contribuciones de la química al desarrollo de los móviles 
terrestres. Cuando entre  1885 y 1887 ingenieros alemanes  fabricaron los 
primeros automóviles de gasolina eficaces, disponían ya de los acumuladores para 
generar la corriente eléctrica necesaria.

Hacia la mitad del siglo se configuran otros enfoques de los estudios 
estructurales que esquivando el problema de la naturaleza de las fuerzas 
químicas elaboran importantes conceptos como el de la valencia y  la isomería 
estructural  de las sustancias orgánicas en un esfuerzo por aclarar la forma en 
que se enlazan los átomos en la estructura particular de la sustancia y edificar 
un sistema de símbolos y notaciones que permitieran una comunicación universal.

La línea de pensamiento defendida por el químico británico Edward Frankland 
(1825 ­1899) admite como posible la determinación de la estructura de las 
moléculas e introduce el concepto de valencia como pieza clave para cumplir esta 
tarea. La valencia vendría a expresar la capacidad de un átomo de formar 
compuestos con un número dado de átomos de otro elemento. Tomada la valencia del 
hidrógeno igual a la unidad, se puede considerar que la valencia de otros 
elementos está dada por el número de átomos de hidrógeno que se unan al átomo 
del elemento dado.

224
El desarrollo ulterior de las ideas de Frankland tienen como principales 
protagonistas a quien fue a la Universidad de Giessen a titularse de arquitecto 
y terminó, cautivado por Liebig,  convertido en arquitecto de las moléculas 
orgánicas, el químico alemán de descendencia checa  August Kekulé von Stradonitz 
(1829 ­1896) y al académico ruso Alexander Mijailovich Butlerov (1828­1886). En 
1862 arribó al laboratorio de Kekulé el profesor de la Universidad de Kazán con 
sus ideas acerca de la orientación  tetraédrica de los enlaces de los átomos de 
carbono. La integración de los supuestos de ambos investigadores conducen a las 
principios siguientes: la unión de los átomos ocurre en correspondencia con su 
valencia; los átomos se enlazan en la molécula en un orden determinado; las 
propiedades de las sustancias dependen no sólo de la naturaleza y cantidad de 
los átomos que la constituyen sino del orden y disposición en que estos se unen, 
es decir de la estructura molecular.

Al inicio de los setenta, el físico­químico holandés Jacobus 
Henricus   van't   Hoff   (1852–1911)   trabajó   en   Bonn   durante   un  
año   con   Kekulé   y   se   informó   del   repertorio   de   nociones   que  
sobre   el   enlace   habían   desarrollado   de   manera   independiente  
su tutor y Butlerov. En 1873 van't Hoff se trasladó a París a  
trabajar   en   el   laboratorio   de   Charles   Adolphe   Wurtz   (1817­
1884)   y   allí   se   dio   cuenta   de   que   la   actividad   óptica  
observada   por   determinadas   sustancias   orgánicas,  
descubrimiento realizado por Pasteur (1822 – 1895), podía ser 
explicada   en   términos   de   la   orientación   tetraédrica   de   las  
valencias   del   carbono.   Otro   graduado   que   trabajaba   en   el  
laboratorio de Wurtz, el francés Joseph Achille Le Bel (1847  
­ 1930), de forma independiente arribó a la misma explicación 
de la actividad óptica. Un trascendental paso se había dado  
al aceptar la posibilidad de penetrar en la estructura de las  
moléculas   para   explicar   sus   propiedades   sobre   la   base   de  
reflejar no una estructura hipotética sino una estructura con 
realidad   física. La   temprana   aplicación   que   hace   van't   Hoff 
de   la   termodinámica   y   de   la   cinética   a   las   reacciones  
químicas,   lo   convierten   en   uno   de   los   padres   de   la   Física­
Química. Inaugura en 1901 la selección de la Academia Nobel  
recibiendo el Premio de Química.

Un cambio de paradigma en el estudio sistemático de las propiedades de los 
elementos químicos fue dado por el descubrimiento de la Ley Periódica de los 
elementos químicos. En 1869, el químico ruso Dimitri  Mendeleiev (1834 – 1907)  
defendió la tesis de que una variación regular en las propiedades de los 

225
elementos químicos se podía observar si estos se ordenaban en un orden creciente 
de los pesos atómicos. La  edificación  de  la  tabla  periódica de  Mendeleiev 
no solo dio lugar a  la  clasificación  de los  elementos  químicos en familias 
o grupos sino que posibilitó la predicción de la existencia de elementos 
químicos aún no descubiertos y de las propiedades que estos debían exhibir. La 
sorprendente correspondencia entre estas predicciones y los descubrimientos de 
nuevos elementos que se producirían en los años subsiguientes demostró la 
validez de la ley periódica. Por estas aportaciones Mendeleiev es muy recordado 
pero es menos reconocido por su postura antizarista que lo lleva ya con 56 años 
a la renuncia a su cargo de catedrático universitario.

Un par de violaciones en la Ley Periódica de Mendeleiev y el descubrimiento de 
una nueva familia de elementos que se había mantenido oculta a la búsqueda de 
los químicos vendría a demostrar el carácter temporal de esta ley que debía ser 
sometida a reformulación en las décadas próximas. Los gases nobles aparecieron 
en escena gracias a los trabajos del físico John William Strutt Rayleigh (1842­
1919), y el químico Willliam Ramsay (1852­1916) cuando descubren que un gas 
inerte de masa atómica 40 constituye el 0,93% de la atmósfera. En 1894 se 
produce el anuncio del nuevo elemento que no encaja en los grupos de la Tabla 
Periódica de la época y que recibe el nombre de Argón (del griego: argos, 
inactivo). Cuatro años después los trabajos de Ramsay acusan la existencia de 
otros tres gases inertes: neón, criptón y xenón.

El mérito de relacionar, en un cuerpo teórico coherente, las tres magnitudes que 
caracterizan termodinámicamente un proceso químico: la variación de energía 
libre, la variación de entalpía y la variación de entropía corresponde a Josiah 
Gibbs (1839 – 1910). A partir de sus trabajos publicados en la década de los 
setenta la Termodinámica se convierte en una disciplina de capacidad predictiva 
para evaluar la tendencia de una reacción a verificarse en una dirección dada. 
En otras palabras, la reversibilidad del fenómeno químico a partir de entonces 
comienza a tratarse en términos cuantitativos. 

Gibbs es reclamado como matemático por sus aportaciones al análisis vectorial, 
físico por su  interpretación estadística de los fenómenos termodinámicos y 
químico por considerarse  fundador de la Termodinámica Química. Nació y murió en 
su Connecticut y publicó  en lo que hoy llamaríamos una revista de poca 
visibilidad. Por esta razón, sus trabajos sólo fueron conocidos en la Europa, 
centro de las Ciencias en la época, una década más tarde.

226
Los   primeros   elementos   de   una   teoría   que   explicara   los  
fenómenos electrolíticos van a ser desarrollados en 1884 por 
el   físico­químico   sueco   Svante   August   Arrhenius   (1859   –  
1927).   Esta   teoría   marca   el   inicio   de   una   nueva   rama   del  
saber químico: la Electroquímica. Sin embargo, las bases de 
esta teoría fueron defendidas en su tesis doctoral y mereció 
la   mínima   calificación   por   parte   del   Tribunal   al   que  
correspondió evaluarla. Un ulterior desarrollo de estas ideas  
le valió para que la Historia lo reconozca como uno de los  
pioneros de la Electroquímica. La Academia Nobel le confirió 
el   premio   de   Química   en   1903.   En   otro   orden   de   cosas,  
Arrhenius fue uno de los primeros en desarrollar la polémica 
hipótesis   conocida   como   Panspermia.   Según   esta   teoría,   la  
vida   fue   introducida   en   nuestro   planeta   desde   lejanos 
confines   del   universo   en   forma   de   microorganismos 
transportados en meteoritos.

Una sorprendente relación entre materiales de atractivas propiedades físico – 
mecánicas, explosivos y medicamentos fue encontrada en el siglo XIX por 
investigadores que iniciaron una revolución en la ciencia de los materiales y 
por otra inauguraron una nueva época de la industria de los explosivos, aliada 
de la construcción y lamentablemente de la guerra.

La invención de la primera materia plástica del mundo se debió al joven 
estadounidense John Hyatt (1837 –1920) quien sin ninguna preparación en Química 
logra en 1865 producir  mediante  el  tratamiento  con  calor y  presión de una 
mezcla de nitrocelulosa (sustancia explosiva), alcanfor y alcohol, un nuevo 
material llamado celuloide. Nacían los objetos plásticos y traían, junto a las 
propiedades atractivas de estas sustancias, un imperdonable defecto: la vida 
oculta de la nitrocelulosa le hacía ser inflamable e incluso podían estallar. 
Mejorar las propiedades de estos materiales parecía una tarea del orden del día, 
pues entre otros objetivos de la época se imponía la obtención de nuevos 
materiales para grabar imágenes y sonidos.

La investigación de los explosivos nacía aliada a fines bélicos con la 
utilización del algodón pólvora inventado por el químico alemán Schonbein (1799 
– 1868) en 1846. En 1847 el italiano Ascanio Sobrero (1812 ­ 1888) descubre la 
nitroglicerina sustancia que combina propiedades terapéuticas y explosivas. La 
nitroglicerina era sorprendente pues no había que encenderla para que explotara 
sino que estallaba sólo por percusión. Respecto a su descubrimiento Sobrero 
sentenció: "cuando pienso en todas las víctimas de las explosiones de la 

227
nitroglicerina, y el estrago terrible que ha sido causado, que con toda 
probabilidad continuará ocurriendo en el futuro, me siento casi avergonzado de 
admitir haber sido su descubridor."

Nobel  consagró su vida al estudio de los explosivos y fue el  
inventor de toda una nueva generación de explosivos nitrados 
orgánicos.     Tales explosivos resultaron responsables   de la 
muerte de muchos en los campos de batalla y   permitieron al 
constructor abrir pasos, túneles y yacimientos. Una parte del 
inmenso   capital amasado por sus invenciones fue legado para  
la instauración de los célebres premios Nóbel. En su herencia 
deja   constancia   "es   mi  deseo   expreso   que   en   la   concesión de 
los   premios   ganadores   ninguna   consideración   tenga   la 
nacionalidad de los candidatos...”

Cuando nos proponemos encontrar  los enlaces  entre la Física,  


la Química y la Biología se erigen como ejemplos las figuras  
del   físico   francés   Pierre   Curie   (1859   –   1906)   y   Marie  
Sklodowska (1867 – 1934). Sus descubrimientos, a fines de este  
siglo   del   Polonio   y   del   Radio   se   desarrollaron   en 
instalaciones   precarias   que   exigieron   de   titánicos   esfuerzos 
pero   años   más   tarde   el  Laboratorio   Curie   se  convirtió   en   un  
modelo   de   institución   científica   moderna   que   actuaba   como 
centro de una red estrechamente vinculada con la industria   y 
la medicina, que  evaluaba  todas las posibilidades del empleo  
de las radiaciones con fines prácticos.

Resonancias en la Biología

En este siglo continúan manifestándose, aunque aún débilmente, los trabajos en 
que la Física y la Biología convergen o en que la física aporta instrumentos y 
visiones para comprender el mundo de los seres vivos. Serían impensables los 
trabajos fundacionales de Schleiden y Schwann, Pasteur, Koch o de Fleming sin 
los adelantos en el campo de la óptica, concretamente en el área de la 
microscopía. Dedicaremos por consiguiente apenas unos párrafos a describir los 
logros más sobresalientes de la Biología relacionados con los progresos de los 
ámbitos de la Física.

El aislamiento del bacilo del carbunco por parte del médico alemán Robert Koch 
(1843­1910) en 1876 constituyó un hito histórico, ya que por primera vez pudo 
demostrarse sin duda cuál era el agente causante de una enfermedad infecciosa. 

228
Quedó claro que las enfermedades infecciosas no estaban causadas por sustancias 
misteriosas, sino por microorganismos específicos, en este caso bacterias. Koch, 
galardonado con el premio Nobel, aisló varias bacterias patógenas, incluida la 
de la tuberculosis, y descubrió los vectores animales de transmisión de una 
serie de enfermedades importantes. Se inaugura una nueva ciencia: la 
bacteriología al tiempo que la práctica médica inicia una verdadera revolución. 
En el laboratorio donde se gestó el descubrimiento del bacilo de la 
tuberculosis, Paul Ehrlich (1854 – 1915) contrajo la enfermedad y se curó 
mediante la terapia desarrollada precisamente por Koch. Ehrlich inició sus 
trabajos en el campo de la quimioterapia determinando la selectividad de las 
sustancias colorantes por células y tejidos específicos para luego evaluar sus 
posibles propiedades terapéuticas sobre microbios patógenos.

Cuando en 1865, Pasteur expone su teoría de los germénes como agentes causales 
de las enfermedades infecciosas, el médico británico Joseph Lister (1827 ­1912) 
se desempeñaba como cirujano de la Enfermería Real de Glasgow, y conocía que el 
45 ­50% de las amputaciones que practicaba terminaban en la muerte como 
resultado de la sepsis de las heridas. La visión de Pasteur le hizo considerar 
que los microbios en el aire eran la causa de la putrefacción en las heridas. 
 Para 1869,  Lister había inventado un spray de ácido carbólico (hoy llamado 
fenol) cuya disolución actuaba como desinfectante. A pesar de cierta oposición 
inicial, sus demostraciones públicas convencieron a la comunidad de cirujanos de 
la importancia de aplicar sus métodos. Hacia 1878, Koch demostraba la utilidad 
de tratar con vapor los instrumentos quirúrgicos. En 1891, abrió las puertas en 
Londres, el primer Instituto de Medicina Preventiva.

La actividad científica del científico francés Louis Pasteur  
(1822 – 1895) quien recibió la calificación de mediocre en su  
Tesis de Grado, cubre más de tres décadas de la segunda mitad  
del   siglo   y   es   gestora   de   nuevos   ámbitos   del   conocimiento  
científico. En sus investigaciones sobre el carbunco descubre  
el poder antibiótico de algunas bacterias saprofíticas sobre  
el bacilo, lo que constituye el primer antecedente de la era  
de los antibióticos, y llega a desarrollar en 1881 una vacuna  
eficaz para prevenir la enfermedad. Pronto se inscribiría en  
el   orden   del   día   histórico   las   investigaciones   sobre   los  
antibióticos.
Los problemas socioeconómicos de un contexto, el desarrollo  
de  la   época   y  el   talento   de  Pasteur   constituyeron   fuerzas  
motrices para desatar un complejo proceso que representa la  
etapa fundacional de una nueva ciencia: la microbiología.

229
La teoría edificada en 1838 ­ 1839 por el botánico Matthias Jakob Schleiden 
(1804 – 1881) y el fisiólogo Theodor Schwann (1810 – 1882) que reconoce la 
célula como unidad de estructura y función de los organismos vivos constituyó un 
estímulo para el asalto a la composición química de las sustancias contenidas en 
las estructuras celulares. Schwann es considerado fundador de la histología 
moderna y pionero en aplicar la teoría celular a la evolución,  mientras que su 
colega Schleiden es reconocido como el padre de la embriología. Sus trabajos 
contribuyeron a unificar la botánica y la zoología bajo una teoría común. Sin 
embargo, el nuevo método propuesto por Scheleiden para estudiar la estructura de 
las plantas a través del microscopio fue desestimado por sus contemporáneos 
empeñados aún en la clasificación tradicional.

Décadas más tarde se iniciarían los esfuerzos para descifrar la base molecular 
de los misterios de la vida en la estructura celular. En 1868, el químico suizo 
Johann Friedrich Miescher (1844­1895) descubre en el núcleo de las células de 
los glóbulos blancos, una sustancia de naturaleza ácida,  rica en fósforo y 
nitrógeno, compuesta por moléculas muy grandes, a la que nombra nucleína.  En 
1889 el patólogo alemán Richard Altmann (1852 –1900), discípulo de Miescher,  
lograba separar por vez primera las proteínas de la “nucleína”, llamando a la 
otra sustancia ácido nucleico. Se iniciaban con Miescher las investigaciones 
sobre la base molecular de la herencia, en un lugar cercano a dónde el monje 
checo Gregor Mendel (1822 – 1884) había formulado sus famosas leyes empíricas 
sobre los factores hereditarios. Se ha afirmado que Miescher en correspondencia 
fechada en 1892, comenta que la nucleína era una molécula muy compleja, cuya 
isomería podía proporcionar un número suficiente de moléculas, portadoras de 
innumerables características hereditarias. En una analogía que hoy causa asombro 
apunta que esta multiplicidad estructural podía compararse con la variedad de un 
idioma que encuentra como expresión la combinación de una veintena de 
letras. Semejante símil no entró en el repertorio de ideas de las ciencias hasta 
que más de medio siglo después el premio Nobel de Física, Erwin Schrödinger 
(1887­1961) introdujera el concepto de código genético.

Medio siglo después de la publicación de la teoría celular 
el eminente científico español Santiago Ramón y Cajal (1852­
1934)  descubre, durante su período de ejercicio catedrático  
en la Universidad de Barcelona, la estructura de las células  
nerviosas   y   anticipa   los   mecanismos   de   la   transmisión   de  
los impulsos nerviosos.  En 1906 comparte el Premio Nobel de  
Medicina   con   el   citólogo   italiano   Camillo   Golgi   (1844   ­  
1926).

230
La   vida   de   Cajal   se   relaciona   con   Cuba   de   manera   trágica.  
Enrolado   en   el   servicio   médico   militar   viene   a   la   isla   en  
una   expedición   en   1874­1875,   cuando   se   libraba   la   primera  
gesta de independencia conocida por la "Guerra de los Diez 
Años". En   los   campos   de   la   Cuba   Insurrecta   enferma   de 
malaria,  disentería  y  finalmente  de  la  tuberculosis  que  lo  
hiciera padecer toda su vida.

Cuando en 1866 sale de imprenta el Boletín de la Sociedad de Ciencias Naturales 
de Brno con el artículo “Experimentos con plantas híbridas”, firmado por el 
monje checo Gregor Mendel (1822 – 1884), quedaban establecidas las primeras 
leyes que explican el mecanismo por el cual las características de los 
progenitores se transmiten a sus descendientes. Sus experimentos constituyen un 
ejemplo de la traslación a las ciencias biológicas del paradigma de las 
investigaciones cuantitativas de las ciencias físicas.  De la aplicación de la 
estadística a los resultados experimentales obtenidos en el cruzamiento de 
plantas,  Mendel deduce que cada uno de los caracteres del organismo está 
determinado por un par de “factores”, que son aportados uno por cada progenitor. 
Estas “unidades hereditarias” no se mezclan, sino se transmiten con toda la 
información sólo que uno de los factores resulta dominante sobre el otro. Pero 
el acto fundacional de la Genética no fue “registrado” por la Comunidad 
Científica hasta principios del siglo XX. 

Con el teñido de las células por los colorantes derivados de la anilina  
sintetizados en el verano de 1856 por el químico británico William Perkin (1838 
– 1907), el médico alemán Walter Flemming (1843 – 1905)  pudo observar al 
microscopio la existencia en el núcleo de estructuras en forma cambiantes, que 
absorbían fuertemente el colorante, a las cuales nombró cromatina. Lo más 
trascendente de su hallazgo fue revelar en 1884 que durante la mitosis celular 
tales estructuras adoptan forma de cintas y se dividen longitudinalmente en dos 
mitades idénticas. Se ofrecía el primer resultado experimental que acusaba la 
existencia de estructuras en el núcleo que se segregaban en pares a las células 
hijas durante la división celular. Especialmente útil habría sido para Fleming 
haber contado con los resultados de Mendel y relacionar sus factores con las 
mitades de las estructuras en cintas pero esta posibilidad no fue dada entonces 
por la historia. Tocaba a las puertas del conocimiento humano la teoría 
cromosómica de la herencia.

En tanto Cajal se encuentra estudiando la fisiología de las neuronas, el 
científico ruso Ivan Pavlov (1849 ­1936) descubre los reflejos condicionados y 
desarrolla nuevos métodos que suponen una revolución en las investigaciones 

231
fisiológicas  durante  el período de 1891 ­ 1900. Conduciendo los experimentos 
con el uso extensivo de fístulas que permitieron observar directamente el 
funcionamiento de los órganos bajo condiciones relativamente normales, Pavlov 
demostró que el sistema nervioso juega un  rol dominante en el proceso digestivo 
y este descubrimiento es la base de la moderna fisiología de la digestión.  
Mereció por este descubrimiento en 1904 el Premio Nobel de Medicina y 
Fisiología.

En la naciente tradición de la biofísica destaca la obra del  
físico alemán Herman von Helmholtz (1821 ­ 1894). Helmholtz  
representa   el   investigador   incansable,   capaz   de   estudiar  
cuantitativamente   el   fenómeno   del   calor   animal,   y   las  
fuerzas   eléctricas   asociadas   al   movimiento   muscular.   Su 
penetración en la fisiología de la visión se tradujo en la  
más   importante   obra   que   se   conoce   sobre   este   campo   ­ 
"Physiological Optics", y en la invención del oftalmoscopio,  
instrumento de inestimable valor en medicina.
En su vida personal conoce la muerte de su primera esposa y 
de   su   único   hijo   varón.   Helmholtz   fallece   a   los   73   años,  
cuando se mantenía como profesor de Física de la Universidad  
de   Berlín   y   ocupaba   el   cargo   de   director   del   Instituto  
Físico­ Técnico de Charlottenburgo, cerca de Berlín. Es uno  
de los primeros biofísicos de la Historia.

Al correr las cortinas del siglo XIX el avance de las Ciencias Físicas podía 
calificarse de colosal.

El desarrollo del instrumental matemático permitió la formalización de la 
Termodinámica Estadística y la Teoría Electromagnética, y va a cimentar el 
despegue en la próxima centuria de la Informatización y de la Mecánica Cuántica.

La Física siguió promoviendo el desarrollo de otras ciencias. Las zonas de 
interpenetración continuaron ensanchándose y ya a fines de siglo la Física – 
Química exhibía notables adelantos como corpus de conocimientos, se consolidaba 
como área de trabajo de personalidades e instituciones y fomentaba numerosos 
progresos en el orden práctico.  El paradigma atómico en el ámbito químico 
sienta las bases teóricas que iluminan  la aparición de los primeros productos 
sintéticos y de una nueva industria que persigue superar las cualidades de los 
productos naturales. El dominio de la electricidad empujó el descubrimiento de 
más elementos químicos en unas décadas que en todo la práctica humana anterior. 
Los avances en la espectroscopia y en óptica permitieron una nueva mirada hacia 

232
el cosmos y descubrieron la composición de estrellas, galaxias y nebulosas, 
demostrando la unidad material del universo.

En la incursión hacia el mundo microscópico la Física fue una aliada estratégica 
de la Biología aportando instrumentos y visiones para comprender los procesos de 
los seres vivos. El asalto a la composición y estructura de importantes 
biomoléculas hacia fines del siglo pronosticaba la conquista de los misterios de 
la vida como tarea integradora de las ciencias del siglo XX.

En su relación con la práctica y la innovación tecnológica, la Termodinámica 
ofreció los fundamentos de los sistemas llamados máquinas térmicas y de los 
mecanismos de refrigeración; pero lo más trascendente del siglo serían los 
avances en la Teoría Electromagnética que trajo una nueva concepción del cuadro 
físico del mundo y posibilitó una lluvia de inventos eléctricos que 
transfiguraron la comunicación y la existencia humana.

Del lado de la técnica el siglo iba a decir adiós con una explosión de 
invenciones jamás conocida por una generación de la especie humana: se había 
logrado la impresión fotoquímica de la imagen y abierto paso a una nueva técnica 
­ arte, la fotografía; el registro de la voz humana y de la música en un disco 
permitía oír a un Caruso sin haber asistido a sus conciertos; la producción y 
transmisión de la energía eléctrica hasta hogares y fábricas había puesto al 
servicio del hombre una nueva fuerza motriz, y una iluminación artificial que 
transformaba la vida nocturna de las grandes urbes nacientes; la revolución en 
el transporte marítimo y terrestre daría una velocidad de movimiento al hombre 
que abreviaría las distancias y creara una nueva dimensión del tiempo... Pero 
las fotos pronto iban a ganar celebridad por grabar los horrores de la Guerra de 
Secesión de los Estados Unidos, carruajes y navíos pronto serían artillados y 
puestos al servicio de la tecnología bélica; nuevos códigos dentro de los 
sistemas de comunicación pretenderían hacer indescifrables los mensajes que los 
nuevos servicios de las comunicaciones brindaban a los estados mayores, y una 
demencial carrera bajo la sombra del espectro de la guerra acompañaba al hombre 
como reflejo de poderosos intereses económicos que se encubrían en otras razones 
aparentemente más nobles. Una irracional distribución de las riquezas del 
planeta acumulaba bienes hacia un polo a costa del despojo de los otros...

233
Justamente   dos   siglos   después   de   la   publicación   de   los  
Principia de Newton, en 1887 surge la necesidad de revisar la  
validez   universal   de   la   Mecánica   Clásica.   La   primera 
hipótesis   correctora   aparece   en   boca   del   brillante   físico 
holandés,   profesor   de   la   Universidad   de   Leiden,   Hendrik  
Antoon   Lorentz   (1853­1928)   y   del   físico   irlandés   George  
Francis   FitzGerald   (1851   –   1901)   postulando   que   cuando   un  
objeto se mueve a velocidades próximas a la velocidad de la  
luz se produce una contracción de su longitud. Para móviles 
terrestres   animados   de   velocidades   muy   pequeñas   en  
comparación con la velocidad de la luz esta hipótesis carece  
de   de   significación   pero   para   fenómenos   astronómicos   las 
correcciones relativistas adquieren importancia. La evolución  
de   las   ideas   de   Lorentz,   ya   a   principios   del   siglo   XX,   le 
permite   deducir   la   transformación   de   las   coordenadas   del 
espacio   y   del   tiempo   «transformación   lorentziana».  
Corresponde al físico holandés el mérito histórico de iniciar  
el proceso de reevaluación de los límites de aplicación de la  
Mecánica   Clásica,   tarea   a   la   cual   consagra   su   actividad   el  
genio alemán Albert Einstein.

BIBLIOGRAFÍA

Alba Andrade Fernando (1997): El desarrollo de la Tecnología. La aportación de 
la Física. Fondo de Cultura económica. México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/23/htm/desarro.htm

Auer Georg (2006):  European Automotive Hall of Fame. Automotive news Europe.

Karl Benz. A genius whose three­wheeler is seen as the first car.

http://www.autonews.com/files/euroauto/inductees/benz.htm

Rudolf Diesel. Renaissance man set the automobile industry on fire.  

http://www.autonews.com/files/euroauto/inductees/diesel.htm

Nicolaus A. Otto The foundation of modern engine.

http://www.autonews.com/files/euroauto/inductees/otto2002.htm

Ausejo E., Hormigón M (2002): Historia de las Ciencias y las Técnicas. 
Cronología. Universidad de Zaragoza. http://www.campus­
oei.org/salactsi/historia.htm

234
Bennet Clark (2005): Julius Robert von Mayer. Founding Fathers of Relativity.  

University of South Dakota.

http://www.usd.edu/phys/courses/phys300/gallery/clark/vonmayer.html

Bertomeu, José R. (2001): Historia de la Química. Universidad de Valencia.

http://www.uv.es/~bertomeu/ 

Bowden Mary Ellen (2005): Chemical Achievers: The human Face of the Chemical 
Science. Chemical Heritage Foundation. 

Archibald Scott Couper and August Kekulé von Stradonitz

http://www.chemheritage.org/classroom/chemach/chemsynthesis/couper­kekule.html

The Path to the Periodic Table

Amadeo Avogadro

http://www.chemheritage.org/classroom/chemach/periodic/avogadro.html

Stanislao Cannizaro

http://www.chemheritage.org/classroom/chemach/periodic/cannizzaro.html

John Dalton

http://www.chemheritage.org/classroom/chemach/periodic/dalton.html

Theory and production of gases

Joseph L. Gay­Lussac

http://www.chemheritage.org/classroom/chemach/gases/gay­lussac.html

Alfred Nobel

http://www.chemheritage.org/classroom/chemach/gases/nobel.html

Bradshaw Gary (2002): Airplanes Inventors. Otto Lilienthal. The Wright House. 
University of Maryland.

http://www.wam.umd.edu/~stwright/WrBr/inventors/Lilienthal.html

Braun Eliezer (1992): Electromagnetismo de la Ciencia a la Tecnología. Fondo de 
Cultura Económica. México.

VI. Campo eléctrico y campo magnético. VII El electroimán, motores y 
generadores de electricidad. VIII. El telégrafo. IX Desarrollo de las máquinas 

235
eléctricas. X La iluminación eléctrica. XI El transformador. XIV Maxwell, la 
síntesis del electromagnetismo…XV Hertz . Ondas electromagnéticas.

Bulbulian S. (1996): 1 El descubrimiento de la radiactividad. La Radiactividad. 
Fondo de Cultura Económica. México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/42/htm/radiacti.ht
m

Campbell L, Garnett W. (1882): The life of James Clerk Maxwell. Mac Millan and 
Co. London. 1997 Sonnet Software, Inc. 
http://www.hrshowcase.com/maxwell/directory.html

Carmona G. et al (1995): Michael Faraday: un genio de la Física 
experimental. Fondo de la Cultura Económica. México. 
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/136/htm/faraday.ht
m

California Energy Commission (2002): A Gallery of Energy Pioneers.

http://www.energyquest.ca.gov/scientists/

John Frederic Daniell

http://www.energyquest.ca.gov/scientists/daniell.html

Edwin Laurentine Drake

http://www.energyquest.ca.gov/scientists/drake.html

Davidson Michael W. (2003): Pioneers in Optics.  Timeline in Optics. Florida 
State University.

http://micro.magnet.fsu.edu/optics/timeline/people/index.html

Ernest Abbe

micro.magnet.fsu.edu/optics/timeline/people/abbe.html

Giovanni Baptiste Amici

micro.magnet.fsu.edu/optics/timeline/people/amici.html

Jean Bernard Leon Foucault

micro.magnet.fsu.edu/optics/timeline/people/foucault.html

John Herschel

micro.magnet.fsu.edu/optics/timeline/people/jherschel.html 

236
William Henry Fox Talbot

micro.magnet.fsu.edu/optics/timeline/people/talbot.html

Díaz Pazos Patricio (2002): Biografías. A Horcajadas en el Tiempo.

Thomas Young. http://www.astrocosmo.cl/biografi/b­t_young.htm

William Herschel http://www.astrocosmo.cl/biografi/b­w_herschel.htm

William Thomson (Lord Kelvin) http://www.astrocosmo.cl/biografi/b­w_thomson.htm

Carl Friedrich Gauss.http://www.astrocosmo.cl/biografi/b­c_gauss.htm

Hans Christian Oersted.http://www.astrocosmo.cl/biografi/b­h_oersted.htm

Hendrik Antoon Lorentz

http://www.astrocosmo.cl/biografi/b­h_lorentz.htm

Durstling Hans (1997): Abraham Gesner: A father of petroleum. Part I and Part 
II. The Eclectic Lapidary. Volume I number 6. 5/01/97, y Volume I number, 7, 
6/01/97.

http://www.bovagems.com/eclectic/HTML/19970501_0597ABEGEN.html

http://www.bovagems.com/eclectic/HTML/19970601_0697DURST.html

De la Selva, Teresa (1993): De la Alquimia a la Química. Fondo de Cultura 
Económica. México. 
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/118/htm/alquimia.h
tm

Departamento Física  Matemática (2000): James Prescott Joule. Biografías. 
Pontificia Universidad Católica Madre y Maestra. 
http://rsta.pucmm.edu.do/tutoriales/fisica/biografias/Joule.htm

Edison Exploratorium (2006): The Pioneers. Honoring the Scientists and Engineers 
who Advanced Electrical and Related Technology.

William Stanley.

http://www.edisonexploratorium.org/bio/WilliamStanley.htm

Joseph Henry

http://www.edisonexploratorium.org/bio/JosephHenry.htm

Nikola Tesla

http://www.edisonexploratorium.org/bio/NikolaTesla.htm

237
Egan Greg (2006):  Jules Henri Guiffard. The pioneers: an anthology.

http://www.ctie.monash.edu.au/hargrave/giffard.html

Enciclopedia Encarta (2006): 3 El Siglo XIX. "Aviación." Microsoft® 
Encarta® 2006 [DVD].

Microsoft Corporation, 2005.

Enciclopedia Encarta (2006): 3 La Física después de 
Newton. "Física." Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.

EucheMS (2005): 100 Distinguished European Chemists. European Association for 
Chemical and Molecular Sciences.

http://www.euchems.org/Distinguished/19thCentury/index.asp

Gay­Lussac Louis Joseph (1778 ­1850)

http://www.euchems.org/Distinguished/19thCentury/gaylussac.asp

Ramsay, William (1852­1916)

http://www.euchems.org/Distinguished/19thCentury/ramsay.asp

Figurovski N. A. (1989): 6. El surgimiento de la atomística química. 70 – 73. 8. 
El desarrollo ulterior de la atomística química. 80 – 89.  Historia de la 
Química. Editorial Pueblo y Educación. La Habana.

Flores Valdés J., Menchaca Rocha A. (1995): Capítulo II. La Física y la Química 
del siglo XIX. La Gran Ilusión IV. La fusión fría. Fondo de la Cultura 
Económica. México. 
omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/110/htm/lagran4.htm 

Fröman N (1996):  Marie and Pierre Curie and the Discovery of Polonium and 
Radium. Nobel e­Museum.  http://www.nobel.se/physics/articles/curie/

García L.C. (1997): De la máquina de vapor al cero absoluto. Capítulo I Bosquejo 
histórico. Fondo de Cultura  Económica. México. 
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/05/htm/maqvapor.ht
m

Gray Carol (2003): John Stringfellow (1799 – 1873). Flying Machines.

http://www.flyingmachines.org/strng.html

Golovanov Y. (1990): Semblanzas de grandes hombres de ciencia. Editorial 
Progreso. Moscú.

Bútlerov (1828­1886) p30­33

238
Lobachevski (1792­1856) p 194­198

Mendeléiev (1834 ­1907) p 215­219

Pávlov (1849 ­1936) p 245­248.

Grigorian A. T., Polar L.S. (1962): Las ideas básicas de la Física. Ediciones 
Pueblos Unidos S.A.  Montevideo.  

Katz Eugenii (2005): Famous Electrochemists. Department of Chemistry. The Hebrew 
University of Jerusalem Givat Ram.  Jerusalem.  

William Sturgeon (1783 ­ 1850)

http://chem.ch.huji.ac.il/~eugeniik/history/sturgeon.html

Lucien H. Gaulard (1850 ­1888)

http://chem.ch.huji.ac.il/~eugeniik/history/gaulard.html

Kudriavtsev P.S. (1962): Las ideas básicas de la Física: ensayos sobre su 
desarrollo. Ediciones Pueblos Unidos. Montevideo.

El desarrollo de las ideas de la termodinámica y de la atomística.  

El desarrollo de la teoría del campo electromagnético.

Kuhn, T.S. (1982): La estructura de las revoluciones científicas. Fondo de 
Cultura Económica. México.

Lasker Foundation (2006): Genetics Timeline. A Dictionary of Scientists, Oxford 
University Press.

More about Johann Friedrich Miescher.

http://www.laskerfoundation.org/rprimers/gnn/timeline/1869a.html

More about Walther Fleming.

Contributions to the Knowledge of the Cell and Its Vital Processes, Part II, by 
Walther Flemming. 

http://www.laskerfoundation.org/news/gnn/timeline/1882a.html

Leggat Robert (2000): A History of Photography. The beginnings of Photography. 
http://www.rleggat.com/photohistory/

NCAR (2005): Solar Physicists. High Altitude Observatory. National Center of 
Atmospheric Research (NCAR)

Joseph von Fraunhofer.

239
http://www.hao.ucar.edu/Public/education/bios/fraunhofer.html

Johann W. Ritter http://www.hao.ucar.edu/Public/education/bios/jwritter.html

William Hyde Wollaston 

http://www.hao.ucar.edu/Public/education/bios/wollaston.html

Nobel e­Museum (2004): From Nobel Lectures, Chemistry 1901­1921. The Official 
Web Site of Nobel Foundation.

http://www.nobel.se/chemistry/index.html. 

Jacobus Henricus van't Hoff

 http://nobelprize.org/chemistry/laureates/1901/van'thoff­bio.html

Svante August Arrhenius

http://nobelprize.org/chemistry/laureates/1903/arrhenius­bio.html

William Ramsay 

http://nobelprize.org/chemistry/laureates/1904/ramsay­bio.html

Nobel e­ Museum (2004): From Nobel Lectures, Physiology or Medicine 1901­
1921. The Official Web Site of  Nobel 
Foundation.. http://nobelprize.org/medicine/index.html

Santiago Ramón y Cajal

http://nobelprize.org/medicine/laureates/1906/cajal­bio.htm

Ivan Pavlov

http://nobelprize.org/medicine/laureates/1904/pavlov­bio.htm

Robert Koch (1843­1910)

http://nobelprize.org/medicine/laureates/1906/koch­bio.htm

Nobel e­Museum (2004): From Nobel Lectures, Physics 1901­1921. The Official Web 
Site of  Nobel Foundation. Elsevier Publishing Company, Amsterdam, 1965. 
http://nobelprize.org/physics/index.html

Guglielmo Marconi

nobelprize.org/physics/laureates/1909/marconi­bio.html 

Karl F. Braun

nobelprize.org/physics/laureates/1909/braun­bio.html 

240
Jean Baptiste Perrin

nobelprize.org/physics/laureates/1926/perrin­bio.html

John William Strutt Rayleigh

nobelprize.org/physics/laureates/1904/rayleigh­bio.html

Wilhelm Roentgen

nobelprize.org/physics/laureates/1901/rontgen­bio.html

Joseph John Thomson

nobelprize.org/physics/laureates/1906/thomson­bio.html

Nobel Alfred Bernhard (1895): Alfred Nobel's Will. París, 27 de noviembre de 
1895.

http://nobelprize.org/nobel/alfred­nobel/biographical/will/will­full.html

Nuñez J. (2000): La ciencia y la tecnología como procesos sociales. Lo que la 
educación científica no debe olvidar. La Habana. http://www.campus­
oei.org/salactsi/nunez00.htm#9

Office of Radiation, Chemical & Biological Safety (2002): Figures in radiation 
history. Michigan State University. Pierre and Madame Curie.  

http://www.orcbs.msu.edu/radiation/radhistory/pierremariecurie.html

O'Connor J. J., Robertson E. F. (2000): School of Mathematics and Statistics. 
University of St Andrew. Scotland.

Dominique F. J. Arago

http://www­groups.dcs.st­andrews.ac.uk/~history/Mathematicians/Arago.html

John Couch Adams

http://www­groups.dcs.st­andrews.ac.uk/~history/Mathematicians/Adams.html

Ludwig Boltzmann.

http://www­groups.dcs.st­andrews.ac.uk/~history/Mathematicians/Boltzmann.html

Charles Babbage  

http://www­groups.dcs.st­and.ac.uk/~history/Mathematicians/Babbage.html

André Marie Ampere.  

http://www­history.mcs.st­andrews.ac.uk/history/Mathematicians/Ampere.html

241
Benoit Paul Emile Clapeyron

http://www­history.mcs.st­andrews.ac.uk/Mathematicians/Clapeyron.html

Christian Johan Doppler

http://www­history.mcs.st­andrews.ac.uk/ history/Mathematicians/Doppler.html

George Francis FitzGerald

http://www­history.mcs.st­andrews.ac.uk/ history/Mathematicians/FitzGerald.html

Urbain­Jean­Joseph Le Verrier

http://www­history.mcs.st­andrews.ac.uk/ history/Mathematicians/Le_Verrier.html

Pasachoff Naomí (1996): Marie Curie and the science of radioactivity. Oxford 
University Press. The Center for History of Physics: A division of The American 
Institute of Physics (AIP).

http://www.aip.org/history/curie/contents.htm

Paredes H. (2001): Historia de Georg Cantor. Teoría de Conjuntos. Aula Virtual 
de Matemática. http://sipan.inictel.gob.pe/internet/av/cantor.htm

Perich Campana Danny (2001): Carl Gauss. Historia de la Matemática. Sector 
matemática; Municipalidad de Punta Arenas. Chile. 
http://www.sectormatematica.cl/biografias/gauss.htm

Pees Samuel T. (2004): Benjamín Silliman Jr. Oil History. 
http://www.oilhistory.com/pages/drake/players.html

Rhee Yon Seung (2003):  Pioneer Profiles. About BioTech. Access Excellence. The 
National Health Museum. Washington. D.C.   

Gregor Mendel  

http://www.accessexcellence.org/RC/AB/BC/Gregor_Mendel.html

Louis Pasteur

http://www.accessexcellence.org/RC/AB/BC/Louis_Pasteur.html

Roberge Pierre R. (2000): Who’s Who in Electrochemistry. http://www.corrosion­
doctors.org/

Jöns Jacob Berzelius

http://www.corrosion­doctors.org/Biographies/BerzeliusBio.htm

Robert Bunsen (1811­ 1899)

242
http://www.corrosion­doctors.org/Biographies/BunsenBio.htm

Davy, Sir Humphry, Baronet.

http://www.corrosion­doctors.org/Biographies/DavyBio.htm

Heinrich Rudolf Hertz (1857­1894)

http://www.corrosion­doctors.org/Biographies/HertzBio.htm

Ribnikov K (1987): 7.1 Sobre el carácter del desarrollo de las matemáticas en 
el siglo XIX. Historia de las Matemáticas. Editorial MIR. Moscú.

Smith Williams Henry (1904): Modern Development of the Physical Sciences. A 
History of Science. Volume III.

Chapter VI: Modern Theories of Heat and Light.

http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap42.html

Chapter VII: The Modern Development of Electricity and Magnetism

http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap46.html

Chapter VIII: The Conservation of Energy

http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap52.html

Universidad Católica de Chile (2004): La teoría celular. XIII Medicina de la 1ª 
Mitad del Siglo XIX. Apuntes de Historia de la Medicina. Escuela de Medicina. 
Pontificia. Universidad Católica de Chile.

http://escuela.med.puc.cl/publ/HistoriaMedicina/SigloXIXTeoriaCelular.html 

Verdugo Pamela (1997): Evariste Galois. Los matemáticos y su 
Historia. Universidad de Santiago de Chile. 
 http://www.mat.usach.cl/histmat/html/galo.html

243
LA ERA ATÓMICA Y EL DESARROLLO DE LA FÍSICA EN EL SIGLO XX

Rolando Delgado Castillo y Francisco Arturo Ruiz Martínez.

Universidad de Cienfuegos.

Contexto mundial y algunos hitos en el ámbito de las Matemáticas

El desarrollo de la Mecánica Cuántica

Las ideas sobre la variabilidad del espacio y el tiempo

La desintegración radiactiva y la teoría del átomo nuclear.

El empleo de la energía nuclear y la posición de la comunidad científica

Algunas tecnologías derivadas de las teorías físicas y su aplicación.

Los avances en los programas de exploración del Cosmos.

El nacimiento de la Electrónica y de la Informatización.

Bibliografía

Contexto mundial y algunos hitos en el ámbito de las Matemáticas

El siglo XX traería al escenario mundial dos grandes guerras que paradójicamente 
darían un impulso al desarrollo del conocimiento científico en aquellas áreas en 
que  se  advertían   necesidades  internas  y  principalmente  con  fines   relacionados 
con   la   tecnología   militar.   Este   desarrollo   dio   lugar,   incluso,   al   holocausto 
nuclear de la década de los años cuarenta.

El   progreso   de   las   ciencias   debió   navegar   en   medio   de   tales   circunstancias 


históricas.   Desde   inicios   de   la   centuria   comenzó   a   manifestarse   la   principal 
característica  de  su  desarrollo   consistente  en  la  transformación,  de  producto 
social,   elemento   de   la   superestructura   de   la   sociedad   humana,   en   una   fuerza 
productiva con rasgos muy especiales. Esta característica estuvo precedida por 

244
una explosión en el ritmo de la producción de los conocimientos científicos que 
alcanzó   un   crecimiento   exponencial.   Las   relaciones   Ciencia   –   Sociedad   se 
hicieron más complicadas.

Un proceso de fortalecimiento de los nexos en la comunidad científica, que se 
habían   iniciado   con   las   Sociedades   fundadas   en   el   siglo   XVIII,   se   advierte 
desde los comienzos del siglo, sufriendo en los períodos de duración de ambas 
guerras un inevitable debilitamiento. En este contexto se destacan los Congresos 
realizados   en   Bruselas,   con   el   apoyo   financiero   del   químico   industrial   belga 
Ernest Solvay (1838­1922), que congregaron a los más brillantes físicos de la 
época.

El   Congreso   Solvay   de   1911   inaugura   el   reconocimiento   de   la   comunidad 


científica a las ideas de la Teoría Cuántica, verdadera revolución en el campo 
de las Ciencias Físicas. En el transcurso del evento se arribó a un consenso de 
que   la   Física   de   Newton   y   Maxwell   si   bien   explicaba   satisfactoriamente   los 
fenómenos   macroscópicos   era   incapaz   de   interpretar   los   fenómenos   de   la 
interacción   de   la   radiación   con   la   sustancia,   o   las   consecuencias   de   los 
movimientos microscópicos de los átomos en las propiedades macroscópicas. Para 
cumplir   este   último   propósito   era   necesario   recurrir   a   las   ideas   de   la 
cuantificación. Ello demostraba la comprensión de la vanguardia de las Ciencias 
sobre   el   carácter   temporal,   histórico   en   la   construcción   del   conocimiento 
científico.

El   famoso   químico­físico   Walter   Nernst   (1864   –  


1941) logró que el industrial belga Ernest Solvay  
(1838 – 1922) patrocinara un congreso, que fue el 
primero   de   los   famosos   Congresos   Solvay   que   se 
han   efectuado   desde   1911   en   Bruselas,   Bélgica.  
Este   congreso   resultó   muy   importante   en   la  
historia de la Física, ya que en su transcurso la  
comunidad   de   físicos   más   relevantes   renunció  
explícitamente   a   la   validez   universal   de   la  
Física   desarrollada   hasta   fines   del   siglo   XIX,  
sostenida   por   la   Mecánica   de   Newton   y   el  
Electromagnetismo   de   Maxwell.   Las 
representaciones   cuánticas   y   las   ideas   sobre   la 
naturaleza dual de la luz y las partículas van a 
invadir el pensamiento físico de la época.

El siglo XX traería también una organización de la ciencia en Instituciones que 
debían concentrar sus esfuerzos bien en estudios fundamentales como en aquellos 

245
de   orden   práctico.   Los   políticos   se   darían   cuenta,   desde   la   Primera   Guerra 
Mundial,   de la importancia de sufragar los gastos de aquellas investigaciones 
relacionadas con la tecnología militar.

El Laboratorio Cavendish en Cambridge, fundado en el siglo XIX, hizo época no 
sólo   por   la   relevancia   de   sus   investigaciones   fundamentales   para   la 
determinación de la estructura atómica, sino por la excelencia mostrada por sus 
directores científicos, Joseph John Thomson (1856 – 1940) y Ernest Rutherford 
(1872 – 1937), que lograron con su liderazgo la reproducción de los valores de 
la   producción   científica   (siete   investigadores   del   Laboratorio   alcanzaron   el 
Premio Nóbel de Física).

En las primeras décadas del siglo el Laboratorio "Kaiser Guillermo" de Berlín se 
erigió   en   modelo   de   institución   investigativa   y   en   el   período   de   la   Primera 
Guerra Mundial contó con la asistencia de los más célebres científicos alemanes 
vinculados   a   proyectos   de   desarrollo   de   nuevas   armas.   Fritz   Haber,   notable 
químico   alemán   jugó   el   triste   papel   de   introductor   del   arma   química   en   los 
campos de batalla.

En la década del 40, se crea en Nuevo México, el Laboratorio Nacional de los 
Álamos,   verdadera   empresa   científica   multinacional,   con   el   objetivo   de   dar 
cumplimiento   al   llamado   Proyecto   Manhattan   para   la   fabricación   de   la   bomba 
atómica. La movilización de hombres de ciencias de todas las banderas tuvo el 
propósito   de   neutralizar   cualquier   tentativa   de   la   Alemania   hitleriana   de 
emplear   el   chantaje   nuclear.   El   propio   Einstein,   con   su   enorme   prestigio   y 
autoridad moral, inicia el movimiento enviando una  misiva al presidente de los 
Estados Unidos. Cinco años después, enterado de los éxitos ya obtenidos en los 
ensayos   de   la   bomba   atómica,   vuelve   a   usar   la   pluma   está   vez   para   reclamar 
prudencia en el empleo de este engendro de la Física Nuclear. El resto de la 
Historia es bien conocido.

En   la   década   del   40,   bajo   el   mayor   secreto,   se  


desarrolla el llamado Proyecto Manhattan, verdadera  
empresa   científica   multinacional,   con   el   objetivo  
de   fabricar   la   bomba   atómica.   Una   red   de 
laboratorios   estadounidenses   se   comparte   los  
trabajos   a   los   cuales   concurren   científicos   de  
todas   las   banderas,   alarmados   con   la   posibilidad  
de   que   la   Alemania   hitleriana   pudiera   acceder  
primero al arma nuclear.
Cuando   el   engendro   destructivo   estuvo   listo   pero  
aún   no   se   había   provocado   el   holocausto   de  

246
Hiroshima, un equipo del Laboratorio de Metalurgia  
de la Universidad de Chicago proclamó su oposición 
al   lanzamiento   de   la   bomba.La   mayoría   de   la  
comunidad   científica   abrazó   la   causa   del   uso  
pacífico de la energía atómica.

El 9 de agosto de 1945 la humanidad se aterrorizaba con la hecatombe nuclear en 
Hiroshima,   días   después   se   repetía   la   escena   esta   vez   en   Nagasaki.   Se 
inauguraba la época del arma nuclear con un saldo inmediato en Hiroshima de unos 
140   mil   muertos   de   una   población   estimada   en   350   mil   habitantes,   y   una 
multiplicación   a   largo   plazo   de   las   víctimas   como   resultado   de   las 
manifestaciones   cancerígenas   y   las   mutaciones   genéticas   inducidas   por   la 
radiación nuclear.

Los   más   relevantes   exponentes,   y   la   mayoría   de   la   comunidad   científica 


reaccionaron vigorosamente contra el desarrollo del armamento nuclear y abrazó 
la causa del uso pacífico de la energía nuclear. Poco antes del lanzamiento de 
la   bomba   en   Hiroshima,   como   expresión   de   las   ideas   de   los   científicos   que 
trabajaban   en   el   proyecto   Manhattan,   68   participantes   en   las   investigaciones 
desarrolladas   en   el   Laboratorio   de   Metalurgia   de   la   Universidad   de   Chicago 
firmaron una carta de petición al presidente de los E.U. para impedir el empleo 
del arma nuclear. El propio Albert Einstein (1879 ­1955) abogó por el desarme 
internacional   y   la   creación   de   un   gobierno   mundial.   No   faltaron,   sin   embargo 
aquellos que como el físico húngaro, nacionalizado estadounidense, Edward Teller 
(1908   –   2003),   arquitecto   principal   de   la   bomba   H,   consideraron   oportuno 
continuar   la   espiral   armamentista,   confiados   en   que   el   liderazgo   de   un   país 
podía resultar ventajoso para todo el mundo.

Al   finalizar   la   Segunda   Guerra   Mundial   se   conformaron   dos   grandes   bloques 


militares,   económicos   y   políticos,   que   se   enfrascaron   en   una   guerra   fría, 
desarrollaron una irracional carrera armamentista, y fomentaron la hipertrofia 
de un complejo militar industrial. El ruido de la guerra ha tenido una huella 
que no ha sido evaluada con suficiente precisión. De acuerdo con los resultados 
del   primer   "ensayo   nuclear"   en   las   Islas   Marshall,   las   superpotencias 
trasladaron sus polígonos de prueba para sitios protegidos por extensas zonas 
desérticas,   e   incluso   llevaron   las   pruebas   al   nivel   del   subsuelo   evitando   la 
contaminación atmosférica y las lluvias radiactivas que suelen llevar impulsados 
por   los   vientos,   residuos   radiactivos   a   miles   de   kilómetros   del   lugar   de   la 
explosión. De cualquier forma el planeta ha sufrido la sacudida telúrica, y el 
pulso electromagnético de radiaciones ionizantes  provocados por más de dos mil 
explosiones nucleares, más de la mitad lanzadas por los Estados Unidos, el 85 % 

247
por   las   dos   grandes   superpotencias   del   siglo   (E.U.   y  la  URSS),   el   10%   en   el 
orden Francia, China y Gran Bretaña. Cinco pruebas se reparten entre dos países 
asiáticos   envueltos   en   un   litigio   histórico:   Paquistán   y   la   India.   Una   bomba 
atómica fue lanzada en el océano Índico por el régimen sudafricano del apartheid 
en 1979, para emplear el chantaje en sus relaciones con los vecinos africanos. 
Desde   1992,   logrado   un   Tratado   Internacional   de   no   proliferación   del   arma 
nuclear, se han silenciado notablemente "los ensayos nucleares". Pero India y 
Paquistán desoyendo el clamor universal, en 1998 realizaron un par de pruebas 
por parte en demostración mutua de fuerza. Al grupo de ocho países responsables 
de esta demencial carrera se ha sumado recientemente Corea del Norte.

El   impacto   de   la   guerra   sobre   los   hombres   de  


ciencias dependió del escenario histórico en que 
les   tocó   vivir.   Georges   Charpak   (1924­),   físico 
francés de origen polaco, premio Nóbel de Física  
en   1992   por   sus   novedosos   métodos   para   la  
detección   de   las   partículas   subatómicas   que  
significó un notable avance en el estudio de los  
procesos nucleares, tenía 19 años cuando, acusado 
de   terrorista   por   su   actividad   en   la   heroica 
resistencia   francesa,   sufre   el   horror   de   la  
prisión en un campo de concentración nazi.

La   rivalidad   dominante   este   –   oeste   del   siglo   se   reflejó   también   entre   las 
instituciones científicas hasta bien avanzado el siglo. A la competencia y el  
intercambio que alentó, en lo fundamental, el desarrollo de las investigaciones 
en   las   primeras   décadas   entre   las   Escuelas   de   Copenhague,   Berlín,   París,   y 
Londres,   le   sustituyó   un   cerrado   silencio.   El   intercambio   fue   tapiado   y 
supuestas filtraciones al bando opuesto adquirieron la dramática connotación de 
espionaje   político.   Los   logros   publicables   que   obtenían   los   laboratorios 
nucleares   de   Dubna,   en   la   ex   ­   Unión   Soviética,   Darmstad   en   Alemania,   y 
Berkeley   de   los   Estados   Unidos   eran   sometidos   a   encendidas   polémicas   sobre 
prioridad,   como   es   el   caso   del   descubrimiento   (acaso   sería   mejor   decir   "la 
fabricación"  en  los  aceleradores  lineales)  de  los  elementos  transférmicos  que 
ocupan una posición  en la tabla periódica posterior al elemento número 100.

El proceso de descolonización en África y Asia experimentó una aceleración en el 
período   de   la   posguerra.   Pero   el   cuadro   del   desarrollo   socioeconómico   de   los 
países a lo largo del siglo se mantuvo tan desigual y asimétrico como irracional 
resultaría la distribución de riquezas heredada del pasado colonial. La brecha 
entre   ricos   y   pobres   continuó   ampliándose   y   se   reflejó   necesariamente   en   el 
estado de la ciencia y la técnica. Los países "en vías de desarrollo" debieron 

248
sufrir otro fenómeno: la fuga de cerebros. El capital humano, tal vez el mayor 
capital que atesora un país, se ve tentado en los países en desarrollo por las 
oportunidades que ofrecen las Mecas contemporáneas de las ciencias y al triste 
fenómeno de la emigración selectiva asisten sin posible defensa ante  el mercado 
de la inteligencia, los países pobres.

Un   panorama   similar   se   advierte   si   se   recurre   a   cifras   que   ilustren   el 


financiamiento por países en el área de investigación y desarrollo, así como si 
se  analizan  la  producción   de  patentes   de  invención.  En  esta  última  esfera   un 
nuevo problema viene a matizar el progreso científico.

La   protección   de   la   propiedad   industrial   en   todo   el   siglo   XIX   operó   como   un 


elemento de financiamiento de nuevas investigaciones que alentaran y permitieran 
nuevos logros en la invención. Pero con el siglo XX se van haciendo borrosos los 
contornos de los descubrimientos y las invenciones para la pupila de las grandes 
transnacionales interesadas más que todo en competir con éxito en el templo del 
mercado. Una encendida polémica se viene gestando en la opinión pública que gana 
creciente   conciencia   de   los   peligros   que   entraña   semejante   política. 
Afortunadamente,   entre   los   propios   investigadores   se   desarrolla   un   movimiento 
tendiente a preservar como patrimonio de toda la humanidad  los descubrimientos 
científicos de mayor trascendencia.

El estudio de las heteroestructuras semiconductoras,  
que   tuvieron   una   gran   repercusión   como   uno   de   los  
soportes   de   la   electrónica   moderna   encontró   en   el 
físico bieloruso Zhores I. Alferov, premio Nobel de  
Física   del   2000,   uno   de   sus   más   destacados 
investigadores.

En   tema   tan   estratégico   como   resultan   las   fuentes 


energéticas   futuras,   Alferov   ha   declarado   que   a 
finales   del   siglo   XXI   la   energía   solar   será 
determinante   en   el   desarrollo   de   la   energética   en 
general   "porque   el   Sol   no   se   podrá   nunca  
privatizar". La Universidad de la Habana le confirió  
en   1986   el   título   deDoctor   Honoris   Causa   y   en   el  
2006   aprovechando   la   visita   del   científico   a   Cuba,  
le   fue   entregado   personalmente   este   alto  
reconocimiento.   Alferov   ha   mantenido   una   invariable  
actitud de amistad hacia Cuba.

249
Ya   a   finales   de   la   década   de   los   años   ochenta,   con   el   derrumbe   del   sistema 
socialista en el este europeo, se establecieron las bases de un mundo unipolar, 
caracterizado   por   un   proceso   de   globalización,   que   si   en   principio   pudiera 
considerarse   en   bien   del   intercambio   científico,   potencialmente   representa   un 
desafío para la supervivencia del mosaico de culturas de las naciones emergentes 
y de sus identidades nacionales.

Por   otra   parte,   la   desaparición   de   la   guerra   fría   y   el   clima   de   universal 


entendimiento que parecía poder alcanzarse brindaban la posibilidad de congelar 
la irracional carrera de armamentos y desviar estos enormes recursos financieros 
hacia   la   esfera   del   desarrollo.   Esto   equivale   a   decir   que   podría   al   fin 
inaugurarse la era en que Ciencia y Tecnología alinearan sus fuerzas en bien de 
toda   la   humanidad.   Pronto   el   optimismo   inicial,   derivado   de   semejante 
razonamiento se evaporó ante las nuevas realidades.

En el ámbito de las Matemáticas el siglo se inicia con el Congreso Internacional 
de   París   que   concentró   a   las   más   relevantes   figuras   del   momento   y   tuvo   la 
significación   de   contar   con   las   predicciones   de   David   Hilbert   (1862   ­1943), 
notable matemático de la célebre Universidad de Gotinga forja académica de Gauss 
y Riemann y uno de las instituciones dónde se generó la actual interpretación de 
la   Mecánica   Cuántica,   sobre   los   problemas   más   candentes   que   deberían   ser 
resueltos por el esfuerzo de la comunidad de matemáticos. En efecto, a lo largo 
del   siglo   estos   problemas   serían   abordados,   pero   lo   que   no   pudo   Hilbert 
pronosticar   fue   que   las   más   significativas   aportaciones   en   las   Matemáticas 
guardarían   relación   con   el   mundo   de   la   informatización   y   la   inteligencia 
artificial. Así aparecen una nueva rama de la Geometría, esta vez la Geometría 
de   los   fractales,   una   nueva   Lógica,   la   llamada   Lógica   Difusa,   un   Álgebra   de 
nuevo tipo, conocida como el Álgebra de Neumann, y una teoría que había sido 
relegada por la complejidad inherente a su abordaje, la Teoría de los Sistemas 
Caóticos.

En el año 1946 se construye en Estados Unidos el primer ordenador electrónico 
digital   de   uso   práctico   (enicak),   sin   pieza   mecánica   alguna.   Desde   entonces 
estos artefactos han tenido un vertiginoso desarrollo, alcanzando su cima en la 
inteligencia artificial.

La teoría de los juegos aparece a fines de los años 20, impulsada principalmente 
por John von Neumann (1903­1957), matemático estadounidense nacido en Hungría. 
La teoría de juegos se aplicó a los negocios y las guerras y Neumann extiende 
sus   conceptos   para   desarrollar   nuevos   operadores   y   sistemas   conocidos   como 
anillos de operadores que reciben el nombre de Álgebra de Neumann que resultan 
muy utiles en la Mecánica Cuántica.

250
Cuando   hoy   se   agitan   las   banderas   de   la   xenofobia 
conviene   recordar   el   inmenso   aporte   de   los  
inmigrantes y sus descendientes al desarrollo de las 
sociedades   más   ricas   del   mundo   actual.   La   lista   se 
haría   demasiado   larga   y   abarca   todos   los   campos   de 
las ciencias. Sirva de ejemplo Lotfi Zadeh, autor de 
la   lógica   difusa,   una   de   las   teorías   que   sustentan 
los   avances   en   el   campo   de   la   inteligencia 
artificial.   Nació   en   1921   en   Irán,   se   educó   en  
Arzeibaijan   y   finalmente   se   radicó   en   Berkeley,  
donde   en  la   Universidad   de  California   desarrolló   su 
nueva lógica.

A   pesar   de   los   grandes   adelantos   en   la   optimización   computacional   ocurridos 


durante los últimos 20 años, el método Simplex inventado por George B. Dantzig 
(1914­2005)   en   1947   es   aún   la   herramienta   principal   en   casi   todas   las 
aplicaciones  de  la  Programación   Lineal.  Las   contribuciones   de  Dantzig  abarcan 
además la teoría de la descomposición, el análisis de sensibilidad, los métodos 
de pivotes complementarios, la optimización en gran escala, la programación no 
lineal, y la programación bajo incertidumbre. De ahí en adelante la Teoría del 
Caos,   y   la   Lógica   Difusa   vienen   emergiendo   con   gran   fuerza   en   el   panorama 
científico y tecnológico.

La   Teoría   del   Caos   se   ocupa   de   sistemas   que   presentan   un   comportamiento 


impredecible y aparentemente aleatorio, aunque sus componentes estén regidas por 
leyes deterministas. Desde 1970 se viene aplicando esta teoría en la esfera de 
los   fenómenos   meteorológicos   y   en   la   Física   Cuántica   entre   otras,   siendo   el 
físico   estadounidense   Mitchell   Feigenbaum   (1944­   )   uno   de   los   exponentes   más 
representativos. Estos sistemas tienen afinidades con la Geometría Fractal y con 
la teoría de catástrofes.

La   Geometría   Fractal   fue   descubierta   en   la   década   de   los   setenta   por   el 


matemático polaco, nacionalizado francés, Benoit B. Mandelbrot (1924 ­ ). Ya no 
se limita la Geometría a una, dos o tres dimensiones, sino que se plantea el 
trabajo con dimensiones fraccionarias. Las montañas, nubes, rocas de agregación 
y   galaxias   se   pueden   estudiar   como   fractales.   Estos   vienen   siendo   usados   en 
gráficos por computadora y para reducir el tamaño de fotografías e imágenes de 
vídeo.

La Lógica Difusa fue introducida en 1965 por Lotfi Zadeh (1921­ ), profesor de 
la   universidad   de   Berkeley.   La   gran   diferencia   con   la   teoría   de   conjuntos 
clásica, enunciada por el alemán George Cantor a finales del siglo XIX, es que 

251
un elemento puede pertenecer parcialmente a un conjunto; en contradicción con la 
concepción tradicional que solo brinda dos posibilidades: "se pertenece o no se 
pertenece".   La   Lógica   Difusa   constituye   una   de   las   técnicas   que   sustentan   la 
inteligencia artificial y se viene aplicando en Medicina y Biología, Ecología, 
Economía y Controles Automáticos.

Las Matemáticas invaden en el siglo XX  todas las esferas de la sociedad, de la 
técnica y la ciencia, y sus más significativas aportaciones se relacionan con 
las   nuevas   áreas   de   la   informatización   y   la   inteligencia   artificial.   La 
modelación   matemática   reina   en   los   procesos   de   ingeniería,   de   control 
automático,   de   la   robótica,   se   introduce   en   los   procesos   biológicos   y   hasta 
algunos lo han evocado, a nuestro juicio con excesivo entusiasmo, en la solución 
de complejos problemas sociales.

Mitchell   Feigenbaum,   considerado   uno   de   los  


fundadores   de   la   teoría   del   caos,   es   hijo   de 
Abraham, un químico analítico de padres polacos, 
y   de   Mildred   Sugar,   cuyo   apellido   debe   haberse  
nacionalizado,   pues   sus   padres   proceden   de   la 
lejana   capital   ucraniana   de   Kiev.   Mitch   era   el 
segundo   de   tres   hermanos,   y   a   diferencia   del  
primogénito   que   parecía   tener   un   gran   talento, 
aprendió a leer con dificultad en las escuelas de 
Brooklyn   donde   cursó   sus   primeros   estudios.   Sin 
embargo,   a   los   16   ingresó   en   el   Colegio   de   la 
Ciudad   de   Nueva   y   en   cuatro   años   recibió   su 
primer   título   de   ingeniero   eléctrico.   Luego,  
decidió   hacer   su   doctorado   en   el   MIT,   y  
su contacto   con   la   obra   de   Landau   decidió   su  
inclinación   hacia   la   Física.   En   los   años   80,  
luego   de   haber   sido   rechazados   dos   de   sus 
trabajos en revistas especializadas, la Comunidad 
Científica lo reconocía como uno de los pioneros  
en   los   estudios   teóricos   que   demuestran   el  
caracter universal de los sistemas no­lineales e 
hicieron posible penetrar el mundo del caos.

La Revolución en el campo de la Física se abrió paso en el siglo XX a través de 
la superación de profundas crisis en el campo de las ideas, que exigieron lo que 
se ha dado en llamar un cambio de paradigma. La construcción en paralelo de las 
teorías que pretendían explicar el universo de las micropartículas y ofrecer una 

252
nueva visión del mundo macroscópico, en lugar de encontrar un punto convergente 
se distanciaban desde sus propios enfoques de partida.

Las   páginas   que   siguen   hacen   un   vertiginoso   recorrido   por   los   principales 
momentos   en   la   evolución   de   estas   ideas   que   traen   nuevas   nociones   para   las 
coordenadas   esenciales   de   la   existencia   humana   y   cósmica:   el   tiempo   y   el 
espacio, al tiempo que se esfuerzan por explicar y dominar la estructura interna 
del átomo y de las propias partículas subatómicas. Por este camino, inundado por 
complejas teorías se abren paso colosales realizaciones prácticas que implican 
el gobierno de aquella energía fuente de todo el movimiento del sistema solar: 
la energía nuclear.

En el campo de las Ciencias Físicas una trascendental revolución se producía en:

1.Las ideas sobre la cuantificación de la luz y la sustancia que 
permitieron el desarrollo de la llamada Mecánica Cuántica.

2.Las ideas sobre la variabilidad del tiempo y del espacio, desarrolladas 
inicialmente casi en solitario por A. Einstein al crear su Teoría de la 
Relatividad.

3.Las ideas sobre la desintegración radiactiva y el desarrollo de la 
teoría del átomo nuclear.

El desarrollo de la Mecánica Cuántica

El primer período en el desenvolvimiento meteórico de la Física Cuántica abarca 
desde el propio año inicial del siglo hasta 1913. Si tuviera que bautizarse esta 
etapa recurriendo a los protagonistas fundacionales, como el paradigma mecánico 
se reconoce como la época de Newton­Galileo, o la concepción electromagnética 
del  mundo  se  asocia   al  par  Faraday­Maxwell,  habría  que  llamar   a este  momento 
histórico   como   el   de   Planck­Einstein­Rutherford­Bohr.   Y   al   así   hacerlo 
tendríamos en cuenta que ellos lideraron la búsqueda y solución de los problemas 
esenciales que condujeron a la teoría cuántica del átomo de Bohr:

La distribución de la energía en el espectro de emisión del cuerpo negro 
absoluto.

253
Max Planck (1858­1947) fue un pionero de las ideas  
de la cuantificación de la energía en los procesos  
de emisión  de la  radiación. La  ecuación E  = hυ  lo  
inmortaliza a través de la constante universal h que  
recibe   su   nombre,   constante   de   Planck.   Su   enorme  
prestigio hace que lo elijan en 1930 presidente de  
la   Sociedad   Científica   alemana   más   importante,   la 
Sociedad   Kaiser   Guillermo   para   el   progreso   de   la  
ciencia.   Sus   críticas   abiertas   al   régimen   nazi   le  
forzaron a abandonar la Sociedad a la cual regresa  
como   presidente   al   terminar   la   Segunda   Guerra  
Mundial. Hoy esta sociedad lleva su nombre, Sociedad 
Max Planck.

•La elaboración de un modelo atómico constituido por partículas positivas 
y negativas.

•La determinación de las leyes que rigen en los espectros de rayas y de 
bandas.

El surgimiento de las ideas de la cuantificación de la luz nace con el inicio 
del   siglo   XX.   Los   trabajos   de   Max   Planck   (1858   –   1947)   al   explicar   el 
comportamiento de la radiación por temperatura del radiador ideal, considera la 
existencia de paquetes de energía que depende de la frecuencia de la radiación. 
Por   primera   vez   la   Física   se   encontró   con   las   representaciones   cuánticas   que 
modificarían la faz de esta Ciencia.

Las   representaciones   cuánticas   fueron   aplicadas   por   Albert   Einstein   (1879   – 


1955)  en  1905  a  la  teoría   del  efecto  fotoeléctrico.  Einstein  a  diferencia   de 
Planck formuló la hipótesis de que los cuantos de magnitud hυ existen no solo en  
el   proceso   de   emisión   o   de   absorción,   sino   que   tienen,   además,   existencia 
independiente. A partir de esta concepción explicó las particularidades de este 
efecto,  inexplicables  desde  el  punto  de  vista  de  la  teoría  ondulatoria   de  la 
luz, y enunció la ley básica del efecto fotoeléctrico.

La ecuación que resume esta concepción teórica fue comprobada experimentalmente 
por   Arthur   Holly   Compton   (1892   –   1962)   en   1912.   La   explicación   del   efecto 
fotoeléctrico externo establece las bases de la Teoría Fotónica de la Luz.

Finalmente, Niels Bohr (1885­ 1962) en 1913, abre la etapa de la cuantificación 
de   la   energía   para   las   partículas   al   proponer   un   modelo   inicial   del   átomo 
basado en el postulado de cuantificación del momento angular y la energía de los 
electrones   en   sus   órbitas   para   los   átomos   hidrogenoides.   La   noción   de   los 

254
estados   estacionarios   del   electrón   rompía   con   la   electrodinámica   clásica   y 
apuntaba hacia una nueva manera de entender el mundo de las micropartículas.

En   1914,   Bohr   visitó   las   universidades   de   Munich   y   Gottinga   y   establece 


relaciones con famosos físicos como Max Born (1882­ 1970) y Arnold Sommerfeld 
(1868­1951). La Primera Guerra Mundial interrumpió su gira por Alemania y ya en 
1916 abre una cátedra  de Física Teórica en Copenhague. Cinco años después funda 
el Instituto de Física Teórica de la Universidad de Copenhague. En los próximos 
años, el Instituto de Bohr y la Universidad de Gottinga se convierten en los 
baluartes de la naciente Mecánica Cuántica.

Niels Bohr es el autor del sistema planetario de la 
estructura electrónica de los átomos. Su imagen de 
la   envoltura   electrónica   deriva   de   la   aplicación  
del   principio   de   cuantificación   a   las   órbitas  
posibles   de   los   electrones.   Durante   la   segunda  
guerra   mundial   emigró   con   su   familia   a   EEUU   y  
participó   en   el   proyecto   de   los   Álamos   para   la  
construcción   de   la   bomba   atómica.   Fue   un   enérgico  
defensor   de   poner   en   manos   del   control  
internacional   el   armamento   atómico   y   al   concluir  
la   guerra   regresó   a   la   universidad   de   su   natal  
Copenhague, dónde se consagró al desarrollo del uso 
pacífico de la energía atómica.

Un segundo período nacido con la posguerra, nos trae las ideas duales para las 
partículas   que  tienen  su  origen  en  los  trabajos  teóricos  de  Louis  De  Broglie 
(1892 – 1987). Hasta entonces todos los fenómenos relacionados con el electrón 
se explicaban sólo desde el punto de vista corpuscular.

De Broglie busca obstinadamente una idea generalizada, en la cual los puntos de 
vista corpuscular y ondulatorio estuviesen íntimamente integrados. A partir de 
su   hipótesis   deduce   de   una   forma   sorprendentemente   sencilla   la   condición   de 
cuantificación de las órbitas electrónicas de Bohr.

La   confirmación   experimental   del   carácter   ondulatorio   de   los   electrones   fue 


espectacularmente obtenida en 1927 por los científicos norteamericanos Clinton 
Joseph   Davisson   (1881­1958)   y   Lester   H.   Germer   (1896­1971)   y   de   forma 
independiente   en   Aberdeen   por   George   P.   Thomsom   (1892­   1975)   al   obtener   el 
espectro de difracción de un haz de electrones convenientemente acelerados.

En los años cruciales para el desarrollo de la Mecánica Cuántica del 1921 al 27, 
en   Zurich,   Erwin   Schrodinger   (1887   –   1961)   llevó   a   cabo   las   investigaciones 

255
fundamentales que culminaron en su famosa ecuación de onda. La ecuación de onda 
de   Schrodinger   permite,   a   través   del   instrumental   matemático   con   que   opera, 
obtener valores discontinuos para la energía, que cuantifican el movimiento de 
las   partículas   no   relativistas;   y   al   mismo   tiempo   plantea   el   problema   del 
sentido   físico   de   la   función   de   onda.   Estas   investigaciones   basadas   en   la 
objetividad   de   las   ondas   existentes   y   en   su   comportamiento   causal   fueron 
aplaudidas   desde   Berlín   por   Planck   y   Einstein   que   por   entonces   ejercían   la 
docencia en la Universidad berlinesa.

En   el   mismo   año   en   que   Schrodinger    establece   su   famosa   ecuación   de   onda, 


Werner Karl Heisenberg (1874 – 1956)   enuncia   el principio de indeterminación 
(incertidumbre).   Heisenberg   demuestra   mediante   un   experimento   imaginario   que 
cuanto   mayor   es   la   precisión   con   que   determinemos   la   posición   de   la 
micropartícula tanto menor es la precisión con que se determine su velocidad.

El   físico   austriaco Erwin   Schrodinger   pudo   haber  


retenido su cátedra en Berlín puesto que él tenía  
afiliación   católica,   pero   decidió   mostrar   su  
rechazo   al   régimen   nazi   abandonando   Alemania.   Su 
excepcional   formación   cultural   se   refleja   en   su 
concepción   sobre   la   Historia:   "La   Historia   es   la  
más   fundamental   de   todas   las   Ciencias,   porque   no  
hay conocimiento   humano   que   no   pierda   su 
carácter científico cuando los hombres olvidan las  
condiciones en que fue originado, las preguntas a  
las que respondió y las funciones para las cuales  
fue   creado". What   is   life?   And   other   scientific 
essays, p 132, 1956.

Werner   K.   Heisenberg,   físico   alemán,   mereció   el  


premio Nóbel en 1932 por ser uno de los padres de 
la   Mecánica   Cuántica.   Su   principio   de   la  
incertidumbre   ha   tenido   una   profunda   influencia  
tanto en la Física como en la Filosofía. Reanimó la  
polémica   sobre   el   clásico   problema   de   la  
cognoscibilidad del mundo. El curso ulterior de los  
acontecimientos   continúa   demostrando   la   capacidad  
humana   para   penetrar   en   los   enigmas   de   la  
naturaleza.   Un   estrecho   nacionalismo   lo   llevó   a  
dirigir   el   plan   nuclear   de   la   Alemania   nazi   que  

256
afortunadamente no tuvo éxito.

El   sentido   de   la   relación   de   indeterminación   ha   sido   objeto   de   encendidas 


polémicas.   Compartimos   el   criterio   de   que   estas   relaciones   no   constituyen 
barreras para la cognición del mundo de las micropartículas sino que expresan su 
peculiar esencia. Al establecer un enfoque probabilístico en la descripción del 
micromundo no se está intentando evadir las grandes dificultades representadas 
por   el   gran   número   de   partículas   de   los   sistemas   abordados   en   la   Física 
Molecular   y   la   Termodinámica,   pero   que   al   menos   en   principio   podían   ser 
descritos con arreglo a leyes bien determinadas.

El Congreso de Solvay de 1927 dejó como saldo para la Historia el rico debate 
alentado   principalmente   por   Bohr   y   Einstein   sobre   los   principios   de   la   nueva 
Mecánica   Cuántica.   A   partir   de   este   Congreso   la   Comunidad   de   los   físicos 
teóricos   reconoció   como   válida   la   interpretación   de   la   Escuela   de   Copenhague 
(liderada   por   Bohr).   Einstein   aceptó   la   coherencia   alcanzada   por   la   teoría 
cuántica pero siempre creyó en la posibilidad de crear una teoría más completa.

En el caso del micromundo, no existe la posibilidad de descripción determinista 
y   es   necesario   el   reconocimiento   de   la   existencia   de   leyes   objetivas   con   un 
carácter probabilístico.

El trabajo fundamental que fija el sentido de probabilidad de la función de onda 
pertenece   a   Max   Born   (1882   ­   1970)   quien,   al   examinar   esta   cuestión   en   1926 
llegó a la conclusión de que si el sistema consta de un punto, la función de 
onda expresa la probabilidad de encontrar la partícula en el punto del espacio 
tridimensional; ahora bien si se trata de un sistema de n partículas la función 
de   onda   cambia   de   un   punto   a   otro   del   espacio   de   representación   con   3n 
dimensiones.   Born   fue   uno   de   los   pocos   físicos   que   edificaron   la   estructura 
filosófica   de   la   Mecánica   Cuántica.   Su   principal   contribución   fue   la 
interpretación   probabilística   de   las   ondas   de   Schrodinger,   una   interpretación 
que eleva la probabilidad a categoría primaria de la Mecánica Cuántica.

En   1928,   el   eminente   teórico   inglés   Paul   Dirac   (1902­1984)   deduce   la   famosa 


ecuación  relativista  cuántica  que  describe  el  comportamiento  del  electrón.  Se 
considera   la   ley   que   generaliza   las   ecuaciones   relativistas   cuánticas   del 
movimiento de las partículas.

257
La   teoría   de   Dirac   auguraba   la   existencia   de  
antipartículas   para   casi   todas   las   partículas  
elementales, lo que se confirmó en lo sucesivo. En  
1955   fueron   descubiertos   los   antiprotones   y   luego 
otras   antipartículas,   en   fin   fue   descubierto   el 
antimundo. Los pronósticos de Dirac iban más lejos  
y aseguraban que durante su encuentro ocurriría el  
aniquilamiento mutuo de partículas y antipartículas 
con   la   correspondiente   liberación   de   energía.   El 
proceso de aniquilación fue una confirmación más de  
la   ecuación   de   Einstein   que   interrelaciona   masa   y  
energía.

La resolución de las ecuaciones obtenidas por Dirac indicaba que debía existir 
una partícula con la misma masa del electrón pero con carga positiva. Era la 
predicción del antimundo, por primera vez apareció el concepto de antipartícula, 
nació   así   teóricamente   el   positrón.   Cuatro   años   más   tarde,   el   físico 
norteamericano  Carl   D.  Anderson   (1905  –  1991)  logró  observar  en  la  cámara   de 
Wilson la traza de una partícula extraordinaria que poseía la masa del electrón 
pero era desviada por el campo magnético en sentido contrario. Se había hallado 
experimentalmente el gemelo del electrón predicho por Dirac.

En   octubre   de   1985,   en   el   Laboratorio   Nacional   "Enrico   Fermi"de   Illinois, 


probaron   un   nuevo   y   superpotente   acelerador   de   partículas   con   el   cual 
colisionaron protones y antiprotones. La energía descargada durante la colisión 
superó cualquier cantidad conseguida hasta el momento: se produjo una energía 
equivalente a 1,6 trillones de electrón­ volts.

El impetuoso avance de la Física Atómica permitió una mayor profundización en 
los niveles de la naturaleza e hizo posible el surgimiento de la Teoría de los 
Quarks. La explicación de la estabilidad del núcleo atómico, que confinaba en 
regiones muy reducida a los protones de carga positiva, exigió el postulado de 
nuevas partículas nucleares.

El   físico   japonés   Hideki   Yukawa   (1908   –   1981)   fue   el   primero   en   emitir   la 
hipótesis   de   que   las   partículas   que   garantizan   la   estabilidad   de   los   núcleos 
pueden poseer una masa mucho mayor que la del electrón. Estas partículas luego 
fueron llamadas mesones, y la comprobación experimental de su existencia debió 
esperar 11 años cuando se investigaban los rayos cósmicos. Fue entonces que se 
encontraron partículas con una masa 273 veces la masa del electrón y otras con 
207 masas del electrón. A estas partículas se les llamaron mesones π o piones y 
mesones µ o muones. El pión resultó ser el mesón propuesto por Yukawa. 

258
El progreso de la Teoría Dual de la Luz se fortalece con la llamada estadística 
de los bosones propuesta en los trabajos de A. Einstein, en 1924, y de Satyendra 
Nath  Bose  (1894  – 1974), de  los  cuales  el fotón es  un caso  particular,  y al 
incorporar,   según   las   concepciones   actuales,   los   fotones   al   sistema   de 
partículas básicas consideradas por la Teoría de los Quarks.

El camino que tomaron las investigaciones en el campo  
de   las   micropartículas   demostraba   la   inagotabilidad 
de   la   materia.   En   1961,   el   físico   norteamericano  
Murray Gell­Mann (1929­ ) diseñó una especie de tabla  
periódica   que   agrupaba   a   las   partículas   subatómicas 
en familias de ocho. Este esquema fue confirmado por  
descubrimientos  posteriores.   Tres  años  después   Gell­
Mann propuso la existencia de los quarks, partículas 
constituyentes de las partículas "elementales". Según 
la   profundización   alcanzada   en   los   niveles   del  
micromundo, hay bariones (de masa mayor o igual a los 
protones); mesones (de masa inferior a los protones y  
mayor   que   los   electrones)   y   luego   hay   quarks.   Por  
razones   estructurales   se   clasificaron   los   quarks   en 
seis   grupos   teóricos.   A   fines   de   la   década   de   los  
sesenta,   en   el   laboratorio   de   aceleración   de  
micropartículas   de   la   Universidad   de   Stanford   el  
equipo integrado por el físico canadiense Richard E. 
Taylor   (1929­ )   y   los   físicos   estadounidenses   Henry  
W. Kendall (1926­1999) y Jerome I. Friedman (1930­ ), 
descubrieron   los   quarks   y   por   este   descubrimiento, 
compartieron   el   Premio   Nobel   de   Física   en   1990.   En  
los noventa se probó la existencia del último de los  
seis grupos.

En  unos   cincuenta  años,  se  consolidó  la  Teoría  Atómica,  con  el  desarrollo   de 
modelos, tanto para el átomo de hidrógeno, con cálculos exactos, como para los 
átomos   multielectrónicos,   con   cálculos   aproximados,   pero   muy   eficientes,   y 
edificado   la   Teoría   del   Núcleo   que   dio   lugar   a   la   utilización   de   la   energía 
nuclear en las distintas ramas de la economía, aunque lamentablemente también en 
el terreno bélico.

Las   realizaciones   de   la   Escuela   de   Física   soviética,   fundada   hacia   los   años 


treinta   entre   otros   por   Piotr   Kapitsa   (1894­1984)   y   Lev   Landau   (1908­68), 
abarcan   un   amplio   campo   de   trabajo   que   incluye   la   superconductividad   y   la 
superfluidez,   la   electrodinámica   cuántica,   la   física   nuclear   y   la   física   de 

259
partículas.   En   la   segunda   mitad   del   siglo   aparecen   como   continuadores 
sobresalientes de las investigaciones en la superconductividad y la superfluidez 
los   rusos,   premios   Nobel   de   Física   del   2003,   Alexei   A.   Abrikosov   (1928­   ), 
declarado   científico   distinguido   del   Laboratorio   Nacional   de   Argonne, 
naturalizado   en   los   Estados   Unidos,   y   el   nonagenario   Vitali   L.Ginzburg 
(1916­   ),   jefe   del   Grupo   de   Teoría   del   Instituto   de   Física   P.N.   Lebedev   de 
Moscú.

La Mecánica Cuántica y sus múltiples aplicaciones en otras ramas concretas de 
las Ciencias, han traído importante derivaciones epistemológicas y filosóficas. 
Entre   ellas   destaca   el   debate   sobre   la   cognoscibilidad   del   mundo,   dado   por 
diferentes interpretaciones del Principio de Indeterminación. En realidad este 
principio debe entenderse que define un límite de validez para la aplicación de 
los conceptos que el hombre ha aplicado a una determinada esfera de fenómenos 
naturales, y acusa el riesgo de una generalización no fundamentada.

Los   avances   en   esta   rama   de   las   ciencias   han   tenido   importantes   aplicaciones 
prácticas,   en   particular   sobresalen   las   aportaciones   en   la   rama   de   las 
comunicaciones, la codificación de información, los diversos tratamientos con la 
utilización de los láseres, las aplicaciones en la medicina de técnicas basadas 
en el láser y en la resonancia magnética nuclear, los átomos marcadores para la 
datación de hallazgos arqueológicos, y el desarrollo de la rama de la energética 
nuclear.

El siglo XX conoció de la construcción en paralelo de las teorías que pretendían 
explicar el universo de las micropartículas y ofrecer una nueva visión del mundo 
macroscópico.   Estos   esfuerzos   en   lugar   de   encontrar   un   punto   convergente   se 
distanciaban desde sus propios enfoques de partida.

La   ciencia   soviética,   heredera   de   la   tradición   rusa,  


archivó resonantes logros en el desarrollo de la Física  
Cuántica. Entre los más destacados representantes en esta  
dirección se hallan los premios Nobel  de  Física,   Piotr 
L.   Kapitsa   y   Lev   D.   Landau.   Ambos   científicos,   en  
momentos determinados de sus vidas, sufrieron la política  
represiva   de   las   autoridades   stalinistas   que   empañó   los  
logros   de   la   ciencia   soviética   y   estratégicamente 
contribuyó   a   empeñar   el   destino   de   la   primera   sociedad  
socialista. Se   afirma   que   Kapitsa   alegó   razones   de 
conciencia   para   alejarse   del programasoviético   de 
desarrollo de armas nucleares pero fue uno de los líderes  

260
científicos del proyecto inicial de satélites de la URSS.

Las ideas sobre la variabilidad del espacio y el tiempo y la Teoría de 
la Relatividad

Las   páginas   que   siguen   hacen un   vertiginoso   recorrido   por   los   principales 
momentos   en   la   evolución   de   las   ideas   que   traen   nuevas   nociones   para   las 
coordenadas   esenciales   de   la   existencia   humana   y   cósmica:   el   tiempo   y   el 
espacio.   En   este   otro   extremo   de   la   cuerda,   el   cuadro   físico   del   mundo 
experimentaba una profunda reestructuración, en lo fundamental, por los trabajos 
del genio alemán Albert Einstein.

La   teoría   de   la   relatividad   de   Einstein   es   uno   de   los   grandes   logros   de   la 


Física contemporánea. Si la Mecánica de Newton representa en el siglo XVII el 
acto   fundacional   de   la   Física,   la   Mecánica   Relativista   desarrollada   en   este 
siglo provoca una nueva cosmovisión del universo y constituye lo que se ha dado 
en   llamar   un   cambio   paradigmático   a   partir   de   la   interpretación   dada   por   el 
físico   Thomas   Samuel   Khun   (1922­1996)   en   su   clásico   "Estructura   de   las 
Revoluciones Científicas".

De cualquier modo compartimos el criterio expresado por Steven Weinberg (Premio 
Nóbel de Física en 1979) en una retrospectiva sobre el trabajo de Kuhn:

"No   es   verdad   que   los   científicos   sean   incapaces   de   conectarse   con 


diferentes formas de mirar hacia atrás o hacia delante" y que después de 
una  revolución  científica   ellos   sean   incapaces   de  comprender   la  ciencia 
que le precedió. Uno de los   desplazamientos de paradigmas a los cuales 
Kuhn brinda mucha atención en "Estructura" es la sustitución al inicio de 
esta   centuria   de   la   Mecánica   de   Newton   por   la   Mecánica   relativista   de 
Einstein. Pero en realidad, durante la educación de los nuevos físicos la 
primera   cosa   que   les   enseñamos   es   todavía   la   buena   mecánica   vieja   de 
Newton, y ellos nunca olvidan como pensar en términos newtonianos, aunque 
después aprendan la teoría de la relatividad de Einstein. Kuhn mismo como 
profesor   de   Harvard,   debe   haber   enseñado   la   mecánica   de   Newton   a   sus 
discípulos".

Einstein, en 1905, ya había demostrado al proponer la Teoría de la Relatividad 
Especial, que la Mecánica de Newton no tenía validez universal; demostró que si 
los cuerpos se mueven con velocidades comparables a la de la luz, entonces la 
Mecánica de Newton no puede describir los fenómenos correspondientes. La Teoría 
de la Relatividad es una generalización de la teoría newtoniana, que amplía su 
dominio de aplicación. Si en la Teoría de la Relatividad se consideran fenómenos 
en los cuales la velocidad de los cuerpos es mucho menor que la de la luz, como 

261
son la mayoría de los fenómenos cotidianos, entonces se recupera la mecánica de 
Newton. Es decir, la teoría newtoniana es un caso particular de la relativista, 
para velocidades muy pequeñas.

La   teoría   general   de   la relatividad es   uno   de   los 


grandes   logros   de   la   Física   contemporánea.   Si   la 
Mecánica de Newton representa en el siglo XVII el acto  
fundacional   de   la   Física,   la   Mecánica   Relativista 
desarrollada   en   este   siglo   provoca   una   nueva 
cosmovisión del universo que porta originales nociones  
para   las   coordenadas   esenciales   de   la   existencia 
humana   y   cósmica:   el   tiempo   y   el   espacio.   Su 
construcción es obra casi exclusiva, hecho insólito en 
este siglo, de Einstein lo que  se explica al recordar  
que   en   el   período   que   abarca   de   1905   al   1916   la  
atención   de   la   comunidad   de   físicos   se   centra   en   el  
desarrollo de la Teoría Cuántica del átomo.

Tanto  la  llamada   Teoría  Especial  para   el  caso  de  los  sistemas  inerciales  que 
fue, en lo fundamental enunciada en 1905, como su ulterior extensión, la llamada 
Teoría   General   de   la   Relatividad   que   consideraba   el   caso   de   los   sistemas   no 
inerciales,   les   permitieron   a   Einstein   desarrollar   su   Teoría   sobre   la 
Gravitación   Universal   a   partir   de   la   propiedades   del   espacio   –   tiempo   en   la 
cercanías de las grandes aglomeraciones de masa.

Es necesario destacar que la Teoría General de la Relatividad pertenece no solo 
a   la   Historia   de   la   Ciencia   sino   a   la   Física   contemporánea.   Constituye   una 
síntesis,   desde   postulados   relativistas,   de   la   teoría   newtoniana   de   la 
atracción gravitatoria, de la teoría del espacio­tiempo tetradimensional curvo 
y, finalmente, de la generalización del principio de relatividad de movimientos 
uniformes respecto a movimientos acelerados.

Como   expresión   de   una   teoría   revolucionaria,   en   el   ámbito   que   abarca,   va   a 


exigir de nuevas concepciones sobre el espacio, el tiempo y el movimiento, a la 
vez que se apoya en novedosos instrumentos matemáticos de trabajo.

Asentada   principalmente   en   la   Teoría   Especial   de   la   Relatividad;   en   las 


observaciones   de   Poincaré   (1854   –   1912)   sobre   la   gravitación;   y   en   la 
interpretación   cuatridimensional   de   Minkowski   (1864   –   1909);   así   como   en   los 
trabajos   geométricos   de   Lovachevski   y   Riemann,   su   construcción   fue   obra   casi 
exclusiva   de   A.Einstein.   Este   hecho,   insólito   ya   en   la   Física   del   siglo   XX, 
repleta de ejemplos del trabajo en "Escuelas", se explica al recordar que en el 

262
período que abarca de 1905 al 1916 la atención de la comunidad de físicos se 
centra en el desarrollo de la Teoría Cuántica del átomo.

No   parecía   entonces   que   los   problemas   de   la   atracción   gravitatoria   y   de   la 


generalización   de   la   Teoría   Especial   de   la   Relatividad,   fuera   a   ofrecer 
resultados   trascendentes.   De   hecho,   una   característica   de   este   descubrimiento 
que   puede   resultar,   a   primera   vista   sorprendente   es   que   si   bien   la   Teoría 
General   de   la   Relatividad   señala   un   giro   radical   en   nuestras   ideas   sobre 
categorías tan generales como el espacio, el tiempo y la gravitación, esta no 
presentó la menor trascendencia técnica.

Sin  embargo,  después  de  su  formulación  y  sobre  todo  luego  de  la  confirmación 
experimental por Eddington (1882 ­ 1944) del entonces llamado efecto Einstein 
acerca   de   la   pequeñísima   desviación   de   los   rayos   de   luz   de   las   estrellas   al 
pasar cerca de la superficie del sol, una nueva promoción de físicos se sintió 
inclinada a participar en nuevas búsquedas, emitir audaces hipótesis, y someter 
las nuevas ideas a confirmación astronómica. Desde entonces se han repetido los 
intentos   de   estructurar   una   teoría   única   del   campo,   y   elaborar   la   Teoría 
Cuántica de la Gravitación.

La cosmología relativista entró en una nueva fase en 1922,  
cuando   el   físico   y   geofísico   ruso   A.A.   Fridman   (1888   –  
1925) publicó dos obras clásicas que se oponían al modelo  
estacionario   propuesto   por   Einstein,   y   abrían   paso   a   las  
ideas   sobre   un   universo   en   expansión.   Sólo   siete   años  
después de los trabajos de Fridman, en 1929, el astrónomo  
norteamericano E. Hubble (1889 – 1953), que trabajaba en el 
reflector más grande de aquellos tiempos en el observatorio  
de   Mount   Wilson,   llegó   a   la   conclusión,   a   partir   del  
desplazamiento   hacia   el   rojo   de   las   rayas   espectrales   de  
todos los sistemas estelares distanciados, de que todas las  
estrellas se alejan de nuestra galaxia.

En el propio año de 1916 en que se publica la teoría general de la relatividad, 
poco antes de su muerte, el matemático alemán Karl Schwarzschild (1873­1916),  
predijo la existencia de los agujeros negros. Sobre la base de la relatividad 
einsteniana, postuló "el radio de Schwarzschild", magnitud cósmica relacionada 
con   el   hipotético   círculo,   que   se   generaría   durante   la   explosión   de   una 
supernova, tan compacto que nada ni siquiera la luz podría escapar de su intenso 
campo   gravitatorio.   A   estos   objetos   se   les   conoció   más   tarde   como   agujeros 
negros. Fue necesario esperar a fines del siglo XX para que el radiotelescopio 

263
Hubble instalado en una sonda espacial confirmara la existencia de un agujero 
negro en el centro de una enorme galaxia llamada M87.

Estos   trabajos   fueron   proseguidos   por   el   sacerdote   y   astrónomo   belga   Georges 


Lemaitre (1894 – 1966) que fundamentó una teoría cosmológica según la cual, la 
expansión del Universo habría comenzado con una enorme explosión de un "núcleo 
primordial".   Este   "núcleo   primordial",   según   sus   deducciones   matemáticas, 
increíblemente denso contenía toda la materia del Universo dentro de una esfera 
unas 30 veces mayor que el Sol.

1948   representa   el   año   en   que   se   desarrollan   dos   teorías   cosmológicas 


contrapuestas:   el   llamado   modelo   estacionario   y   la   más   conocida   teoría   de   la 
gran explosión. La teoría del universo estacionario resultante de la creación 
continua  de  materia  que  se  condensa  para   la  formación  de  nuevas  galaxias  fue 
desarrollada en Cambridge por los astrofísicos Hermann Bondi (1919­2005), Fred 
Hoyle (1915­2001), y Thomas Gold (1920­2004). La teoría de la Gran Explosión se 
enriquece   con   los   trabajos   del   físico   teórico   ucraniano,   nacionalizado 
estadounidense, George Gamow (1904­1968) que explica la expansión del universo y 
desarrolla nuevas hipótesis sobre la creación de los elementos en los primeros 
momentos del descomunal estallido.

Los progresos del período de investigaciones aceleradas en plena guerra habían 
legado un instrumental avanzado para escudriñar ahora la infinitud del universo. 
En   1960,   desde   el   Observatorio   de   Monte   Palomar   en   California,   el   astrónomo 
estadounidense   Allan   Rex   Sandage   (1926­   )   consigue   la   primera   imagen 
espectrográfica   de   un   objeto   estelar   caracterizado   por   dos   fenómenos 
enigmáticos:   sus   líneas   espectrales   de   emisión   resultan   inidentificables   al 
tiempo que emiten enormes cantidades de energía.

En   el   verano   de   1967,   Jocelyn   Bell   se   encontraba 


investigando   en   la   Universidad   de   Cambridge,   bajo   la  
asesoría   del   radioastrónomo   Antony   Hewish   (1924­ ),   la 
escintilación   de   los   quásares.   En   este   empeño   descubrieron  
una señal inusual recibida a un intervalo constante cercano  
al   segundo.   Semejante   señal   pulsante   fue   inicialmente  
interpretada   como   el   resultado   de   una   emisión   de   seres  
inteligentes,  pero  luego  la  detección  de  una  señal  análoga  
desde el extremo opuesto del cielo evaporó esa probabilidad.  
Un   año   después   la   mayoría   de   los   físicos   aceptaban   la  
naturaleza   de   los   púlsares   como   estrellas   de   neutrones   de  
una  increíble   densidad   que  giran  rápidamente  en  un  pequeño  
círculo   con   intensos   campos   electromagnéticos,   emitiendo  

264
ondas de radio.

Los   púlsares   fue   el   primer   paso   en   la   verificación   de   la   existencia   de  un 


fenómeno teórico muy extraño: los agujeros negros.

Los   quásares   (acrónimo de quasi­stellar   radio   source,   fuente   de   radio 


cuasiestelar),   fueron   sometidos   a   sistemática   observación   a   partir   de   este 
momento   y   en   1963,   el   astrónomo   estadounidense   de   origen   holandés   Maarten 
Schmidt emitió la hipótesis de que estas líneas de emisión no identificadas en 
el espectro eran líneas ya conocidas pero que mostraban un desplazamiento hacia 
el   rojo   mucho   más   intenso   que   en   cualquier   otro   objeto   conocido,   lo   cual   se 
interpreta   como   que   el   quasar   se   aleja   rápidamente   de   nuestro   planeta   como 
resultado de la expansión del Universo. El análisis de observaciones posteriores 
y   su   correspondencia   con   las   teorías   existentes   indican   como 
única explicación satisfactoria   para   que   un   quásar   variable   produzca   tal 
cantidad   de   energía   en   un   volumen   relativamente   pequeño   es   la   absorción   de 
grandes cantidades de materia por un agujero negro. Los astrónomos creen que los 
quásares   son   agujeros   negros   supermasivos   rodeados   de   materia   que   gira   a   su 
alrededor; esta materia emite energía al caer en el agujero negro.

En este debate sobre la cosmovisión del universo, el descubrimiento en 1965 de 
una misteriosa radiación de fondo cósmica correspondiente a las microondas de 3 

K   (­270oC)   que   no   tiene   fuente   específica   y   se   detecta   desde   todas   las 


direcciones del universo fue interpretada como una prueba a favor de la teoría 
que   apuesta   a   un   universo   que   se   expande   producto   de   una   colosal   explosión 
original. Esta radiación detectada por el astrofísico estadounidense, de origen 
alemán,   Arno   Penzias   (1933­   )   y   el   radioastrónomo   estadounidense   Robert   W. 
Wilson   (1933­   )   se   comprendió   como   el   remanente   cósmico   de   las   elevadísimas 
temperaturas que acompañaron al instante inicial del Gran Bang.

En 1979 el físico estadounidense Alan Guth (1947­ ), desarrolló una nueva teoría 
acerca de la expansión del Universo, continuadora de la hipótesis inflacionaria 
desarrollada   30   años   atrás   por   Gamow,   que   ha   servido   de   base   para   la 
interpretación contemporánea de los primeros momentos del Universo. Guth combina 
las   ideas   cuánticas   con   la   teoría   del   campo   unificado   para   demostrar   la 
posibilidad  de  que  toda  la  materia  del  Universo  podría  haber  sido  creada  por 
fluctuaciones cuánticas en un espacio ‘vacío’ y que una región de aquel  estado 
caótico original podía haberse hinchado rápidamente para permitir que se formara 
una región observable del Universo. 

265
El físico teórico Stephen Hawking (1942­ ) es la figura  
líder de la moderna cosmología. Los sentidos del hombre  
se resienten con las concepciones emergentes de la teoría  
de la gran explosión. Una edad del universo estimada en  
13,7 ± 0,2 mil millones de años, un modelo que advierte  

un   período   de   inflación   cósmica   de   10­35 segundos,   la 


expansión y el enfriamiento que condujo a la bariogénesis  
produciendo de alguna manera la asimetría observada entre  
materia y antimateria, son elementos en que se asienta la  
prevaleciente   cosmovisión   actual.   Hawking,   con   un 
extraordinario espíritu y la alta tecnología puesta a su  
servicio es uno de los grandes en el propósito de enlazar  
la Mecánica Cuántica y la Relatividad las dos principales  
teorías   de   la   Física   Moderna,   desarrollando   la   teoría 
cuántica de la gravedad.

En   la   Cosmología   actual   prevalece   el   modelo   del   Bing   Bang,   y   la   teoría   del 


relevante físico Stephen Hawking (1942 ­ ). Las ideas relativistas de Einstein 
posibilitaron así el nacimiento de una ciencia del Cosmos y adelantar hipótesis 
sobre el surgimiento del universo conocido.

En el campo del micromundo, el impacto de las aportaciones de A. Einstein, ha 
sido   enorme  y  merece  destacarse  que  todo   progreso   de  la  Mecánica   Cuántica   ha 
tomado en cuenta el carácter relativista de las micropartículas introduciéndose 
magnitudes para la descripción de los fenómenos del universo subatómico que no 
tienen su similar en el mundo clásico como por ejemplo son el momento de espín, 
las cargas bariónica y leptónica, y la hipercarga, entre otros. Por otro lado al 
aprovechar el carácter relativo del espacio y del tiempo se han podido construir 
aceleradores   de   partículas   con   el   objetivo   de   estudiar   las   propiedades   más 
íntimas de la materia.

Hacia  1948,  veinte  años  después  de  los  trabajos  fundacionales  de  Dirac   en  la 
versión   cuántico­relativista   de   la   formulación   de   Maxwell,   la   electrodinámica 
cuántica se consideraba una teoría completada, en lo esencial, por los físicos 
estadounidenses Richard Feynman (1918 ­1988), y Julian Schwinger (1918 ­1994) y 
por el físico japonés Sin­itiro Tomonaga (1906 – 1979). En 1965 compartirían el 
premio Nobel de Física.

En 1967 el físico de Harvard, Steven Weinberg (1933­ ) dio un gran paso adelante 
hacia la realización de una «teoría del campo unificado». Ésta comprendería las 
cuatro   fuerzas   aparentemente   distintas   de   la   naturaleza:   gravedad, 
electromagnetismo   y   las   fuerzas   nucleares   débil   y   fuerte.   La   fuerza   nuclear 

266
débil   se   manifiesta   al   expulsar   partículas   del   núcleo   en   la   desintegración  
radiactiva   y   la   fuerza   fuerte   une   las   partículas   nucleares.   El   modelo   de 
Weinberg describe el electromagnetismo y la fuerza nuclear débil como distintas 
manifestaciones del mismo fenómeno.

Notables   aportaciones   a   la   teoría   electrodébil,   aplicable   a   las   partículas 


elementales, fueron desarrolladas por el físico paquistaní, profesor de Física 
Teórica del Imperial College de Londres, Abdus Salam (1926 – 1996). A partir de 
entonces   se   conoció   el   modelo   de   Weinberg   ­   Salam.   En   1970   Sheldon   Glashow 
(1932­ ), otro físico de Harvard, extendió la teoría de este modelo a todas las 
partículas conocidas. En 1979, Weinberg, Salam y Glashow compartirían el Premio 
Nóbel de Física.

A   finales   de   los   años   setenta,   una   teoría   del   campo   sobre   la   fuerza   nuclear 
fuerte,   Cromodinámica   Cuántica,   se   integró   con   la   teoría   electrodébil   de 
Weinberg y Salam para formar el modelo estándar. De las cuatro fuerzas, la única 
que queda fuera de esta teoría unificada es la gravedad. El científico holandés 
Gerardus’t Hooft (1946­ ) y su colega Martinus J Veltman (1931­ ) merecieron el 
premio Nóbel de Física de 1999 por sus relevantes aportaciones en el desarrollo 
de las matemáticas necesarias para explicar el modelo estándar.

Abdus Salam nació en Jhang, un pequeño pueblo paquistaní en 
1926.   Graduado   en   Cambridge,   mereció   el   Premio   Nobel   de  
Física   en   1979.   El   dinero   recibido   de   sus   premios 
internacionales   ha   sido   dedicado   totalmente   para  
posibilitar que jóvenes talentos en Física de su país y de  
otros   países   subdesarrollados   visiten   el   Centro  
Internacional   de   de   Física   Teórica   fundado   por   Salam   en  
Trieste.
Abdus Salam fue un devoto musulmán cuya religión no ocupó  
un compartimiento separado de su vida; fue inseparable de  
su trabajo y su vida familiar.

En el terreno epistemológico la Teoría de General de la Relatividad permitió una 
concepción más profunda sobre las nociones acerca del espacio y el tiempo y su 
relación   con   el   movimiento   al   desechar   o   refutar   las   viejas   ideas   sobre   el 
carácter   absoluto   o   de   receptáculos   de   estas   entidades   y   analizar   su 
variabilidad   en   dependencia   del   estado   de   movimiento   de   los   sistemas.   Además 
hizo   posible   comprender   las   relaciones   entre   la   masa   y   la   energía   como 
magnitudes   que  expresan  medidas   cuantitativas  de  las   propiedades  inerciales  y 
gravitatorias   de   las   micropartículas   por   una   parte   y   de   las   propiedades   del 
movimiento de tales partículas por otra.

267
Otra   importante   derivación   epistemológica   de   esta   teoría   radica   en   hacer 
evidente,   tal   vez   por   primera   vez   en   el   campo   de   la   Ciencias   Físicas,   la 
importancia   del   llamado   Principio   de   Correspondencia,   considerado   por   muchos 
como el segundo criterio de la verdad sobre una determinada teoría científica, 
al establecer que toda nueva teoría, además de demostrar su valía en el campo de 
la  práctica  social,  debe  comprender  o  englobar   a la  teoría  anterior  sobre   el 
mismo campo o dominio de aplicación, como un caso particular o límite. Tal era 
el caso entre la Teoría de la Relatividad y la Mecánica de Newton, de forma que 
la   primera   abarcaba   a   la   segunda   para   el   caso   de   bajas   velocidades   en 
comparación con la rapidez de propagación de la luz en el vacío.

Pero el gran mérito de la obstinada búsqueda de Eisntein, radica en indicar el 
camino   para   que   mas   de   medio   siglo   después   una   nueva   generación   de   físicos 
fundara una teoría que, estremeciendo preceptos establecidos, se esforzara por 
cumplir   sus   sueños   de   encontrar   un   principio   universal   para   explicar   las 
propiedades y fuerzas observadas en dos mundos "antagónicos" el microcosmos y el 
universo de los objetos ordinarios.

Al cierre del siglo el sueño de Einstein de encontrar un principio integrador de 
los   mundos   gravitatorios,   electromagnéticos   (y   más   tarde   nucleares)   parecía 
comenzar a cristalizar con la emergente teoría de las cuerdas. La teoría de las 
supercuerdas reconoce una estructura interna para las partículas fundamentales 
del universo que han identificado los físicos –electrones, neutrinos, quarks, y 
otras, las letras de toda la materia. De acuerdo con esta teoría si nosotros 
examinamos   estas   partículas   con   una   mayor   precisión,   una   precisión   de   muchos 
ordenes de magnitud mayor que la alcanzable con la capacidad tecnológica actual 
encontraríamos   que   cada   partícula   no   es   puntual   sino   consiste   de   un   diminuto 
anillo. Como una banda de goma infinitamente delgada cada partícula contiene un 
filamento vibrante que los físicos han llamado cuerda. El electrón es una cuerda 
vibrante   de   un   modo,   el   quark   es   una   cuerda   vibrante   de   otro   modo,   y   así 
sucesivamente.

El   físico   argentino   Juan   Maldacena   (1967­   ),   formado   en   la  


Universidad de Buenos Aires, y actualmente investigador en el  
Instituto de Estudios Avanzados de Princeton, es considerado  
uno   de   los   impulsores   de   las   últimas   proyecciones   de   la  
teoría   de   las   supercuerdas.   Maldacena   es   hoy   un   destacado 
exponente de esa minoría de científicos de origen hispano que  
desarrollan   su   actividad   en   instituciones   élites  
estadounidenses.
Un estudio reciente de la National Science Foundation reveló  

268
que   los   estadounidenses   de   origen   hispano,   africano   e 
indígena   tan   solo   comprenden   el   6   por   ciento   de   la   fuerza 
laboral   del   país   en   los   campos   de   la   ingeniería   y   las 
ciencias.   No   obstante   las   ricas   sociedades   del   norte  
continuan   actuando   como   un   agujero   negro   para   la   luz,   el 
capital humano, de las naciones del sur...

Aunque   no   resulte   obvio   esta   simple   sustitución   de   partículas   puntuales 


constituyentes  de  los  materiales  con  las  cuerdas  resuelve  la  incompatibilidad 
entre la mecánica cuántica y la relatividad general. La teoría de las cuerdas 
proclama   por   ejemplo   que   las   propiedades   observadas   para   las   partículas 
fundamentales y las partículas asociadas a las cuatro fuerzas de la naturaleza 
(las fuerzas nucleares fuertes y débiles, el electromagnetismo y la gravedad) 
son un reflejo de las variadas formas en que una cuerda puede vibrar. Justamente 
como las cuerdas de un violín tienen frecuencias resonantes a las cuales ellas 
prefieren   vibrar,   lo   mismo   se   mantiene   para   los   anillos   de   la   teoría   de   las 
cuerdas. Pero en lugar de producir notas musicales cada una de ellas prefiere 
determinadas masas o cargas de fuerzas según el modo oscilatorio de la cuerda.

La misma idea se aplica a las fuerzas de la naturaleza. Las partículas de la 
fuerza   son   también   asociadas   con   los   modos   particulares   de   vibración   de   la 
cuerda y de ahí que cada cosa, todo material y todas las fuerzas se unifican 
bajo la misma rubrica de oscilaciones microscópicas de las cuerdas, las notas 
que las cuerdas pueden tocar.

Por   primera   vez   en   la   historia   de   la   Física   se   dispone   de   un   cuadro   con   la 


capacidad de explicar cada característica fundamental sobre la cual el universo 
es   construido.   Por   esta   razón   la   teoría   de   las   cuerdas   es   con   frecuencia 
descrita como la "teoría de todo". Este término hace pensar en el advenimiento 
de la teoría de mayor profundidad posible que incluye todas las otras. Y esto 
enciende otra violenta polémica. ¿Qué significa la teoría del todo? ¿Pretende 
abarcar   esta   teoría   en   un   solo   principio   la   divina   diversidad   de   "nuestros 
mundos"?

Si el debut del siglo XX abrió un nuevo capítulo en el desarrollo de la Física 
que supuso la superación de una crisis de sus nociones sobre el mundo de las 
micropartículas y el advenimiento de un nuevo paradigma, con el cierre del siglo 
se anunciaba el descubrimiento de un principio integrador que explicaba el mundo 
cósmico, electromagnético y nuclear. No era precisamente la Teoría del "Todo" 
pero representa una nueva conquista del inagotable conocimiento científico.

269
Brian Greene (1963­ ), profesor del Departamento de Física  
de la Universidad de Columbia, es uno de los fundadores de  
la Teoría de las Supercuerdas, también llamada teoría del  
"Todo"   por   su   supuesta   capacidad   para   explicar 
completamente los atributos de las partículas fundamentales 
del   Universo   e   integrar   en   un   único   cuadro,   apasionada  
ambición de Einstein, las fuerzas físicas conocidas hasta  
hoy por el hombre. Greene se ha esforzado en "traducir" las  
complejas nociones que emergen de considerar un mundo de n­  
dimensiones   que   no   atrapan   nuestros   sentidos,   a   símiles  
comprensibles.

Ha defendido también la hipótesis que esta teoría no puede considerarse que  
agote los enigmas de la naturaleza y detenga el desarrollo del conocimiento  
científico.

La desintegración radiactiva y la teoría del átomo nuclear.

A   continuación   intentaremos llevar   a   cabo   un   breve   recorrido   por   aquellos 


descubrimientos   trascendentes   de   la   estructura   nuclear   del   átomo.   Al   hacerlo 
revelaremos   el   protagonismo   de   hombres   de   ciencias   e   instituciones   élites   en 
momentos cruciales vividos por la humanidad, asistiendo a conflictos de género, 
peligros de subsistencia, compromisos políticos, y en fin al drama de las ideas 
que los acompañó.

Casi desde estos primeros momentos comenzaron las tentativas por describir un 
modelo atómico. J.J. Thomson concibe inicialmente la carga positiva distribuida 
uniformemente por todo el átomo mientras los electrones en número que compensaba 
esta carga se encuentran en el interior de esta nube positiva. Un año más tarde, 
supone a los electrones en movimiento de tipo oscilatorio alrededor de ciertas 
posiciones de equilibrio dentro de la carga positiva distribuida en una esfera.

Luego   de   otros   intentos   para   describir   un   modelo   atómico   que   explicara   el 
espectro de rayas y de bandas y el fenómeno de la radioactividad, aparece en 
1911 la publicación del físico neozelandés Ernest Rutherford (1872 – 1937) "La 
dispersión   por   parte   de   la   materia,   de   las   partículas   alfa   y   beta,   y   la 
estructura   del   átomo"   en   la   que   propone   el   modelo   nuclear   del   átomo.   Según 
Rutherford la carga positiva y prácticamente la masa del átomo se confinan en 

una   porción   muy   reducida,   104 veces   menor   que   las   dimensiones   del   átomo, 
mientras los electrones quedan alojados en una envoltura extranuclear difusa. La 

270
carga   positiva   nuclear   es   igual   a   Ze,   siendo   e,   la   carga   del   electrón   y   Z 
aproximadamente la mitad del peso atómico.

Rutherford fue más allá y en diciembre de 1913 expone la hipótesis de que la 
carga   nuclear   es   una   constante   fundamental   que   determina   las   propiedades 
químicas del átomo. Esta conjetura fue plenamente confirmada por su discípulo H. 
Moseley   (1887   –   1915),   quien   demuestra   experimentalmente   la   existencia   en   el 
átomo de una magnitud fundamental que se incrementa en una unidad al pasar al 
elemento siguiente en la Tabla Periódica.   Esto puede explicarse si se admite 
que el número de orden del elemento en el sistema periódico, el número atómico, 
es igual a la carga nuclear.

Rutherford   fue   director   del   Laboratorio   de   Cavendish   en 


Cambridge,   desde   dónde   condujo   o   dirigió   trascendentales  
estudios   sobre   la   estructura   atómica.   Entre   sus 
predicciones,   que   experimentalmente   comprobaría   su  
discípulo   James   Chadwick   más   de   diez   años   después,   se  
encuentra   la   existencia   de   las   partículas   nucleares  
llamadas   neutrones.   En  plena   guerra   fría   de   los   años   60  
los   halcones   ordenaron   el   desarrollo   de   la   tristemente  
célebre bomba  de  neutrones. Ella exhibía la maquiavélica 
virtud   de   solo   exterminar   a  los   hombres   en   tanto   dejaba  
intactas   las   edificaciones.   La   espiral   de   la 
irracionalidad belicista se anotaba otro alarmante éxito.

Henry   Moseley   (1887­1915),   discípulo   de   Rutherford, 


desarrolló   brillantemente   la   aplicación   de   los   espectros  
de rayos X al estudio de la estructura atómica y arribó a  
una nueva formulación de la ley periódica de los elementos  
químicos 50 años después de Mendeleev. La carga nuclear y 
no la masa atómica era la propiedad clave para explicar la  
periodicidad de las propiedades de los elementos químicos.  
No había cumplido aún los treinta años cuando muere en los  
campos   de   batalla   de   la   Primera   Guerra   Mundial,   tras  
enrolarse en la Royal Army.
Otra   vez   la   guerra   cegaba   la   vida   de   un   científico. 
¿Cuántas vidas irrepetibles se han perdido?

Durante este primer período la atención de la mayor parte de la vanguardia de 
los   físicos   teóricos   se   concentraba   en   extender   los   razonamientos   cuánticos 
iniciados   por   Planck;   mientras,   la   construcción   de   un   modelo   para   el   núcleo 

271
atómico era un problema relativamente relegado y frente al cual se levantaban 
enormes obstáculos teóricos y prácticos. Rutherford sugirió desde sus primeras 
investigaciones   que   muy   probablemente   el   núcleo   estaría   constituido   por   las 
partículas alfa emitidas durante la desintegración radioactiva. Ya para entonces 
el   propio   Rutherford   había   cuidadosamente   comprobado   que   las   partículas   alfa 
correspondían a núcleos del Helio, es decir, partículas de carga +2  y masa 4. 
Otra   línea   de   pensamiento   conducía   a   suponer   que   los   electrones   (partículas 
beta)   emitidos   durante   la   desintegración   radioactiva   eran   lanzados   desde   el 
mismo núcleo.

Frederick   Soddy   (1877   –1956),   uno   de   los   primeros   y   más   sobresalientes 


radioquímicos, premio Nobel en 1921, al pretender ubicar el creciente número de 
productos   de   la   desintegración   radioactiva   en   la   Tabla   Periódica   colocó   los 
elementos   que   mostraban   propiedades   químicas   idénticas   en   la   misma   posición 
aunque presentaran diferentes masas atómicas. Al hacerlo estaba ignorando la ley 
de Mendeleev y modificando el propio concepto de elemento químico. Ahora surgía 
una nueva categoría para los átomos, el concepto de isótopos (del griego iso: 
único,   topo:   lugar).   Poco   después,   el   descubrimiento   de   Moseley   apoyaría   su 
decisión,   al   demostrar   que   la   propiedad   fundamental   determinante   de   las 
propiedades   químicas   y   de   la   propia   identidad   de   los   átomos   era   la   carga 
nuclear.

Con la Primera Guerra Mundial se levantaron obstáculos para el progreso de los 
estudios   fundamentales   recién   iniciados,   quedarían   interrumpidos   los 
intercambios científicos, detenidas las publicaciones, el campo de acción de las 
investigaciones desplazado a la práctica de la tecnología militar.

Pero en Berlín una pareja de investigadores, Lise Meitner (1879 – 1968) y Otto 
Hahn   (1878   –   1968),   una   física   y   un   químico,   venían   investigando   sobre   el 
aislamiento   y   la   identificación   de   radioelementos   y   de   productos   de   la 
desintegración   radioactiva.   Ante   el   alistamiento   de   Hahn   en   el   ejército   para 
llevar   a   cabo   estudios   vinculados   con   la   naciente   guerra   química,   Meitner 
continúa las investigaciones y descubre en 1918 el protactinio.

272
Egresado de una de las Universidades más antiguas de América,  
la   Universidad   Mayor   de   San   Marcos,   el   científico   peruano  
Santiago   Antúnez   de   Mayolo   (1909­1967),   merece   un  
reconocimiento mayor de su obra. Existen las referencias de que 
Antúnez,   ocho   años   antes   del   descubrimiento   de   Chadwick,  
predijo la existencia del neutrón en el III Congreso Científico 
Hispanoamericano   celebrado   en   Lima   en   1924.   El   apoyo   oficial 
necesario   para   que   el   profesor   peruano   presentara   sus 
resultados   en   Europa   y   alcanzaran   "visibilidad"   no   llegó   a  
tiempo   y   es   preciso   reivindicar,   al   menos   en   el   ámbito  
hispanoamericano, su mérito histórico.
Perú   le   rinde   tributo   al   fundar   la   Universidad   Nacional  
"Santiago   Antúnez   de   Mayolo"   en   su   Departamento   natal   de  
Huaraz.

En 1919, Rutherford, que encabeza a partir de este año el laboratorio Cavendish 
en   Cambridge,   al   estudiar   el   bombardeo   con   partículas   alfa   sobre   átomos   de 
nitrógeno, descubre la emisión de una nueva partícula, positiva, y evidentemente 
responsable  de  la  carga  nuclear  del  átomo,  los  protones.  La  existencia   en  el 
núcleo   de   partículas   positivas   y   de   los   electrones   emitidos   como   radiaciones 
beta,   llevó   a   este   relevante   investigador   a   concebir   una   partícula   que 
constituyese   una   formación   neutral,   un   doblete   comprendido   como   una   unión 
estrecha   de   un   protón   y   un   electrón,   el   neutrón.   Durante   más   de   10   años 
Rutherford y su principal asistente James Chadwick (1891 – 1974) intentaron en 
vano demostrar experimentalmente la existencia del neutrón.

Las señales alentadoras vendrían de París, del laboratorio de los Joliot. Jean 
Frederick (1900 – 1958) e Irene Joliot­ Curie (1897 – 1956) reportaron en 1932 
que al bombardear con partículas alfa, provenientes de una fuente de polonio, 
átomos   de   berilio   se   producía   una   radiación   de   alto   poder   de   penetración, 
nombrada   originalmente   "la   radiación   del   berilio",   que   ellos   asociaron   a 
rayos γ.   Pero   Chadwick   no   compartió   este   supuesto   y   procedió   a   verificar   que  
estas partículas eran los escurridizos neutrones. Chadwick fue acreditado para 
la Historia como el descubridor de los neutrones.

La nueva oportunidad que se les presentó dos años más tarde a los Joliot fue 
esta   vez   convenientemente   aprovechada.   En   1928   Paúl   Dirac   (1902­1984)   había 
predicho la existencia de la antipartícula del electrón, el positrón, que cuatro 
años   después,   experimentalmente   descubre   el   físico   norteamericano   C.   Anderson 
(1905 – 1991). Ellos encontraron que al bombardear aluminio con partículas alfa, 
la emisión de positrones continuaba después de retirar la fuente de plutonio, y 

273
además   el   blanco   continuaba   emitiendo   conforme   a   la   ley   exponencial   de   la 
descomposición   de   radionúclidos.   Se   había   descubierto   la   radioactividad 
artificial.

Inmediatamente después del  descubrimiento del neutrón, W.Heinseberg propone el 
modelo del núcleo del protón – neutrón. Conforme con este modelo los isótopos 
descubiertos por Soddy se distinguen sólo por el número de neutrones presentes 
en   el   núcleo.   Este   modelo   se   verificó   minuciosamente   y   obtuvo   una   aprobación 
universal de la comunidad científica. Algunos cálculos preliminares estimaron la 

densidad del núcleo en ~ 1012 kg/m3, lo cual es un valor enorme.

Frederic   Joliot   e   Irene   Curie   constituyen   una   pareja   que  


logra asaltar el Olimpo de la ciencias. Comparten el premio  
Nóbel   de   Química   de   1935   por   el   descubrimiento   de   la 
radioactividad artificial. Frederic merece algo más que la  
frase   común   de   ser   "un   hombre   de   una   intensa   actividad  
pública".   Su   adhesión   a   la   heroica   Resistencia   francesa  
contra la ocupación nazi y su consagrada lucha por la paz, 
lo   convierten   en   un   paradigma   de   hombre   de   ciencias  
comprometido con las causas más nobles de su época.

Por otra parte, la presencia de los protones, partículas cargadas positivamente, 

confinadas   a   distancias   del   orden   de   las   dimensiones   del   núcleo ~ 10­15 m 


implicaba   la   existencia   de   fuerzas   de   repulsión   coulombianas   (de   origen 
electrostático) gigantescas, que deberían ser compensadas por algún otro tipo de 
fuerza de atracción para mantenerlas no solo unidas, sino con una cohesión tal 
que   su   densidad   tuviera   los   valores   antes   citados.   Estas   son   las   fuerzas 
nucleares, las cuales son de corto alcance, muestran independencia respecto a la 
carga (ya que actúan por igual entre protones que entre neutrones) y presentan 
saturación   dado   que   un   nucleón   solo   interactúa   con   un   número   limitado   de 
nucleones.

La   naturaleza   de   este   nuevo   tipo   de   fuerza,   que   se   añadía   a   las   conocidas 


anteriormente fuerzas gravitacionales y electromagnéticas, fue considerada como 
el   tipo   de   intercambio,   un   nuevo   concepto   cuántico   que   involucra   en   la 
interacción entre nucleones el intercambio de una tercera partícula. En 1934 los 
científicos   soviéticos Ígor   Y.   Tamm   (1895­1971),   premio   Nobel   de   1958   y   el 
profesor   Dmitri   D.   Ivanenko   (1904­   1994)   intentaron   describir   las   fuerzas 
nucleares como fuerzas de intercambio en que las dos partículas interaccionan 
por   medio   de   una   tercera   que   intercambian   continuamente.   Ellos   además 
comprobaron   que   no   se   podía   explicar   las   fuerzas   nucleares   mediante   el 
intercambio de ninguna de las partículas conocidas en aquel momento.

274
En 1935 el físico japonés Hideki Yukawa dio una respuesta a este problema al 
suponer que ese intercambio se realiza mediante una nueva partícula: el mesón. 
En los dos años que siguieron se detectaron primero por Carl Anderson y luego 
por   el   británico   Cecil   Powell   (1903   –   1969)   partículas   con   similares 
características en los rayos cósmicos.

Conjuntamente con el descubrimiento de las diferentes partículas constitutivas 
del  núcleo  fue  surgiendo  la  necesaria   pregunta   de  cuál  era  la  estructura  del 
mismo,   o   sea,   de   qué   manera   pudieran   estar   dispuestos   los   nucleones   y   así 
surgieron  los   primeros   modelos  del   núcleo.  Entre  estos  vale  la  pena  citar   el 
modelo de la gota líquida y el modelo de las capas.

Cada   uno   de   estos   modelos   se   fundamenta   en   determinados   resultados 


experimentales y logra explicar algunas de las características del núcleo. Por 
ejemplo, el modelo de la gota líquida se apoya en la analogía entre las fuerzas 
nucleares   y   las   que   se   ejercen   entre   las   moléculas   de   un   líquido   puesto   que 
ambas presentan saturación. A partir del mismo se puede calcular la energía de 
enlace   por   nucleón   teniendo   en   cuenta   la   energía   volumétrica,   la   de   tensión 
superficial y la de repulsión coulombiana, la cual tiene un aspecto similar a la 
curva   experimental.   Sin   embargo,   no   puede   explicar   los   picos   que   tiene   dicha 
curva para los núcleos de elementos tales como el He, C, O, Ca, etc.

Tres   pioneros   de   la   física   nuclear,   Yukawa,   Powel,   y   Joliot­


Curie,   firmaron   el   Manifiesto   de   Londres   en   1955,   que  
encabezado   por   Russel   y   Einstein   convocaba   a   un   Congreso  
Internacional   de   los   hombres   de   ciencia   para   impedir   que   la  
loca carrera armamentista que se avecinaba pudiera incluir las 
armas   nucleares   con   su   poder   desvastador.   El   Congreso   de  
Pugwash en 1957 reunió a 22 científicos de la élite mundial que  
reclamaron   de   los   políticos   la   prohibición   de   continuar   las 
investigaciones del núcleo con fines militares

El modelo de la capas admite que el núcleo posee una estructura energética de 
niveles   semejante   a   la   estructura   de   capas   electrónicas   del   átomo.   En   este 
sentido   reproduce   el   esquema   atómico   para   el   núcleo.   Este   modelo   explica 
satisfactoriamente la existencia de los números "mágicos", que corresponden al 
número total de nucleones de los núcleos más estables: 2, 8, 20, 50, 82 y 126. 
También justifica adecuadamente el valor de los espines nucleares, las grandes 
diferencias   entre   los   períodos   de   semi­desintegración   de   los   núcleos   alfa­
radiactivos, la radiación gamma, etc. No obstante, los valores de los momentos 
magnéticos muestran discrepancias con los valores experimentales.

Otros   modelos   nucleares   más   desarrollados   han   sido   concebidos   de   manera   que 
tienen   en   cuenta   elementos   de   los   anteriores   y   en   este   sentido   resulta   su 

275
síntesis.   Es   preciso   aclarar   que   aún   en   la   actualidad   no   existe   un   modelo 
universal del núcleo capaz de explicar todas sus características.

Sin   embargo   numerosas   interrogantes   quedaban   en   pie,   entre   otras   flotaba   la 
pregunta:   ¿de   dónde   proceden   los   electrones   resultantes   de   la   desintegración 
radiactiva beta? Para responder a esta pregunta el eminente físico teórico suizo 
Wolfgang   Pauli   (1900   –   1978)   supuso,   en   el   propio   1932,   que   durante   la 
desintegración   beta   junto   con   los   electrones   se   emite   otra   partícula   que 
acompaña la conversión del neutrón en un protón y un electrón y que porta la 
energía   correspondiente   al   defecto   de   masa   observado   según   la   ecuación 
relativista   de   Einstein.   Lo   trascendente   en   la   hipótesis   de   Pauli   es   que 
semejante   partícula,   necesaria   para   que   el   proceso   obedeciera   la   ley   de 
conservación   y   transformación   de   la   energía,   no   presentaba   carga   ni   masa   en 
reposo.

Esta vez fueron 24 años, la espera necesaria para que la partícula postulada por 
Pauli y bautizada por Enrico Fermi (1901 ­ 1954) con el nombre de neutrino,  
fuera  observada mediante experimentos indirectos conducidos de modo irrefutable 
por  el  físico  norteamericano  F.  Reines  (1918  ­  ).  Con  este   descubrimiento   se 
respaldaba la teoría desarrollada por Fermi sobre la desintegración beta y las 
llamadas fuerzas de interacción débil entre las partículas nucleares.

Pero antes de esta espectacular verificación de la teoría, aún en la memorable y 
triste década de los 30, el propio Fermi y su grupo de la Universidad de Roma,  
inició el camino hacia la fisión nuclear, considerando por el contrario que se 
dirigía hacia el descubrimiento de nuevos elementos más pesados.

La perseverancia y la imaginación premiaron al equipo liderado 
por   el   científico   japonés   Masatoshi   Koshiba   que   en   1987   pudo  
identificar   neutrinos,   provenientes   de   la   explosión   de   una  
supernova. Para ello debió emplear un tanque gigantesco lleno 
de agua, ubicado en la profundidad de una mina japonesa hasta  
donde   lograban   llegar   estas   partículas   de   alto   poder   de 
penetración.   Los   neutrinos   al   incidir   sobre   el   agua 
interactuaban y se liberaba un pequeño flash de luz, que podía  
ser capturado por componentes del detector. Se confirmaban los 
resultados   acopiados   durante   tres   décadas   por   el   astrofísico  
estadounidense Raymond Davis (1914­2006).
La   academia   sueca   consideró   la   tarea   conducida   por   estos  
investigadores  "más  difícil  que  encontrar  un  grano  particular 
de   arena   en   el   desierto   de   Sahara"   y   les   concedió   el   premio 
Nobel de Física, compartido, en el 2000.

276
En  1934   Fermi  y  sus  colaboradores,  pensando  en  la  mayor   facilidad  que  debían 
tener los neutrones para penetrar en los núcleos respecto a las partículas alfa, 
bombardearon diferentes sustancias con neutrones. Apoyándose en los resultados 
anteriores, usaban en calidad de fuente de neutrones una ampolla de vidrio que 
contenía una mezcla de berilio y gas radón, el cual se conocía como emisor de 
partículas alfa. Ellos investigaron 60 elementos, de los cuales 40 resultaron 
radiactivos luego del bombardeo con neutrones.

En Berlín, un equipo de investigación compuesto por Otto Hahn (1879­1968), Fritz 
Strassmann (1902 – 1980) y Lise Meitner (1878 ­1968), pretendió verificar los 
estudios   del   grupo   de   Roma   e   inició   el   bombardeo   de   átomos   de   uranio   con 
neutrones, esperando poder descubrir nuevos elementos más pesados.   En vez de 
esto,   a   finales   de   1938,   Hahn   y   Strassmann   (la   Meitner   había   sido 
clandestinamente sacada de Alemania ya que peligraba su integridad por su origen 
judío) descubren no un elemento más pesado como resultado del bombardeo nuclear 
del uranio sino un elemento más ligero, llamado bario.

Sin   poder   darles   una   explicación,   envían   estos   resultados   inmediatamente   a 


Meitner,  entonces en Estocolmo, donde ella y su sobrino, el físico Otto Frisch 
(1904   –   1979),   investigaron   el   misterio.   Llegaron   a   la   conclusión   de   que   el 
núcleo   del   uranio,   en   vez   de   emitir   una   partícula   o   un   pequeño   grupo   de 
partículas como se suponía,   se rompía en dos fragmentes ligeros, cuyas masas, 
unidas,  pesaban  menos  que   el  núcleo  original  del  uranio.  El  defecto  de  masa, 
según la ecuación de Einstein, podía aparecer en forma de energía cinética de 
los fragmentos y factible de transformarse a su vez en calor por frenado de los 
mismos transformarse en energía.

Dos años después, en la Universidad de Berkeley, California, un grupo de jóvenes 
científicos   demostraron   que   algunos   átomos   de   uranio,   en   vez   de   dividirse, 
absorbían   los   neutrones   y   se   convertían   en   las   sustancias   que   había   predicho 
Fermi. Los investigadores de Berkeley,   Edwin McMillan (1907 – 1991) y Philip 
Hauge   Abelson   (1913   –   2004)   realizaron   experimentos   en   los   que   obtuvieron   un 
elemento que poseía un protón más que el uranio, de modo que su número atómico 
era 93. Se le llamó Neptunio, por el planeta Neptuno, más allá de Urano. Luego, 
Glenn   Seaborg   (1912   –   1999)   dirigió   un   colectivo   del   propio   Berkeley,   que 
demostró   la   conversión   de   los   átomos   de   Neptunio   en   un   elemento   cuyo   número 
atómico era 94. Este elemento fue llamado Plutonio recordando al último planeta 
de nuestro sistema solar. El primer isótopo descubierto fue el Plutonio 238. Un 
segundo isótopo, el plutonio 239, resultó ser tres veces más fisionable que el 
Uranio 235 (el material que finalmente se utilizó en la bomba de Hiroshima). En 
teoría,   300   gramos   podían   generar   una   carga   explosiva   equivalente   a   20.000 
toneladas de TNT.

277
En el otoño de 1907 empezó una fructífera colaboración 
entre   Otto   Hahn   y   Lise   Meitner.   Por   entonces,   Hahn 
laboraba   en   el   Instituto   Fischer   de   Berlín   y   para  
ingresar a Meitner, por su condición de mujer, tuvo que 
solicitar   una   autorización   especial.   Luego   continuaron  
en el pequeño departamento de radiación del Instituto de  
Química   de   la   Sociedad   Kaiser   Guillermo   inaugurado   en  
1912,   hasta   1938.   Entonces,   por   su   origen   judío,   la 
austriaca Meitner, se vio obligada a emigrar a Suecia. 
El resto es conocido, Hahn descubre las condiciones en 
que   el  núcleo   de  uranio  se   escinde;  la   propia   Meitner  
con su sobrino Otto Frisch, desde Estocolmo, se encargan  
de   apoyarlo   en   la   interpretación   física   del   fenómeno.  
Pero Meitner, que acuño el término de "fisión nuclear", 
es   despojada   de   todo   reconocimiento   sobre   el   fabuloso  
descubrimiento.

En   octubre   de   1942,   un   equipo   de   científicos   dirigido   por   Fermi   empezó   a 


construir   una   pila   atómica   (uranio   colocado   entre   ladrillos   de   grafito   puro) 
bajo   las  gradas  de  un  estadio  en  la  Universidad  de  Chicago.  La  investigación 
formaba parte del proyecto Manhattan para la fabricación de la bomba atómica y 
pretendía   demostrar   que   los   neutrones   liberados   en   la   fisión   de   un   átomo   de 
uranio   podían   "disparar"   un   mecanismo   en   cadena   que   generaría   una   enorme 
cantidad  de  energía.  La  pila   atómica  de  Fermi  es  precursora  de  los  reactores 
termonucleares   para   generar   energía   eléctrica.   Una   nueva   fuente   energética 
plantearía nuevos desafíos.

El   empleo   de   la   energía   nuclear   y   la   posición   de   la   mayoría   de   la 


comunidad científica

Nueve años después de inventada la pila atómica, y a seis años del holocausto de 
Hiroshima y Nagasaki, científicos estadounidenses emplearon por primera vez la 
tecnología nuclear para generar electricidad. En 1951, bajo la supervisión de la 
Comisión de Energía Atómica se iniciaron las pruebas del funcionamiento de un 
reactor nuclear experimental instalado en una central eléctrica construida por 
los  Laboratorios  Nacionales  Argonne  en  Idaho.  El  reactor  experimental  produjo 
energía suficiente para poner en funcionamiento su propio sistema de puesta en 
marcha; como llegaría a ser común en todas las plantas de energía atómica, el 
calor del núcleo haría hervir agua y el vapor impulsaría una turbina.

278
En 1954, los soviéticos abrieron la primera planta nuclear civil en Obninsk. La 
planta fue capaz de generar sólo 5 MW de energía eléctrica. La planta civil de 
Calder Hall representó la inauguración del programa nuclear británico en 1956. 
Pero   la   primera   planta   electronuclear   comercial   fue   levantada   en   1957   por   la 
compañía Westinghouse en Shippingport, Pensilvania. Pronto empezaron a funcionar 
centrales nucleares en todo el mundo. Al finalizar la centuria las más de 400 
centrales nucleares instaladas en 18 países generaban casi la quinta parte de la 
producción   mundial,   que   se   había   decuplicado   en   la   segunda   mitad   del   siglo 
superando la astronómica cifra de 10 billones de kWh. Francia, líder mundial, 
producía el 75% de su generación eléctrica en plantas nucleares.

Enrico   Fermi   había   mostrado   virtudes   relevantes   como   físico  


teórico   y   como   investigador   experimental   liderando   el   grupo  
de   la   Universidad   de   Roma   hasta   que   emigró   de   la   Italia  
fascista  hacia  EEUU  para evitar  el sufrimiento  de  su esposa 
de origen judío. En la Universidad de Chicago, como parte del 
proyecto   Mahanttan,   inventó   la   manera   de   controlar   la  
reacción   de   fisión   nuclear.   La   pila   atómica   de   Fermi   es  
precursora   de   los   reactores   termonucleares   para   generar  
energía   eléctrica.   Una   nueva   fuente   energética   plantearía  
nuevos   desafíos.   Fermi   se   opuso   al   desarrollo   de   los  
armamentos   nucleares   en   la   posguerra   y   su   trágica  
desaparición, víctima de un cáncer cuando apenas cumplía los 
53 años fue una sensible pérdida para la ciencia.
Pero las predicciones de un futuro impulsado por energía atómica resultaron poco 
realistas. Las centrales nucleares, caras de construir y de mantener, también 
resultan peligrosas por los residuos radiactivos y la posibilidad de accidentes 
catastróficos.   Entretanto   las   grandes   potencias   se   esfuerzan   por   lograr   el 
monopolio de la energía nuclear, preocupadas por el posible desarrollo paralelo 
de   la   tecnología   nuclear   con   fines   militares,   sin   dedicar   los   recursos 
necesarios   para   las   búsquedas   de   fuentes   alternativas   de   energía   que   den 
solución, no a los proyectos de un modelo neoliberal basado en las leyes del 
mercado, sino al hambre energética que experimentan vastas zonas del planeta.

Por lo menos cuatro accidentes principales han sido registrados en las plantas 
nucleares.   En   todos   se   reporta   como   causa   una   combinación   de   errores   humanos 
(como factor principal) con fallas en el diseño de los equipos. La Organización 
Internacional   de   la   Energía   Atómica   (OIEA)   ha   implantado   una   escala   para 
categorizar   la   magnitud   de   los   accidentes   (conocida   por   sus   siglas   INES)   en 
siete   niveles.   La   categoría   máxima   está   representada   por   un   accidente   de 
consecuencias comparables al ocurrido en la Central de Chernóbil.

279
Resulta   sorprendente   que   en   los   diferentes   informes   sobre   la   catástrofe   se 
acepte la increíble versión de que se sumaran tantas negligencias para desatar 
la tragedia. Primero, el equipo que operaba en la planta el día del accidente, 
se propuso, con la intención de aumentar la seguridad del reactor, realizar un 
experimento a un régimen de baja potencia, que exigía desconectar el sistema de 
regulación de la potencia, el sistema de emergencia refrigerante del núcleo y 
otros sistemas de protección. Segundo, los operadores quedaron responsabilizados 
con la manipulación de las barras de control del reactor y de las 30 barras de 
la aleación de acero al boro que debieron permanecer bajadas, según establecen 
como mínimo las reglas de seguridad, sólo quedaron introducidas en el núcleo 8 
de ellas. Casi cuatro horas después de iniciada "la experiencia", en la sala de 
control se dio la señal de alarma de que el reactor experimentaba una subida de 
potencia   extremadamente   rápida.   Se   ordenó   bajar   de   inmediato   las   barras   de 
moderación   pero   cumplir   el   mandato   exigió   "liberarlas"   pues   el   sistema   de 
descenso   no   funcionó,   y   entonces   sobrevino   la   explosión   que   levantó   por   los 
aires   el   techo   de   100 t   del   reactor   provocando   un   incendio   en   la   planta   y 
lanzando una gigantesca emisión a la atmósfera de productos de fisión.

Las consecuencias del "accidente nuclear" han sido evaluadas de muy diferentes 
maneras por distintas fuentes. Ha quedado reconocido que 31 personas murieron en 
el   momento   del   accidente,   alrededor   de   350.000   personas   tuvieron   que   ser 
evacuadas   de   los   155.000   km²   afectados,   permaneciendo   extensas   áreas 
deshabitadas durante muchos años. La radiación se extendió a la mayor parte de 
Europa, permaneciendo los índices de radiactividad en niveles peligrosos durante 
varios días. Se estima que se liberó unas 500 veces la radiación de la bomba 
atómica arrojada en Hiroshima en 1945.

El 26 de abril de 1986 a las 1:23 horas, explotó el reactor  
número 4 de la central nuclear de Chernobil. La catástrofe  
fue el resultado de la combinación de fallas técnicas, de 
diseño   de   la   planta   y   sobre   todo   de   errores   humanos.  
Enormes cantidades de material radioactivo fueron lanzadas 
a   la   atmósfera   contaminando   grandes   extensiones   de  
Bielorrusia,   la   Federación   Rusa   y   Ucrania.   Las   nubes  
trasladaron el polvo radiactivo hacia vastas regiones del  
norte   europeo.   Los   modelos   matemáticos   anunciaron   que   un  
incremento   no   menor   al   20%   en   la   tasa   normal   de   cáncer 
sufrirán   los   135.000   habitantes   de   los   alrededores   que 
recibieron una dosis alta de radiaciones.

En septiembre de 2005, el borrador del informe del Fórum de Chernobyl (en el que 
participan entre otros el OIEA, la OMS y los gobiernos de Bielorrusia, Rusia y 

280
Ucrania) se predicen 4000 muertes entre las 600.000 personas que recibieron las 
mayores dosis de radiación. La versión completa del informe de la OMS, publicado 
en   2006,   incluye   la   predicción   de   otras   5000   víctimas   en   áreas 
significativamente   contaminadas   de   Bielorus,   Rusia   y   Ucrania,   con   lo   que   se 
alcanzarían las 9000 víctimas de cáncer. Esta cifra coincide con la estimación 
admitida por la Agencia Cubana de Prensa (ACP) que fija entre ocho mil y 10 mil 
las víctimas, mientras otras 500 mil podrán afectarse por diversos cánceres en 
los próximos 10 años, muchos de ellos muy lejos del área del accidente.

Al informarse sobre la catástrofe varias naciones ofrecieron ayuda humanitaria 
inmediata a los afectados, además de realizar promesas a largo plazo, que nunca 
cumplieron. Solo Cuba ha mantenido desde 1990, sin ningún apoyo financiero de 
institución internacional alguna, un programa de socorro para las víctimas de 
este   accidente   nuclear.   El   sistema   de   salud   de   Cuba   ha   atendido   a   18   153 
pequeños de Ucrania y Bielorus con diversas enfermedades y ha acogido además a 3 
427 adultos acompañantes. Más de 300 infantes con padecimientos hematológicos, 
136 con tumores y 1 552 con afecciones dermatológicas, han recibido tratamiento. 
Se han realizado 14 operaciones cardiovasculares y seis transplantes de médula 
ósea. Un por ciento alto de los niños de Chernobyl atendidos en Cuba provienen 
de orfanatos y escuelas para niños sin amparo filial.

En  el  peligroso  polo  del  desarrollo  de  las  armas  nucleares  también  se  vieron 
envueltos eminentes físicos y radioquímicos. A fines de los años 30 el panorama 
de   la   2da   Guerra   Mundial   se   presentaba   muy   complicado.   El   odioso   Reichstag 
alemán había amenazado con estar desarrollando un arma de potencia desconocida 
que rendiría a la humanidad a los pies del nazifascismo.

Durante las décadas del 20 al 40 el profesor sueco en  
física­médica   Rolf  M.   Sievert  (1896  –   1966)   hizo  las  
más   importantes   contribuciones   al   campo   de   la   física  
clínica. En particular a la solución de los problemas 
físicos relacionados con el empleo de la radiación en 
la   diagnosis   y   la   terapia.   Sievert   desarrolló   las  
bases   de   como   calcular   la   dosis   absorbida   para   los  
tumores,   nuevos   equipos   para   la   irradiación   de  
pacientes, e instrumentos de medición de dosis, entre 
ellos   la   mundialmente   conocida   cámara   que   lleva   su  
nombre.

A este científico se debe la determinación de los efectos biológicos de la  
radiación   ionizante,   con   particular   énfasis   en   los   efectos   que   las   dosis 
bajas   de   radiación   ionizante   recibida   por   los   radiólogos   en   su   trabajo  

281
diario.   Hasta   su   muerte   en   1964,   Sievert   jugó   un   rol   muy   activo   en   la  
cooperación internacional en el campo de protección y de la medición de las  
dosis de radiación.   En 1979, la Comisión General de Pesos y Medidas aprobó  
que  la unidad  para una  dosis  de  radiación ionizante  equivalente  llevara su 
nombre (sievert, Sv).

En   1939   Einstein   junto   con   otros   físicos   envió   una   carta   al   presidente 
Roosevelt   solicitando   el   desarrollo   de   un   programa   de   investigación   que 
garantizara   el   liderazgo   de   los   aliados   en   la   construcción   del   arma 
atómica. Científicos   de   diferentes   generaciones   y   países   concurrieron   a   la 
convocatoria del Proyecto Manhattan, para producir el arma atómica antes de que 
el   eje   nazifascista   pudiera   obtenerla.   Al   finalizar   la   guerra,   el   profundo 
carácter humanista y la inteligente pupila de la mayoría de estos científicos 
quedaron   revelados   por   la   firme   oposición   mostrada   a   la   continuación   de   las 
investigaciones en el arma nuclear.

Desde   1942,   Julius   R.   Oppenheimer   (1904   –   1967),   físico   norteamericano,   de 


origen   judío,   actúa   como   director   científico   del   Proyecto   Manhattan   para   la 
fabricación   de   la   bomba   atómica. Formado   en   los   momentos   de   esplendor   de   la 
Universidad de Gottinga al lado de físicos de la talla de su mentor James Franck 
(1882­ 1964), y su colega Eugene Rabinovitch (1903 ­1973), .Oppenheimer mostró 
una   incuestionable   capacidad   de   liderazgo   en   el   círculo   de   científicos 
participantes del proyecto. Estimuló una atmósfera de confianza y respeto que 
produjo enormes progresos. Con consagración   se mantuvo al frente del complejo 
proyecto, aunque su vida privada se resintió enormemente.

Toda una red de establecimientos investigativos, en particular de universidades 
estadounidenses, y de instalaciones especialmente diseñadas para este propósito 
se   compartieron   las   tareas   del   Proyecto   Manhattan.   Dentro   de   esta   comunidad 
científica   multinacional   se   destacaba   el   colectivo   estadounidense   que   creció 
alrededor   del   Colegio   de   Química   y   del   Laboratorio   de   Radiación   de   la 
Universidad   de   California   en   Berkeley,   y   jugó   un   papel   extraordinario   en   el 
descubrimiento   de   radioisótopos   y   elementos   transuránicos,   su   aplicación   en 
nuevos dominios de la ciencia y la técnica, y también en el desarrollo del arma 
nuclear.

Durante este período, Seaborg era ya uno de los más brillantes radioquímicos de 
la   época,   y   según   se   comentó   brevemente   arriba,   dirigió   el   colectivo   que   se 
enfrascó con éxito en la obtención del material nuclear fisionable.  En febrero 
de 1941, continuó los estudios sobre la fusión nuclear iniciados por McMillan, 
reclamado en ese momento para investigaciones relacionadas con la guerra, en el 

282
nuevo ciclotrón del laboratorio de radiación y descubrió que el Plutonio­239 es 
fisionable con neutrones lentos producidos en el ciclotrón de 37 pulgadas. Esto 
demostraba la utilidad del plutonio como componente explosivo en el arma nuclear 
y lo más importante abría paso al uso del uranio como combustible nuclear para 
reactores generadores de la energía necesitada por el mundo.

Leo   Szilard   (1898   ­   1964),   físico   de   origen   húngaro,  


fue   uno   de   los   personajes   que   tiene   la   enorme 
responsabilidad   de   haber   persuadido   a   Einstein   para  
alentar en Roosevelt el desarrollo de un programa para  
la fabricación del arma atómica. Más tarde, formó parte  
del   contingente   científico   del   proyecto   Manhattan   y 
junto a Fermi en la Universidad de Chicago, comparte el  
honor   de   haber   sido   coautor   de   la   primera   reacción  
nuclear en cadena. Condenó enérgicamente el lanzamiento 
de las bombas en Hiroshima y Nagasaki y posteriormente  
fue un ferviente partidario de la destrucción del arma  
nuclear. En 1946 detuvo sus investigaciones en el campo  
nuclear y se reorientó hacia la biofísica.

Casi veinte años más tarde Seaborg intervino de forma relevante en la redacción 
del   Tratado   para   la   Prohibición   de   Pruebas   Nucleares   de   1963,   cuyo   fin   era 
prohibir los ensayos nucleares en el espacio, la atmósfera o bajo las aguas.

Pero apenas a dos meses antes del lanzamiento de la bomba atómica en Hiroshima 
el secretario de la guerra de EU recibió un documento firmado por científicos de 
las investigaciones conducidas en el Laboratorio de Metalurgia de la Universidad 
de Chicago, que pasó a la historia como "Franck Report". Entre los firmantes se 
encontraba Seaborg, y lo encabeza el jefe de la división de Química, el físico y 
químico alemán, naturalizado en los EU, James Franck (1882­ 1964).

El copioso documento intenta frenar el lanzamiento de la bomba atómica de forma 
unilateral por los EU. Su sumario parece redactado más que por científicos por 
políticos   profundos   y   sensatos   que   comprendieron,   amén   de   la   tragedia   que   le 
tocaría vivir a las víctimas de semejante engendro destructivo, el espectro de 
la   guerra   fría   y   el   clima   de   recelos   mutuos   que   se   entronizarían   en   las 
relaciones internacionales a partir de este momento. Leamos a continuación los 
convincentes argumentos sintetizados en los últimos párrafos del reporte:

"Nosotros creemos que estas consideraciones hacen el uso de las bombas nucleares 
inadmisible si antes no se anuncia el terrible poder destructivo de esta arma, 

283
que con menos de una tonelada, es capaz de arrasar un área urbana de más de 10 
millas cuadradas y cuyos efectos a largo plazo no conoce la humanidad.

Si   los   EU   fueran   los   primeros   en   lanzar   este   nuevo   medio   de   indiscriminada 


destrucción   sobre   el   género   humano,   con   seguridad   estaríamos   sacrificando   el 
apoyo   público   internacional,   precipitaríamos   la   carrera   armamentista   y 
perjudicaría   la   posibilidad   de   alcanzar   un   acuerdo   internacional   sobre   el 
control futuro de tales armas.

Si   el   gobierno   decidiera   a   favor   de   una   demostración   previa   de   las   armas 


nucleares, entonces tendría la posibilidad de tomar en cuenta la opinión pública 
de   este   país   y   de   otras   naciones   antes   de   decidir   si   estas   armas   deben   ser 
usadas   contra   el   Japón.   De   esta   manera   otras   naciones   podrían   compartir   la 
responsabilidad de tan fatal decisión.

El   físico   alemán,   naturalizado   en   EU,   James   Franck   (1882­  


1964),   es   en   los   años   del   esplendor   de   Gotinga   como   plaza  
fuerte de la Física Cuántica, mentor que inspiró a un círculo  
de   colaboradores   entre   los   que   se   encontraban:   Patrick   J.  
Blackett   (1897­   1974),   Julios   R.   Oppenheimer   y   Eugene 
Rabinovitch.   En   1925,   comparte   el   premio   Nobel   con   Gustav  
Hertz   (1887­1975)   por   sus   investigaciones   conjuntas   que 
 significaron   una   prueba   experimental   de   la   teoría   atómica 

desarrollada por Bohr.
El  profesor  Franck  fue  uno  de  los  primeros  que   se  manifestó  
abiertamente contra las leyes raciales en Alemania y renunció  
a   su   cátedra   en   la   Universidad   de   Gotinga   en   1933   como   una  
protesta contra el régimen nazi. Más tarde en 1945 se unió a  
un grupo de científicos del Proyecto Manhattan para preparar  
el   renombrado   Franck   Report   dirigido   al   Departamento   de   la  
Guerra, urgiendo a que EU no lanzara la bomba atómica contra  
Japón, y denunciando la peligrosa carrera armamentista que se  
desataría a partir de este momento.

Nosotros   urgimos   que   el   uso   de   las   bombas   nucleares   en   esta   guerra   sea 
considerada   como   un   problema   de   la   política   nacional   estratégica   mas   que   una 
decisión evaluada desde posiciones militares y que esta política sea dirigida al 
alcance   de   un   acuerdo   que   permita   un   control   internacional   efectivo   de   los 
medios de la guerra nuclear".

Esta   exhortación  aunque  no  alcanza   su  objetivo   principal,  ya  que  en  junio   de 
este   mismo   año   la   humanidad   se   despierta   aterrorizada   ante   el   holocausto   de 

284
Hiroshima, queda como un monumento testimonial del rechazo de los científicos al 
uso de la ciencia para la destrucción e intimidación en los asuntos políticos.

Las   terribles   consecuencias   del   lanzamiento   de   la   bomba   atómica   sirvieron   de 


detonante para estremecer la conciencia de un grupo de científicos que pronto 
comprendieron   la   horrible   significación   de   trabajar   para   el   desarrollo   del 
armamento nuclear.

En plena guerra fría, el propio año del fallecimiento de Einstein, se publica el 
llamamiento a los científicos que pasa la historia como el Manifiesto de Russel 
– Einstein. No pudo ser más oportuno este aldabonazo para unir las voluntades de 
científicos de diferentes credos y orientaciones políticas en la lucha por la 
paz   pero   diversas   circunstancias   no   hicieron   posible   el   encuentro   propuesto 
hasta 1957, en que el filántropo estadounidense Cyrus Eaton ofreció la villa de 
Pugwash en Nova Scotia, Canadá, como sede del evento que pasó a la historia como 
Primera Conferencia del Pugwash. A partir de entonces se inauguró un movimiento 
a favor de la solución pacífica de los litigios entre naciones que ha tenido una 
creciente   capacidad   de   convocatoria   entre   la   comunidad   científica   con   el 
propósito   de   examinar   los   problemas   más   candentes   que   aquejan   a   la   especie 
humana.

 Una   vez   detonada   la   bomba   atómica   sobre   Japón  


declaró   que   la   humanidad   condenaría   la   fabricación  
de esta arma. Luego, aunque aceptó la dirección de  
la Comisión de Energía Atómica (CEA)   de los EEUU,  
se opuso públicamente al nuevo plan para fabricar la  
bomba   H.   En   1954,   J.   Edgar   Hoover,   director   del  
FBI, redactó un informe para la Casa Blanca apoyando  
la   acusación   de   que   Oppenheimer   era   un   "agente   de  
espionaje".   Por   esta   acusación   el   comité   de  
seguridad de la CEA, aunque sin  hallarlo  culpable,  
lo   separó   de   toda   participación   en   los   nuevos  
proyectos investigativos. En 1963, cuatro años antes  
de su muerte fue rehabilitado y la CEA le confirió  
el premio Enrico Fermi.

El   Manifiesto   de   Einstein­Russell,   una   urgente  


convocatoria   en   plena   guerra   fría   a   la   comunidad  
científica   para   definir   las   estrategias   a   seguir  
con el propósito de librar al planeta del espectro 
de   las   armas   nucleares,   encuentra   en   Rotblat   uno  

285
de los firmantes junto a Max Born, Percy Bridgman, 
Leopold   Infeld,   Frederic   Joliot­Curie,   Herman  
Muller,   Cecil   Powell,   Hideki   Yukawa   y   Linus 
Pauling.

El ultimo párrafo del manifiesto reza:

"Nosotros apelamos como seres humanos a seres humanos. Recuerden su humanidad  
y olviden el resto. Si puedes hacer esto, el camino quedara abierto para un  
nuevo   paraíso;   si   no   puedes   quedará   ante   ti   el   riesgo   de   la   muerte  
universal".

Entre los que mostraron un temprano alistamiento en la causa a favor de la paz y 
el desarme se encuentra el físico nuclear polaco Joseph Rotblat (1908 ­ 2005) 
que apoyó sin reservas este Manifiesto firmado por Einstein dos días antes de su 
muerte   y   por   otros   nueve   científicos   relevantes   en   el   campo   de   la   Física 
Nuclear.

Rotblat  que  había  trabajado  en  el  laboratorio  de  Chadwick  en  Liverpool   en  el 
desarrollo de experimentos básicos para evaluar la factibilidad de fabricar una 
bomba  atómica,  se  ve  enrolado  en  la  delegación  británica  que  asiste  en  1941, 
luego   de   la   entrada   de   los   Estados   Unidos   en   la   guerra   y   la   decisión   del 
gobierno de iniciar el Proyecto Manhatann, al Laboratorio de los Álamos, Nuevo 
México. Se contó entre el grupo de científicos  que tan pronto comprendieron que 
la amenaza fascista había desaparecido, abandonaron inmediatamente el proyecto.

En 1950 Rotblat se traslada al Colegio Medico del Hospital de San Bartolomé de 
la   Universidad   de   Londres,   donde   su   carrera   profesional   fue   orientada   a   la 
aplicación de la Física Nuclear a la Medicina, desarrollando trabajos pioneros 
en radiología, radioterapia con acelerador lineal, y radiobiología.

Pero la principal contribución de Rotblat al desarrollo de la paz mundial fue la 
organización de aquel movimiento que naciera del Manifiesto de Russel – Einstein 
en la pequeña villa de Pugwash. A partir de este momento casi una vez al año se 
reúnen más de 100 participantes de unos 40 países, principalmente de USA, Rusia 
y   Gran   Bretaña   con   el   propósito   de   evaluar   las   vías   para   lograr   un   mayor 
entendimiento y viabilizar acuerdos internacionales en materia de regulaciones y 
prohibiciones   de   desarrollar   nuevas   generaciones   de   armamentos   nucleares. 
Rotblat   es   durante   largos   periodos   secretario   general   del   movimiento   (1957   ­ 
1973),   su   presidente   desde   1988   –   1997   y   en   1995   resulta   galardonado   con   el 
Premio Nobel de la Paz.

Otra gran figura en el activismo a favor de la paz y la comprensión entre los 
pueblos   es   el   físico   –químico   estadounidense   Linus   Pauling   (1901­   1994).   Su 

286
esposa Ava Helen Miller se interesó primero que Pauling por los temas de los 
derechos humanos, la paz y la prohibición de los ensayos nucleares llegando a 
ser miembro de la Liga Internacional de Mujeres por la Paz y la Libertad. Pero 
pronto Linus que era ya un profundo conocedor de la estructura de las moléculas, 
y de su transmisión a través de la herencia, despertó una honda preocupación por 
los   efectos   potenciales   malignos   de   las   emisiones   nucleares   sobre   las 
estructuras de las moléculas humanas.

Ya   a   los   30   años   Rotblat   se   desempeña   como   director  


asistente   del   Instituto   de   Física   Nuclear   de   la 
Universidad   Libre   de   Varsovia   y   en   el   inolvidable   1939  
logra una estancia de un año de trabajo en la Universidad  
de   Liverpool   para   investigar   en   el   laboratorio   del  
profesor   James   Chadwick.   Poco   después,   las   tropas 
hitlerianas invaden a Polonia dando paso a la 2da Guerra  
Mundial. Su esposa que debía acompañarlo a Inglaterra tan  
pronto restableciera su estado de salud, muere a los pocos 
meses   de   la   ocupación   nazi   a   Varsovia,   victima   de   las  
dramáticas condiciones en que fueron hacinados los judíos 
en el ghetto de la capital polaca. Supo compartir su larga  
vida   entre   una   brillante   actividad   profesional   como  
pionero   de  la   radiobiología   con   una  consagración  total  a  
la causa de la paz. En 1995 recibe el Premio Nobel por la  
Paz.

Desde   fines   de   los   cuarenta,   Pauling,   se   afilió   al   Comité   de   Emergencia 


organizado por Einstein entre los científicos atómicos, y sirvió como activista 
de apoyo de muchas organizaciones por la paz. Intentó demostrar con cálculos la 
probabilidad   de   las   deformaciones   congénitas   en   las   futuras   generaciones 
resultantes   de   los   productos   de   la   fisión   nuclear   emitidos   por   las   pruebas 
nucleares, y los publicó; protestó por la producción de la bomba de hidrógeno, 
abogó por la prevención de la proliferación de las armas nucleares; y promovió 
la suspensión de las pruebas de armas nucleares, como un primer paso hacia el 
desarme multilateral. En 1958, Pauling presentó en Naciones Unidas la petición 
firmada   por   más   de   diez   mil   científicos   de   muchas   naciones   de   suspender   las 
pruebas   nucleares.   Por   esto   debió   rendir   cuentas   al   Comité   Senatorial   de 
Seguridad Interna que deseaba obtener los nombres de los científicos firmantes 
de esta petición. En 1962 recibió su segundo premio Nobel, este por su relevante 
contribución a la paz mundial. El primero por sus aportaciones a la comprensión 
de la naturaleza del enlace químico.

287
Muy a pesar de la actividad de los hombres de ciencias por frenar la carrera de 
las armas y detener los nuevos desarrollos del arma atómica, la lógica de la 
espiral armamentista había alcanzado al arma nuclear.

Las   autoridades   rusas   se   dirigieron   al   físico   soviético  


Abraham   F.   Ioffe   (1880   ­1960)   para   conducir   el   programa  
soviético de fabricación de la bomba atómica. Ioffe en la  
década   de   los   30   era   toda   una   autoridad   en   la   Física  
Nuclear. Al graduarse en 1902 en el Instituto Tecnológico  
de   San   Petersburgo   había   obtenido   su   doctorado   en   la  
Universidad   de   Munich,   trabajando   durante   dos   años   en   el  
Laboratorio   de   Wilhelm   Roentgen,   y   luego   de   regreso   a  
Rusia, había fomentado la creación de la Escuela Soviética  
de Física.

Ya   con   60   años,   Ioffe   rechazó   la   designación   y   propuso   al   físico   Igor   V. 


Kurchatov   (1903 ­1960), el constructor del primer ciclotrón soviético, como  
organizador   del   proyecto.   En   agosto   de   1953   detonó   la   primera   bomba   H  
soviética. Kurchatov más tarde se dedicó al uso pacífico de la energía nuclear  
y   deploró   la   continuación   de   los   ensayos   atómicos.   (En   la   imagen:   Igor  
Kurchatov)

El   estado   de   plasma   caracteriza   al   conjunto   de  


sobresalientes   propiedades   que   exhiben   los   gases   a   altas  
temperaturas,   totalmente   ionizados.   En   1950,   el   Premio 
Nobel soviético Ígor Yevguénievich Tamm (1895­1971) sugirió  
por primera vez el empleo de un dispositivo que mantuviera  
la confinación magnética del hidrógeno en estado de plasma  
para lograr la reacción termonuclear controlada. A pesar de  
la   revolución   energética   que   presupone   el   dominio   de   la  
energía   asociada   a   la   fusión   nuclear   los   problemas   que  
deben ser superados son de tal

magnitud que medio siglo después continúan las prometedoras investigaciones en 
este campo.

Cuando   el   presidente   Truman   ordena   la   fabricación   de   la   Bomba   H,   luego   del 


primer ensayo atómico soviético, se encarga del proyecto al eminente físico de 
origen   húngaro   Edward   Teller   (1908­2003).   Teller,   que   había   recibido   una 
formación académica en Alemania y trabajado en Munich en el equipo del propio 
Heisenberg,  emigró hacia Estados Unidos huyendo de la represión de la Alemania 

288
fascista. En Estados Unidos se unió al proyecto Manhattan y en Los Álamos se 
mostró   como   un   defensor   entusiasta   de   la   continuación   del   programa   de 
fabricación   de   nuevas   armas   nucleares.   Esta   vez   la   conquista   se   enfilaba   a 
liberar la colosal energía asociada a la fusión nuclear. El 1 de noviembre de 
1952   explotaba   la   primera   bomba   de   hidrógeno   (nombrada   Mike)   con   la   fuerza 
equivalente   a   500   bombas   como   la   que   había   destruido   a   Hiroshima.   Desde 
California,   Teller   pudo   registrar   el   impacto   sísmico   que   produjo   y   exclamó 
alegremente: "Es un chico". Un "chico" que podía cegar la vida de millones de 
seres... 

Como ya apreciamos en el caso de dos personalidades como Szilard y Rotblat, una 
trascendente orientación de los físicos nucleares se dirigió hacia la solución 
de problemas en el campo de la biología. Un notable impacto en los estudios de 
los   procesos   biológicos   tuvo   el   descubrimiento   del   isótopo   radioactivo   del 
carbono –14. Pero no solo la biología resultó beneficiada con este hallazgo, la 
técnica de datación con el carbono –14 provocó una revolución en los ámbitos de 
la arqueología, y la geología.

Los   autores   de   este   descubrimiento   fueron   dos   jóvenes   científicos   que   en   la 
década  del  30  formaron  parte   de  un  impresionante  staff  de  físicos  y  químicos 
agrupados   en   torno   al   joven   director   del   Laboratorio   de   Radiación   de   la 
Universidad de Berkeley, inventor del ciclotrón, Ernest O. Lawrence (1901­1958). 
Martín   D.   Kamen   (1913­2002)   y   Samuel   Ruben   (1913­1943)   vieron   sus   planes 
inmediatos postergados por su enrolamiento en investigaciones para los servicios 
de la guerra y, a partir de estos momentos, sufrieron una verdadera tragedia.

El paralelismo en las vidas de Ruben y Kamen supera el marco profesional. Ambos 
nacieron en 1913. Kamen había nacido en Toronto de padres inmigrantes, la madre 
de   la   región   del   Báltico,   el   padre   de   Bielorrusia.   Los   padres   de   Ruben   eran 
polacos. En 1936, Kamen había defendido su grado de doctor en la temática de la 
interacción  protones­neutrones  en  la  Universidad  de  Chicago.  Ruben,   dos  años, 
después recibió el doctorado por la Universidad de California, Berkeley, y el 
tema   central   de   su   disertación   estuvo   vinculado   con   el   empleo   del   fósforo 
radioactivo como trazador para estudiar procesos biológicos.

289
La historia profesional de Samuel Ruben se entrelaza con 
la de su compañero Martin D. Kamen. A partir de 1937 una  
alianza   productiva   se   establece   entre   estos   dos   jóvenes  
investigadores   de   áreas   complementarias   en   Berkeley.   En  
1940 anuncian el descubrimiento del isótopo del carbono –
14 que prometía, por su tiempo de vida medio, una nueva  
época como trazador radioactivo. A la entrada de los E.U. 
en   la   II   Guerra   Mundial,   son   reclamados   por   diferentes  
laboratorios   para   estudios    relacionadas con   la   guerra 
y sus vidas profesionales se separan.

Ya   no   volverían   a   encontrarse.   Ruben   muere   trágicamente   en   un   accidente   de  


laboratorio que lo hace inhalar una dosis letal de fosgeno apenas con 30 años,  
Kamen se ve involucrado en acusaciones de filtraciones de información sensible  
a los soviéticos que le frenan su desarrollo en el momento más fértil de su  
trayectoria científica. En la imagen: S. Ruben

La razón de su posterior alianza se puede encontrar en los temas hacia dónde 
dirigieron   sus   esfuerzos   iniciales   en   la   investigación.   En   1937,   Ed   McMillan 
traslada   a   esta   pareja   de   jóvenes   talentosos   de   dos   áreas   complementarias   de 
Berkeley,   un   encargo   de   comprobación   experimental   solicitado   por   el   propio 
Lawrence.   A   partir   de   entonces   una   tácita   división   del   trabajo   opera   entre 
ellos:   la   producción   y   caracterización   de   los   isótopos   producidos   en   el 
ciclotrón   sería   una   responsabilidad   de   Kamen,   mientras   su   aplicación   en   la 
investigación química debía ser tarea de Ruben.

En febrero de 1940, se anunciaba, en ocasión de la ceremonia de entrega oficial 
del premio Nobel de Física (1939) a E.O. Lawrence el descubrimiento del carbono­
14. La valoración del significado trascendental del hallazgo destacaba que por 
medio del ciclotrón, se había obtenido una nueva forma radioactiva del carbono, 
probablemente de masa 14 y tiempo de vida media del orden de magnitud de algunos 
años.   Sobre   la   base   de   su   potencial   utilidad   es   la   más   importante   sustancia 
radioactiva   que   haya   sido   creada.   Tenían   entonces   ambos   27   años.   Pronto 
intervendría  EU  en  la  Guerra,  y  sería  reclamada  la  participación  de  ellos   en 
estudios relacionados con la actividad bélica.

Ruben fue solicitado por el Comité Nacional de Defensa para un proyecto que se 
proponía desarrollar métodos para la determinación de la concentración de gases 
en el ambiente. Durante la manipulación de una ampolleta de vidrio defectuosa, 
cargada con fosgeno, escapó el gas y Ruben debió inhalar una dosis mortal del 

290
mismo. Un día después, en el otoño de 1943 murió en el Hospital en que fuera 
internado.

En este año de la muerte de Ruben, fue enrolado Kamen en las investigaciones del 
Laboratorio Nacional de Oak Ridge del Proyecto Manhattan. Pero poco después es 
separado   de   este   laboratorio   cuando   Kamen   especula   con   sus   colegas   sobre   la 
existencia de un reactor nuclear en las dependencias de estas instalaciones y 
esta   información,   sumamente   sensible,   llega   a   los   agentes   de   seguridad   del 
proyecto.   Este   suceso   es   interpretado   como   una   intromisión   de   Kamen   y   una 
inclinación   por   datos   de   la   seguridad   y   se   decide   no   sólo   su   separación   del 
programa sino también someterlo a chequeo personal.

El   físico   estadounidense   Martín   D.   Kamen   conocido   por   su  


codescubrimiento   del   carbono   –14   en   el   Laboratorio   de  
Radiación de Lawrence, junto con su colega del Departamento 
de Química de Berkeley, Samuel Ruben, sufrió las presiones  
de la cacería de brujas que le hicieron perder su empleo en  
Berkeley, afectaron gravemente su prestigio personal por la  
campaña de la prensa amarilla, y lo llevaron a tal depresión  
que incluso atentó contra su vida. Perdió años fértiles de  
su   carrera,   le   prohibieron   el   intercambio   necesario   con  
colegas   del   extranjero   al   retirarle   el   pasaporte   y   debió  
resistir   todo   tipo   de   presiones.   Kamen   cerró   sus   estudios  
nucleares en 1947, y realizó importantes contribuciones a la 
bioquímica   de   la   fotosíntesis   con   el   empleo   de 
radiotrazadores. En 1996 recibió el premio Enrico Fermi por 
el   Departamento   de   Energía   de   los   EU,   tenía   entonces   83  
años.

Un nuevo incidente se crea al reincorporarse a Berkeley. En el transcurso de una 
velada musical organizada por su amigo el músico Isaac Stern, al cual acompaña 
en la viola, conoce a dos oficiales rusos, uno de los cuales le pide a Kamen 
averigüe sobre como puede un compañero aquejado de leucemia acceder a la nueva 
terapia radioquímica.

Los agentes del FBI lo chequeaban y esta "relación" con oficiales rusos es de 
nuevo interpretada como un motivo para levantar un expediente de investigación. 
Kamen es despedido de su trabajo en Berkeley. El despido de Kamen fue seguido 
por un año de negaciones a ofertas de trabajo tanto en puestos académicos como 
de la industria. Es difícil imaginar las ideas perdidas tras la muerte de Ruben 
y la suerte corrida por Kamen.

291
En la primavera de 1945 el premio Nobel de Física (1923) Arthur H. Compton (1892 
­   1962)   lo   invita   a   trabajar   en   la   Escuela   de   Medicina   de   la   Universidad 
Washington para conducir el programa del ciclotrón. Sin embargo la enseñanza de 
la   metodología   del   trazador   radioactivo   a   los   profesores   y   la   preparación   de 
materiales   radioactivos   marcadores   para   sus   investigaciones   clínicas, 
desplazaron   el   interés   de   la   investigación   desde   la   física   nuclear   hacia   la 
biofísica. Con la publicación en 1947 de su aclamado texto "Radioactive tracers 
in Biology", Kamen concluyó su trabajo sobre el C­14.

Kamen   debió   sufrir   en   estos   años   la   negativa   del   Departamento   de   Estado   a 


concederle   el   pasaporte   que   le   impedía   su   participación   en   las   conferencias 
internacionales a las cuales era invitado en calidad de pionero en el trabajo 
con trazadores radioactivos. Semejante prohibición se extendió desde 1947 hasta 
1955.   En   1948,   de   nuevo   soportó   las   presiones   del   Comité   de   Actividades 
Antiamericanas ante la posibilidad de que hubiera filtrado secretos atómicos a 
los rusos mientras trabajaba en el proyecto Manhattan. La insostenibilidad de 
los cargos obligó al Comité a revocarlos pero la marca de espía atómico debió 
llevarla Kamen aún varios años.

En   1951,   según   recoge   en   su   autobiografía,   "Radiant   Science,   Dark   Politics", 


comenzó   un   litigio   legal   contra   la   Compañía   Tribuna   cuyos   periódicos   lo 
identificaron   en   sus   páginas   de   historias   como   un   científico   atómico   espía   y 
traidor.   Al   final,   Kamen   triunfó,   obteniendo   una   reparación   monetaria   en   el 
juicio.  Pero  su  rehabilitación  ante  la  historia  vino  tardíamente   ya  a los   83 
años cuando el Departamento de Energía le confirió el Premio "Enrico Fermi", una 
de   las   más   altas   condecoraciones   dadas   a   los   científicos   atómicos   por   el 
gobierno de los EU.

Al concluir la guerra, el profesor del Departamento de Química 
de Berkeley, Willard Libby se traslada al Instituto de Estudios  
Nucleares de la Universidad de Chicago y allí descubre en 1947  
"el reloj radioactivo" del carbono­14. Su técnica de datación 
de lapsos grandes es una de las aplicaciones más sobresalientes  
del   isótopo   de   Kamen­Ruben.   Un   organismo   vivo   mantiene   un 
intercambio   permanente   con   el   medio   y   por   tanto   la  
concentración   del   C­14   en   su   constitución   se   mantiene 
constante, pero al morir, el C­14 se desintegra a una velocidad  
constante de acuerdo con su período de vida media de 5730 años.

La intensidad pues de la radiación emitida por el fósil será una medida de "su 
edad". Una revolución en la arqueología, antropología y geología deviene de la  

292
confiabilidad de esta técnica de datación.

Algunas tecnologías derivadas de las teorías físicas y su aplicación.

Resumir en breves líneas los extraordinarios progresos alcanzados en el siglo XX 
en   materia   de   tecnología   derivadas   de   teorías   físicas   es   tarea   imposible. 
Reducimos nuestro propósito a esbozar algunas técnicas de avanzada que emergen 
de los resultados teóricos más brillantes nacidos y desarrollados en este siglo.

Cuando Roentgen descubre en 1895 los rayos de naturaleza entonces desconocida 
pero desde ya comprobada su alta capacidad de penetración pronto se aplica para 
obtener las primeras fotos de los huesos humanos. Su aplicación en Medicina 
encuentra una rápida difusión y en determinadas circunstancias históricas brilla 
en esta actividad la célebre Marie Curie. También con relativa rapidez se 
inaugura una época en que los rayos –X resultan útiles para analizar las 
sustancias cristalinas o los espectros de emisión de estas radiaciones por los 
elementos químicos permiten su identificación. Las páginas que siguen abordaran 
brevemente estos momentos.

Con el propósito de apoyar la candidatura para una plaza vacante en la Academia 
de Ciencias del eminente físico Edouard Branly (1844­1940), que representaba los 
valores del conservadurismo francés, la prensa reaccionaria francesa no dudó en 
dañar la imagen de la insigne científica de origen polaco, Marie Curie. El daño 
se hizo y la candidatura de Marie fue derrotada en 1910 por dos votos. Un año 
después a su regreso del Congreso Solvay en Bruselas, debió enfrentar una nueva 
ronda de odio esta vez "acusada" de sostener relaciones con el destacado físico 
francés Paul Langevin (1872 – 1946). Poco después recibiría la información de la 
Academia Nobel de haber recibido un segundo Premio, esta vez en la disciplina de 
Química. De cualquier forma en los primeros meses de 1912, sufrió primero una 
fuerte depresión nerviosa y luego debió someterse una operación de los riñones. 
Sólo a fines de este año Marie retornó al laboratorio después de casi 14 meses 
de   ausencia.   El   escándalo   había   finalizado   y   la   Academia   de   Ciencias   estaba 
dispuesta a darle la bienvenida a la mujer que había sido dos veces laureada con 
un premio Nobel.

Pero   pronto  se  pondría  a  prueba   la  estatura   moral  y  el  patriotismo  verdadero 
que, durante el periodo de la guerra, iba a demostrar Marie por su nación de 
adopción. Por el otoño de 1914, cuando Alemania declaró la guerra a Francia, la 
construcción   del   Instituto   de   Radio   había   terminado   pero   la   Curie   no   había 
trasladado   aún   su   laboratorio   para   la   nueva   edificación.   El   trabajo   del 
Instituto de Radio podría haber esperado por la restauración de la paz pero la 
Curie encontró formas de poner su conocimiento científico al servicio del país. 
En   el   Instituto   de   Radio,   la   Curie   entrenó   alrededor   de   150   mujeres   en   la 

293
técnica de rayos – X que actuaron como asistentes en las unidades radiológicas 
móviles   que   fueron   llevadas   a   las   líneas   del   frente.   Previamente   había 
encabezado   una   campaña   nacional   para   adaptar   carros   de   aquellos   tiempos   como 
unidades   radiológicas   móviles   que   dieran   una   asistencia   inmediata   para   el 
tratamiento de los heridos y fracturados en el campo de batalla. El uso de los 
rayos   –X   durante   la   guerra   salvó   las   vidas   de   muchos   heridos   y   redujo   los 
sufrimientos de los que sufrieron fracturas de todo tipo.

Bajo   la   dirección   de   Marie Curie el   Instituto   de   Radio   en 


París se convirtió en un centro mundial para el estudio de  
la radioactividad. Entre 1919 y el 1934, año en que fallece  
la Curie, los científicos del laboratorio publicaron más de  
483 artículos y 31 libros y monografías. Hasta el final de  
su vida ella continúo sus estudios para aislar, purificar y 
concentrar   el   polonio   y   el   actinio.   Al   mismo   tiempo   su 
trabajo   estuvo   íntimamente   relacionado   con   la   producción  
comercial   de   las   sustancias   radioactivas   y   muchas   de   sus  
aplicaciones en la ciencia, la industria y la medicina. La  
pareja científica estelar del Instituto, su hija Irene y su 
yerno   Frederic   hicieron   en   1934   el   trascendental 
descubrimiento de la radioactividad artificial.

Cuando   los   servicios   radiológicos   ya   estaban   marchando   establemente,   Curie 


cambió su atención hacia el servicio de radioterapia. Comenzó entonces a usar 
una   técnica   desarrollada   en   Dublín   para   colectar   radón,   un   gas   radioactivo 
emitido   continuamente   por   el   radio.   Trabajando   sola   y   sin   una   protección 
adecuada Madame Curie pudo colectar el gas en ampolletas de vidrio selladas que 
eran así entregadas a los hospitales militares y civiles para que los médicos 
empleando agujas de platino lo inyectaran en la zona del cuerpo de los pacientes 
donde la radiación debía destruir el tejido enfermo. Se inauguraba la época de 
la radioterapia en la medicina.

El redescubrimiento de los rayos –X se produjo cuando el físico alemán Max von 
Laue (1879 – 1960)  determina experimentalmente la longitud de onda de los rayos 
–X  al estudiar los espectros de difracción   que experimentan las sustancias 
cristalinas. Otros pioneros en el estudio de la estructura de los cristales 
mediante sus espectros de difracción de rayos –X  fueron los físicos británicos, 
padre e hijo, William Henry Bragg (1862­1942) y  William Lawrence Bragg (1890­
1971). El primero fue profesor de Física de universidades inglesas y en el 
último tramo de su vida profesional ocupo la cátedra de Física de la Universidad 
de Londres. Su hijo le siguió los pasos en la investigación  y juntos 
desarrollaron trascendentales estudios sobre la estructura cristalina de 

294
importantes sustancias del mundo inorgánico demostrando la utilidad de la 
técnica como herramienta de investigación para confirmar las teorías 
cristalográficas. En reconocimiento a los logros cosechados compartieron padre e 
hijo el premio Nobel de Física de 1915. Nunca antes ni después se ha repetido 
este acontecimiento. William Lawrence fue sucesor en la Universidad de 
Manchester del físico nuclear Ernest Rutherford y luego funda en Cambridge, en 
1938 el laboratorio de Biología Molecular que se destacará en los próximos años 
por los estudios fundamentales que desarrolla que cubren todo una época.

Continuadora   de   los   trabajos   de   los   Bragg,   en   este   campo  


brilló   la   actividad   de   la   físico­química   británica   Dorothy  
Crowfoot   Hodgkin   (1910   –   1994).   Desde   los   años   30   Hodgkin  
empleó el análisis de rayos X para la determinación de las  
configuraciones moleculares de la penicilina, la vitamina B­
12,   la   insulina,   y   proteínas.   En   todos   los   casos   Dorothy  
introdujo   las   últimas   innovaciones   de   la   técnica 
computacional   Padeció   de   artritis   reumatoide   desde   su  
juventud, por lo que debió sufrir de deformación de las manos  
y continuos dolores pero a todo esto supo sobreponerse y fue 
madre de tres hijos, una eminente científica, premio Nobel de 
Química en 1964, y una destacada activista por la amistad y  
la paz entre los pueblos. 

Otro grande de las primeras décadas en el desarrollo de la espectroscopia de 
rayos –X fue el físico sueco, primer director del Instituto Nobel de Física 
Experimental, Karl Manne Georg Siegbahn (1886­1978). Siegbahn no se dedicó a la 
interpretación de los espectros de difracción sino al análisis de los rayos –X 
emitidos por los elementos químicos al ser bombardeados por electrones rápidos. 
En tales casos cada elemento ofrece un espectro de emisión característico. Los 
espectrómetros construidos por el propio Siegbahn permitían medir y registrar 
con alta precisión las longitudes de onda emitidas por cada elemento químico. 
Sus trabajos revelaron información sobre prácticamente todos los elementos 
químicos, desde el sodio hasta el uranio, lo que facilitó el análisis de 
sustancias desconocidas y encontraron aplicación en campos tan diversos como la 
física nuclear, la química, la astrofísica y la medicina.

En artículos publicados en la Revista Journal of Applied Physics de 1963 y 1964 
el físico sudafricano, naturalizado en EU, Allan M. Cormack (1924 ­1998) expusó 
los principios de una nueva técnica que aplicaba un barrido multidireccional de 
rayos –X sobre el paciente para luego reconstruir las imágenes de sus órganos 
con mayor resolución que las técnicas convencionales. Estos trabajos no llamaron 

295
la atención de la comunidad de radiólogos hasta que en 1967 el ingeniero 
electrónico británico Godfrey N. Hounsfield (1919­2004) sin conocerlos 
desarrolló el escáner un equipo que bajo el mismo principio propuesto por 
Cormack iba a representar una de las más importantes invenciones médicas del 
siglo XX: la tomografía axial computerizada (TAC). Los escáneres se empezaron a 
utilizar en la década de 1970 y en la actualidad se emplean en muchos países, 
sobre todo para diagnosticar el cáncer. La tomografía permite un diagnóstico más 
preciso al obtener imágenes tridimensionales con una resolución mucho mayor.   
En 1979 Cormack y Hounsfield compartieron el Premio Nobel de Fisiología y 
Medicina.

El estudio de las fuentes cósmicas de rayos –X se inició  
en   la   segunda   mitad   del   siglo   XX.   Como   uno   de   los  
fundadores de la Astronomía de Rayos –X se reconoce al  
físico italiano Riccardo Giacconi (1931­), premio Nobel  
de   Física   2002.   En   1962   Giacconi   y   un   equipo   de  
científicos de la NASA enviaron en un cohete un detector 
de rayos –X con un objetivo diferente al descubrimiento 
obtenido:   el   primer   agujero   negro   se   registraba   en   la 
constelación Escorpión como un potente emisor de rayos­
X.   A   partir   de   entonces   diferentes   laboratorios  
espaciales   de   rayos­X   han   descubierto   explosiones   de  
supernovas,   púlsares   de   rayos­X, quásares 
extragalácticos   y   otros   acontecimientos   cósmicos   que 
produzcan   un   extraordinario   calentamiento   de   gases   o  
campos   magnéticos   intensos. En la década de 1990,   un 
satélite   alemán   equipado   con   un   telescopio   de   rayos   X 
cuyo   nombre   perpetúa   la   memoria   de   Roentgen   (ROSAT) 
proporcionó   una   observación   detallada   de   la   radiación  
cósmica de rayos X. La exploración del ROSAT descubrió 
casi 60.000 fuentes de rayos X en todo el Universo.

Las ondas mecánicas con una frecuencia de vibración comprendida entre 15 y 20 
kHz son registradas por el sistema del oído interno humano. Las ondas de 
frecuencia superior inaudibles son llamadas ondas ultrasónicas. La génesis de 
las ondas ultrasónicas esencialmente se asocia con el descubrimiento en 1880 del 
efecto piezoeléctrico por los hermanos Pierre (1859 – 1906) y Jacques Curie que 
proporcionó los medios de generar y de detectar las ondas de ultra alta 
frecuencia.

296
Las primeras aplicaciones serias de dispositivos piezoeléctricos tuvieron lugar 
durante la primera guerra mundial. En 1917 un equipo de investigación dirigido 
por el  físico francés Paul Langevin (1872 – 1946) comenzó a diseñar un detector 
submarino ultrasónico. El transductor era un mosaico de cristales de cuarzo 
delgados encolado entre dos platos de acero (el compósito tenía una frecuencia 
resonante de aproximadamente 50 KHz), montado en un conveniente dispositivo para 
la sumersión. Para el fin de la guerra, se había logrado el objetivo de emitir 
un gorjeo submarino de alta frecuencia y medir la profundidad cronometrando el 
eco del retorno. La importancia estratégica de su logro no fue pasada por alto 
por las naciones industrializadas y desde entonces no ha cesado el desarrollo de 
transductores del sonar, circuitos, sistemas, y materiales relacionados.

Cuatro decádas después de la invención del sonar, apareció un artículo de título 
sugerente publicado en la Revista Science: “Tomando imágenes con el sonido”. 
Corría el último mes de 1957 y lo firmaba un físico de la División de Metalurgia 
del Laboratorio Nacional Argonne, William Nelson Beck (1923 – 1996). Como ocurre 
con relativa frecuencia el objeto inicial de la investigación fue alterado 
cuando Beck comprobó que podía recomponer imágenes de los órganos expuestos a 
ondas ultrasónicas. Ajustando la sensibilidad del sistema de registro fue 
posible diferenciar entre carne y hueso.

Con el paso del tiempo, los equipos analizadores de ultrasonido han tenido una 
gran aceptación en las investigaciones médicas por tres razones fundamentales: 
permite ver imágenes en tiempo real (en movimiento), es un método de diagnóstico 
económico en comparación con otros, y por último las ondas ultrasónicas no 
constituyen radiaciones ionizantes que penetren y dañen al tejido vivo. El 
término de ecografía con que se reconoce la técnica de exploración clínica que 
emplea el ultrasonido acusa el principio de su aplicación. El equipo debe emitir 
ondas ultrasónicas cuyo eco (variable según la naturaleza del tejido reflector) 
es registrado y finalmente transformado en imagen. Puesto que las ondas 
ultrasónicas son mejor reflejadas por los órganos que contienen líquidos, estos 
serán mejor “vistos” lo que hace especialmente útil la técnica de análisis 
clínico en las áreas de obstetricia (placenta, feto, partes maternas); la 
ginecología (útero y ovarios); gastroenterología (hígado, vesícula, vías 
biliares) y urología (riñones, vejiga y próstata).

297
De   Paul   Langevin,   físico   francés   de   importantes 
contribuciones   a   la   física   del   estado   sólido   y   a   la 
mecánica   relativista,   Einstein   afirmó:   “Es   indudable   que  
si yo no hubiera publicado mi trabajo, él habría alcanzado  
su   meta,   tarde   o   temprano,   y   lo   habría   hecho   antes   que  
todos   los   demás”.   Pero   su   grandeza   desborda   su   valiosa 
contribución a la Ciencia. Desarrolla una notable lucha por  
la   paz   entre   las   naciones.   En   1933,   preside   el   Comité  
Mundial  contra  la Guerra y  el Fascismo.  Con  el asalto de  
las hordas nazis a París es el primer relevante intelectual 
francés  internado en un calabozo.

La radiación coherente intensa y direccional producida por el dispositivo 
llamado láser en una amplia región del espectro electromagnético desde el 
infrarrojo hasta los rayos – X, es el resultado de un proceso de amplificación 
de la radiación mediante emisión estimulada de un medio que puede ser un gas, un 
líquido o un sólido. La radiación láser ha encontrado aplicaciones en el campo 
de la técnica, la medicina y las investigaciones científicas.

En 1917 Einstein introduce el concepto de emisión estimulada y sólo décadas más 
tarde, en 1954, los físicos soviéticos Nikolai G. Basov (1922­ 2001) y Alexander 
M. Projorov (1916 ­ 2002) del Instituto Lebedev de Física de Moscú y, de modo 
independiente, el físico estadounidense Charles H. Townes (1915­ ), por entonces 
profesor de la Universidad de Columbia, utilizan el proceso de emisión 
estimulada para la fabricación de los primeros amplificadores de microondas 
(Máser). Por sus estudios en el campo de la electrónica cuántica que anticiparon 
la técnica de amplificación de las microondas por emisión estimulada de la 
radiación, Basov, Projorov y Townes compartieron el Premio Nobel de Física en 
1964. Pronto se encontraron numerosas aplicaciones para estos dispositivos 
capaces de enviar microondas de elevada intensidad en cualquier dirección y un 
resultado inmediato fue el perfeccionamiento de la tecnología de los 
radares. Los máseres encontraron aplicación por la gran estabilidad de las 
frecuencias generadas, como reguladores de tiempo en relojes atómicos.

No pasan cuatro años sin que Projorov e —independientemente— Arthur L. Schawlow 
(1921 ­ 1999) y Townes extiendan los principios de la amplificación por 
estimulación de la radiación a la luz visible (Láser).En 1958, la pareja de 
estadounidenses describió a grandes rasgos los principios de funcionamiento del 
láser en su solicitud de patente. Obtuvieron la patente, pero posteriormente fue 
impugnada por el ingeniero estadounidense Gordon Gould. En 1977, el Tribunal de 

298
Patentes de Estados Unidos confirmó una de las reivindicaciones de Gould en 
relación con los principios de funcionamiento del láser.

Los plazos siguen acortándose y esta vez en 1960 el físico estadounidense 
Theodore H. Maiman (1927­ ) construye el primer láser utilizando un rubí como 
medio amplificador del láser.  Un año después el físico de origen iraní Alí 
Javan fabrica un láser utilizando una mezcla gaseosa de helio y neón. El láser 
de helio­neón resalta por su elevada estabilidad de frecuencia, pureza de color 
y mínima dispersión del haz.

Schawlow   y   Townes   se   consideran   los   padres   de   la 


espectroscopia de microondas al describir las bases de  
esta técnica en un texto clásico en 1958. Más adelante  
Schawlow continúa aplicando la radiación coherente del  
visible   y   del   infrarrojo   a   nuevas   técnicas   de   la 
espectroscopia   molecular.   En   1981   Schawlow   recibe   el 
premio Nobel de Física por sus investigaciones sobre el  
láser   y   su   aplicación   en   la   espectroscopia.   También  
  este   año   la   Academia   Sueca   reconoció   la   labor   del 
físico holandés, doctorado en 1948 en la Universidad de  
Leiden, y profesor de la Universidad de Harvard desde  
1951,   Nicolaas   Bloembergen   (1920­ ).   Bloembergen 
elaboró nuevas leyes de la óptica para la interacción  
entre la radiación intensa del láser y la sustancia  y 
las utilizó en la puesta a punto de nuevas técnicas de  
espectroscopia   láser.   La   aplicación   de   estas   técnicas  
contribuyó al análisis de las estructuras complejas de  
sustancias biológicas. Imagen: © The Nobel Foundation

A lo largo de la década de los sesenta se investigan con éxito diferentes medios 
de estimulación. En 1962 se fabrican los primeros láseres de semiconductores en 
varios laboratorios del mundo. Este tipo de laser está integrados por una unión 
entre capas de semiconductores con diferentes propiedades que confina la cavidad 
del láser mediante dos límites reflectantes. Se logra así una estructura de 
láser compacta.  En la actualidad, entre los usos más comunes de los láseres de 
semiconductores se encuentran los reproductores de discos compactos y las 
impresoras láser.

En   1931   el   físico   estadounidense   Robert   Jemison   Van   de   Graaff   (1901­1967) 


inventó la máquina electrostática conocida como generador de Van de Graaff capaz 
de   producir   las   altas   tensiones   requeridas   para   acelerar   partículas   con   las 

299
cuales   estudiar   transformaciones   nucleares.   Poco   después   Ernest   O.   Lawrence 
(1901­1958)   inventa   un   acelerador   de   micropartículas,   el   ciclotrón, que   abría 
nuevas   horizontes   a   las   investigaciones   de   los   procesos   de   fusión   nuclear 
pronosticados   por   Fermi.   Lawrence,   profesor   titular   de   la   Universidad   de 
Berkeley   a   los   29   años,   fundó   el   Laboratorio   de   Radiación   que   en   alianza 
productiva con el Colegio de Química    dirigido por el veterano Gilbert Newton 
Lewis (1875 –1946) posibilitó el descubrimiento de los elementos transuránicos y 
de numerosos radioisótopos de gran utilidad como trazadores en investigaciones 
biológicas   y   en   aplicaciones   médicas.  En   1939   recibe   el   Premio   Nobel   de 
Física. 

El descubrimiento de los 22 elementos transuránicos con número atómico superior 
a   92   (que   caracteriza   al   uranio)   fue   posible   gracias   a   los   aceleradores   de 
partículas.   Sólo   tres   de   estos   elementos   fueron   producidos   en   los   reactores 
nucleares por procesos de fusión mediante el bombardeo con neutrones rápidos, y 
de   desintegración   radiactiva.   Así   cuando   el   uranio­   238   es   bombardeado   con 
neutrones se convierte en el uranio ­239 que experimenta la beta desintegración 

para   producir   neptunio 239Np93 y   plutonio 239Pu94.   El   plutonio­239   cambia   a 

americio 241Am95 por bombardeo de neutrones y posterior desintegración beta del 

plutonio­241.

Los   elementos   transuránicos   desde   número   atómico   96   y   más   alto   son   todos 
fabricados mediante aceleración de un pequeño núcleo (tal como He, B, o C) en un 
acelerador de partículas cargado para colisionar con un núcleo pesado marcado (a 
menudo de un núcleo transuránico previamente producido).

La   contribución   de   Glenn   Seaborg   al   desarrollo   de   la  


radioquímica ha sido impresionante. Su equipo participó en 
el   descubrimiento   de   10   elementos   transuránicos,   entre  
ellos el plutonio, elemento esencial en la fisión nuclear.  
Compartió en 1951 el Premio Nobel de Química con el físico 
estadounidense   Edwin   McMillan   (1907   –1931).   Una   amplia  
variedad de radionúclidos empleados en la lucha contra el  
cáncer y otros fines médicos como el yodo­131 y el cobalto 
­60 fueron también "fabricados" bajo su dirección.

Narra   Seaborg   en   su   autobiografía   que   una   satisfacción   adicional   recibió 


cuando   su   propia   madre   prolongó   su   vida   durante   varios   años   al   recibir   el  
tratamiento   con   yodo­   131.   Los   descubridores   del   elemento   106   propusieron  
nombrarlo Seaborgium (Sg) y en 1997 la IUPAC anunció su aprobación.

300
A   los   descubrimientos   del   Laboratorio   Nacional   Lawrence   se   sumaron   otros   dos 
laboratorios de relieve internacional que fundados en la segunda mitad del siglo 
XX asumieron como direcciones fundamentales de la investigación la síntesis de 
nuevos elementos pesados y superpesados, el estudio de sus propiedades físicas y 
químicas así como la investigación de las propiedades de sus desintegraciones 
radioactivas.   Una   sobresaliente   actuación   en   estas   complejas   tareas   ha 
caracterizado la gestión del Laboratorio de las Reacciones Nucleares de Flerov 
perteneciente al Instituto Conjunto para la Investigación Nuclear de Dubna, a 
unos   160   km   de   Moscú   y   el   Laboratorio   de   Investigación   de   Iones   Pesados   en 
Darmstadt, Alemania.

La   naturaleza   y   complejidad   de   los   problemas   que   debieron   superar   estos 


colectivos se entiende mejor cuando se conoce que los tiempos de vida de los 
nuevos   elementos   resultan   extraordinariamente   breves,   los   rendimientos   de   las 
reacciones de fusión son extremadamente bajos mientras los rendimientos de los 
núclidos   secundarios   que   interfieren   con   la   identificación   de   los   nuevos 
elementos   son   altos.   Por   consiguiente   se   necesita   contar   con   métodos   de 
detección ultrarrápidos y específicos que identifiquen sin ambigüedad los nuevos 
núcleos.

Complicados   experimentos   sobre   la   síntesis   de   los   nuevos   núcleos   fueron   con 


frecuencia conducidos paralelamente en las tres instituciones. Como consecuencia 
de   esta   simultaneidad   se   origina   la   polémica   sobre   la   prioridad   de   los 
descubrimientos.   Para   resolver   este   problema   en   1986,   de   acuerdo   con   una 
decisión unánime de la Unión Internacional de Química Pura y Aplicada (IUPAC) y 
la   Unión   Internacional   de   la   Física   Pura   y   Aplicada,   se   constituyó   un   grupo 
especial   de   trabajo   compuesto   por   físicos   y   químicos   para   trabajar   en   el 
criterio de reconocer la prioridad en el descubrimiento de los nuevos elementos 
químicos.

Entre los 80 y los 90 el Laboratorio de Darmstadt, cosechó significativos éxitos 
en el terreno de la síntesis de nuevos elementos pesados. El equipo encabezado 
por   el   físico   alemán   Peter   Ambruster   participó   en   el   descubrimiento   de   los 
elementos   Bohrio   (Z=107,   1981),   Hassio   (Z=108,   1984),   109   Meitnerio   (Z=   109, 
1982); Darmstadtio (Z=110, 1994) y Roentgenio (Z=111, 1994).

301
Durante   30   años   el   académico   soviético   Georgy   N.  
Flerov (1913 – 1990) fue director del Laboratorio de  
Reacciones Nucleares que fundó en 1956 en Dubna. Sus  
colaboradores que llegaron a Dubna en plena juventud 
reconocieron   el   clima   de   confianza   y   de   libertad  
fomentado por Flerov que posibilitó en una década el  
liderazgo alcanzado por esta institución. En 1995 el 
grupo internacional de trabajo adjudicó la prioridad  
en   la   síntesis   de   los   elementos   102­105   al  
laboratorio de Flerov. Además el laboratorio recibió  
un   reconocimiento   por   su   destacada   contribución   al  
descubrimiento de los elementos 106 ­ 108.

En 1997, en el Congreso de la Unión Internacional de Física Pura y Aplicada, 
el   elemento   105   fue   llamado   Dubnium.   El   sucesor   de   Flerov   al   frente   del 
laboratorio fue el profesorYuri Ts. Oganessian, uno de los descubridores más 
fecundos   de   elementos   transférmicos   de   fines   del   siglo   XX. En   1998   se 
anunciaba el descubrimiento del Ununquad (Z=114).

El camino iniciado por Kamen en la utilización de los isótopos radioactivos como 
trazadores de procesos biológicos resultó clave en la identificación definitiva 
del  agente  responsable   de  la  transmisión  hereditaria.  La  comunidad  científica 
hacia   finales   de   los   cuarenta   no   había   sido   convencida   por   las   pruebas 
experimentales   presentadas   por   el   colectivo   del   Instituto   Rockefeller   de 
Investigación Médica encabezado por el inmunólogo estadounidense Oswald Theodore 
Avery (1877­1955) que demostraban que era el ADN, y no otras posibles sustancias 
como   el   ácido   ribonucleico   (ARN)   o   las   proteínas,   el   que   transmitía   las 
características hereditarias. Tuvieron que pasar ocho años más para que Alfred 
D.   Hershey   (1908   –   1997)   y   Martha   Chase   (1928   –   2003)   en   1952,   utilizando 
bacteriófagos marcados con los isótopos radioactivos S­35 o P­32 (el azufre como 
elemento químico propio de las proteínas y el fósforo del ADN) demostraran de 
manera irrefutable que el ADN viral llevaba la información genética responsable 
de la síntesis de los compuestos proteicos que constituyen la cápside del virus. 
Es   decir,   los   genes   son   ADN.   En   1969,   Hershey   compartió   el   premio   Nobel   con 
Salvador   E.   Luria   (1912­   1991)   y   Max   Delbrück   (1906   ­1987)   "por   sus 
descubrimientos   en   relación   con   el   mecanismo   de   replicación   y   estructura 
genética de los virus".

Una vez aceptado el significado genético del ADN, el paso obligado siguiente era 
determinar la estructura que explicara las propiedades mágicas de la replicación 

302
y la mutación. Los nombres de dos científicos británicos y un estadounidense se 
enlazan en el trascendental descubrimiento de la estructura de doble hélice del 
ácido desoxirribonucleico. Sin embargo son muchos los que reclaman un merecido 
espacio a un nombre de mujer: la prematuramente desaparecida Rosalind Franklin 
(1920 ­1958).

Un baluarte en la aplicación y desarrollo de estos métodos lo encontramos en el 
Laboratorio Cavendish de Cambridge. En este laboratorio se concentraron recursos 
materiales   y   capital   humano   que   forjó   una   comunidad   con   un   nivel   de   primera 
línea.   El   físico   británico   Francis   H.   C.   Cricks   (1916­   )   y   el   bioquímico 
estadounidense James D. Watson (1928­ ) coincidieron en los primeros años de los 
cincuenta   en   el   Cavendish.   Contaban   en   el   arsenal   de   antecedentes   con   el 
principio   de   complementariedad   de   las   bases   nitrogenadas   establecido 
experimentalmente por el químico checo Erwin Chargaff (1905­ 2003), los modelos 
de estructura helicoidal propuestos para las proteínas por Linus Pauling, y las 
imágenes de los espectros de difracción de rayos X obtenidos por Maurice Wilkins 
(1916­ ), y sobre todo por la química – física Rosalind Franklin (1920 – 1958).

A   fines   de   1951   Rosalind   Franklin   había   obtenido   los  


espectros   más   nítidos   del   ADN   hasta   la   fecha,   y   de  
acuerdo   con   una   práctica   reconocida   presentó   en   una  
conferencia   en   el   King’s   College   sus   resultados.   Su  
interpretación   de   los   datos   espectrales   conducían   a   una  
estructura   molecular   formada   por   dos   o   cuatro   cadenas  
helicoidales   entrelazadas,   integradas   por   azúcares   y 
fosfatos,   con   bases   nitrogenadas   orientadas   hacia   la 
parte   interior   de   la   hélice.   Watson   se   encontraba   entre 
el   auditorio   que   escuchaba   a   la   Franklin. La   historia 
del descubrimiento de la estructura del ADN concluye con 
los aplausos recibidos por el trío integrado por Wilkins, 
Crick y Watson. Rosalind, que víctima de un cáncer muere  
prematuramente con 34 años, se ha considerado un ejemplo 
de   la   discriminación   de   la   mujer   aún   en   el   campo   de   la  
ciencia   en   época   tan   reciente   como   la   segunda   mitad   de  
este siglo.

La   integración   de   estas   fuentes   con   una   imaginación   creativa   desbordante   los 


condujo a publicar en 1953 dos artículos en par de meses. Publicaron primero en 
la   revista   "Nature",   la   descripción,   en   algo   más   de   una   página,   del   modelo 
estructural de la doble hélice y luego en el segundo "Implicaciones genéticas de 
la estructura del ácido desoxirribonucleico" justifican cómo el modelo propuesto 
es capaz de explicar dos propiedades fundamentales del material hereditario: la 

303
de   conservarse   a   sí   mismo   (replicación)   y   la   de   cambiar   (mutación).   En   1962 
Crick, Watson y Wilkins compartieron el premio Nobel de Fisiología y Medicina. 
La   evolución   de   los   acontecimientos   luego   de   sus   publicaciones   ratifica   la 
importancia de la teoría para alumbrar la práctica. Se tornaba más claro y firme 
el despegue de la ingeniería genética.

En   la   década   de   los   cincuenta,   una   contribución   extraordinaria   al   campo   del 


análisis   estructural   de   las   sustancias   orgánicas   fue   realizada   por   el   físico 
estadounidense  Félix  Bloch  (1905  –  1983),  premio  Nóbel  de  Física  en  1952,   al 
desarrollar la Resonancia Magnética Nuclear. Pronto esta técnica se difundió por 
los   laboratorios   de   investigación,   contribuyendo   de   manera   especial   a   este 
esfuerzo de expansión el físico­químico suizo Richard Ernst (1933 ­ ), premio 
Nóbel de Química en 1991, por el diseño y construcción de una nueva generación 
de   equipos   de   alta   resolución,   y   el   desarrollo   paralelo   de   la   teoría   para 
ampliar el alcance de su aplicación.

Un nuevo salto se produciría durante la década de los ochenta cuando el químico 
suizo Kurt Wuthrich (1938­ ), premio Nóbel de Química del 2002, desarrolló la 
idea sobre cómo extender la técnica de Resonancia Magnética Nuclear al estudio 
de   las   proteínas.   En   muchos   aspectos   el   método   de   RMN   complementa   la 
cristalografía   de   rayos   X,   pero   presenta   la   ventaja   de   estudiar   la   molécula 
gigante de la proteína en solución, es decir en un medio que se asemeja a cómo 
ella se encuentra y cómo funciona en el organismo viviente. Ahora la técnica de 
RMN puede también usarse para los estudios estructurales y dinámicos de otros 
biopolímeros   tales   como   los   ácidos   nucleicos   que   dirigen   el   dominio   de   la 
información hereditaria. En esta década de los ochenta, se producen equipos de 
RMN que ofrecen imágenes de los tejidos internos del organismo, convirtiéndose 
en una técnica muy útil para el diagnóstico de enfermedades especialmente para 
el examen de la cabeza, cuello y cerebro.

La   microbiografía   del   joven   Félix   Bloch   es   la   de   aquel  


talentoso   estudiante   universitario   suizo   que   tiene   la 
oportunidad   de   asistir   a   los   cursos   de   Debye   y   Schrödinger, 
que   luego   traba   relaciones   en   Leipzig   con   Heisenberg,   y   más 
tarde conoce a la élite de la Física Teórica de la época. Su 
origen judío le obliga en la época de la Alemania fascista a 
emigrar hacia Estados Unidos y allí enrolado en el programa de  
Los Álamos se familiariza con los adelantos más novedosos de  
la   Electrónica.   Al   término   de   la   Guerra,   sus   trabajos  
apuntaban   al   nacimiento   de   una   nueva   técnica:   la   Resonancia  
Magnética Nuclear.

304
En la década del 30, el físico e ingeniero electrónico alemán Ernst A. Ruska 
(1906   –   1988),   premio   Nóbel   de   Física   en   1986,   elaboró   los   principios   de 
funcionamiento y diseñó el primer microscopio electrónico. Al comienzo del 45, 
cerca   de   35   instituciones   científicas   fueron   equipadas   con   este   equipo.   Los 
modernos microscopios electrónicos capaces de ampliar la imagen del objeto unos 
dos millones de veces se fundamentan en las propuestas técnicas de Ruska. Una 
nueva generación de microscopios fue propuesta hacia la década de los sesenta, 
cuando el físico suizo Heinrich Rohrer (1933­ ), quien compartió el premio Nóbel 
de   Física   en   1986   con   Ruska,    desarrollara   la   técnica   de   microscopía 
electrónica  de  barrido   por  efecto  túnel  en  el  laboratorio  IBM   de  Zurich.  Con 
esta   técnica   se   detectan   imágenes   con   resolución   atómica.   Las   posibilidades 
brindadas por la microscopía electrónica fueron aprovechadas para la obtención 
de imágenes tridimensionales de virus, proteínas y enzimas. En este propósito 
sobresale   la   obra   de   Aaron   Klug   (1926­   ),   biólogo   molecular,   lituano   de 
nacimiento, surafricano por crianza, y británico según adopción, que mereció el 
Nóbel de Química en 1991.

La espectrometría de masas es en la actualidad una de las más potentes técnicas 
analíticas   con   que   cuenta   el   químico.   El   inicio   de   su   aplicación   data   del 
registro de los espectros de masas de moléculas sencillas de bajo peso molecular 
obtenidas por J.J. Thomson en 1912. Los primeros prototipos de espectrógrafos, 
siguiendo   los   mismos   principios   básicos   de   los   empleados   hoy   día   fueron 
principalmente desarrollados por Francis W. Aston (1877 – 1945), quien descubrió 
un gran número de isótopos (elementos con igual carga nuclear pero que difieren 
en los índices de masas) y fue laureado por estas aportaciones con el premio 
Nóbel de Química de 1922.

El  equipo  para  obtener  tales   espectros  debía  ser  capaz  de:  a)  producir  iones 
gaseosos   a   partir   de   las   moléculas   a   investigar;   b)   separar   estos   iones   de 
acuerdo con la relación carga: masa; y c) medir la abundancia relativa de cada 
ión.   En   la   década   del   cuarenta   ya   se   habían   fabricado   espectrógrafos   para 
analizar   sustancias   orgánicas   de   peso   molecular   medio;   a   finales   de   los 
cincuenta se demostró el papel de los grupos funcionales sobre la fragmentación 
directa   ampliándose   la   capacidad   de   los   equipos   para   determinar   estructuras 
orgánicas; y ya hacia los setenta el perfeccionamiento de los equipos alcanzaba 
una sensibilidad que permitía trabajar con masas de muestras del orden de una 
millonésima de gramo.

La   aplicación   de   la   espectrometría   de   masa,   sobre   todo   acoplada   a   la 


Cromatografía Gaseosa, técnica capaz de separar componentes de una muestra, se 

305
extiende   en   la   actualidad   al   análisis   de   sustancias   dopantes   o   drogas;   el 
control   de   los   alimentos;   y   los   ensayos   ultrarrápidos   para   determinar   los 
niveles de contaminación ambiental.

Francis Aston fue invitado por J.J. Thomson a trabajar   en el 
Laboratorio de Cavendish durante la primera década del XX. Con  
motivo de la primera Guerra Mundial se ve obligado a abandonar 
sus   investigaciones   fundamentales   y   no   es   hasta   1919   que   se  
reincorpora  al trabajo  en Cambridge.  En estos años desarrolla  
la espectrometría de masas y con su aplicación descubre más de 
200 isótopos de ocurrencia natural. Harold C. Urey (1893 ­1981) 
descubre   en   1934   con   ayuda   de   esta   técnica   el   deuterio   (el  
isótopo de masa doble del H). El deuterio es el elemento clave  
en   la   fabricación   de   las   armas   de   fusión   nuclear   (la   llamada  
bomba de hidrógeno).

Pero   hasta   esta   altura   la   espectrometría   de   masas   no   servía   para   la 


determinación   de   estructuras   de   moléculas   gigantes   como   lo   son   importantes 
biopolímeros. La primera etapa de la técnica exige el paso de las macromoléculas 
a la fase gaseosa lo cual implica la ocurrencia de indeseables transformaciones 
estructurales que empañaban los resultados. Dos investigadores en la década de 
los   ochenta   propusieron   los   procedimientos   para   burlar   este   obstáculo.   El 
estadounidense John B. Fenn (1917­ ) propuso dispersar la proteína bajo estudio 
en un solvente y luego atomizar la muestra sometiéndolas a un campo eléctrico. 
Cómo   el  solvente   se  evapora  las   microgotas  se  convierten  en  moléculas  de  las 
proteínas   totalmente   desnudas.   El   método   se   conoce   como   ionización   por 
electrodispersión   (en   inglés   las   siglas   ESI,   corresponden   a   electrospray 
ionization).

Las técnicas de análisis de los componentes de la atmósfera y sus contaminantes 
han resultados decisivos para la comprensión y toma de opiniones en relación con 
los cambios climáticos globales promovidos por actividad irracional del hombre 
en la superficie del planeta.

Hacia la mitad de la década de 1950 el biofísico británico James E. Lovelock 
(1919 ­ ) se ocupaba de diseñar una serie de detectores de ionización para su 
empleo   en   los   cromatógrafos   de   gases,   cuando   uno   de   ellos,   el   detector   de 
captura electrónica vino a revolucionar las técnicas de análisis de los gases en 
la atmósfera y con ello condicionó el desarrollo de una conciencia ambiental. 
Este detector fue patentado en 1957 y aún hoy se cuenta entre los más sensibles 
métodos   para   el   análisis   de   aquellas   sustancias   químicas   que   constituyen   una 
amenaza   para   el   medio   ambiente. Su   empleo   condujo   al   descubrimiento   de   la 

306
distribución de los residuos de pesticidas en el ambiente natural que sirvió de 
base   para   el   libro   de   la   bióloga   Rachel   Carson   (1907   –   1964)   "La   Primavera 
Silenciosa"   que   alertó   a   la   conciencia   pública   sobre   los   peligros   del   uso 
irracional   de   los   pesticidas.   Una   década   más   tarde   Lovelock   se   encargó   de 
demostrar, al menos con algunos ejemplos relevantes, que  la propia biosfera se 
ocupa de engendrar, reproducir y regular sus propias condiciones ambientales.

En   1971,   Lovelock   detectó   ciertas   sustancias   que   actúan   como   reguladoras   del 
equilibrio térmico y descubrió sus fuentes de emisión. Resulta que durante el 
verano   las   algas   costeras   proliferan,   incrementando   sus   emisiones   del 
dimetilsulfuro (DMS) y estas moléculas actúan como núcleos de condensación para 
el   vapor   de   agua,   lo   que   eleva   la   concentración   nubosa,   oscurece   por 
consiguiente   la   superficie   y   provoca   el   descenso   de   las   temperaturas.   Por   el 
contrario   el   frío   del   invierno   inhibe   la   multiplicación   de   las   algas   en   los 
océanos, reduce sus emisiones, con lo que disminuye la concentración de dimetil 
sulfuro, se forman menos nubes y comienza una nueva escalada térmica.

El joven ingeniero japonés Koichi Tanaka (1959­ ) reportó 
en 1987 una técnica diferente para salvar la etapa crítica  
en el análisis espectral de las biomoléculas. La propuesta 
consistió en someter la muestra en estado sólido o viscoso  
al bombardeo con rayos láser, lo que llamó deserción suave  
por láser (SLD). Cuando la muestra absorbe la energía de  
la   pulsación   láser   "explota   suavemente"   en   pequeños 
fragmentos.   Las   moléculas   se   liberan   unas   de   otras  
quedando intactas como moléculas cargadas suspendidas que  
son   aceleradas   por   un   campo eléctrico   en   una   cámara   de  
vacío dónde el tiempo de vuelo (TOF, time of flight) es  
medido. Con el empleo de la técnica de Tanaka los tests  
para determinar diferentes enfermedades como la malaria y  
los  cánceres  de  próstata  y  mama,  se  verifican  con  total  
fiabilidad en unos minutos...

Aparte   de   los   cinturones   de   las   selvas   tropicales   y   de   las   plataformas 


continentales   un   tercer   cinturón   mostró   su   sensibilidad   a   la   actividad   del 
hombre,   y   por   sorpresa,   este   se   ubica   fuera   de   los   límites   de   la   biosfera 
escapando   del   dominio   de   ésta,   pero   ejerciendo   una   notable   influencia   en   su 
protección: la capa de ozono.

Mientras   el   ingeniero   mecánico   estadounidense   Thomas   Midgley   (1889   –   1944) 


evaluaba la utilización de una nueva generación de refrigerantes potencialmente 
inofensivos,   un   científico   inglés   Gordon   M.   B.   Dobson   (1889   ­   1976)   en   la 

307
Universidad   de   Oxford   iniciaba   la   observación   y   estudio   del   ozono 
atmosférico. Hoy sabemos que las tres mil millones de toneladas de ozono que se 
acumulan   en   la   estratosfera   es   en   sentido   estricto   un   manto   difuso   del 
trioxígeno (molécula triatómica del oxígeno)   que alcanza una concentración en 
el   intervalo   de   los   300   ­   500   Dobson.   La   unidad   Dobson,   propuesta   para 
perpetuar la memoria de este pionero en la determinación del ozono atmosférico, 
representa   una   molécula   por   cada   109   moléculas,   es   decir   la   concentración   de 
ozono es muy baja, entre 03, ­ 0,5 ppm (partes por millón). 

Por entonces sus investigaciones descubrieron que el perfil de la temperatura 
por   encima   de   la   tropausa   no   era   constante   como   sugería   el   propio   nombre   de 
estratosfera sino que había una región donde la temperatura sustancialmente se 
incrementaba. Dobson infirió correctamente que la causa del calentamiento de la 
estratosfera   estaba   relacionada   con   la   absorción   de   la   radiación   solar 
ultravioleta por el ozono, y decidió construir un equipo para hacer mediciones 
de   las   cantidades   de   ozono   y   su   variabilidad. El   primer   espectrómetro   estuvo 
listo en el verano de 1924 y las mediciones regulares obtenidas a lo largo del 
1925   establecieron   las   características   principales   de   la   variación   estacional 
del   ozono,   el   máximo   en   la   primavera   y   el   mínimo   hacia   el   otoño,   y   también 
demostró la estrecha   correlación entre la cantidad de ozono y las condiciones 
meteorológicas en la alta troposfera y la baja estratosfera.   A fines de 1929, 
Dobson   y   sus   colaboradores   habían   extendido   una   red   de   equipos   que   permitió  
establecer las regularidades mas generales entre la variación de la cantidad de 
ozono con la latitud y la estación.

En   1969,   el   biofísico   James   Lovelock   formuló   una   hipótesis  


subversiva:   nuestro   planeta   actúa   como   una   especie   de 
superorganismo   que   a   través   de   una   red   de   complejas  
interacciones   entre   sus   sistemas   vivos   mantienen   las  
condiciones ideales para la vida. La primera reacción del mundo 
científico   fue   admitir   con   reservas   estos   postulados   que  
parecían   saturados   de   especulaciones.   En   cierta   forma   fueron  
vistos como el reverso del legado darwinista según el cual la  
historia   de   la   vida   demostraba   su   necesaria   adecuación   a   las  
condiciones   del   entorno   físico   ­   químico. El   creador   de   la 
hipótesis   Gaya   (diosa   tierra   para   los   griegos),   postula   ante 
todo   la   defensa   de   los   cordones   de   la   autorregulación  
planetaria: el cinturón de selvas tropicales y las plataformas 
continentales.   La   alteración   drástica   de   estas   zonas   de   la 
biosfera   constituyen   la   verdadera   amenaza   para   Gaya,   o   mejor 
decir, para Pachamama, la tierra nutricia de la mitología inca  

308
que no pare monstruos, ni traiciona al dios­cielo, sino evita  
heladas y plagas, madura los frutos y asegura la caza...

Paralelamente con estos trabajos de medición del ozono en la atmósfera superior 
el   geofísico   inglés   Sydney   Chapman   (1888   ­   1970)   publicaba   en   1930   en   las 
Memorias de la Sociedad Real Meteorológica británica, la teoría cuantitativa del 
equilibrio y los cambios del ozono y el oxígeno atómico en la atmósfera superior 
que   implicaban   la   interacción   del   ozono   con   la   radiación   ultravioleta 
proveniente del astro rey. 

La idea de que la capa de ozono constituía un escudo protector de la llamada 
radiación   ultravioleta   dura   se   difundía   entre   la   comunidad   científica   que 
estudiaba   la   atmósfera   del   planeta. La   II   Guerra   Mundial   detuvo   estas 
investigaciones pero poco después de su final se fundó la Comisión Internacional 
de Ozono por la Unión Internacional de Geodesia y Geofísica. A fines de 1956, en 
el   Año   Internacional   de   la   Geodesia   y   Geofísica   no   menos   de   44   nuevos 
espectrómetros fueron distribuidos a través del mundo.

Cinco años después de formulada la teoría Gaya y a cuatro décadas de los nuevos 
refrigerantes   propuestos   por   Midgley,   los   científicos   de   la   Universidad   de 
California, Irvine, F. Sherwood (1927­ ) y el mexicano – estadounidense Mario 
Molina   (1943­   )   determinaron,   luego   de   un   exhaustivo   estudio,   que   los 
clorofluorcarbonos   empleados   masivamente   como   propulsores   en   todo   tipo   de 
"spray" y como refrigerantes, tienen potencial para destruir la capa de ozono. Y 
en efecto, años después se confirmó el adelgazamiento de la capa de ozono en 
diferentes latitudes del planeta.

Este   adelgazamiento   ocasiona   un   aumento   de   los   niveles   de   la   radiación 


ultravioleta dura que penetra en la atmósfera e incide sobre la superficie del 
planeta. Las consecuencias son ya importantes y podrían llegar a ser trágicas.

La incidencia de este incremento de la radiación ultravioleta "dura" sobre las 
distintas   especies   de   los   seres   vivos   puede   ser   muy   diversa   pero   entre   los 
efectos   más   dramáticos   se   cuenta   la   afectación   a   largo   plazo   que   sufrirá   el 
fitoplancton   lo   que   trastornará   la   cadena   alimentaria   en   mares   y   océanos   con 
efectos ecológicos impredecibles, y a mediano plazo la reducción de la población 
marina disminuirá sensiblemente los rendimientos de la industria pesquera.

309
El mexicano – estadounidense, Mario J. Molina, confiesa en su  
autobiografía   que   durante   sus   primeros   años   en   Berkeley  
sintió   un   profundo   rechazo   a   la   posibilidad   de   emplear   los  
láser   de   alta   potencia   para   producir   armas.   Deseaba   por 
entonces   dedicarse   a   una   investigación   que   fuera   útil   a   la  
sociedad, y lo logró. El 28 de junio de 1974 publicó, junto a  
su asesor F. Sherwood Rowland, en la Revista Nature un primer  
informe   alertando   a   la   comunidad   científica   y   a   la   opinión  
pública de los peligros en que se encontraba la capa de ozono  
estratosférica.   En   1995,   ambos   compartían   el   Premio   Nobel   de  
Química.

En 1976 el Programa de Naciones Unidas para el Medio Ambiente (PNUMA) llama a 
una   Conferencia   Internacional   para   discutir   una   respuesta   internacional   al 
problema del ozono. En 1985 se firma en Austria "La Convención de Viena para la 
protección   de   la   capa   de   ozono   pero   esta   no   se   acompaña   de   un   protocolo 
vinculante.  Dos años mas tarde en Canadá se  firma "Protocolo de Montreal sobre 
las   sustancias   que   degradan   la   capa   de   ozono".   Este   protocolo,   legalmente 
vinculante, es aprobado por 24 países. Sucesivos encuentros han sido auspiciados 
por   la   ONU   para   discutir   y   tomar   medidas   de   acuerdo   con   los   informes   de   los 
expertos sobre el efecto de la degradación de la capa de ozono. Hacia fines de 
siglo   los   datos   demostraban   que   la   concertación   internacional   había   al   menos 
detenido el avance del enrarecimiento de la capa protectora.

En 1904 el físico ­ químico sueco Svante Arrhenius (1859 – 1927) pronosticó que 
las crecientes emisiones industriales de CO2 determinarían un cambio notable en 

la   concentración   de   este   gas   en   la   atmósfera,   provocando   un   cambio   climático 


global.   Según   la   predicción   de   Arrhenius   este   incremento   podría   resultar 
beneficioso   al   hacer   más   uniforme   el   clima   del   planeta   y   estimular   el 
crecimiento de las plantas y la producción de alimentos.

Una opinión discrepante con la optimista visión de Arrhenius aparece a fines de 
los   treinta.   El   eminente   ingeniero   termoenergético   británico   Guy   Stewart 
Callendar   (1898   –   1964)   publica   en   1938   el   artículo   titulado   "La   producción 
artificial del dióxido de carbono y su influencia sobre la temperatura". Este 
trabajo   y   los   que   posteriormente   dio   a   conocer   demostraban   la   correlación 
existente   entre   la   elevación   de   las   concentraciones   del   dióxido   atmosférico 
desde   los   tiempos   preindustriales,   y   la   información   entonces   acopiada   por   él 
sobre la tendencia observada de la elevación de la temperatura. Las deducciones 
de Callendar no encontraron resonancia en la comunidad científica de la época. 
Prevalecía el criterio de que la inmensa masa de las tres cuartas partes del 

310
planeta,   el   agua   de   océanos   y   mares,   actuaría   como   sistema   regulador   por   su 
capacidad absorbente del CO2.

Sin embargo las investigaciones conducidas en la década de los cincuenta por el 
geofísico   estadounidense   Roger   Revelle   (1909­1991)   con   la   colaboración   del 
radioquímico   de   origen   austríaco   Hans   Suess   (1909­   )   demostraron   de   manera 
irrefutable   que   los   niveles   de   dióxido   de   carbono   en   la   atmósfera   se   habían 
incrementado como resultado de la quema de los combustibles fósiles y de la tala 
de los bosques, rechazando la idea prevaleciente sobre la actividad reguladora 
de mares y océanos.

En 1977 el geofísico estadounidense Roger Revelle encabeza un 
Panel de la Academia Nacional de Ciencias de los Estados Unidos  
el   cual   encuentra   que   alrededor   de   un   40   %   del   dióxido   de  
carbono   antropogénico   permanece   en   la   atmósfera,   las   dos  
terceras partes provenientes de los combustibles fósiles y una  
tercera de la tala de los bosques. Al inicio de los ochenta la  
escalada   en   las   predicciones   se   ensombrecen   cuando   Revelle  
publica   un   artículo   en   la   importante   revista   estadounidense 
Scientific American en la que anuncia la posible elevación del  
nivel del mar como resultado de la fusión de los glaciares que  
debe acompañar a la elevación de la temperatura del planeta.

En 1988 el Programa Medioambiental de la ONU fundó un Panel Intergubernamental 
sobre el Cambio Climático (IPCC) que debió valorar la información científica, 
técnica y socioeconómica para la comprensión del cambio climático, sus impactos 
potenciales y las opciones para la adaptación y mitigación de los daños. El IPCC 
fue el primer esfuerzo internacional para dirigir los temas medioambientales. 

En resumen los expertos   coincidieron en   que la elevación de las temperaturas 


globales provocará una elevación del nivel del mar, cambios en los regímenes de  
precipitación y otras condiciones climáticas locales. Los cambios regionales del 
clima pueden alterar los bosques, el rendimiento en las cosechas,  y las fuentes 
de agua. También puede resultar amenazada la salud humana, dañadas especies de 
aves, peces y muchos tipos de ecosistemas.

En   mayo   de   1992,   154   países   (incluidos   los   de   la   Unión   Europea)   firmaron   el 
Tratado de las Naciones Unidas para el Cambio Climático (ratificado en marzo de 
1994). Los países signatarios se comprometieron a estabilizar, para el final de 
siglo,   los   niveles   de   las   emisiones   de   dióxido   de   carbono   en   los   valores   de 
1990. A cinco años de este tratado, se firma en la ciudad japonesa de Kyoto el 
Protocolo   que   anuncia   el   compromiso   de   las   naciones   poderosas   a   limitar   sus 

311
emisiones de los gases de invernadero hasta los niveles emitidos en 1990. Los 
inicios del nuevo milenio eran testigos de la no ratificación del Protocolo de 
Kyoto por precisamente dos grandes, que "ven amenazados su desarrollo si no se 
prevén   limitaciones   en   las   cuotas   de   emisiones   de   los   países   en   vías   de 
desarrollo",   los   Estados   Unidos   de   América   y   la   nueva   Rusia.   La   comunidad 
científica y toda la humanidad deben apoyar la ratificación de estos tratados y 
su celoso cumplimiento.

La creciente preocupación de los círculos científicos por el manejo que hacen 
los   políticos   de   los   problemas   medioambientales   llevó   a   la   fundación   de   una 
"Unión de los Científicos Preocupados" (UCS) que en carta abierta firmada por 
más de 20 laureados con el premio Nóbel acusó al Gobierno de Estados Unidos de 
estar manipulando el sistema científico asesor de esta nación para evitar los 
consejos   que   puedan   ser   contrarios   a   sus   intereses   políticos.   A   escasos   doce 
meses   de   su   fundación   el   listado   de   personalidades   científicas   que   apoyan   la 
gestión   de   esta   Unión   se   ha   multiplicado   y   suman   48   los   galardonados   con   el 
Nobel   que   han   expresado   su   adhesión   a   este   movimiento   de   hombres   de   ciencia 
comprometidos   con   los   problemas   de   su   tiempo.   Los   problemas   que   ahora   se 
plantean   rebasan   las   fronteras   originales   de   los   Estados   Unidos   y   tienen   un 
alcance internacional.

De   los   48   científicos   estadounidenses   laureados   con   el 


Premio   Nobel   que   expresaron   su   adhesión   a   la   “Unión   de 
Científicos Preocupados”, 16 son físicos y ocho reciben el  
galardón de la Academia Sueca en la última década del siglo  
XX.   Entre los firmantes se encuentran dos colegas, David  
M.   Lee   (1931­   )   y   Douglas   D.   Osheroff   (1945­   )   que  
compartieron   el   premio   en   1996   por   el   descubrimiento   en  

1972   de   la   superfluidez   en   el   isótopo   de 3He.   Esta  


 sobresaliente   propiedad   había   sido   descubierta   por   el 

físico soviético Piotr Kapitsa en 1937 en el isótopo de 4He 
a   temperaturas   extremadamente   bajas.   La   casualidad   acaso 
quiso   que   un   tercer   especialista   en   la   superfluidez,  
galardonado   en   2003,   Anthony   Leggett   (1938­   )   también   se  
integrara a este movimiento de científicos que promueven la  
preocupación y la acción sobre los problemas ambientales.

La superconductividad ha atraído la atención de los investigadores pues si esta 
propiedad   exhibida   por   distintos   materiales   a   temperaturas   muy   bajas   fuera 
observada   a   temperaturas   viables   produciría   una   verdadera   revolución 
tecnológica. El descubrimiento de este fenómeno data de 1911 cuando el profesor 

312
de  la  Universidad  de  Leiden,   Heike  Kamerlingh  Onnes  (1853­1926),   investigando 
los efectos observados en gases y metales a temperaturas extremadamente bajas, 
cercanas al 0 de la escala absoluta descubrió que el mercurio a temperaturas por 
debajo de 4,2 K no presentaba resistencia al paso de la corriente eléctrica.

La comprensión de la superconductividad como un fenómeno cuántico no llegó hasta 
los años 50, cuando los físicos estadounidenses John Bardeen (1908­1991), Leon 
N. Cooper (1930­ ) y John R. Schrieffer (1931­ ) explicaron la superconducción 
en   los   metales   como   resultado   del   desplazamiento   electrónico   en   pares, 
apantallados por la atmósfera de iones positivos, que no muestran resistencia 
eléctrica.

En 1962, cuando aún era un estudiante en Cambridge, el físico británico Brian D. 
Josephson (1940 ­ ) descubrió el fenómeno de conducción que se manifiesta entre 
dos  superconductores  mantenidos  a  temperaturas   muy  bajas,  que   están  separados 
entre sí por una capa muy fina de un aislante. Un flujo constante de corriente a 
través   del   aislante   se   puede   inducir   mediante   un   campo   magnético   fijo.   Este 
efecto   que   representa   un   efecto   de   túnel   a   través   de   un   aislante   recibió   el 
nombre de efecto Josephson. Por este descubrimiento compartió el premio Nobel de 
Física.

A finales de 1986, el físico­químico alemán Johannes G. Bednorz (1950­ ) y el 
físico suizo Karl A Müller (1927­ ), del Laboratorio de Investigaciones de IBM 
en Zurich, anunciaban al mundo que un compuesto cerámico, el óxido de lantano, 
bario y cobre, manifestaba la superconductividad a una temperatura más alta que 
la   exigida   por   los   sistemas   hasta   entonces   investigados,   los   metales   y 
aleaciones. Aún la barrera impuesta para la aparición de la superconductividad 
era muy baja, 35 K, pero el descubrimiento de un nuevo tipo de superconductores 
abría un campo de investigación. En 1987 se reveló la composición de un cuprato 
de itrio y bario que mostraba una temperatura crítica de superconducción de 94 
K. A medida que las temperaturas resulten superiores a 77 K (la temperatura del 
nitrógeno   líquido),   y   los   óxidos   resulten   más   baratos,   las   aplicaciones 
potenciales de estos materiales resultaran económicamente más viables. Por este 
trabajo merecieron Bednorz y Muller el Premio Nobel de Física de 1987.

En la década de los 50 el Instituto de Problemas Físicos de la  
Academia   de   Ciencias   de   la   URSS   bajo   la   dirección   de   Piotr  
Kapitsa,   realizaba   notables   trabajos   en   la   Física   de   bajas  
temperaturas.   En   esta   dirección   fue   investigado   el 
comportamiento de  los superconductores del  tipo  I que  repelen  
los   campos   magnéticos,   y   Ginzburg   y   Landau   desarrollaron   la  
teoría   que   predecía   la   existencia   de   un   segundo   tipo   de 

313
superconductores.   Basándose   en   esta   hipótesis,   Abrikosov  
explicó   acertadamente   las   condiciones   que   deben   cumplir  
ciertos   superconductores   para   admitir   un   campo  
magnético. Estas propiedades   se   descubrieron,   con  
posterioridad,   en   los   nuevos   compuestos   superconductores   tipo  
II, incluidos los compuestos cerámicos que son superconductores  
a   temperaturas   más   altas.   Las   aportaciones   de   Ginzburg   y  
Abrikosov fueron reconocidas por la Academia Sueca en el 2003  
al conferirle el Nobel de Física.

Los avances en los programas de exploración del Cosmos.

Quizás ninguna otra empresa científica tenga una naturaleza interdisciplinaria 
tan   marcada   como   la   conquista   del   cosmos.   Pero   nadie   duda   que   los   vuelos 
espaciales exigieran el desarrollo de una ciencia y una ingeniería propia y que 
en estos progresos desempeñara un importante papel la Física, al tiempo que sus 
ideas se nutrieran de los resultados de esta soñada exploración.

El análisis del panorama político en que se desarrolla la conquista del cosmos 
desborda los propósitos de nuestro breve examen pero es imposible omitir que, a 
mediados del siglo, la lógica que presidía las relaciones entre las naciones más 
poderosas del planeta, determinó que en lugar de una eficaz colaboración entre 
las   partes,   la   cosmonáutica   naciera   con   un   claro   perfil   de   competencia   que 
dividió   los   esfuerzos,   tapió   el   intercambio   de   experiencias,   multiplicó   los 
gastos, y paralelamente alentó el desarrollo en espiral de programas y armas que 
"neutralizaran" al enemigo.

La guerra fría entre los bloques calentó las relaciones entre las naciones y los 
proyectos para la fabricación de cohetes portadores ambivalentes (empleados para 
las lanzaderas de las naves espaciales y de proyectiles intercontinentales) y el 
curso de programas tan irracionales como "la guerra de las galaxias", demandaron 
de   enormes   recursos   que   compitieron   con   la   necesaria   asistencia   a   los   países 
subdesarrollados. Esta ayuda para el desarrollo hubiera seguramente saneado la 
atmósfera internacional y evitado tal vez el surgimiento de los focos de tensión 
que   matizados   por   la   frustración   y   el   odio   de   pueblos   y   culturas   hacia   la 
irracionalidad   de   la   civilización   occidental   derivaron   hacia   la   dolorosa 
confrontación y las guerras "locales" del fin siglo.

Cuba   pequeño   país   del   Caribe,   sumergida   en   esta   confrontación,   sufrió   la 
hostilidad del gobierno de los Estados Unidos desde el propio nacimiento de la 
Revolución cubana y en el otro extremo de la cuerda apreció la solidaridad y 

314
ayuda recibida de la nación soviética. Esto explica que varias generaciones de 
cubanos   aplaudieran   los   logros   en   materia   de   vuelos   espaciales   de   la   ciencia 
soviética   en   tanto   las   realizaciones   de   la   astronáutica   estadounidense 
encontraran en nuestro contexto una baja resonancia.

A   continuación,   pasaremos   breve   revista   a   los   momentos   principales   de   esta 


carrera, sus cabezas más visibles, los logros y fracasos, y las repercusiones 
más importantes hacia el desarrollo de la ciencia. No esconderemos el sesgo de 
nuestra   pupila,   pero   intentaremos   equilibrar   las   fuentes   de   información   y 
mantener una objetividad que rara vez es encontrada en el tratamiento de estos 
temas.

Apenas 5 días antes de la invasión de un ejército mercenario  
por Playa Girón (Bahía de Cochinos), un 12 de abril de 1961 la  
noticia recorría el mundo: una nave espacial soviética con un 
cosmonauta a bordo había orbitado el planeta. En una hora y 48 
minutos   le   había   dado   una   vuelta   a   la   Tierra   pasando   por  
encima de América, luego de África para caer finalmente en la  
Siberia. El joven piloto de franca sonrisa se llamaba Yuri y  
en una breve declaración desde la Vostok ­1 había reclamado:  
"Pobladores   del   mundo,   salvaguardemos   esta   belleza,   no   la 
destruyamos". En julio de ese mismo año Gagarin visitó a Cuba,  
y en la multitudinaria concentración popular del 26, Fidel le 
impuso   la   Orden   Playa   Girón   que   lo   convirtió   en   la   primera  
persona en recibir esta distinción de la nación cubana.

En la actualidad, es un criterio bastante aceptado el reconocer como antecedente 
inmediato   del   desarrollo   de   los   cohetes   propulsores   de   las   naves   espaciales 
tanto de la Unión Soviética como de los Estados Unidos, los logros alcanzados en 
la Alemania nazi por el equipo encabezado por el científico alemán Werner von 
Braun (1912 – 1977).

Nadie ignora hoy las dramáticas circunstancias históricas en que un equipo de 
científicos   y   técnicos   alemanes   en   una   base   de   investigaciones   radicada   en 
Peenemünde,   diseñaron   los   cohetes   V­2   que   eran   fabricados   y   después   lanzados 
desde   esta   zona   de   la   isla   de   Usedom,   situada   en   el   mar   Báltico,   en   la 
desembocadura del río Oder. En la fábrica de estos cohetes laboraron en trabajos 
forzosos prisioneros de los fascistas y el blanco a que apuntaron estos cohetes 
fueron territorios de Inglaterra. Los V­2 representaban un proyectil propulsado 
por combustible líquido con una longitud que superaba los 46 pies y un peso de 

315
27 000 libras, que volaban a una velocidad superior a las 3 500 millas por hora, 
llevando una cabeza explosiva a un blanco a 500 millas de distancia.

Tampoco se oculta que von Braun, ante el avance de las tropas aliadas, planeó 
detalladamente   la   rendición   de   500   científicos   alemanes   especialistas   en 
cohetes,   y   la   entrega   de   los   proyectos   y   vehículos   de   prueba   a   los 
estadounidenses. No hay que olvidar que las tropas que venían desde el este eran 
las   soviéticas   pero   la   entrega   se   hizo   desde   el   frente   occidental,   según   el 
programa calculado por von Braun. En 1945 llegó a Estados Unidos como consejero 
técnico   del   programa   nacional   de   cohetes   desarrollado   en   Nuevo   México.   Cinco 
años después dirigía el programa de misiles Redstone en Alabama y ya en 1955 
adoptaba la nacionalidad estadounidense.

Serguéi   Koroliov   (1912­1966) fue   el   constructor   jefe   de   las   naves   espaciales 


soviéticas. Por una parte el hermetismo de las fuentes oficiales de la URSS y 
por   otra   el   silencio   cómplice   de   Occidente   sobre   las   personalidades   que 
brillaron   en   la   ciencia   y   la   ingeniería   del   país   de   los   soviets   hacen   que 
injustamente no sea reconocido como un gigante de la conquista del cosmos.

Los primeros vuelos que demostraban la supremacía inicial de 
los soviéticos llevaron en 1960 a von Braun a la dirección  
de   las   operaciones   de   desarrollo   técnico   del   centro   de  
vuelos espaciales George C. Marshall en Huntsville. Fue el 
responsable de la construcción del vehículo de lanzamiento  
Saturno V que se utilizó, junto con la nave espacial Apolo,  
en el programa del alunizaje tripulado que devolvería a los  
estadounidenses   la   confianza   en   el   liderazgo   mundial.   La  
imagen del alemán llegó a adquirir la relevancia del héroe y  
su pasado sepultado por su probada lealtad y extraordinario 
talento.   Aún   hoy   se   afirma   que   "los   estudiosos   están  
reevaluando   el   rol   de   von   Braun   en   las   actividades  
calificadas   como   "controversiales"   en   Peenemünde.   Las 
víctimas de los proyectiles V­2 debían tener la palabra.

Las  nuevas  fuentes  rusas  aseguran  que   en  la  década  del  30,   justamente  cuando 
Koroliov   daba   sus   primeros   pasos   como   ingeniero   jefe   del   programa   de   cohetes 
rusos,   fue   víctima   de   la   represión   stalinista.   Se   afirma   que   por   una   falsa 
delación sufre prisión durante años, hasta que en 1944 es puesto en libertad. 
Poco después de la victoria de los aliados se le encomienda la tarea de viajar a 
Alemania y recopilar todos los datos que le permita a la renaciente cohetería 
soviética reproducir la tecnología de los cohetes alemanes. El tiempo demostró 
que en esta empresa el equipo de Koroliov logra superarlos. A partir de 1954, 

316
cumple   con   el   sueño   de   su   vida,   trabajar   en   investigaciones   que   lanzaran   el 
hombre al cosmos. Todos los éxitos iniciales del programa espacial soviético: 
Laika, Gagarin, Tereshkova, y Popov están indisolublemente ligados a un nombre: 
Serguéi Koroliov.

La Exposición de Logros de la Ciencia y la Técnica Soviética mostraba por los 
años sesenta, entre sus piezas más atrayentes, una esfera de aluminio de poco 
más de medio metro de diámetro cuyo sistema de antenas acopladas hacia imaginar 
que   este   diminuto   objeto,   el   primer   satélite   artificial   de   la   Historia,   fue 
capaz de mantener comunicación con la Tierra y enviar la información científica 
deseada   (temperatura   y   densidad   de   las   capas   superiores   de   la   atmósfera   e 
intensidad   y   naturaleza   de   las   radiaciones   cósmicas)   durante   el   tiempo   que 
estuvo orbitando al planeta. El Sputnik 1 fue lanzado el 4 de octubre de 1957 y 
circunvoló la Tierra 57 días hasta ingresar en la atmósfera y arder por el calor 
liberado producto de la fricción. La perra Laika ascendería a bordo del Sputnik 
­2, poco menos de un mes después, para iniciar las investigaciones biomédicas 
acerca de la influencia de la ingravidez y exposición a las radiaciones sobre 
los   seres   vivos.   En   mayo   de   1958,   el   Sputnik   ­3,   despegó   del   Cosmódromo   de 
Baikonur elevando más de una tonelada de carga total y continuó verificando los 
sistemas soviéticos de puesta en órbita y correcciones a la misma, al tiempo que 
prosiguió   las   investigaciones   sobre   el   campo   magnético,   y   las   radiaciones 
cósmicas.

Una página poco conocida de los vuelos cósmicos nos brinda la  
oportunidad   de   reflejar   la   personalidad   de   Serguei   Koroliov 
constructor   jefe   del   programa   soviético   de   exploración  
espacial. Se acercaba a su fin el vuelo del "Vosjod­2" en el  
que el cosmonauta Alexei A. Leónov (1934­ ) el 18 de marzo de  
1965 había dado el primer paseo espacial con un cable que lo  
unía como cordón umbilical a la nave. En el curso de la hora y  
media de la última vuelta debían ejecutarse por los autómatas 
de   a   bordo   las   etapas   finales   de   orientación,   frenado   y  
descenso y de súbito se comprueba que los controles automáticos  
no   responden   a   la   orden   teledirigida   de   entrar   en  
funcionamiento. El cosmonauta de la nave, Pável Beliaev informa  
a   la   sala   de   control   de   vuelo.   El   propio   Koroliov   responde  
imperturbable:   "dentro   de   30   segundos   tendrá   la   orden".   Y 
exactamente   a   los   30   segundos   se   vuelve   a   escuchar   su   voz:  
"Conecte   el   mando   manual.   Oriéntese   y   haga   funcionar  
inmediatamente   el   dispositivo   de   frenado."   Beliaev   operó  
correctamente   las   instrucciones   de   emergencia   y   los  

317
dispositivos   de   control   manual   respondieron   eficazmente.   El 
descenso de la cápsula del Vosjod ­2 terminó felizmente.

Aún no había reingresado en la atmósfera destruyéndose la cápsula del Sputnik­2, 
cuando el primer satélite estadounidense el Explorer ­1, iniciaba el 31 de enero 
de 1958 el programa de la NASA. La nave cilíndrica de dimensiones más pequeñas 
que  sus   homólogas  soviéticas  aportó  datos  excepcionales  sobre   las  radiaciones 
cósmicas   que   condujeron   al   descubrimiento   de   los   cinturones   de   van   Allen.   En 
marzo de este mismo año dos satélites artificiales el Vanguard 2 y el Explorer 3 
continuaron el estudio de las radiaciones cósmicas, al tiempo que comprobaban la 
eficiencia de los sistemas de despegue y de guiado desde la Tierra como fase de 
preparación hacia los vuelos tripulados.

El   Programa   Apolo   de   la   NASA   tenía   como   ambicioso   objetivo   llevar   al   hombre 


hasta   la   superficie   lunar.   Esta   hazaña   debía   neutralizar   el   síndrome   de   los 
Sputniks y demostrar a la gran audiencia el liderazgo en materia espacial de los 
Estados   Unidos.   Se   ha   afirmado   que   una   vez   cumplida   las   tareas   de   inyección 
translunar para trasladar la nave de la órbita terrestre a la lunar y de regreso 
repetir   la   operación   ahora   de   inyección   transterrestre   y   además   dominar   las 
técnicas de acoplamiento de naves a módulos, la participación el hombre en la 
empresa lunar carecía de sentido práctico. De cualquier forma es indudable que 
el cumplimiento del programa confirmó de modo espectacular el desarrollo de la 
ingeniería y la ciencia estadounidense.

1968   marca   el   inicio   del   lanzamiento   de   las   naves   que   iban   comprobando   las 
diferentes   fases   del   proyecto   Apolo.   Un   año   después, el   hombre   pisó   la 
superficie de su satélite en los pies de dos astronautas estadounidenses, Edwin 
E.   Aldrin   (1930­   )   y   Neil   A.   Armstrong   (1930­   ).   Michael   Collins   (1930­   ) 
permaneció   en   la   órbita   lunar   pilotando   el   módulo   de   control   después   de   la 
separación y apoyando las maniobras del módulo lunar. Armstrong al borde del Mar 
de la Tranquilidad, declaró: "Éste es un pequeño paso para un hombre, pero un 
gran salto para la humanidad". Millones de personas pudieron seguir en directo 

318
la retransmisión vía satélite del acontecimiento. Armstrong y Aldrin clavaron en 
el   suelo   lunar   una   bandera   de   Estados   Unidos.   El   acto   hizo   reflexionar   a   no 
pocos sobre el simbolismo que este acto de reconocido orgullo nacional, podía 
entrañar. El programa científico de la estancia en suelo lunar fue exitosamente 
cumplido.   En   los   tres   años   siguientes,   6   naves   estadounidenses   con   sus 
tripulaciones   de   tres   astronautas   cada   una,   se   dirigieron   hacia   el   satélite 
lunar. Sólo una, el Apolo 13, confrontó una avería que felizmente no terminó en 
desastre, en abril de 1970. A partir del Apolo 15, las expediciones contaron con 
un vehículo de ruedas eléctrico que permitió extender la zona de exploración de 
los   cosmonautas.   Más   de   70   horas   en   total   permanecieron   los   astronautas   en 
labores de exploración de la superficie selenita.

El 20 de febrero de 1962, John H. Glenn (1921­ ) se convirtió  
en   uno   de   los   pioneros   de   la   exploración   del   espacio   al 
inaugurar   el   programa   Mercury   de   la   Agencia   Espacial  
Estadounidense. Durante 4  horas, 55 minutos y 23 segundos el  
Mercury Atlas 6 completó tres órbitas. Cinco años antes, Glenn 
había   pilotado   el   avión   que   realizara   el   primer   vuelo 
transcontinental supersónico. Después del vuelo espacial y los  
honores   recibidos   se   dedicó   a   la   política   hasta   1997.   En  
octubre de 1998, a los 77 años de edad regresó al espacio, a  
bordo   del   trasbordador   Discovery;   marcando   un   record   difícil 
de   superar   y   posibilitando   a   ejecución   de   investigaciones  
sobre   el   efecto   de   la   ingravidez   en   el   envejecimiento.   La 
misión esta vez se extendió por 9 días en los cuales su nave  
describió 134 órbitas terrestres.

El primer montaje de estaciones orbitales soviéticas comenzó en abril de 1971 
cuando   fue   lanzada   al   espacio   la   Saliut   1,   con   un   peso   de   18   toneladas.   En 
junio, la nave Soyuz 11 se acopló a la estación Salyut 1 y su tripulación de 
tres hombres entró en ella para realizar un vuelo que alcanzó el récord de 24 
días. En ese tiempo llevaron a cabo numerosos experimentos biológicos y estudios 
sobre recursos de la Tierra. Sin embargo, a su regreso a la Tierra ocurrió una 
tragedia y los tres cosmonautas soviéticos — Georgi T. Dobrovolsky (1928–71), 
Vladislav   N.   Volkov   (1935–71),   y   Víctor   I.   Patsayev   (1933–71)   —   perecieron   a 
causa de una fuga de aire en una válvula. Su muerte fue instantánea al no tener 
puestos los trajes espaciales.

El accidente detuvo el programa espacial soviético pero luego el programa de las 
Salyut continuó desarrollándose con éxito y ya la Salyut 6 (septiembre de 1977­
julio   de   1982)   y   la Salyut 7 fueron   visitadas   por   numerosas   tripulaciones 
internacionales de países como Cuba, Francia e India, así como por la primera 

319
mujer que realizó un paseo espacial: Svetlana Savitskaya (1948­ ). La caminata 
que   duró   casi   4   horas   se   produjo   un   25   de   julio   de   1984.   Este   mismo   año   se 
produjo   uno   de   los   acontecimientos   más   importantes   del   programa   Sayuz­Saliut 
cuando   la   tripulación   integrada   por   Leonid   Kizim   (1941­   ),   Vladímir   Soloviov 
(1946­   )   y   el   médico   Oleg   Atkov   (1949   ­   )   pasaron   237   días   a   bordo   de 
la Salyut 7antes de regresar a la Tierra; fue el vuelo más largo de la época.

El programa soviético perseguía el objetivo de perfeccionar la tecnología de las 
estaciones orbitales con el diseño de una capaz de experimentar una progresiva 
ampliación de sus módulos de acuerdo con las demandas del propio proyecto y que 
garantizara las facilidades para una larga estadía de tripulantes. La primera 
estación   espacial   en   cumplir   estos   propósitos,   la   Mir   (paz,   en   ruso),   fue 
lanzada   en   1986.   Constituida   inicialmente   por   un   único   módulo   central   se 
expandió   hasta   llegar   a   contar   con   siete   módulos.   Astronautas de Afganistán, 
Alemania,   Austria,   Estados   Unidos,   Francia,   Gran   Bretaña,   Japón,   Kazajstán   y 
Siria trabajaron a bordo de la Mir al lado de sus colegas rusos. La estación 
acogió   a   un   total   de   104   astronautas.   Entre   otras   misiones   relevantes   merece 
destacarse la permanencia en 1994 de más de un año (exactamente 438 días, récord 
de permanencia en el espacio) del médico Valeri Polyakov (1942­ ). Está misión 
de Polyakov fue compartida durante más 5 meses con Yelena Kondakova (1957­ ), la 
primera mujer en pasar una larga estancia (168 días) en el espacio. Dos años 
después   la   astronauta   estadounidense   Shannon   Lucid   (1943­   ),   con   53   años, 
implantó una nueva marca de permanencia en el cosmos para una mujer cuando a 
bordo de la MIR se mantuvo 188 días en la estación orbital soviética.

Poco   después   del   vuelo   de   Gagarin   la   trabajadora   textil   y  


paracaidista   aficionada   Valentina   Tereshkova   (1937­   )   era  
aceptada   para   ingresar   en   la   Escuela   de   Cosmonautas   de 
Baikonur. Valentina había quedado huérfana a los tres años,  
cuando su padre cayera combatiendo en los primeros momentos  
del   ataque   nazi   a   la   URSS.   Bastaron   dos   años   de   intenso 
adiestramiento   para   que   Valentina   se   convirtiera   en   la  
primera mujer en el espacio, orbitando la Tierra.
Su voz llegó el 16 de junio de 1963 desde la nave Vostok 6  
con   un   breve   mensaje. A   lo   largo   de   tres   días,   ella 
circunvoló  la  Tierra  48 veces –lo  que  significa que  vio  un 
nuevo   amanecer   cada   hora   y   media.   "Fue   impresionantemente  
hermoso",   "como   algo   extraído   de   un   cuento   de   hadas".   Las  
investigaciones biomédicas sobre el efecto de las condiciones  
del   cosmos   en   la   mujer   se   iniciaron   con   el   vuelo   de  
Valentina.

320
La falta de financiamiento   hizo   que   los   astronautas   que   ocupaban   la   Mir   la 
abandonaran   en   agosto   de   1999;   pero   Rusia   decidió   prolongar   la   vida   de   la 
estación espacial y, en abril de 2000, se lanzó la nave tripulada Soyuz PM­30 
con la misión de repararla. Esta última tripulación de la Mir regresó el 16 de 
junio de 2000. Finalmente se decidió hacer descender la estación hacia las capas 
densas de la atmósfera, donde se desintegraría en su mayor parte, y hundir sus 
restos en el océano Pacífico. La caída controlada de la Mir tuvo lugar el 23 de 
marzo de 2001, tal como estaba previsto. Para muchos constituyó un símbolo de la 
caída de otros tantos valores de la nación soviética.

En 1993 la NASA firmó un acuerdo de colaboración con la Agencia Espacial Rusa. 
La concertación comprendía también a Japón, Canadá y los miembros de la Agencia 
Espacial Europea. El proyecto concibe la construcción de una estación espacial 
internacional (ISS, en inglés) a un coste aproximado a unos 60.000 millones de 
dólares. Se estima que para su montaje en una órbita terrestre serán necesarios 
más de 40 vuelos espaciales. La ISS podrá acoger a una tripulación permanente de 
siete   astronautas   para   continuar   el   estudio   del   cosmos,   las   investigaciones 
biomédicas   y las   modernizaciones  de  los  sistemas  de  a  bordo  y  de  exploración 
extravehicular.   Para   fines   de   siglo   se   había   acoplado   como   resultado   de   esta 
cooperación tres módulos de los 10 elementos que se preveían para la estación en 
pleno   funcionamiento.   La estación   fue   inaugurada   por   una   tripulación   ruso­
estadounidense   el   2   de   noviembre   de   2000.   Un   año   después,   los   socios   del 
proyecto aprobaron el inicio del negocio turístico en el cosmos con el viaje a 
la Estación de un acaudalado estadounidense, quien permaneció seis días a bordo 
de la ISS a principios de mayo.

Nuestro   conocimiento   actual   sobre   Marte   procede   esencialmente   de   las 


exploraciones estadounidenses desarrolladas entre 1964 y 1976. Hoy sabemos que 
el planeta rojo de nuestro sistema solar presenta una atmósfera delgada por lo 
que el efecto de invernadero se hace débil y su superficie es mucho más fría 
que   la de nuestro planeta. La temperatura promedio en Marte es de ­63° C con 
una   temperatura   máxima   de   20°   C   y   un   mínimo   de   ­   140°   C.   El   principal 
componente de la atmósfera marciana es el dióxido de carbono, en un 95,32% de su 
masa.   En   1976,   las   Sondas   Viking   se   posaron   suavemente   sobre   su   superficie 
ofreciendo   las   primeras   determinaciones   in   situ   sobre   la   composición   de   la 
atmósfera y el suelo marciano.

321
El   astronauta   estadounidense   Niels   Armstrong   a   punto   de  
cumplir   el   objetivo   supremo   del   Programa   Apolo,   al   borde  
del  Mar   de  la  Tranquilidad,  declaró:  "Éste  es  un  pequeño  
paso para un hombre, pero un gran salto para la humanidad".  
Millones   de   personas   pudieron   seguir   en   directo   la  
retransmisión vía satélite del acontecimiento. Armstrong y 
Aldrin  clavaron  en  el  suelo  lunar  una  bandera  de  Estados  
Unidos.   El   acto   hizo   reflexionar   a   no   pocos   sobre   el 
simbolismo que podía entrañar. El éxito del programa Apolo 
fue   un   triunfo   de   la   ciencia   y   la   ingeniería 
estadounidense.

En julio de 1997, un nuevo programa de la NASA se puso en ejecución llevando una 
nave   (la Mars   Pathfinder) con   un   vehículo   todo   terreno   a   la   superficie 
marciana. Los datos obtenidos indican que la sonda se asentó en lo que fue un 
entorno marciano húmedo. En general, esta misión proporcionó a los científicos 
importantes informaciones sobre el presente y el pasado de Marte. Las dos sondas 
que le siguieron terminaron en fracaso cuando intentaron entrar en la órbita de 
Marte.

Venus, el otro planeta vecino al nuestro, es a veces llamada el planeta hermano 
de la Tierra ya que los dos son muy similares en tamaño y en masa. Pero allí 
terminan las similitudes. La densa atmósfera de Venus hace especialmente difícil 
las observaciones telescópicas y la obtención de datos espectrales fiables desde 
nuestro planeta. Por consiguiente los conocimientos que hemos construido sobre 
el segundo planeta desde el Sol se basan en los datos enviados por las naves 
enviadas  hacia  este  destino.  El programa de la URSS  para  penetrar  en  la  densa 
atmósfera   de   Venus,   comenzó   en   agosto   de   1970   con   el   lanzamiento   de   la   nave 
Venera   6   que   en   apenas   media   hora   envió   datos   sobre   la   temperatura   en   su 
superficie. Dos años más tarde el Venera 8, fue capaz de enviar datos sobre un 
análisis   de   su   suelo.   En   octubre   de   1975,   dos   naves   de   la   serie   Venera   se 
posaron en la superficie del planeta y obtuvieron las primeras fotografías. La 
presión   de   90   atmósferas   (similar   a   la   que   se   encuentra   a   900   metros   de 
profundidad   en   los   océanos   de   la   Tierra)   y   una   temperatura   en   superficie   de 
460 ºC fue registrada por vez primera en 1978, también por naves soviéticas.

322
En   1978   el   Teniente   Coronel   de   las   Fuerzas   Aéreas  
Cubanas,   Arnaldo   Tamayo   Méndez,   es   seleccionado   para  
participar en la séptima tripulación internacional del 
programa Intercosmos. El 18 de septiembre de 1980, la  
nave   Soyuz­38   se   elevaba   rumbo   al   cosmos,   llevando  
consigo   al   primer   latinoamericano   que   pudo   observar  
nuestro   planeta   desde   tan   arriba.   La   misión   en   el  
laboratorio   de   la   Salyut­6   (saludo,   en   ruso)  
desarrolló   con   éxito   los   más   de   20   experimentos  
científicos que se tenían previstos durante los 7 días  
y   20   horas   que   duró   el   vuelo.   De   regreso   a   su   país  
Tamayo   fue   condecorado   como   Héroe   Nacional   de   la  
República de Cuba.

Su infancia en la oriental provincia de Guantánamo fue la de un niño que  
limpia "botas" en la calle. Tamayo Méndez es hoy General de Brigada, y  
diputado ante la Asamblea Nacional del Poder Popular de Cuba.

Cinco   años   después   del   vuelo   de   Tamayo   Méndez,   un  


representante del pueblo azteca, el ingeniero mecánico 
y   profesor   de   la   Facultad   de   Ingeniería   de   la   UNAM,  
Rodolfo Neri Vela (1952­ ) integra la tripulación del  
transbordador   Atlantis.   La   misión   de   la   NASA   que   se  
extiende del 26 de noviembre al 3 de diciembre de 1985  
tenía   como   uno   de   sus   objetivos   poner   en   órbita   un  
satélite   mexicano   el   Morelos   II.   (Imagen   Neri   Vela, 
 www.jsc.nasa.gov/Bios/htmlbios/nerivela­r.html)

En   1986   se   produce   el   primer   vuelo   al   espacio   de   Franklin   Chang­Díaz 


(1950­ ), quien nace y recibe educación hasta los 17 años en Costa Rica.  
Desde 1969 estudia en Connecticut, donde se gradúa de ingeniero mecánico  
en   1973   y   luego   se   doctora   en   el   ITM   de   Física   Aplicada   del   Plasma.  
Veterano de cuatro vuelos espaciales, el Dr. Chang ­ Díaz ha permanecido  
más de 656 horas en el espacio, conduciendo importantes experimentos en  
Astrofísica.   El   gobierno   de   Costa   Rica   le   confirió   la   Ciudadanía  
Honoraria,   máximo   honor   concedido   a   un   extranjero   que   paradójicamente  
nació en esta hermana nación…

323
En marzo de1982, de nuevo dos naves Venera se posaron en Venus, y efectuaron los 
primeros   análisis   sobre   la   composición   química   de   la   atmósfera   y   del   suelo, 
demostrando   que   la   atmósfera   de   Venus   está   constituida   principalmente   por 
dióxido del carbono, casi ningún vapor de agua, y gotas de ácido sulfúrico lo 
que   ocasiona   un   efecto   invernadero   tan   intenso   que   explica   las   temperaturas 
registradas  superiores  a  los  450°  C    una   superficie  más  caliente  que  la  del 
planeta Mercurio, el cual está más cerca del Sol. La más importante misión de 
los Estados Unidos hacia Venus fue el lanzamiento en 1989 desde un trasbordador 
espacial de la sonda Magallanes. Esta sonda remitió hacia la Tierra imágenes de 
radar   que   procesadas   por   técnicas   de   computación   dieron   lugar   a   imágenes 
tridimensionales espectaculares de la superficie del lucero del Alba.

Junto a los triunfos relevantes de la cosmonáutica también se han conocido los 
dramáticos reveses. En el intervalo de tres meses, durante 1967 se conocieron 
los dos primeros accidentes fatales en la historia de la conquista del cosmos. 
En   enero,   tres   astronautas   estadounidenses   murieron   durante   un   ensayo   en   la 
Tierra,   víctimas   del   incendio   desatado   en   el   módulo   de   control   de   la 
tripulación. En abril se probaba una nueva generación de naves soviéticas, la 
Sayuz   ­1,   diseñada   para   producir   el   acoplamiento   orbital,   y   con   un 
compartimiento más amplio para llevar a tres cosmonautas, cuando ya de regreso 
al ingresar en la atmósfera el sistema de frenado falló y la nave se estrelló 
contra la superficie terrestre provocando la muerte instantánea del piloto.

El programa soviético se reinició dos años más tarde y luego en 1971, una misión 
en nave Sayuz, tras 224 días de exitosa estancia en la primera estación orbital 
Saliut, cuando regresaba a Tierra la nave se desintegró y sus tres tripulantes 
perecieron.

La fiabilidad de los sistemas parecía haber aumentado y durante más de 15 años 
no se reportaron accidentes que lamentar pero en enero de 1986, el transbordador 
estrella de la NASA, el Challenger, tras 75 segundos de vuelo, se convirtió en 
una   bola   de   fuego   y   sus   siete   tripulantes   ­dos   mujeres   y   cinco   hombres­ 
murieron.   Las   conmovedoras   escenas   televisivas   transmitieron   al   mundo   la 
magnitud de la tragedia. El accidente paralizó el programa de vuelos hasta que 
se   analizaron   y   volvieron   a   diseñar   todos   los   sistemas.   Una   comisión 
presidencial,  en  que  participara  el  veterano  astronauta  Neil  Armstrong,  culpó 
del accidente a la NASA y a sus sistemas de de control de la calidad.Sólo dos 
años después hizo su aparición el nuevo transbordador, el Discovery.

324
En   1985   el   ingeniero   Roger   Boisjoly   comenzó   a 
trabajar   en   la   mejora   de   los   "anillos   O" ("O­
ring   seals") del   Challenger   y   se   sintió  
frustrado   con   el   lento   progreso   y   la   poca 
atención   prestada   por   la   gerencia   de   la 
compañía   al   equipo   creado   para   realizar   las  
tareas   relacionadas   con   dichos   sellos.   En  
reunión previa al dramático despegue expone los  
datos   que   aconsejaban   postergar   el   lanzamiento  
de   la   nave   y   es   ignorado   por   los   ejecutivos  
comprometidos con el programa de la NASA.

La   Sociedad   Americana   para   el   Desarrollo   de   las   Ciencias   otorgó   a  


Boisjoly el "Premio a la Libertad Científica y Responsabilidad" por su  
honestidad   e   integridad   en   los   eventos   que   se   presentaron   antes   y  
después del desastre de la nave espacial.

Imagen: http://onlineethics.org/spanish/boisjoly/RB­intro­span.html

Ya   en   el   siglo   XXI,   en   2003,   el   transbordador   Columbia   al   regreso   de   una 


expedición de 15 días con una tripulación de 7 cosmonautas, se desintegró cuando 
faltaban   16   minutos   para   pisar   tierra   firme.   Era   primera   vez   en   42   años   de 
vuelos   tripulados   estadounidenses   que   un   accidente   se   registrara   durante   el 
regreso de la nave.

La humanidad conoció así de programas riesgosos de vuelos tripulados que 
buscaron un efecto político a costos desproporcionados, supo de proyectos 
trasnochados que pretendieron  trasladar las conquistas espaciales al terreno de 
“los escudos bélicos espaciales” y de las nuevas generaciones de misiles y 
antimisiles con ojivas nucleares; esquemas todos que resultaban una ofensa a los 
países históricamente condenados al subdesarrollo, y recibió por otro lado con 
optimismo los planes racionales de colaboración entre las naciones desarrolladas 
que promovieron la expansión de los conocimientos del hombre sobre su cuna 
mayor: el infinito universo.

Uno de estos logros se ejemplifica con el programa de instalación en órbita del 
telescopio espacial Hubble en 1990. Fruto de la cooperación de la Agencia 
Espacial Europea y la NASA el telescopio alcanzaba una resolución 10 veces 
superior a la mejor obtenida desde los telescopios terrestres y se diseñaba para 
realizar observaciones en la región del espectro visible y ultravioleta con una 
capacidad inimaginable 50 años atrás para escudriñar las regiones más remotas 

325
del universo. Adicionalmente, la necesaria corrección de un error de fabricación 
de su espejo principal y la modernización progresiva de sus dispositivos han 
sido tareas resueltas por misiones de astronautas que aproximando sus naves al 
telescopio han salido al espacio para desarrollar con éxito las tareas 
encomendadas.

Cuando   en   1990   se   puso   en   orbita   un   telescopio  


espacial,   el   Hubble,   las   observaciones  
astronómicas   entraban   en   una   nueva   época   de 
insospechados   descubrimientos   cósmicos.   Ahora 
los   astrónomos   comenzarían   a   burlarse   del  
“espeso   velo”   de   la   atmósfera   terrestre.  
Propiamente   se   trataba   de   un   laboratorio  
telescópico   con   el   instrumental   óptico   más  
moderno de este siglo.  

Sin   embargo,   pronto   las   deformaciones   de   las   imágenes   recibidas  


acusaban   un   error   en   la   fabricación   del   espejo   principal   del  
equipo. Tres misiones de cosmonautas de la NASA entre 1993 y 1999 se  
ocuparon   primero   de   corregir   el   defecto   de   fabricación   y   luego   de  
renovar   o   incorporar   nuevas   técnicas   al   laboratorio   telescópico. 
Colisiones  entre galaxias, impacto de cometa sobre la superficie  de 
Júpiter   que   altera   su   atmósfera,   estrellas   en   proceso   de   formación  
que   se   encuentran   en   el   interior   de   nubes   de   polvo   y   gas,   nueva  
estimación del número de galaxias y de la edad del universo que ahora  
adquiere como fecha de nacimiento unos 14 mil millones de años atrás 
son   algunos   resultados   de   las   espectaculares   observaciones  
telescópicas.

El nacimiento de la Electrónica y del universo de la Informatización.

Si el mundo de la electrónica comprende la ciencia y la tecnología relacionadas 
con el movimiento de las partículas cargadas en un gas, en el vacío, o en un 
semiconductor, entonces la invención de la válvula de oscilación o tubo de vacío 
le dio a la tecnología inalámbrica su primer impulso y marcó el inicio de la 
nueva   ciencia   de   la   electrónica.   Correspondió   este   honor   al   físico   británico 
John Ambrose Fleming (1849­1945).

En 1899 Fleming se hizo consultante de la Compañía de Marconi. Por entonces la 
telegrafía   inalámbrica   se   encontraba   en   su   infancia   y   Marconi   estaba 
experimentando   constantes   innovaciones   para   aumentar   la   distancia   que   podía 

326
alcanzarse.   Fleming   quedó   absorbido   con   esta   cuestión   y   comprendió   que   el 
principal problema provenía de la escasa sensibilidad del dispositivo detector 
de las señales. En noviembre de 1904 Fleming patentó su válvula de oscilación 
llamada así por la analogía observada con la válvula de un fluido que permite 
solo el movimiento del flujo en una sola dirección. El diodo de tubo de vacío, 
como mas comúnmente se conoció, estaba constituido por un filamento caliente que 
emite electrones de acuerdo con el efecto Edison y una placa, el ánodo, que es 
el colector de electrones. En este dispositivo la corriente circula sólo cuando 
esta placa es positiva respecto al cátodo. Si se aplica un potencial alterno a 
la placa, la corriente pasará por el tubo solamente durante la mitad positiva 
del ciclo, actuando así como rectificador. La válvula de Fleming fue el primer 
diodo que se utilizó en la radio como detector y rectificador.

El físico británico John Ambrose Fleming (1849­1945) 
sintió un interés inicial por la Química y dio sus  
primeros pasos en el laboratorio de Frankland, pero  
luego quedó fascinado al conocer de los trabajos de  
Maxwell   y   pasó   a   investigar   en   el   campo   de   la  
electricidad   y   el   magnetismo   en   Cambridge   donde 
alcanzó el doctorado en  ciencias. Unos años después 
trabajó en los laboratorios de Edison en los Estados  
Unidos   y   allí   pudo   conocer   de   primera   mano   el 
descubrimiento   conocido   como   Efecto   Edison   que 
indicaba   la   emisión   de   electrones   por   un   filamento  
caliente en un bulbo de iluminación.

A   su   regreso   a   Londres,   en   1885   el   Colegio   Universitario   de   Londres  


(UCL) le solicitó fundara un nuevo departamento de Ingeniería Eléctrica,  
en el cual el se desempeñaría como profesor durante 41 años. Compartió 
la   docencia   universitaria   con   la   investigación   y   en   1904,   luego   de 
identificar   como   uno   de   los   problemas   a   resolver   en   la   naciente 
industria   de   la   telegrafía   inalámbrica   la   pobre   sensibilidad   de   los 
detectores,   inventó   el   primer   diodo   que   se   utilizó   en   la   radio   como  
detector y rectificador.

Pero el más importante hito de los primeros tiempos de la electrónica llegó en 
1906   cuando   el   físico   e   inventor   estadounidense   Lee   De   Forest   (1873   –   1961) 
colocó un tercer electrodo, como una rejilla, en la válvula de Fleming, y así 
inventó el tubo triodo al que llamó audión. Un pequeño cambio en el voltaje de 
la rejilla provocaba un notable cambio en el voltaje de la placa. De modo que 
fue   el   audión   el   primer   amplificador.   Todavía   debieron   pasar   cinco   años   para 

327
mejorar el vacío en el audión y añadir un revestimiento eficiente de oxido en el 
cátodo   para   obtener   un   dispositivo   confiable.   Este   fortaleció   la   corriente   a 
través del tubo, amplificando las débiles señales del telégrafo y también de la 
radio.

En   los   círculos   británicos   se   ha   creado   cierto   estado   de   opinión   sobre   la 


novedad de la patente de De Forest en relación con la válvula de Fleming. El 
inventor de la tecnología termoiónica disputó en las cortes la originalidad de 
la propuesta de De Forest y su opinión fue desestimada por los jueces.

En   1912   De   Forest   desarrolló   un   circuito   de   retroalimentación   que   podría 


incrementar la salida de un transmisor de radio y producir corriente alterna. Es 
difícil admitir la afirmación de que no apreció correctamente la importancia de 
su invención y por ello no solicitara la patente hasta 1915 cuando ya lo había 
hecho  el  profesor  de  la  Escuela   de  Ingeniería  Eléctrica  de  la  Universidad   de 
Columbia,   Edwin   Howard   Armstrong   (1890­   1954).   El   circuito   regenerador   de 
Armstrong   constituyó   un   progreso   en   la   radiofonía   porque   podía   amplificar 
débiles señales de radio sin distorsión. De Forest apeló ante los jueces y casi 
20 años después la Corte falló a su favor pero en la comunidad de electrónicos 
el crédito le fue dado a Armstrong. 

Ambos debieron hacer invenciones trascendentes en la tecnología de los medios de 
comunicación. De Forest en la década de los 20 encontró una forma de registrar 
el sonido sobre la cinta de la película. Esto llevó directamente a la creación 
de  las  imágenes  animadas  con   movimiento  y  con  sonido.  Solicitó  la  patente   en 
1921 y le fue otorgada en 1924. Desde entonces intentó atraer la industria del 
cine   hacia   su   tecnología   y   sin   embargo   los   cineastas   no   mostraron   interés. 
Irónicamente las primeras tentativas del cine hablado no usaron la patente de De 
Forest pero años después aplicaron su método.

De Forest, pionero del mundo de la tecnología de la  
radio, había estudiado   en uno de los pocos centros 
estadounidenses   que   por   entonces   ofrecía   una  
formación   científica   de   primera   clase,   la  
Universidad   de   Yale,   donde   obtuvo   en   1899   el 
doctorado en Ciencias Físicas, defendiendo la tesis 
titulada   "Reflexión   de   las   ondas   hertzianas   desde 
los   terminales   de   alambres   paralelos".Luego   siguió 
investigando sobre las ondas de radio, desarrolló y 
perfeccionó el recibidor del telégrafo inalámbrico y 
en   1906   inventó el   tríodo   una   de   las   primeras 
conquistas   en   la   revolución   inicial   de   la  

328
Electrónica.

Impugnado   primero   por   Fleming   ante   las   cortes,   y  


luego   por   Armstrong   al   reclamar   la   autoría   del 
circuito retroalimentador

por el que Lee reclamaba su derecho de patente, es De Forest un ejemplo  
de la encarnizada y con frecuencia desleal competencia que se desató  
entre   los   pioneros   de   dos   de   las   conquistas   mas   importantes   en   los 
medios masivos de comunicación del siglo XX: la radio y la televisión.

En   1933,   Armstrong   inventó   el   sistema   de   modulación   de   frecuencia   (FM),   que 


brindaba   una   mejor   calidad   en   la   recepción   del   sonido   y   lograba   reducir   las 
interferencias en comparación con el  sistema de amplitud modulada (AM). Unos 5 
años   después   el   primer   recibidor   de   frecuencia   modulada   era   disponible.   Sin 
embargo la FM no comenzó a utilizarse hasta después la 2da Guerra Mundial, y los 
derechos de autor de Armstrong fueron ignorados, lo que sumergió al inventor en 
la pobreza y depresión. Sólo después de su dramática muerte (se lanzaría por la 
ventana de su apartamento neoyorkino a una altura de trece pisos) su viuda logró 
que primero la RCA (Radio Corporation of America) y luego prácticamente todas la 
compañías   que   usaban   la   FM   le   reconocieran   los   derechos 
correspondientes.Actualmente la radiodifusión por FM está ampliamente extendida.

Algo más de un lustro después de la patente de estudiante de ingeniería alemán 
Paul   G.   Nipkow   (1860   –1940),   que   adelantaba   el   primer   sistema   de   televisión 
electromecánico, en 1889 el ingeniero eléctrico Alan Archibald Campbell Swinton 
(1863 – 1930) expone en la Sociedad Roentgen de Inglaterra un esquema que en 
principio   constituye   el   sistema   de   la   tecnología   televisiva   actual.   Otros   24 
años hicieron falta para que la idea de Campbell se transformara en el primer 
sistema mundial de fotografía electrónica.

Por   estos   años,   el   joven   ruso   Vladimir   Kosma   Zworykin   (1889­1982)   estudiaba 
ingeniería eléctrica en el Instituto Imperial de Tecnología de San Petersburgo, 
habiendo asistido a su mentor Boris Rosing en el desarrollo y la exhibición en 
1910 de un sistema híbrido de televisión, primitivo pero exitoso, que combinaba 
ingeniosamente el disco mecánico de Nipkow como cámara y como receptor el tubo 
de rayos catódicos inventado por el físico alemán premio Nobel de Física (1909), 
Karl   Braun   (1850   –   1918).   Poco   después   de   graduarse   con   honores   en   San 
Petersburgo, Zworykin emigra a Paris donde pudo trabajar en Física Teórica y en 
1919 se traslada a los Estados Unidos. Durante diez años trabaja en Pittsburgh 
en los laboratorios de Westinghouse, obteniendo en 1923 su primera patente sobre 

329
un  nuevo  sistema   de  televisión,  que  es  desestimada  por  sus  superiores  que   le 
aconsejan abandonar un proyecto impracticable. Pero Zworykin no se desalienta y 
en 1929 presenta en una convención de ingenieros de radio su sistema electrónico 
al   combinar   su   dos   ingenios:   el   "iconoscopio",   la   primera   cámara   de   tubo 
electrónico, con su "cinescopio" un tubo de rayos catódicos más sofisticado como 
receptor   de   la   imagen.   Uno   de   los   problemas   que   supo   resolver   Zworykin   para 
hacer   eficiente   su   iconoscopio   fue   desarrollar   un   método   que   permitiera   el 
depósito   uniforme   de   más   de   un   millón   de   elementos   fotosensibles   de   plata 
cubiertos con oxido de cesio en la placa de la cámara.

El joven ingeniero ruso Vladimir K. Zworykin había 
desarrollado   en   el   Instituto   Imperial   de   San  
Petersburgo   un   sistema   híbrido   de   televisión, 
primitivo   pero   exitoso,   que   combinaba 
ingeniosamente   el   disco   de   Nipkow   como   cámara   y  
como receptor el tubo de rayos catódicos. Luego de  
su graduación como ingeniero se sintió atraído por 
la   física   teórica   y   realizó   estudios   con   Langevin  
en el Collegè de France sobre los rayos X  pero  no 
alcanzaría  su  doctorado  en  Física hasta 1920 en  
la   Universidad   de   Pittsburgh,   tratando   su 
disertación   sobre   el   mejoramiento   de   las   celdas  
fotoeléctricas.

Casi   20   años   después   trabajando   en   los   Estados   Unidos   para   los  


laboratorios   Westinghouse   desarrolla   el   primer   sistema   televisivo 
totalmente   electrónico   (cámara   y   receptor).   Corría   el   1929   y   suponía  
estar a 18 meses de la fabricación de un equipo comercial pero cometió  
un grave error solo 10 años mas tarde estuvo listo el aparato. Hoy se  
estima que una cifra cercana a los mil millones de equipos se fabrican  
usando esencialmente la misma tecnología propuesta en el modelo de 1939  
de Zworykin.

Cuando David Sarnoff (1891–1971), directivo de la RCA Victor, se interesó por el 
proyecto, Zworykin aseguró que con una inversión de unos 100 mil dólares en el 
plazo de 18 meses estarían resueltos los problemas pendientes para disponer de 
una   tecnología   factible.   Se   equivocó   en   ambas   predicciones,   la   empresa   debió 
invertir 50 millones y el sistema no estuvo listo hasta diez años después. El 
ingreso de los Estados Unidos en la 2da Guerra Mundial detuvo la difusión de la 
industria televisiva., aunque continuaron los estudios para perfeccionar sobre 

330
todo la sensibilidad de los elementos. Durante los años de la guerra, un grupo 
de científicos e ingenieros dirigidos por Zworykin desarrollaron una cámara 100 
veces más sensible que el iconoscopio y al terminar la guerra, la RCA reinició 
sus trabajos en este campo.

En 1946 se vendieron unos 7,000 equipos en los Estados Unidos. Para 1950, la 
cifra de televisores superaba los 10 millones. Hoy, con la entrada del gigante 
asiático   en   la   producción   seriada   se   estima   que   una   cifra   cercana   a   los   mil 
millones   de   equipos   se   fabrica   usando   esencialmente   la   misma   tecnología 
propuesta   en   el   modelo   de   1939   de   Vladimir   Zworykin.   Al   final   de   su   vida, 
lamentó el uso y abuso que hacían los medios televisivos de la trivialización y 
la   violencia   en   lugar   de   ponerse   en   función   del   enriquecimiento   educativo   y 
cultural del público.

A principios de la década de los 40, el doctor en ciencias físicas, profesor de 
la   Universidad   de   Pensilvania,   John   William   Mauchly   (1907­1980)   escribió   un 
memorando   titulado:   "Utilización   de   Tubos   al   Vacío   de   Alta   Velocidad   par 
realizar Cálculos" Este memorando abrió las puertas para que Washington aprobara 
el  presupuesto  para  emprender  la  construcción  de  una  computadora   electrónica. 
Entre   1943   y   1946,   Mauchly,   como   consultante   principal,  y   el   ingeniero 
eléctrico John Presper Eckert (1919 ­ 1995), como ingeniero jefe, ambos de la 
Universidad de Pensilvania,  dirigieron el programa  patrocinado por la sección 
de artillería del ejército estadounidense para los laboratorios de investigación 
balística. 

América Latina siente un sano orgullo con contar en la  
historia   de   la   televisión   a   uno   de   sus   actores  
principales. Se trata del inventor mexicano Guillermo 
González Camarena (1917­1965). A los 15 años obtuvo la  
licencia   para   trabajar   como   operador   de   radio   en   la  
radioemisora   de   la   Secretaría   de   Educación,   al   mismo  
tiempo que experimentaba en su laboratorio, y dos años  
después fabricó su propia cámara de televisión. Cuando 
tenía   23   años   le   fue   otorgada   la   patente   por   el  
desarrollo   de   un   Sistema   Tricromático   Secuencial   de 
Campos, que era posible adaptarlo al sistema de blanco  
y negro.

Junto a su obsesión creativa, sentía una vocación especial por poner la  
televisión   al   servicio   de   la   educación   y   la   cultura.   Se   interesaba 
porque su sistema se utilizara para alfabetizar y proyectó lo que mas  
tarde se conocería como sistema de telesecundaria. Hoy cuando se hace  

331
uso   y   abuso   de   la   TV   comercial,   y   no   pocas   veces   este   medio   de  
comunicación   masiva   se   emplea   para   la   desinformación,   Guillermo   se  
levanta como un símbolo.

Fruto de este proyecto fue la primera computadora electrónica, conformada por 30 
unidades independientes que totalizaban una masa de 30 toneladas, y representaba 
un   sistema   ensamblado   de   18   000   tubos   de   vacío,   70   mil   resistores,   10   mil 
capacitores, 6 mil interruptores manuales, y otros componentes electrónicos con 
sus   diversos   acoplamientos.   La   ENIAC   (Electronic   Numerical   Integrator   And 
Computer)   representó   entonces   la   mayor   colección   de   circuitos   electrónicos 
interconectados.   Aunque   se   concluyó   tarde   para   contribuir   a   los   servicios 
militares en la II Guerra Mundial, prestó asistencia durante el período de la 
guerra   fría   en   los   cálculos   relacionados   con   la   fabricación   de   la   bomba   de 
Hidrógeno.

La   ENIAC   demostró   su   alta   velocidad   de   procesamiento   utilizando   los   tubos   de 


vacío o bulbos que representaban la más alta tecnología de punta de la época. 
Podía   ejecutar   5,000   adiciones,   357   multiplicaciones,   y   38   divisiones   en   un 
segundo. ENIAC estuvo en funcionamiento hasta 1955 con mejoras y ampliaciones, y 
se   afirma   que   durante   su   vida   operativa   realizó   más   cálculos   matemáticos   que 
todos los realizados anteriormente por la humanidad. Esta primera versión fue 
perfeccionada   por   los   autores   en   los   siguientes   modelos   conocidos   por   EVAC  
(Electronic Discrete Variable Automatic Computer) y finalmente, para 1951 habían 
producido   el   primer   modelo   de   computadora   digital   comercial   que   recibió   el 
nombre de UNIVAC (Universal Automatic Computer). Fue la primera en utilizar un 
compilador   o   autoprogramador   para   traducir   idioma   de   programa   en   idioma   de 
máquinas.

En la década de los 50 el ingeniero eléctrico estadounidense Seymour Cray (1925­
1996) trabajaba en el diseño y fabricación de las primeras supercomputadoras, 
ingenios que los expertos clasificaban así, cuando eran capaces de efectuar 20 
millones de operaciones matemáticas por segundo.  El nombre de Cray se relaciona 
en   particular   con   la   primera   supercomputadora   comercial,   la   UNIVAC   1103 
fabricada   en   1953   por   la   corporación   Remington   Rand.   Su   afán   de   diseñar 
computadoras   más   potentes,   con   mayor   velocidad   de   procesamiento   lo   lleva   a 
fundar   ya   en   los   setenta   su   propia   compañía   de   investigación   que   continua 
diseñando   nuevas   versiones   de   computadoras   capaces   de   realizar   hasta   1   200 
millones de operaciones de cálculo por segundo.

332
Un duro golpe recibieron los inventores de estas  
primeras   versiones   de   computadora   digital   cuando 
un   tribunal   en   1973   le   revocó   el   derecho   a   la  
patente   de   invención   de   la   ENIAC   por   considerar  
que   en   1941,   Mauchly   tuvo   la   oportunidad   de  
conocer   la   tecnología   de   la   llamada   ABC  
(Atanasoff ­ Berry Computer) desarrollada en 1939  
por   el   físico   estadounidense   de   origen   búlgaro,  
John Vincent Atanasoff (1903­1995) y su asistente  
Clifford   E.   Berry   (1918   ­1963)   ,   y   aplicar   sus  
principios   técnicos   a   la   fabricación   de   la 
computadora   ENIAC.   De   cualquier   manera   los  
trabajos   de   Mauchly   y   Eckert   quedan   como   un  
monumento   en   los   primeros   pasos   de   las  
computadoras   electrónicas.   En   ENIAC   ya 
aparecieron   casi   todos   los   componentes   y  
conceptos   de   las   computadoras   digitales   de   alta  
velocidad actuales.

Gracias a estas poderosas máquinas los científicos e ingenieros pueden llevar a 
cabo   procedimientos   matemáticos   muy   complejos   que   los   ayudan   a   analizar   una 
vasta   cantidad   de   datos   y   predecir   que   ocurrirá   en   procesos   de   disímil 
naturaleza que alcanza hasta el pronóstico del clima. Cray muere víctima de un 
accidente del tránsito sin haber conocido los éxitos comerciales. Estamos a dos 
décadas   del   lanzamiento   del   primer   microprocesador   capaz   de   efectuar   60   mil 
operaciones   por   segundo,   para   que   este   dispositivo   apareciera   en   escena   se 
necesito la invención de los semiconductores.

Apenas concluida la Guerra, los Laboratorios Bell apostaron por la investigación 
fundamental orientada a la sustitución de los tubos de vacío que no eran muy 
seguros, principalmente porque ellos generaban una gran cantidad de calor, y sus 
filamentos tenían una vida útil limitada. Para cumplir este propósito en 1945 un 
grupo   de   físicos   del   estado   sólido   fue   formado   teniendo   como   uno   de   sus   más 
importantes  objetivos  específicos  tratar  de  desarrollar   un  amplificador  en  el 
estado sólido.

En   el   listado   de   este   grupo   se   incluían   tres   físicos   Walter   Houser   Brattain 


(1902­1987), John Bardeen (1908­1991), y William Shockley (1910­1989) que unían 
a   una   experiencia   importante   en   el   campo   de   la   Física   Experimental,   un 
conocimiento profundo del legado de las investigaciones teóricas conducidas por 

333
Arnold   Sommerfeld,   John   Hasbrouck   van   Vleck   (1899­1980),   Nevill   Francis   Mott 
(1905­1996), y otros científicos de todo el mundo.

En   1947,   Brattain   y   Bardeen   comprobaron   experimentalmente   que   si   sobre   la 


superficie   de   un   cristal   de   germanio   se   presionaban   dos   alambres   de   oro   muy 
cercanos,  entonces  el  voltaje  de  salida  (con  respecto  a  la  base  de  germanio) 
hacia el colector de prueba era mayor que el de entrada al emisor. Así había 
nacido   el   amplificador   en   el   estado   sólido.   Pero   estos   primeros   transistores 
fueron   muy   malos,   tenían   baja   ganancia,   un   bajo   ancho   de   banda   y   resultaron 
ruidosos.   Entonces   fue   Shockley   quien   reconoció   que   las   dificultades   de   este 
dispositivo   se   relacionaban   con   los   contactos   de   puntos   metálicos   y   en 
consecuencia propuso casi inmediatamente el transistor de junta, elaborando en 
lo   esencial   la   teoría   de   su   operación.   Era   un   dispositivo   que   en   vez   de   la 
corriente de conducción presente en un tubo basaba su operación en la difusión. 
El   nuevo   dispositivo   tenia   además   portadores   de   carga   de   ambas   polaridades 
operando simultáneamente, es decir eran mecanismos dipolares. La teoría predecía 
que   el   nuevo   dispositivo   permitiría   la   conducción   de   altas   densidades   de 
corriente a bajos potenciales aplicados.

La invención de los transistores es acaso una prueba  
irrefutable de la fusión de la ciencia y  la  técnica 
en   este   siglo   para   producir   los   mas   revolucionarios 
elementos   electrónicos   de   la   época.   Sus   principales  
protagonistas   fueron   tres   eminentes   físicos  
estadounidenses que merecieron, por primera vez en la  
historia de la Academia Nobel, su galardón en Física  
por la invención de un dispositivo de ingeniería y el  
desarrollo   de   la   ciencia   que   lo   anunció.   Shockley,  
uno   de   estos   brillantes   físicos   mostró,   junto   a   su  
reconocido talento, una visión reaccionaria y racista  
de los problemas de la humanidad y su solución por la 
vía de la depuración genética.

Sus   discípulos   y   la   mayoría   de   la   comunidad   científica   rechazaron  


enérgicamente los repugnantes postulados de Shockley.

La posibilidad de obtener aparatos de gran importancia práctica sin filamentos 
calentados fue inmediatamente reconocida. Sin embargo consideraciones teóricas 
predecían   también   que   el   transistor   no   podría   ser   fiable   y   seguro   sino   eran 
disponibles cristales simples de ultrapureza. Tres cortos años mediaron entre el 
descubrimiento de la amplificación en un sólido, la invención del transistor y 

334
su fabricación como producto comercial, un diminuto aparato electrónico capaz de 
sustituir ventajosamente las funciones de los tubos de vacío apareció en 1952.

En 1956, Bardeen, Bradain y Shockley recibieron el premio Nobel de Física. Fue 
la primera ocasión en que la Academia Nobel otorgó el galardón por la invención 
de un dispositivo de ingeniería y el desarrollo de la ciencia que lo anunció. 
Los transistores fueron usados por el público por primera vez en 1953, en la 
forma   de   amplificadores   para   los   aparatos   contra   la   sordera.   En   1954   se 
desarrolló   la   radio   de   transistores   y   en   febrero   de   1956   el   Laboratorio   de 
Computadoras Digitales de MIT empezó a desarrollar en colaboración con IBM una 
computadora transistorizada.

Bardeen   fue   el   primer   científico   que   ganó   dos   premios   Nobel   en   la   misma 
disciplina,   su   segundo   galardón   le   fue   conferido   en   1972,   también   en   forma 
compartida   con    Leon   N.   Cooper   y   John   R.   Schrieffer,   esta   vez   por   sus 
investigaciones   en   el   campo   de   la   superconductividad.   El   químico   británico 
Frederick Sanger (1918­ ) por sus trabajos fundamentales para el despegue de la 
ingeniería genética mereció igual distinción en 1958 y luego en 1980.

En   1954,   el   físico   ­   químico   estadounidense Gordon   Teal (1907   ­   2003), 


trabajando   en  los  laboratorios  de  investigación  de  Texas  Instruments  descubre 
que   los   transistores   pueden   ser   fabricados   de   silicio   puro,   describiendo   el 
primer   transistor   verdaderamente   apropiado   para   la   producción   masiva.  Un   año 
después   los   ingenieros   Carl   Frosch   y   Link   Derick   de   los   Laboratorios   Bell  
descubren que el dióxido de silicio puede actuar como una máscara de difusión. 
Es   decir   descubren   que   al   calentar   una   pastilla   de   silicio   a   1200°C   en   una 
atmósfera de vapor de agua u oxígeno, una capa delgada de dióxido de silicio se 
forma en la superficie.

Después   de   la   invención   del   transistor,   según 


testimonios del propio Bardeen, el clima de trabajo 
en el laboratorio tomó un giro inesperado. Shockley 
se   mostraba   resentido   con   haber   compartido   la 
invención y llegó a bloquear el trabajo de su colega  
en   el   área   del   perfeccionamiento   del   transistor.  
Esto   provocó   su   traslado   a   la   Universidad   de 
Illinois en 1951, en donde concentró su atención en  
las   investigaciones   de   la   superconductividad 
mostrada por los metales a temperaturas muy bajas.

En 1957, junto con su discípulo post­doctoral Leon Cooper y su asistente  
graduado   John   R.   Schrieffer,   Bardeen   desarrolló   la   primera   teoría  

335
sobre   cómo   los   metales   a    muy   bajas   temperaturas   eran   capaces   de  
conducir la corriente tan eficientemente. En la actualidad esta teoría  
es conocida como la teoría BCS (Bardeen, Cooper, y Schrieffer). En 1972,  
los   tres   investigadores   recibieron   el   premio   Nobel   por   este   trabajo.  
Bardeen se convertía así en el primer científico en recibir dos veces el  
premio Nobel en la misma disciplina.

Con la grabación selectiva de la capa de óxido, se podía difundir impurezas en 
el silicio para crear las juntas P­N.  Es entonces que el doctor en Ingeniería 
Eléctrica por la Universidad Estatal de Ohio, John L. Moll (1921­ ), desarrolla 
el   transistor   de   silicio   de   completa   difusión,   en   el   cual   las   impurezas   son 
difundidas en la pastilla mientras los elementos activos son protegidos por la 
capa del óxido.  Ya en esta década el silicio comienza a desplazar al germanio 
como el material semiconductor que se expande a la producción de casi todos los 
transistores modernos.

La ciencia y la tecnología de los semiconductores  tomarían diversos senderos.  
Otro   trío   de   físicos   se   encuentran   entre   los   científicos   de   la   época   que 
hicieran   aportaciones   notables   al   desarrollo   de   la   teoría   de   los 
semiconductores: John Hasbrouck van Vleck (1899­1980),  conocido como "el padre 
del   magnetismo   moderno",   su   discípulo   de   Harvard,   Philip   Warren   Anderson 
(1923­ ), y el británico Nevill Francis Mott (1905­1996). No solo impulsaron el 
desarrollo inicial de la teoría de las transformaciones de los  semiconductores, 
que   se   conocen   actualmente   como   transiciones   de   Mott,   sino   que   abrieron   una 
nueva perspectiva en las investigaciones cuando a partir del descubrimiento en 
1958 del fenómeno llamado "localización de Anderson" centran la atención  no en 
los   semiconductores   cristalinos   utilizados   convencionalmente,   sino   en   el 
comportamiento   de   materiales   amorfos   que   han   hecho   posible   el   desarrollo   de 
dispositivos de memoria fabricados a partir del vidrio.

En   1963   el   físico   bieloruso   Zhores   I. Alferov (1930   ­   )   y   el   físico   alemán 


Hebert   Kroemer   (1928­   )   postularon   de   forma   independiente,   el   principio   del 
llamado láser de heteroestructuras. La aplicación de la teoría desarrollada por 
ambos científicos les permitió crear estructuras de semiconductores dispuestos 
en capas para la fabricación de los transistores de alta velocidad utilizados en 
las  estaciones   de la   telefonía    móvil y el   desarrollo   de los   diodos de 
láser   empleados   en   los   reproductores   de   CD   y   para   impulsar   los   flujos   de 
información en los cables de fibra óptica de Internet. En el 2000 compartieron 
el Premio Nobel de Física con el inventor estadounidense Jack S. Kelby.

336
Aunque   Jack   Kilby   archiva   más   de   60   patentes   de  
invención   podría   ser   considerado   el   más   fecundo  
ingeniero   eléctrico   de   todos   los   tiempos   por   una 
sola   invención:   el   circuito   integrado   monolítico   o  
microchip. Kilby había obtenido en 1958 una plaza de  
investigador   en   la   compañía   Texas   Instruments   en  
Dallas, y un año después había concebido y creado un  
diminuto circuito monolítico integrado en una pieza  
simple   de   material   semiconductor   del   tamaño   de   una  
anillo   de   dedo.   En   la   primera   presentación 
profesional   de   su   invento,   en   el   Instituto   de  
Ingenieros   de   Radio   (IRE)   en   1959,   sus   colegas  
ingenieros quedaron atónitos.

En   1961   fabrica   en   Texas   Instruments   la   primera   computadora   usando  


circuitos   integrados   y   seis   años   después   inventa   la   calculadora   de  
bolsillo que se convierte en el artículo electrónico más difundido en  
estos años. En el 2000 es galardonado con el Premio Nobel de Física. 

En   1959   la   industria   electrónica   conocería   un   renacimiento   cuando   fuera 


concebido y creado un diminuto circuito monolítico integrado en una pieza simple 
de   material   semiconductor   del   tamaño   de   un   anillo   de   dedo,   había   llegado   la 
época   de   la   microelectrónica.   La   proeza   tecnológica   fue   realizada   por   el 
ingeniero   eléctrico   estadounidense   Jack   Kilby   (1923­   2005).   Los   circuitos 
integrados provocaron cambios revolucionarios en la fabricación de equipamientos 
electrónicos, que ganaron en capacidad funcional y en fiabilidad al tiempo que 
se conseguía reducir el tamaño de los equipos y disminuir su complejidad física 
y   su   consumo   de   energía.   La   tecnología   de   las   computadoras   pronto   se 
beneficiaría   especialmente   por   las   bondades   de   esta   invención.   Una   ola   de 
perfeccionamientos ha venido aumentando constantemente la capacidad funcional de 
los circuitos integrados.

Una década después de la invención del microchip, Gilbert Hyatt (1938­ ) dio un 
paso trascendente cuando concibió en un circuito integrado todos los elementos 
necesarios para operar un microprocesador. Hyatt solicitó la patente en 1970, 
pero un año después, cuando esta solicitud seguía los trámites requeridos en la 
oficina   de   patentes,   Gary   W.   Boone   a   la   cabeza   de   un   equipo   de   la   Texas 
Instruments (TI) creó el primer microcontrolador comercialmente viable (TMS100). 
En 1990 la US Patent Office concedió el derecho de autoría a Hyatt pero 5 años 
mas tarde un tribunal declaró sin efecto este reconocimiento acreditando a Boone 
y la TI los derechos de invención. 

337
En   el   propio   1971,   un   colectivo   de   la   Corporación Intel encabezados   por   el 
doctor   de   la   Universidad   de   Padua,   Federico   Faggin   (1941­   ),   el   PhD   en 
ingeniería eléctrica, Marcian Edward "Ted" Hoff, Jr. (1937­ ) y el especialista 
en   software   Stanley   Mazor   (1941­   ),   crearon   la   primera   unidad   central   del 
procesador (CDU) totalmente integrada en un chip, el microprocesador 4004 (4­
bit) de la Intel  fue el primero  en el mercado. A 35 años de la aparición de la 
ENIAC   surgía   el   dispositivo   que   en   1/8   de   pulgada   de   ancho   y  1/6   pulgada   de 
largo   presentaba   la   misma   capacidad   de   procesamiento   que   el   enorme   sistema 
constituido por 18 000 tubos de vacío. En 1974 apareció el Intel 8080 (8­bit), 
dieciséis   veces   más   potente.   Este   fue   el   hardware   de   la   primera 
microcomputadora popular la Altair 8800. Los microcontroladores no sólo van a 
permitir   el   lanzamiento   de   las   computadoras   personales,   sino   que   encontraran 
un   amplio empleo  en televisores, lavadoras, hornos microwave y otros equipos 
electrónicos.

Cuando en 1957 trabajaba en la Corporación Sony el 
físico   japonés   Leo   Esaki   (1925­ )   descubrió   el 
efecto túnel en los semiconductores y desarrolló un  
nuevo   tipo   de   diodo,   el   diodo   túnel   con   uniones  
eléctricas de un espesor de diez milésimas de micra 
a  través  del  cual  los  electrones  podían  pasar.   El 
diodo   Esaki   se   considera   el   primer   dispositivo 
electrónico cuántico. Sus trabajos en la década de  
los   sesenta   con   las   superredes,   cristales  
sintéticos   compuestos   por   capas   extremadamente  
finas   de   diferentes   semiconductores   no   sólo  
sirvieron   para   demostrar   la   validez   de   la   teoría  
cuántica   sino   que   encontraron   aplicación   en   los 
ordenadores a altas velocidades.

A inicios de los 70, las compañías fabricantes de computadoras se encontraban 
enfrascadas en perfeccionar grandes sistemas informáticos para su introducción 
en la industria y en otras actividades macroecononómicas. Pasó inadvertida para 
los grandes inversionistas la oportunidad que brindaron los microprocesadores en 
la   fabricación   de   pequeñas   computadoras   para   el   hogar. Un   joven   ingeniero 
investigador,   Ed   Roberts   (1942­   ),   propietario   de   una   pequeña   empresa   de 
calculadoras al borde de la quiebra,   aceptó   el desafío de endeudarse con el 
objetivo de fabricar una pequeña computadora basada en los recientes desarrollos 
del   microprocesador   de   Intel,   que   logró   comprar   al   increíble   precio   de   500 
dólares.  Roberts bautizó la computadora como Altair 8800 y la lanzó al mercado 
en la portada del primer número de 1975 de la revista "Popular Electronics".  

338
 El crédito obtenido por Roberts suponía una recapitalización por concepto de la 
venta de unas 800 máquinas al año. El fin de semana   de la publicación de la 
Revista estaba recibiendo 30 llamadas diarias interesándose por la computadora. 

Los   usuarios   de   la   Altair   tenían   que   programarla   en   código   de   máquina. 


Conocedores   de   las   bondades   del   popular   lenguaje   Basic   inventado   en   1964   por 
John George Kemeny (1926 ­ 1992) y Tom Kurtz, los jóvenes Bill Gates (1955­ ) y 
Paul Allen (1953­ ), comprendieron que la Altair pudiera ser mucho más eficiente 
y cómoda si los usuarios pudieran programarla en este lenguaje. La emprendedora 
pareja propuso a Roberts un intérprete del Basic para la Altair.  Roberts estuvo 
de acuerdo y en seis semanas compró el programa de Gates y Allen y contrató al 
último   cono   programador   de   software.   Allen   y   Gates   poco   después   fundaron   la 
Microsoft Corporation.

En   1977,   los   jóvenes   diseñadores   de   computadoras   Stephen Wozniak (1950­   )   y 


Steve   Jobs   (1955­   )   introdujeron   el   Apple II,   un   ordenador   personal   capaz   de 
generar gráficos en color, con su propio teclado, fuente de alimentación y ocho 
plazas   para   dispositivos   periféricos,   que   permitían   a   los   usuarios   amplias 
posibilidades   de   incorporar   dispositivos   y   programas   de   software 
complementarios. Pronto la Apple Computer Company se convertiría en el negocio 
de más rápido crecimiento en la historia de Estados Unidos.   En enero de 1983 
Apple   presentó   el   Lisa,   un   ordenador   personal   diseñado   para   la   empresa   que 
incorporaba el ratón o mouse para seleccionar comandos y controlar un cursor en 
pantalla.

Un software básico para el control de una computadora, el sistema operativo con 
una interfaz de línea de comandos fue diseñado en 1980 por el joven programador 
estadounidense   Tim   Paterson   (1956­   ),   que   lo   nombró   como   Quick   and   Dirty 
Operating System, QDOS. Microsoft   se lo compró en 50 000 dólares para cumplir 
el   encargo   de   la   IBM   que   necesitaba   un   sistema   operativo   para   la   primera 
computadora personal que lanzaría al mercado en 1981, la IBM PC, y lo llamó MS­
DOS.

339
El lanzamiento de Windows en 1985 representó un boom  
para   Microsoft,   fundada   una   década   antes   por   Bill 
Gates   (1955­   )   y   Paul   Allen   (1953­   ).   El   nuevo 
sistema   operativo   ampliaba   las   posibilidades 
ofrecidas   por   el   MS­DOS   y   ofrecía   por   primera   vez  
una   interfaz   gráfica   de   usuario   (Graphical   User 
Interface, GUI).  Este nuevo tipo de entorno permitía  
al usuario elegir comandos, ver listas de archivos y  
otras   opciones   utilizando   las   representaciones 
visuales (iconos) y las listas de elementos del menú.  
Nuevas   versiones   de   Windows   que   mejoraban   el 
rendimiento y el apoyo visual a las operaciones de la  
máquina   se   convirtieron     rápidamente     en   los  
sistemas    operativos   mas  utilizados en el mundo.

En   1990   Microsoft   pasó   a   ser   la   empresa   líder   de  


programas informáticos y alcanzó unas ventas anuales  
de más de mil millones de dólares.

En   1984   Microsoft   había   otorgado   licencias   de   MS­DOS   a   200   fabricantes   de 


equipos   informáticos   y,   así,   este   sistema   operativo   se   convirtió   en   el   más 
utilizado   para   PC,   lo   que   permitió   a   Microsoft   crecer   vertiginosamente   en   la 
década de 1980.

En 1980  Timothy Berners­Lee (1950­ ), egresado en Física de la Universidad de 
Oxford,   era   consultante   en   el   CERN   (Consejo   Europeo   para   la   Investigación 
Nuclear). La implementación del trabajo en red de esta multinacional institución 
resultaba   muy   compleja   porque   los   investigadores   del   sistema   empleaban 
diferentes técnicas, protocolos y equipos. Berners­Lee consagró   entonces todo 
su   tiempo   libre   a   la   elaboración   de   un   programa   de   almacenamiento   de   datos 
llamado  "Enquire­Within­Upon­Everything," capaz de vincular cualquier punto en 
el sistema. Este programa fue el fundamento conceptual de lo que llegó a ser la 
WEB. 

Nueve años más tarde   Berners­Lee escribió "Information Management: A Proposal" 
En vez de estandarizar el equipamiento o el software se crearon patrones para la 
data y un sistema universal de dirección.    De esta manera cualquier documento 
en Internet podía ser recuperado y visto. En 1990, el CERN fue el mayor sitio 
europeo de Internet. Dos años después la WEB se distribuyó y el software del 

340
navegador se estrenó a lo largo de las instituciones del CERN y aún más allá. 
Entonces existían 26 servidores fiables.

Los primeros exploradores de Internet fueron funcionales pero no simples para el 
usuario.   En   1993   Marc   Andreessen   (1971­   )   un   joven   programador   del   Centro 
Nacional para Aplicaciones de Supercomputadoras (NCSA), que aún estudiaba en la 
Universidad   de   Illinois,   creó   un   nuevo   explorador   de   la   WEB   que   ofrecía   una 
interfaz gráfica para explorar texto, imagen y sonido que sólo exigía apuntar y 
hacer click en la opción gráfica deseada.  Los usuarios no necesitaban conocer 
nada   de   programación   ni   aún   las   direcciones   de   Internet.   El   explorador   hacia 
posible de una manera muy simple para el usuario añadir sus propios materiales a 
la   WEB.   El   explorador   llamado   NCSA   Mosaic,    se   distribuyó   gratuitamente   a 
través de las redes informáticas y, en 18 meses, consiguió una cifra estimada de 
usuarios de 2 millones, lo que propició el crecimiento espectacular de la World 
Wide Web.

En   la   compleja   historia   de   la   innovación 


conducente   a   la   Internet   una   realización 
incuestionable   es   la   invención,   en   el   periodo  
entre   1989   y   1991,   de   la   World   Wide   Web   por   el  
físico   inglés   Tim   Berners­Lee.   La   visión   de 
Berners­Lee   fue   crear   una   colección   comprehensiva  
de   información   en   palabra,   sonido   e   imagen,   cada 
una identificada por un Identificador de Documento  
Universal ("Universal Document Identifier", UDI) e  
interconectada   por   vínculos   de   hipertexto,   que  
permitiera   usar  Internet   para   proporcionar   el  
acceso a esta colección de información.

Dos años después la WEB se distribuyó y el software del navegador se  
estrenó   a   lo   largo   de   las   instituciones   del   CERN   y   aún   más   allá.  
Entonces existían 26 servidores fiables.

En   1994,   Andreessen   y   su   equipo   diseñaron   un   nuevo   explorador   superior   al 


Mosaic, al que llamaron Netscape Navigator. Este navegador pronto se convirtió 
en   el   explorador   más   utilizado   por   los   usuarios   de   Internet,   y   al   año   de   su 
lanzamiento decenas de millones exploraban con este software la WEB.

Intel presentó la quinta generación de su línea de procesadores compatibles en 
1993, que llevaría el nombre de Pentium. 21 años lo separaban del Intel 4004 que 
inauguró la era de los microprocesadores. Los 2 300 transistores del Intel 4004 

341
procesaban   108   kHz,   contaban   con   60   instrucciones   y   8kb   de   espacio   de 
almacenamiento,  ejecutando  60  000  operaciones  por   segundo.   El  Pentium  incluyó 
3.100.000  transistores  (fabricado  con   el  proceso  BICMOS  (Bipolar­CMOS)  de  0,8 
micrones), con velocidades iniciales de 60 y 66 MHz y capacidad de ejecución de 
112  millones  de  instrucciones  por  segundo,     verificación  interna  de  paridad 
para asegurar la ejecución correcta de las instrucciones,   bus de datos de 64 
bit   para   una   comunicación   más   rápida   con   la   memoria   externa   y,   lo   más 
importante, permitía la ejecución de dos instrucciones simultáneamente. 

Al   cierre   del   siglo   un   equipo   multidisciplinario   de   investigadores   de   los 


Laboratorios   Bell    presentan   sus   últimos   hallazgos   en   la   producción   de   un 
transistor   impreso   totalmente   en   plástico.   Los   usos   potenciales   de   los 
transistores plásticos incluyen pantallas de computadoras flexibles y tarjetas 
inteligentes   portadoras   de   estadísticas   vitales   y   virtualmente 
indestructibles. Estos  progresos  se  inscriben   en  una  dirección  más  amplia  que 
persigue   controlar   y,   en   algunos   casos,   inducir   respuestas   electrónicas   y 
fotónicas   en   materiales   poliméricos.   Tales   investigaciones   combinan   la 
experiencia de prácticamente cada  campo tradicional del estudio tecnológico: la 
química y la ingeniería química, la física, la ingeniería eléctrica, la ciencia 
de los materiales y la biología.

El siglo XX concluía, según cálculos conservadores, con unos 150 millones los 
ordenadores conectados a Internet. La cifra impresiona y da una medida de hacia 
donde va el mundo en materia de globalización de la información.

Los conceptos de "superautopista de la información" que eduque sobre principios 
sustentables   e   informe   con   objetividad   sobre   los   problemas   planetarios,   se 
combina   con   la   de   pulpo   de   la   información   comercial,   creador   de   gustos 
insípidos, inductor a patrones de consumos y espejismos de riqueza. Tal es el 
desafío   que   deben   aceptar   los   que   creen   en   la   virtud   y   el   perfeccionamiento 
humano. Se conoce  ya de la intervención de Internet para diseminar rápidamente 
la verdad y aplastar la mentira. Contribuyamos al ejercicio de esta función. No 
olvidemos   que   ni   la   microlectrónica   ni   la   informatización   han   llegado   a   las 
mayorias del planeta que aspira sólo a la globalización del pan,  la cultura y 
la salud...

Así, en el siglo XX el planeta navegó entre las brumas o al filo de las guerras. 
Los  hombres  de  ciencia  y  su  actividad  de  investigación  no  escaparon  de  estas 
dramáticas realidades. Fueron marcados como científicos por la interrupción de 
sus planes durante uno o dos intervalos productivos de sus vidas profesionales, 
y   lo   que   es   más   importante,   como   seres   humanos   conocieron   y   sufrieron   los 
horrores de la guerra. Embarcados en la espiral armamentista y en un estrecho 

342
chovinismo algunos representantes como individuos e instituciones contribuyeron 
al desarrollo de armas horribles. La empresa atómica llamó a las puertas en uno 
de los momentos más oscuros de la historia de la humanidad y los físicos jugaron 
un   importante   rol   en   esta   tarea.   Pero   la   mayoría,   y   algunos   aún   antes   del 
lanzamiento   de   la   bomba   atómica,   comprendieron   los   desafíos   impuestos   a   la 
humanidad por la era nuclear y lucharon decididamente por detener el desarrollo 
de tales armas.

En el ámbito gnoseológico, se abrió paso en el siglo XX una Revolución en la 
Física que supuso la superación de profundas crisis en el campo de las ideas, y 
el advenimiento de lo que se ha dado en llamar un cambio de paradigma.

En el progreso científico técnico, la fusión de la Física con la Técnica como 
expresión   concreta   de   las   necesidades   y   posibilidades   que   se   dieron   en   este 
siglo resonó sobre el resto de las Ciencias y fue responsable del repertorio de 
realizaciones   materiales   alcanzado   en   todas   las   esferas   de   la   sociedad 
contemporánea.

La irracionalidad del orden mundial establecido   es la causa principal de que 
coexistan al lado de los colosales avances impulsados por el desarrollo de las 
ciencias el dramático panorama que exhibe aún el planeta.

Bibliografía:

Aboites Vicente (1991): III. Sistemas láser específicos. El Láser. Fondo de 
Cultura Económica. Impreso en México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/105/htm/sec_7.htm

http://lectura.ilce.edu.mx:3000/biblioteca/sites/ciencia/volumen2/ciencia3/105/h
tm/ellaser.htm

Asimov   I.   (1987): Enciclopedia   biográfica   de   ciencia   y   tecnología. Editorial 


Alianza.

Avendaño Bárbara (2006): Un chico de papá Ioffe. Zores I. Alferov conversa con 
Bohemia. Bohemia Digital. 18 de mayo, 2006. La Habana. Cuba.

http://www.bohemia.cubasi.cu/2006/05/18/nacionales/premio­novel.html

Ausejo E., Hormigón M (2002): Siglo XX. Historia de las Ciencias y las 
Técnicas. Cronología.Universidad de Zaragoza.

http://www.oei.es/salactsi/historia7.htm

343
Bashevaya Ludmila (2003): Flerov Laboratory of Nuclear Reactions (FLNR). Joint 
Institute for Nuclear Research, 141980 Dubna, Moscow region, Russian Federation.

http://flerovlab.jinr.ru/flnr/index.html

Bernal John D. (1986): X Las Ciencias Físicas en el siglo XX. La Ciencia en 
nuestro tiempo. Historia Social de la Ciencia. Tomo II. Editorial de Ciencias 
Sociales. Ciudad de la Habana. Cuba.

Bethe. H. A. (1997): J. Robert Oppenheimer. Biographical Memoirs. National 
Academy of Sciences. http://www.nap.edu/html/biomems/joppenheimer.html

Biblioteca Digital Universidad Nacional de San Marcos (2002): Santiago Antúnez 
de Mayolo. Revista Editor. Año 2, no 4, 2002. Universidad Nacional de San Marcos 
(UNMSM).

http://sisbib.unmsm.edu.pe/bibvirtual/publicaciones/editor/ano2_N4_marzo/santiag
o.htm

Bird Kai, Sherwin Martin J. (2005): Los mitos de Hiroshima. Angeles Times. 
Publicado en Trabajadores Digital. La Habana. Cuba.

http://www.trabajadores.cubaweb.cu/SUPLEMENTO­HISTORIA/historia­universal/los­
mitos.htm

Braun Eliezer (1997): Capítulo XII. Las siguientes etapas de la Historia. Una 
faceta desconocida de Einstein.. Fondo de Cultura Económica. Impreso en México.

http://lectura.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/19/htm/faceta.ht
m

Braun Eliézer (1992): XX  Desarrollo de la radio. Electromagnetismo: de la 
Ciencia a la Tecnología.Fondo de Cultura Económica. Impreso en México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/sec_23.htm

Bosch Pedro y otros (1994): Pioneros de las Ciencias Nucleares. Fondo de Cultura 
Económica. México. 
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/120/htm/pioneros.h
tm

Bulbulian S. (1996): El descubrimiento de la radiactividad. La 
Radiactividad. Fondo de Cultura Económica. México. 
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/42/htm/radiacti.ht
m

344
Campbell John (2001): Rutherford ­ A Brief Biography. Material basado en el 
libro "Rutheford Scientist Supreme". Rutherford.org.nz. 
http://www.rutherford.org.nz/biography.htm

Chodos Alan, Ouellette Jennifer (2006): February 1968: The Discovery of Pulsars 
Announced.  APS News Online. American Physical Society.

Comby Bruno (2006): James Lovelock: Author of the GAIA Theory. Professor James 
Lovelock's Web Site. http://www.ecolo.org/lovelock/lovedeten.htm

Curiel Ballesteros A. (1999): Guillermo González Camarena (1917­1965). Jalisco 
en el siglo 20: Perfiles. Guadalajara: Universidad de Guadalajara,   1999, pp. 
247­256.

http://www.jalisco.gob.mx/nuestroedo/muro/glzcamarena.html

De la Peña, L. (1995): Albert Einstein: Navegante Solitario. Fondo de Cultura 
Económica. México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/31/htm/albertei.ht
m

Dismukes Kim (2005): Biographical Data. Astronaut Biographies. Johnson Space 
Center. NASA. http://www.jsc.nasa.gov/Bios/

John H. Glenn, http://www.jsc.nasa.gov/Bios/htmlbios/glenn­j.html

Rodolfo Neri Vela, http://www.jsc.nasa.gov/Bios/htmlbios/nerivela­r.html

Franklin Chang­Díaz, http://www.jsc.nasa.gov/Bios/htmlbios/chang.html

Duff Michael J (1998): The theory formerly know as string. Scientific 
American.Feb , 1998. pag 12 ­17

Eklof Anders (2003):  Rolf Sievert, the man and the unit. Karolinska Institute. 
Medical Radiation Physics History. Stockholm. Sweden. 
http://radfys.ki.se/sievert/Sievert.html

Enciclopedia Encarta (2006):  4. La Física Moderna 5. Avances de la Física 
desde 1930. Física."Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.

Enciclopedia Encarta (2006): 2. Física del Espacio. Astronaútica ." Microsoft® 
Encarta® 2006 [DVD]. Microsoft Corporation, 2005.

Einstein, Albert; Russell Bertrand (1955): The Russell­Einstein Manifesto. 
London

http://www.pugwash.org/about/manifesto.htm

345
Franck James et al (1945): The Franck Report . Memorandum on Political and 
Social Problems of the Bomb by scientists at the Metallurgical Laboratory­ Univ. 
of Chicago. J. Franck (Chairman), D. J. Hughes, J. J. Nickson, E. Rabinowitch, 
G.T. Seaborg, J. C. Stearns, L. Szilard.

www.nuclearfiles.org/redocuments/ 1945/450611­franck­report.html  

Fitzgerald Richard (2001): Physics Nobel Prize Honors Roots of Information Age.

Physics Today Online. American Institute of Physics.

http://www.aip.org/pt/vol­53/iss­12/p17.html

Fleischer Lisa (2005): Juan M. Maldacena. Institute for Advanced Study School of 
Natural Sciences.

http://www.sns.ias.edu/~malda/

Galai Mark (1977): S. Koroliov. Constructor jefe. Fragmentos del libro "Con el 
Hombre a bordo", publicado en la Revista Sputnik, 10, 1977. Traducción: Mariza 
Viniars.

http://www.russia­hc.ru/spn/history/persons/korol.cfm

García­Colin L., Mazari M., Moshnsky M. et al (1997): Niels Bohr: científico, 
filósofo, humanista.Fondo de Cultura Económica.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/14/htm/bohr.htm

Geoscience Australia (2005): Query Nuclear Explosions Database. Australian 
Government. http://www.ga.gov.au/oracle/nukexp_form.jsp

Gest Howard (2004): Samuel Ruben’s contributions to research on photosynthesis

and bacterial metabolism with radioactive carbon. Photosynthesis Research 80: 
77–83, 2004. Kluwer Academic Publishers. Printed in the Netherlands.

http://www.life.uiuc.edu/govindjee/Part3/9_Gest_On_Ruben.pdf

Giambiagi Juan J. (1997): La Física del siglo XX a vuelo de pájaro. Ciencia y 
Sociedad. Revista Ciencia­Hoy, Vol7, no.4. Conferencia dictada en la Academia 
Nacional de Ciencias Exactas, Físicas y Naturales, Buenos 
Aires.http://www.cienciahoy.org.ar/hoy40/fisica2.htm

Golovanov Y. (1990): Semblanzas de grandes hombres de ciencia. Editorial 
Progreso. Moscú.    Serguei Koroliov 143 – 149; Igor Kurchatov, p.155­ 160; 
Pablo Langevin p. 190 ­ 194 (Cita de Einstein sobre Langevin en página 191); 
Lev Landau, p. 207 – 215.

346
Greene Brian (2004): Personal Page Web. Columbia University Department of 
Physics. http://phys.columbia.edu/faculty/greene.htm

Grigorian A. T., Polar L.S. (1962): Las ideas básicas de la Física. Ediciones 
Pueblos Unidos S.A. Montevideo.

Griffin Scott (2006): Marc Andreessen. Internet Pioneers.

http://www.ibiblio.org/pioneers/andreesen.html

Groom Charles (1996): La línea del tiempo de la física de partículas. 
Contemporary Physics Education Project. 
http://particleadventure.org/particleadventure/spanish/history/mains.html

Hacyan S. (1994): Del Mundo Cuántico al Universo en Expansión. Fondo de Cultura 
Económica. México. 
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/129/htm/delmundo.h
tm

Histoire de la Chimie (2005): Moseley Henry Gwyn­Jeffreys. Biographies. Galerie. 
Resumen de los cursos ofrecidos por el profesor Georges Bram de la Facultad de 
Ciencias de París Sud ­ Orsay.

http://histoirechimie.free.fr/Lien/MOSELEY.htm

Holden, N. E. (1990): The delayed discovery of nuclear fission. Chemistry 
International, Vol. 12, no.5, 177­185.

Hunter David (1983): Tim Paterson. 
http://www.1000bit.net/storia/perso/tim_paterson_e.asp

IEEE Virtual Museum (2006): Institute of Electrical and Electronics Engineers, 
Inc.

Edwin H. Armstrong. 

http://www.ieee­virtual­museum.org/collection/people.php?id=1234606&lid=1

J. Presper Eckert

http://www.ieee­virtual­museum.org/collection/people.php?id=1234636&lid=1 

John W. Mauchly

http://www.ieee­virtual­museum.org/collection/people.php?id=1234639&lid=1

Federico Faggin

http://www.ieee­virtual­museum.org/collection/people.php?id=1234777&lid=1

347
Ted Hoff

http://www.ieee­virtual­museum.org/collection/people.php?id=1234774&lid=1

Stanley Mazor

http://www.ieee­virtual­museum.org/collection/people.php?id=1234773&lid=1

Intergovernmental Panel on Climate Change (1990): Policymakers Summary of the 
Scientific Assessment of Climate Change. Report to IPCC from Working Group 1, 
June 1990.

Kapitsa Piotr (1985): Lev Davidovich Landau. Experimento, teoría, intelecto. 
Editorial MIR. Moscú.

Katz Eugenii (2003): Famous Electrochemists. Department of Chemistry.  The 
Hebrew University of Jerusalem Givat Ram.  Jerusalem.  

Sir John Ambrose Fleming.

http://chem.ch.huji.ac.il/~eugeniik/history/fleming.htm

Vladimir Kosma Zworykin

http://chem.ch.huji.ac.il/~eugeniik/history/zworykin.htm

Kuhn, T.S. (1982): La estructura de las revoluciones científicas. Fondo de 
Cultura Económica. México.

Lemelson MIT Program (1999): Inventor of the week archive. Computing & 
Telecommunications. Massachusetts Institute of Technology. MIT School of 
Engineering.

Tim Berners – Lee. The World Wide Web.

http://web.mit.edu/invent/iow/berners­lee.html

Lee de Forest. Triode amplifier, http://web.mit.edu/invent/iow/deforest.html

Jack St. Clair Kilby. The Microchip, http://web.mit.edu/invent/iow/kilby.html

Menchaca Rocha A. (1996): El discreto encanto de las partículas elementales. V 
Reimpresión. Fondo de la Cultura Económica. Mexico. D.F.

http://lectura.ilce.edu.mx:3000/biblioteca/sites/ciencia/volumen2/ciencia3/068/h
tm/discreto.htm

VII El positrón: Dirac y Anderson

VIII. El neutrino: Pauli, Fermi, Reines y Cowan.

348
XII. Unificación Electrodébil: Salam, Weinberg, Van deer Meer y Rubbia.

MSFC History Office (2003): Biography of Wernher Von Braun. Marshall Space 
Flight Center. Huntsville, Alabama. 
http://history.msfc.nasa.gov/vonbraun/bio.html

Nobel e­Museum (2002): The Nobel Prizes in 
Physics. http://www.nobel.se/physics/index.html

Nobel e­Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 
1901­1921, Elsevier Publishing Company, Amsterdam, 1965.

Max von Laue, http://nobelprize.org/nobel_prizes/physics/laureates/1914/bragg­
bio.html

William Henry Bragg

William Lawrence 
Bragg, http://nobelprize.org/nobel_prizes/physics/laureates/1915/bragg­bio.html

Max Planck, http://nobelprize.org/nobel_prizes/physics/laureates/1918/planck­
bio.html

Nobel e­Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 
1922­1941, Elsevier Publishing Company, Amsterdam, 1965.

Manne Georg Siegbahn

http://nobelprize.org/nobel_prizes/physics/laureates/1925/ siegbahn ­bio.html

Arthur Holly Compton

http://nobelprize.org/nobel_prizes/physics/laureates/1927/compton­bio.html

Erwin Schrodinger

http://nobelprize.org/nobel_prizes/physics/laureates/1933/schrodinger­bio.html

Paul Dirac

http://nobelprize.org/nobel_prizes/physics/laureates/1933/dirac­bio.html

James Chadwick

http://nobelprize.org/nobel_prizes/physics/laureates/1935/chadwick­bio.html

Ernest Orlando Lawrence.

http://nobelprize.org/physics/laureates/1939/lawrence­bio.html  

349
Nobel e­Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 
1942­1962, Elsevier Publishing Company, Amsterdam, 1965.

Cecil Powell, http://nobelprize.org/nobel_prizes/physics/laureates/1950/powell­
bio.html

Igor E. Tamm, http://nobelprize.org/nobel_prizes/physics/laureates/1950/tamm­
bio.html 

John Bardeen, http://nobelprize.org/nobel_prizes/physics/laureates/1956/bardeen­
bio.html

Walter H. 
Brattain, http://nobelprize.org/nobel_prizes/physics/laureates/1956/bardeen­
bio.html

Nobel e­Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 
1963­1970, Elsevier Publishing Company, Amsterdam, 1970.

Nikolai G. 
Basov, http://nobelprize.org/nobel_prizes/physics/laureates/1964basov­bio.html

Alexander M. Projorov 

http://nobelprize.org/nobel_prizes/physics/laureates/1964/projorov­bio.html

Charles H. 
Townes, http://nobelprize.org/nobel_prizes/physics/laureates/1964/townes­
bio.html

Murray Gell­
Mann, http://nobelprize.org/nobel_prizes/physics/laureates/1969/gell­mann­
bio.html

Nobel e­Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 
1971­1980. Elsevier Publishing Company, Amsterdam, 1980.

Leo Esaki, http://nobelprize.org/nobel_prizes/physics/laureates/1973/esaki­
bio.html

Brian Josephson

http://nobelprize.org/nobel_prizes/physics/laureates/1973/josephson­cv.html

John Hasbrouck van Vleck

http://nobelprize.org/nobel_prizes/physics/laureates/1977/vleck­bio.html

Philip Warren Anderson  

350
http://nobelprize.org/nobel_prizes/physics/laureates/1977/anderson­bio.html

Nevill Francis Mott

http://nobelprize.org/nobel_prizes/physics/laureates/1977/mott­bio.html

Robert Wilson

http://nobelprize.org/nobel_prizes/physics/laureates/1978/wilson­autobio.html

Arno Penzias

http://nobelprize.org/nobel_prizes/physics/laureates/1978/penzias­autobio.html

Abdus Salam.

http://nobelprize.org/physics/laureates/1979/salam­bio.html

Steven Weinberg

http://nobelprize.org/physics/laureates/1979/weinberg­bio.html

Nobel e­Museum (2004): The Nobel Prize in Physics. From Nobel Lectures.

Arthur L. Schawlow

http://nobelprize.org/physics/laureates/1981/schawlow­autobio.html

Nicolaas Bloembergen

http://nobelprize.org/physics/laureates/1981/bloembergen­autobio.html

Ernst A. Ruska

http://nobelprize.org/physics/laureates/1986/ruska­autobio.html

Heinrich Rohrer

http://nobelprize.org/physics/laureates/1986/rohrer­autobio.html

Johannes G. Bednorz 

http://nobelprize.org/physics/laureates/1987/bednorz­autobio.html

Karl A. Müller

http://nobelprize.org/physics/laureates/1987/müller­autobio.html

Georges Charpak

http://nobelprize.org/physics/laureates/1992/charpak­autobio.html

Henry W. Kendall

351
http://nobelprize.org/physics/laureates/1990/kendall­autobio.html

Richard E. Taylor    

http://nobelprize.org/physics/laureates/1990/taylor­autobio.html

Jerome I. Friedman

http://nobelprize.org/physics/laureates/1990/friedman­autobio.html

David M. Lee  

http://nobelprize.org/physics/laureates/1996/lee­autobio.html

Douglas D. Osheroff

http://nobelprize.org/physics/laureates/1996/osheroff­autobio.html

Hebert Kroemer  

http://nobelprize.org/physics/laureates/2000/ kroemer ­autobio.html

Masatoshi Koshiba

http://nobelprize.org/physics/laureates/2002/koshiba­autobio.html

Alexei A. Abrikosov

http://nobelprize.org/physics/laureates/2003/abrikosov­autobio.html

Vitali L.Ginzburg

http://nobelprize.org/physics/laureates/2003/ginzburg­autobio.html

Nobel e­Museum (2004):  From Nobel Lectures, Chemistry. Elsevier Publishing 
Company, Amsterdam.

Glenn Theodore Seaborg.

http://nobelprize.org/chemistry/laureates/1951/seaborg­bio.html  

Willard F. Libby.

http://nobelprize.org/chemistry/laureates/1960/libby­bio.html

Dorothy Crowfoot Hodgkin

http://nobelprize.org/chemistry/laureates/1962/hodgkin­bio.html

Richard Ernst

http://nobelprize.org/chemistry/laureates/1991/ernst­autobio.html

Mario Molina

352
http://nobelprize.org/chemistry/laureates/1995/molina­autobio.html

Kurt Wuthrich

http://nobelprize.org/chemistry/laureates/2002/wuthrich­autobio.html

John B. Fenn

http://nobelprize.org/chemistry/laureates/2002/fenn­autobio.html

Koichi Tanaka

http://nobelprize.org/chemistry/laureates/2002/tanaka­autobio.html

Nobel e­Museum (2004):  From Nobel Lectures, Physiology or Medicine . Elsevier 
Publishing Company, Amsterdam, 1972. 

Maurice Wilkins, http://nobelprize.org/medicine/laureates/1962/wilkins­bio.html

Alfred D. Hershey, http://nobelprize.org/medicine/laureates/1969/hershey­
bio.html   

NuclearFiles.Org (2006): Nuclear Files resources and history of the nuclear age. 
Library. Project of the Nuclear Age Peace Foundation. 

Frederic Joliot.

http://www.nuclearfiles.org/rebios/joliot.htm

Irene Joliot­Curie

http://www.nuclearfiles.org/rebios/curie.htm

Julius R. Oppenheimer

http://www.nuclearfiles.org/menu/library/biographies/bio_oppenheimer­julius.htm

James Franck

http://www.nuclearfiles.org/menu/library/biographies/bio_franck­james.htm

Lise Meitner

http://www.nuclearfiles.org/menu/library/biographies/bio_meitner­lise.htm

Nuñez J. (2000): La ciencia y la tecnología como procesos sociales. Lo que la 
educación científica no debe olvidar. La Habana. http://www.campus­
oei.org/salactsi/nunez00.htm#9  

O'Connor J. J., Robertson E. F. (2000):  School of Mathematics and Statistics. 
University of St Andrew. Scotland.

353
John George Kemeny 

http://www­groups.dcs.st­and.ac.uk/~history/Biographies/Kemeny.html

George Dantzig

http://www­history.mcs.st­and.ac.uk/Biographies/Dantzig_George.html

Werner Karl Heisenberg.

http://www­groups.dcs.st­and.ac.uk/~history/Mathematicians/Heisenberg.html

Karl Schwarzschild

http://www­history.mcs.st­andrews.ac.uk/history/Biographies/Schwarzschild.html

Mitchell Feigenbaum

http://www­history.mcs.st­andrews.ac.uk/history/Biographies/Feigenbaum.html

Edwin P. Hubble

http://www­history.mcs.st­andrews.ac.uk/history/Biographies/Hubble.html

Alexander A. Friedmann

http://www­history.mcs.st­andrews.ac.uk/history/Biographies/Friedmann.html

Office of Radiation, Chemical & Biological Safety (2002): Figures in radiation 
history. Michigan State University

http://www.orcbs.msu.edu/radiation/radhistory/

Online Ethics Center (2005): Roger Boisjoly y el Desastre del Challenger. Online 
Ethics   Center   for   Engineering   and   Science.   La   versión   original   en   inglés   fue 
creada por Jagruti S. Patel y Phil. Traducción: Francy Acosta. Asesor: Ingeniero 
Antonio Alba.

http://onlineethics.org/spanish/boisjoly/RB­intro­span.html

Pasachoff  Naomi  (2006): Marie  Curie  and  the  Science  of  the  Radioactivity. The 
Center for History of Physics. The American Institute of Physics.

http://www.aip.org/history/curie/contents.htm

Peralta y Fabi Ricardo (1995): Del Espacio al Subsuelo. Fondo de Cultura 
Económica. Impreso en México.

I. El Reto Espacial

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/086/htm/sec_4.htm

354
VII. Hacia el Futuro

Pugwash On Line (2004): The origins of Pugwash. Conferences of Science and World 
Affairs. http://www.pugwash.org/origins.htm  

Ríos Jáuregui Annet (2005): Celebran 15 años de solidaridad humanitaria. Diario 
Granma. 30 de marzo de 2005. La Habana.

http://www.granma.cubaweb.cu/2005/03/30/nacional/articulo08.html

Sample Ian (2005): Joseph Rotblat. Man of peace dies ­ scientist who turned 
back on A­bomb project. Friday September 2, 2005, The Guardian. 
UK.http://education.guardian.co.uk/higher/research/story/0,,1561452,00.html

Science Odyssey (1998): People and discoveries: Discoveries. Public Broadcasting 
Service. Virginia. USA. 

1945 ENIAC is built

http://www.pbs.org/wgbh/aso/databank/entries/dt45en.html

1947 The transistor is invented

http://www.pbs.org/wgbh/aso/databank/entries/dt47tr.html

1971 First commercial microprocessor is introduced

http://www.pbs.org/wgbh/aso/databank/entries/dt71mi.html

1975 Personal computer industry is launched

http://www.pbs.org/wgbh/aso/databank/entries/dt75co.html

1992 The Internet gives rise to the World Wide Web 

http://www.pbs.org/wgbh/aso/databank/entries/dt92ww.html

Erwin Schrödinger 1887 –
1961. http://www.pbs.org/wgbh/aso/databank/entries/bpschr.html

Idem (2005): People & Events.

Enrico Fermi, (1901 ­ 1954). The American experience. Race for the superbomb.
http://www.pbs.org/wgbh/amex/bomb/peopleevents/pandeAMEX52.html Enrico Fermi

Selleri F. (1990): Chapter 1. Quantum theorists and the physical world. Quantum 
paradoxes and physical reality. Kluwer Academic Press. The Netherlands.

Szilard Leo (1945): A petition to the President of The United States. July 17, 
1945. (Drafted by Leo Szilard and signed by 68 members of the Metallurgical 

355
Laboratory in 
Chicago).http://www.atomicarchive.com/Docs/ManhattanProject/Petition.shtml

The Chemical Heritage Foundation (2000): Otto Hahn, Lise Meitner and Fritz 
Strassmann. Chemical Achievers. 
http://www.chemheritage.org/EducationalServices/chemach/ans/hms.html

The Manhattan Project Heritage Preservation Association, Inc. (2004): JAMES 
FRANCK. Director ­ Chemistry División. Metallurgical Laboratory ­ Univ. of 
Chicago.

The Nobel Laureates of LMB (2004): Laboratory of Molecular Biology. Cambridge.

Francis H. Crick

http://www2.mrc­lmb.cam.ac.uk/archive/Crick62.html

James Watson.

http://www2.mrc­lmb.cam.ac.uk/archive/ Watson62.html

The Russian Women Network (2006): Svetlana Savitskaya ­ Second woman in space. 
First woman to walk in space. Great Russian Women.

http://great.russian­women.net/Svetlana_Savitskaya.shtml

The Voice of Russia (2001): Estación Espacial "MIR": 15 Años de Vuelo. 115326 
Russia, Moscow, st. Pyatnitskaya 25, bld. 1, Voice of Russia. 

http://www.vor.ru/Spanish/Cosmos/cosmos_sp_23.html

Constructor Jefe: Serguei Koroliov.

htpp://www.vor.ru/Spanish/Cosmos/cosmos_sp_04.html

Gagarin en Cuba

http://www.vor.ru/Spanish/Cosmos/cosmos_sp_34.html

UNEP(1998): Environmental Effects of Ozone Depletion. Executive Summary. United 
Nations Environmental Program (UNEP). http://www.gcrio.org/UNEP1998/UNEP98.html

Union of Concerned Scientists (2004): Scientific Integrity in 
Policymaking.http://www.ucsusa.org/global_environment/rsi/page.cfm?pageID=1642

Universidad de California, San Diego (1997): Martin David Kamen. Papers. 
Background.http://orpheus.ucsd.edu/speccoll/testing/html/mss0098a.html

356
Weart Spencer (2005): The Discovery of Global Warming. Center for the History of 
Physics. American Institute of Physics. 
http://www.aip.org/history/climate/index.html

Weart, Spencer R. (1997). Global Warming, Cold War, and the Evolution of 
Research Plans. Historical Studies in the Physical and Biological Sciences 
27(2): 319­56. En "Roger Revelle’s Discovery". American Institute of Physics.

http://www.aip.org/history/climate/Revelle.htm

Wright Pearce (2002): Martin Kamen. Scientist, co­discoverer of the isotope 
that gave archaeology carbon­dating, and innocent victim of America's Communist 
witchhunts. Monday September 9, 2002. The Guardian. London.

http://education.guardian.co.uk/obituary/story/0,,788663,00.html

357
El átomo en la antigüedad

Historia de la física

Los griegos produjeron aportaciones significativas al mundo de la física, 
desarrollando las bases de los principios fundamentales modernos, tales como la 
conservación de la masa, la teoría atómica, y otros semejantes. En los siglos 
posteriores al período griego, ocurrieron muy pocos desarrollos nuevos. Con la 
llegada de la intensa fuerza intelectual del Renacimiento en el campo de la 
física, Copérnico y otros grandes pensadores, comenzaron a descartar las ideas 
de los griegos en favor de nuevas ideas basadas en métodos empíricos. Como a 
partir de las teorías de Copérnico, terminó la vieja era del conocimiento 
científico y comenzó la nueva revolución científica, es adecuado incluirlo con 
los pensadores antiguos.

Thales de Mileto postula que el agua es la sustancia básica de 
624­547 a.n.e. la Tierra. También estaba enterado de la fuerza de atracción 
entre imanes y del efecto en el ámbar, al frotarlo.

Pitágoras sostuvo que la Tierra era esférica. Buscó una 
580­500 a.n.e.
comprensión matemática del universo.

Anaxágoras y Empédocles. Anaxágoras desafió la afirmación de 
los griegos, sobre la creación y destrucción de la materia, 
enseñando que los cambios en la materia se deben a diferentes 
500­428 a.n.e., 
ordenamientos de partículas indivisibles (sus enseñanzas 
484­424 a.n.e.
fueron un antecedente para la ley de conservación de la masa).
Empédocles redujo estas partes indivisibles a cuatro 
elementos: tierra, aire, fuego, y agua.

Demócrito desarrolló la teoría que el universo está formado 
por espacio vacío y un número (casi) infinito de partículas 
460 ­ 370 a.n.e. invisibles , que se diferencian unas de otras en suforma, 
posición, y disposición.. Toda la materia está hecha de 
partículas indivisibles llamadas átomos.

Aristóteles formalizó la recopilación del conocimiento 
científico. Si bien es dificultoso señalar como suya una 
384­322 a.n.e. teoría en particular, el resultado global de esta compilación 
de conocimientos fue proveer las bases fundamentales de la 
ciencia por unos mil años.

310­230 a.n.e. Aristarco describió una cosmología análoga a la propuesta por 
Copérnico 2000 años más tarde. Sin embargo, dado el gran 

358
prestigio de Aristóteles, el modelo heliocéntrico de Aristarco 
fue rechazado en favor del modelo geocéntrico.

Arquímedes fue un gran pionero en física teórica. Propuso los 
287­212 a.n.e.
fundamentos de la hidrostática.

Ptolomeo de Alejandría recogió los conocimientos ópticos de su 
70­147 época. También inventó una compleja teoría del movimiento 
planetario.

~1000 Alhazen, un árabe, produjo siete libros sobre óptica.

Roger Bacon enseñó que para aprender los secretos de la 
naturaleza, primero debemos observar. Por lo tanto indicó el 
1214 ­ 1294
método con el cual la gente puede desarrollar teorías 
deductivas, usando las evidencias del mundo natural.

Nicolás Copérnico impulsó la teoría de que la Tierra gira 
alrededor del sol. Este modelo heliocéntrico fue 
1473 ­ 1543 revolucionario porque desafió el dogma vigente, a causa de la 
autoridad científica de Aristóteles, y causó una completa 
conmoción científica y filosófica.

359
EL CONCEPTO DE FUERZA EN LA ANTIGÜEDAD

Durante casi 18 siglos las ideas de Aristóteles (384 a. de C. ­ 322 a. de C.) 
conformaron el modelo dominante en el campo de las ciencias. En lo que se 
refiere a la física, esta forma de pensar se ha llamado “Física del sentido 
común”, porque bastantes de sus ideas coinciden con razonamientos espontáneos de 
las personas.

Las ideas Aristóteles aportaron una visión científica, filosófica y también 
"religiosa" del mundo.  Esta visión se sustenta en un modelo geocéntrico, que 
desarrolló con detalle posteriormente el astrónomo Ptolomeo (100­170).

Una característica fundamental de la física de Aristóteles fue plantear una 
separación radical entre dos mundos: el mundo sublunar imperfecto o terrestre y 
el mundo celeste o perfecto. Estas dos partes del Universo debían funcionar 
obedeciendo a leyes diferentes: en el perfecto mundo celeste, el Sol, la  Luna y 
las estrellas se mueven de forma regular y permanente siguiendo círculos suaves 
y uniformes alrededor de la Tierra; en cambio, en el mundo imperfecto terrestre, 
el estado natural de los objetos es el reposo y es necesario intervenir sobre 
ellos para ponerlos en movimiento y para mantener dicho movimiento.

En este contexto, se planteó el concepto "tradicional" de fuerza, entendida como 
la causa del movimiento, de la velocidad de los cuerpos. Según esta concepción, 
para que un cuerpo permanezca en movimiento habría que hacerle fuerza y cuando 
se dejara de hacer fuerza el cuerpo se pararía.

360
Historia de la Física

La física es la ciencia de las propiedades de la materia y de las fuerzas 
naturales. Sus formulaciones son en general compactas expresadas en lenguaje 
matemático.

La introducción de la investigación experimental y la aplicación del método 
matemático contribuyeron para la distinción entre física, filosofía y religión, 
que originalmente, tenían como objetivo común comprender el origen y la 
constitución del universo.

La física estudia la materia en los niveles molecular, atómico, nuclear y 
subnuclear. Estudia los niveles de organización, o sea, los estados sólido, 
líquido, gaseoso y plasmático de la materia.

Investiga también las cuatro fuerzas fundamentales: la de gravedad (fuerza de 
atracción ejercida por todas las partículas del universo), la electromagnética 
(que enlaza los electrones a los núcleos, la interacción fuerte (que mantiene la 
cohesión del núcleo) y la interacción débil (responsable por la desintegración 
de ciertas partículas).

La física experimental investiga las propiedades de la materia y de sus 
transformaciones por medio de transformaciones y medidas, generalmente 
realizadas en condiciones de laboratorio universalmente repetibles. La física 
teórica sistematiza los resultados experimentales, establece relaciones entre 
conceptos y constantes físicas y permite prever fenómenos inéditos.

Hechos Históricos

La física se desarrolla en función de la necesidad del hombre de conocer el 
mundo natural y controlar y reproducir las fuerzas de la naturaleza en su 
beneficio.

Física en la Antigüedad

Fue en la Grecia antigua que son realizados los primeros estudios “científicos” 
sobre los fenómenos de la naturaleza. Surgen los “filósofos naturales” 
interesados en racionalizar el mundo sin recurrir a la intervención divina.

Atomistas Griegos

La primera teoría atómica comienza en Grecia en el siglo V A.c. Leucipo, de 
Mileto y su alumno Demócrito, formulan las primeras hipótesis sobre los 
componentes esenciales de la materia.

Según ellos, el universo se compone de átomos y vacío. Los átomos son infinitos 

361
y no puede ser cortados o divididos. Son sólidos, pero de tamaño tan reducido 
que no pueden ser vistos. Están siempre en movimiento en el vacío.

Física Aristotélica

Es con Aristóteles que la física y demás ciencias ganaron más impulso en la 
antigüedad. Sus principales aportaciones a la física de las ideas sobre el 
movimiento, caída de cuerpos pesados (llamados “graves”, de ahí el origen de la 
palabra “gravedad”) y el geocentrismo. La lógica aristotélica dominará los 
estudios de la física hasta el final de la Edad Media en cuanto a los conceptos 
de gravedad y geocentrismo.

Revolución Copernicana

En 1510 Nicolau Copérnico rompió con más de diez siglos de dominio del 
geocentrismo. En su libro “Commentariolus”, dice por primera vez que la Tierra 
no es el centro del universo, sino uno de muchos planetas que giran alrededor 
del Sol. Con esta afirmación se enfrenta directamente a la Iglesia Católica, que 
había adoptado el sistema de Aristóteles como un dogma y hace que la física se 
vuelva un campo de estudio específico.

Para muchos historiadores, la revolución copernicana se consolida sólo un siglo 
más tarde, con los descubrimientos telescópicos y la mecánica de Galileo (1564­
1642) y las leyes del movimiento planetario de Joannes Kepler (1571­1630).

Física Clásica

El siglo XVII sentó las bases para la Física de la era industrial. Simon Stevin 
desarrolla la hidrostática, la ciencia fundamental para su país (Holanda), 
protegida del mar por diques y esclusas. Una contribución equivalente fue la 
dada por su compatriota Christiaan Huygens, que desarrolló teorías sobre la 
propagación de la luz. Huygens es el primero en describir la luz como una onda. 
Pero fué Isaac Newton (1642­1727), científico Inglés, el gran nombre de la 
época: le pertenecen la teoría general de la mecánica y la gravitación universal 
y cálculo infinitesimal.

Física Aplicada

Termodinámica

Estudia las relaciones entre el calor y el trabajo. Se basa en dos principios: 
el de la conservación de energía y el de entropía. Estos principios son la base 
de las máquinas a vapor, turbinas, motores de combustión interna, motores de 
propulsión y máquinas frigoríficas.

Electromagnetismo

362
En 1820, el dinamarqués Hans Oersted relaciona los fenómenos eléctricos a los 
magnéticos al observar como la corriente eléctrica alteraba el movimiento de la 
aguja de una brújula. Michel Faraday invierte la experiencia de Oersted y 
verifica que los magnetos ejercen acción mecánica sobre los conductores 
recorridos por la corriente eléctrica y descubre la inducción electromagnética, 
que tendrá gran aplicación en las nuevas redes de distribución de energía.

Estructura del Átomo

En 1803, John Dalton comienza a presentar su teoría de que cada elemento químico 
corresponde a un tipo de átomo; pero es solo en 1897 con el descubrimiento del 
electrón, que el átomo deja de ser una unidad indivisible como se creía desde la 
antigüedad.

Era Cuántica

La gran revolución que lleva a la física a la modernidad es la teoría cuántica, 
que comienza a definirse a finales del siglo XIX. Es la inauguración de una 
nueva lógica resultante de las varias investigaciones sobre la estructura del 
átomo, radioactividad y ondulatoria.

Max Planck es quien define el concepto fundamental de la nueva teoría “el 
quanta”. Pero la teoría general es de autoría de un grupo internacional de 
físicos entre los cuales se encuentran Niels Bohr (Dinamarca), Louis De Broglie 
(França), Erwin, Shrödinger y Wolfgang , Pauli (Áustria), Werner Heisenberg 
(Alemanha), y Paul Dirac (Inglaterra).

Relatividad

La Teoría de la relatividad surge en dos etapas y altera profundamente las 
nociones de espacio y tiempo. En cuanto la mecánica cuántica es el resultado del 
trabajo de varios físicos y matemáticos, la relatividad es fruto exclusivo de 
las investigaciones de Albert Einstein.

Partículas Subatómicas

La historia de las partículas que componen el átomo bastante reciente. Sólo en 
1932 se confirma que los átomos están constituidos por neutrones, protones y 
electrones. A continuación se encuentran partículas aún más pequeñas como el 
positrón ó neutrino y el mesón (una partícula intranuclear de vida muy breve 
(2.6 cienmillonésimas de segundo).

Tendencias Actuales

La fusión nuclear controlada y la física de los primeros instantes del Universo 
son actualmente los campos más desafiantes de la física.

363
V. I. Lenin

EN TORNO A LA CUESTION DE LA DIALECTICA

Escrito: En 1915.
Primera publicación: En 1925 en la revista Bolchevik, núms. 5­6.
Fuente: Biblioteca de Textos Marxistas.
Preparado para el MIA: Por Juan Fajardo, diciembre de 2000.

El desdoblamiento de la unidad y el conocimiento de sus partes contradictorias 
(véase   la   cita   de   Filón   sobre   Heráclito,   al   principio   de   la   parte   III   "Del 
conocimiento", del libro de Lassalle sobre Heráclito*), es la esencia (una de 
las   "substancias",   uno   de   los   principales,   si   no   el   principal   rasgo   o 
particularidad) de la dialéctica. Es así precisamente como Hegel plantea también 
esta   cuestión   (Aristóteles   en   su   Metafísica   gira   siempre   en   torno   a   esta 
cuestión y combate a Heráclito, es decir, a sus ideas).

La justeza de este aspecto del contenido de la dialéctica debe ser comprobada 
por la historia de la ciencia. Generalmente, no se presta a este aspecto de la 
dialéctica (como, por ejemplo, Plejánov) la suficiente atención: la identidad de 
los   contrarios   se   considera   como   un   conjunto   de   ejemplos   ["por   ejemplo,   el 
grano", "por ejemplo, el comunismo primitivo". También lo hace Engels. Pero lo 
hace "con fines de divulgación".], y no como ley del conocimiento (ni como ley 
del mundo objetivo).

En matemáticas, los signos + y ó. Diferencial e integral.

En mecánica, la acción y la reacción.

En física, la electricidad positiva y negativa.

En química, la combinación y la disociación de los átomos.

En ciencias sociales, la lucha de clases.

La identidad de los contrarios (¿no sería más justo decir su "unidad"?, aunque 
la diferencia de los términos identidad y unidad no tiene, en este caso, una 
importancia esencial. Ambos términos son justos en cierto sentido), constituye 
el   reconocimiento   (el   descubrimiento)   de   la   existencia   de   tendencias 
contradictorias, que se excluyen mutuamente y antagónicas en todos los fenómenos 
y procesos de la naturaleza (entre ellos también los del espíritu y los de la 
sociedad). La conditión para conocer todos los procesos del mundo en su "auto­
movimiento ", en su desarrollo espontáneo, en su vida real, es conocerlos como 

364
una unidad de contrarios. El desarrollo es "la lucha" de los contrarios. Las dos 
concepciones fundamentales (¿o las dos posibles?, ¿o las dos que se observan en 
la historia?) del desarrollo (de la evolución) son: el desarrollo en el sentido 
de disminución y aumento, como repetición, y el desarrollo en el sentido de la 
unidad de los contrarios (el desdoblamiento de la unidad en dos polos que se 
excluyen mutuamente y la relación entre ambos).

En la primera concepción del movimiento queda en la sombra el auto­movimiento, 
su   fuerza   motriz,   su   fuente   su   motivo   (o   bien   se   atribuye   su   fuente   a   algo 
externo:   a   Dios,   al   sujeto,   etc.).   En   la   segunda   concepción   la   atención 
fundamental   se   concentra,   precisamente,   en   el   conocimiento   de   la   fuente   del 
"auto"­movimiento.

La   primera   concepción   es   muerta,   pobre,   pálida   y   seca.   La   segunda   tiene 


vitalidad. Unicamente la segunda da la clave del "auto­movimiento" de todo lo 
existente;   sólo   ella   da   la   clave   de   los   "saltos",   de   la   "interrupción   de   la 
continuidad   del   desarrollo",   de   la   "transformación   en   contrario",   de   la 
destrucción de lo viejo y del surgimiento de lo nuevo.

La   unidad   (coincidencia,   identidad,   equivalencia)   de   los   contrarios   es 


condicional, temporal, transitoria, relativa. La lucha de los contrarios, que se 
excluyen mutuamente, es absoluta, como es absoluto el desarrollo, el movimiento

Marx, en El Capital, analiza al principio la relación más sencilla, corriente, 
fundamental, masiva y común, que se encuentra miles de millones de veces en la 
sociedad  burguesa  (mercantil):  el  intercambio  de  mercancías.  En  este  fenómeno 
tan sencillísimo (en esta "célula" de la sociedad burguesa) el análisis descubre 
todas las contradicciones (es decir, el germen de todas las contradicciones) de 
la   sociedad   contemporánea.   La   exposición   que   sigue   nos   muestra   el   desarrollo 
(tanto el crecimiento como el movimiento) de estas contra dicciones y de esta 
sociedad en la suma de sus partes aisladas, desde su principio hasta su fin.

Igual   ha   de   ser   el   método   de   exposición   (respectivamente,   de   estudio)   de   la 


dialéctica en general (pues, para Marx, la dialéctica de la sociedad burguesa es 
solamente   un   caso   particular   de   la   dialéctica).   Empezando   por   una   locución 
cualquiera, de las más sencillas, corrientes y de mayor empleo, etc.: las hojas 
del árbol están verdes; Iván es un hombre; Zhuchka es un perro, etc. Ya aquí 
(como lo señalaba genialmente Hegel) hay dialéctica : lo particular e s lo g e n 
e r a l (compárese Metaphysik de Aristóteles, trad. de Schwegler, t. II, pág 40, 
3a parte, IV cap., 8­9: "denn naturlich kann man nicht der Meinung sein, daß es 
ein Haus ­­ una casa abstracta ­­ gebe außer den sichtbaren Häusern ". [**]) Por 
consiguiente,   los   contrarios   (lo   particular   es   contrario   de   lo   general)   son 

365
idénticos: lo particular no existe más que en su relación con lo general. Lo 
general existe únicamente en lo particular, a través de lo particular. Todo lo 
particular   es   (de   un   modo   u   otro)   general.   Todo   lo   general   es   (partícula   o 
aspecto, o esencia) de lo particular. Todo lo general abarca sólo de un modo 
aproximado,   todos   los   objetos   aislados.   Todo   lo   particular   forma   parte 
incompleta de lo general, etc., etc. Todo lo particular está ligado, por medio 
de millares de transiciones, a lo particular de otro género (objetos, fenómenos, 
procesos), etc. Ya a q u í hay elementos, gérmenes, conceptos de la necesidad, 
de   la   relación   objetiva   en   la   naturaleza,   etc.   Lo   casual   y   lo   necesario,   el 
fenómeno y la esencia están ya aquí, puesto que al decir: Iván es un hombre, 
Zhuchka [***] es un perro, esto es una hoja de árbol, etc., rechazamos una serie 
de rasgos como casuales, separamos lo esencial de lo aparente y oponemos lo uno 
a lo otro.

De modo que es posible (y se debe) descubrir en cual quier locución, como en una 
"célula", los gérmenes de todos los elementos de la dialéctica, demostrando así 
que la dialéctica es, en general, inherente a todo el conocimiento del hombre. Y 
las   ciencias   naturales   nos   muestran   (y   esto   debe   ser   demostrado   también   con 
cualquier ejemplo de los más sencillos) la naturaleza objetiva, que posee estas 
mismas cualidades: la transformacion de lo particular en general, de lo casual 
en   necesario,   las   transiciones,   los   matices,   la   relación   mutua   de   los 
contrarios. La dialéctica esprecisa m e n t e la teoría del conocimiento (de 
Hegel y) del marxismo: he aquí en qué "aspecto" de la cuestión (y esto no es un 
"aspecto" de la cuestión, sino la esencia de la cuestión) no fijó su atención 
Plejánov, sin hablar ya de otros marxistas.

__________

NB: La diferencia existente entre el subjetivismo (es cepticismo y las doctrinas 
sofistas,   etc.)   y   la   dialéctica,   re   side,   entre   otras   cosas,   en   que   en   la 
dialéctica   (objetiva)   también   la   diferencia   entre   lo   relativo   y   absoluto   es 
relativa.   Para   la   dialéctica   objetiva   lo   absoluto   se   contiene   también   en   lo 
relativo.   Para   el   subjetivismo   y   las   doctrinas   sofistas   lo   relativo   sólo   es 
relativo y excluye lo absoluto.

El conocimiento, en forma de una serie de círculos, lo representa también Hegel 
(véase Lógica) y el "gnoseólogo" moderno de las ciencias naturales, ecléctico y 
enemigo   de   la   hegeliada   (¡a   la   que   no   comprendió!),   Paul   Volkmann   (véase 
su Erkenntnistheoretische Grundzüge der Naturwissenschaften ****).

366
Los "círculos" en filosofía: [¿es obligatoria la cronología en cuanto a 
las personas? [No!].
La antigua: desde Demócrito hasta Platón y la dialéctica de Heráclito.
Renacimiento: Descartes versus [*****] Gassendi (¿Spinoza?).
La moderna: HolbachóHegel (a través de Bérkeley, Hume,Kant).
Hegel ­­ Feuerbach ­­ Marx.

La dialéctica como conocimiento vivo, multilateral (con el número de aspectos 
siempre   en   aumento),   de   innumerables   matices   en   el   modo   de   abordar,   de 
aproximarse   a   la   realidad   (con   un   sistema   filosófico   qué,   de   cada   matiz,   se 
desarrolla   en   un   todo):   he   aquí   el   contenido   inconmensurablemente   rico,   en 
comparación con el materialismo "metafísico", cuya desgracia principal es la de 
no  ser  capaz  de  aplicar  la  dialéctica  a  la  Bildertheorie******,  al  proceso  y 
desarrollo del conocimiento.

El   idealismo   filosófico,   desde   el   punto   de   vista   del   materialismo   grosero, 


simple,   metafísico,   es   sólo   un   absurdo.   Por   el   contrario,   desde   el   punto   de 
vista   del   materialismo   dialéctico,   el   idealismo   filosófico   es   un   desarrollo 
(inflación, hinchazón) unilateral, exagerado, überschwengliches (según Dietzgen)
[*******], de uno de los rasgos, de uno de los aspectos, de uno de los lados del 
conocimiento   en   algo   absoluto,   separado   de   la   materia,   de   la   naturaleza, 
divinizado.

El idealismo es clericalismo. Esto es justo.
Pero el idealismo filosófico es ("mejor
dicho " y "además ") el camino hacia
NB:
el oscurantismo clerical a través de un o de
este aforismo
los  matices del conocimiento
infinitamente complicado (dialéctico) del
hombre.

El conocimiento del hombre no es (respectivamente, no sigue) una línea recta, 
sino una línea curva, que se aproxima infinitamente a una serie de círculos, a 
una espiral. Cualquier segmento, trozo, fragmento de esta línea curva puede ser 
transformado (transformado unilateralmente) en una línea recta, independiente, 
íntegra, que conduce (si tras los árboles no se ve el bosque) en tal caso al 
pantano, al oscurantismo clerical (donde l o s u j e t a el interés de clase de 
las clases dominantes). El pensamiento rectilíneo y unilateral, la rigidez y la 
fosilización,   el   subjetivismo   y   la   ceguera   subjetiva,   voila   las   raíces 
gnoseológicas   del   idealismo.   Y   el   oscurantismo   clerical   (=   idealismo 
filosófico), naturalmente, tiene sus raíces gnoseológicas, no carece de terreno, 
es una flor estéril, indiscutiblemente, pero una flor estéril que crece en el 

367
árbol   vivo,   fértil,   auténtico,   poderoso,   omnipotente,   objetivo,   absoluto   del 
conocimiento humano.

NOTAS

* Véase V. I. Lenin, "Resumen del libro de Lassalle La filosofía de Heráclito El 
Oscuro de Efeso ", Obras Completas, t. XXXVIII.

** "Pues, naturalmente, no es posible imaginarse que exista una casa abstracta 
aparte de las casas visibles". (N. de la Ed.)

*** Perro faldero.

**** P. Volkmann. La teoría del conocimiento de las ciencias naturales, Leipzig­
Berlín, 1910, . (N. de la Ed.)

***** Contra. (N. de la Ed.)

******Teoría del reflejo. (N. de la Ed.)

******* Se  refiere  al  uso  dado   por  J.  Dietzgen  al  término Überschwenglich que 
significa   exagerado,   excesivo,   infinito;   por   ejemplo,   en   el   libro Kleinere 
Philosophische   Schriften (Escritos   filosóficos   menores),   Stuttgart,   1903, 
Dietzgen   utiliza   el   término   como   sigue:   "Lo   absoluto   y   lo   relativo   no   están 
infinitamente separados". Véase también J. Dietzgen, La esencia del trabajo de 
le cabeza del hombre, cap. 4, sección 2, sobre el grado de diferencia entre el 
mundo espiritual y el mundo sensorial.

368
Boris Mijailovich Zavadovski

Boris   Mijailovich   Zavadovski fue   el   único   de   los   delegados   soviéticos   al 


congreso   de   Londres   que   había   confirmado   verdaderamente   su   presencia   en   el 
congreso. Ya por entonces era conocido por ser el director del Museo de Ciencias 
Naturales   de   Moscú,   también   conocido   como   Museo   de   Ciencias   Naturales   K.   A. 
Timiriazev, que abrió sus puertas el 7 de mayo de 1922, momento en el que era 
dirigido por el subdepartamento de biología de la Universidad Comunista Y. M. 
Sverdlov. (Cuando se inauguró el museo, N. K. Krupskaia escribió: «cuando vi el 
museo de historia natural en la Universidad Sverdlov, organizado por el camarada 
Zavadovski y su grupo, pensé cuánto le hubiera gustado a Ilich un museo como 
este»,   en Sovetskii   muzei, 1934,   nº   1,   pág.   5).   Boris   Mijailovich   Zavadovski 
nació   el   día   1   de   Enero   de   1895,   según   el   calendario   ruso,   el   día   13   según 
nuestro   calendario,   en   Yelisavetgrado,   Kirovogrado   en   la   época   soviética,   la 
misma ciudad en la que nació Boris Mijailovich Hessen (1893­1936), y el premio 
Nobel  Igor  Evgenevich  Tamm  (1895­1971),  con   quienes  mantuvo  estrecha  amistad. 
Estudió   Fisiología   animal   en   la   Universidad   de   Moscú,   y   en   la   Universidad 
Popular   Shanyavsky,   con   el   famoso   biólogo   molecular   y   genetista   Nicolai 
Konstantinovich   Koltsov   (1872­1940).   Trabajó   como   asistente   de   la   cátedra   de 
fisiología   en   la   Universidad   de   Odessa   y   a   partir   de   1920   en   la   Universidad 
Comunista Sverdlov, de Moscú. Por estos años estudió con el Premio Nobel Iván P. 
Paulov (1849­1936), y comenzó la organización del Museo antes mencionado, que 
aún existe en Moscú. Boris M. Zavadovski fue un gran especialista en el campo de 
la fisiología y la endocrinología, y defensor de la teoría genetista, con una 
importante   dedicación   a   la   investigación   experimental   y   a   la   innovación 
tecnológica   en   la   explotación   industrial   de   los   animales,   y   en   la   medicina, 
mediante   el   estudio   del   metabolismo   de   las   hormonas   en   el   organismo.   Gran 
divulgador   y   promotor   de   la   ciencia,   creó   el   Laboratorio   de   biología 
experimental  en  1920,  y  fue  elegido  miembro  de  la  Academia  Lenin   de  Ciencias 
Agrícolas  en  1935.  Su  gran  dedicación   a la  investigación  y  la  divulgación   le 
llevó a muchos eventos internacionales, entre ellos el Congreso de Londres, pero 
con el ascenso de Trofim Denisovich Lisenko (1898­1976), en parte gracias a él 
mismo, que apoyó su entrada en la Academia Lenin de Ciencias Agrícolas en 1936, 
comenzó   la   gran   disputa   que   le   llevaría   al   ostracismo.   Zavadovski   combatió 
activamente a Lisenko durante los años cuarenta, hasta la famosa sesión de la 
Academia Lenin de Ciencias Agrícolas que tuvo lugar entre el 31 de julio y el 7 
de   agosto   de   1948,   en   donde   Zavadovski   fue   uno   de   los   primeros   acusados   por 
Lisenko,   junto   con   el   biólogo   alemán   August   Weisman   (1834­1914)   (de   quien   B. 
Zavadovski también se distancia), el propio Koltsov, el hermano de Boris, Mijail 

369
Mijailovich Zavadovski, con quien hizo muchos trabajos experimentales, etcétera. 
Su   decidida   crítica   a   Lisenko   provocó   que   fuera   despojado   de   todas   sus 
responsabilidades, entre ellas, la de la dirección del Museo, lo que abundó en 
su  prematuro deterioro  físico. Murió el  31 de  marzo  de 1951 a  la edad  de 56 
años.   (Nota:   Todos   estos   datos   biográficos   están   extraídos   del   artículo   del 
profesor   M.   V.   Kasatkin,   del   Museo   Timiriazev   de   Moscú,   «Académico   Boris 
Mijailovich Zavadovski», escrito con ocasión del 110 aniversario de su muerte. 
Agradecemos   al   autor   y   a   la   dirección   del   Museo   Timiriazev   el   haber   podido 
contar   con   esta   privilegiada   fuente   de   información,   y   al   profesor   Benito 
Fernández   la   traducción   de   dicho   artículo   del   ruso   al   español.   También   hemos 
revisado la tercera edición inglesa de la Gran Enciclopedia Soviética.)

Este   texto   de   Zavadovski   es   uno   de   los   más   peculiares   e   interesantes   del 


libro Science at the crossroads. Un texto escrito en 1931 que anticipa muchas de 
las cuestiones que van a estar atormentando a la biología durante el siglo XX. 
Zavadovski   fue   uno   de   los   principales   participantes   en   el   congreso   sobre   las 
ciencias biológicas que tuvo lugar en la entronización del Lisenkoismo en 1947. 
Zavadovski   se   enfrentó   entonces   con   Lisenko   claramente   y   quien   criticó 
importantes aspectos gnoseológicos de su famoso discurso. Pero mucho antes había 
previsto teóricamente los problemas a los que se enfrentaba la biología dentro y 
fuera   de   su   país.   La   cuestión   del   reduccionismo   metodológico,   gnoseológico, 
frente   a   la   vinculación   ontológica,   la   necesidad   de   apelar   a   métodos 
específicos, la defensa de la separación de las ciencias, por su campo, por sus 
métodos, por sus leyes, por sus teorías, es desde luego muy actual y muy cercano 
al   planteamiento   del   materialismo   filosófico.   Al   mismo   tiempo,   se   observa   su 
estrecha vinculación con la tradición del materialismo dialéctico. Pero tampoco 
aquí Zavadovski es ingenuo. El planteamiento se acerca a las posiciones de los 
llamados  dialécticos,  a  la  que  pertenecía  el  propio  Hessen,  que  se  oponía   al 
mecanicismo más reduccionista. Este es un debate todavía no resuelto en el seno 
del   materialismo,   y   tal   vez   insoluble   por   la   falta   de   atención   a   estas 
cuestiones clave. La «dialéctica» obliga a aceptar que aun suponiendo la unidad 
ontológica   de   todo   lo   real,   como   materia,   es   necesario   sin   embargo   separar 
gnoseológicamente   los   campos   del   saber,   aunque   parece   entenderse   que   de   modo 
provisional,   porque   el   materialismo   dialéctico   marxista   aspira   a   alcanzar   un 
conocimiento absoluto de todo, lo que Gustavo Bueno ha llamado el «gnosticismo 
gnoseológico»,   y   esto   obliga   a   entender   que   esa   separación   gnoseológica, 
metodológica, es una etapa que se superará en «el último análisis». Sin embargo, 
esta separación parece determinada de modo irreversible por la propia diversidad 
de movimientos de la materia sobre la que se establece, al fin y al cabo, el 
criterio para la diversidad de las ciencias. Zavadovski toma en consideración 
aquí a muchos de los problemas filosóficos y políticos que abriría la biología 

370
moderna, la eugenesia, lasociobiología y da respuesta a ellos con ideas hoy ya 
clásicas, pero de las que no se ha podido tampoco salir desde entonces, aunque 
al  menos  hoy  son  universalmente  aceptadas,  más   aún  cuanto  mejor  se  conoce   la 
estructura genética de la vida. En todo caso, estas cuestiones son planteadas 
por el autor desde el esquema de discusión establecido para el tratamiento de la 
relación   entre   lo   físico   y   lo   biológico.   Zavadovski   estaría   ejercitando   un 
análisis   fácilmente   comprensible   desde   las   coordenadas   de   la   teoría   de   los 
conceptos conjugados de Gustavo Bueno, en donde el vitalismo y el mecanicismo 
aparecerían   como   perspectivas   metaméricas,   y   reduccionistas,   mientras   que 
Zavadovski   claramente   intenta   argumentar   y   justificar   gnoseológicamente   un 
modelo   diamérico   de   relación   entre   estos   dos   elementos,   basándose   en   la 
perspectiva del materialismo dialéctico, un esquema que seguramente no acaba de 
cuajar   debido   a   la   renuncia   expresa   a   cualquier   tipo   de   planteamiento 
teleonómico en el campo de la biología, pues si la biología se entiende como una 
forma   particular   de   movimiento   de   la   materia,   la   cuestión   que   queda   por 
establecer   es   cuál   es   la   naturaleza   de   ese   movimiento   y   por   qué   da   como 
resultado   una   realidad   material   disociable   de   «lo   físico».   El   texto   que 
ofrece Science at the Crossroads parece ser un resumen abreviado de lo que había 
preparado   para   el   congreso,   lo   mismo   que   ocurrió   con   otros   ponentes.   [Pablo 
Huerga Melcón, Gijón, 28 de enero de 2006. Agradezco a Benito Fernández, Leticia 
Camarero,   Araceli   Lucas   y   Esther   Castro,   su   ayuda   en   la   elaboración   de   este 
trabajo. PHM]

Lo «físico» y lo «biológico»
en el proceso de la evolución orgánica

Boris Mijailovich Zavadovski

Edición a cargo de Pablo Huerga Melcón del trabajo presentado por este autor 
soviético al II Congreso Internacional de Historia de la Ciencia (Londres 1931)

La cuestión de las relaciones entre las ciencias físicas y biológicas, incluida 
en el programa del presente Congreso, forma parte del problema general de las 
relaciones entre diferentes cosmovisiones en la solución de las tareas presentes 
de   la   ciencia   natural{1}.   Esta   cuestión   ha   recibido   repetidamente   distintas 
soluciones, de acuerdo con las particulares condiciones de la experiencia del 
trabajo de la humanidad, la condición de sus fuerzas materiales de producción, y 
sus   relaciones   productivas   socioeconómicas,   que   han   estado   cambiando 
constantemente en el curso de la historia humana. Por esta razón el alcance de 
mi tema no me permite contestar a la cuestión propuesta en toda su amplitud, y 
sugiere la decisión de tratar con algunas cuestiones de principio que llevan a 
la solución del problema como un todo, examinando la cuestión de las relaciones 

371
entre   las   ciencias   físicas   y   biológicas   en   la   solución   de   algunos   problemas 
teóricos simples de la biología. Me centraré especialmente en el problema de la 
teoría de la evolución orgánica, porque analizando este problema será posible 
hacer algunas observaciones sobre otras cuestiones planteadas en el programa del 
Congreso: las relaciones de la teoría y la práctica en el trabajo científico, y 
el   papel   del   método   histórico   en   la   solución   de   los   problemas   de   la   ciencia 
natural.

Entre toda la variedad de opiniones existentes en la ciencia burguesa sobre la 
cuestión   de   las   relaciones   de   las   ciencias   físicas   y   biológicas,   es   posible 
distinguir   dos   tendencias   básicas   y   mutuamente   excluyentes:   primero,   la   que 
tiende   a   identificar   las   dos,   reduciendo   los   fenómenos   biológicos   a   leyes   de 
carácter físico, y segundo, la que establece un agudo contraste de lo biológico 
frente a lo físico, como dos entidades opuestas. En el último caso, lo «físico» 
se   refiere   a   las   fuerzas   materiales   de   la   naturaleza   inorgánica,   o   a   los 
factores «mecánico­físiológicos» en movimiento dentro del organismo, reducibles 
en último análisis a las mismas leyes del movimiento molecular; mientras que lo 
«biológico» se refiere a las diversas fuerzas vitales de carácter no material y 
no espacial, que «no son ni el resultado, ni la combinación de lo físico y lo 
químico –i. e., en último análisis, de los fenómenos físicos». [69]

A   pesar   de   la   multiformidad   y   variedad   de   las   fuerzas   e   intereses 


contradictorios que concurren en las condiciones capitalistas de producción, no 
hay sin embargo dificultad para establecer el predominio de la interpretación 
del materialismo mecánico en el período de apogeo del capitalismo como sistema 
económico,   y   cuando   la   cultura   material   se   desarrollaba   rápidamente   como 
resultado de los éxitos de la ciencia y de la técnica –hasta el fin del siglo 
XVIII, y durante el siglo XIX; como tampoco hay dificultad para comprender el 
renacimiento de modos idealistas, vitalistas e incluso místicos, a medida que se 
produce el desarrollo de las contradicciones económicas y la agudización de la 
lucha de clases en la sociedad burguesa.

Estas tendencias adquieren fuerza especial en el período presente de declive y 
decadencia   general   del   capitalismo,   que   encuentra   su   expresión   también   en 
aquellas contradicciones que están impidiendo el más fructífero desarrollo de la 
ciencia   natural   y   de   la   técnica   bajo   los   métodos   burgueses   de   producción;   y 
cuando,   por   otra   parte,   el   desarrollo   del   conocimiento   científico   revela   la 
imposibilidad   de   reducir   la   totalidad   de   los   fenómenos   complejos   de   la 
naturaleza a una fórmula simple de leyes físicas o mecánicas. Estas tendencias 
caracterizan la desilusión general de la sociedad burguesa en las posibilidades 
de la cultura material y el reconocimiento de la imposibilidad de resolver los 
problemas científicos que han madurado mientras se permanezca dentro del marco 

372
del  sistema  capitalista  (cf. El  informe   del  Ministro  Prusiano,  Dr.  Becker{2}, 
«Educational questions in the period of the crisis of material culture»).

Esta   lucha   entre   dos   cosmovisiones   encuentra   su   reflejo   natural   en   las 


corrientes existentes de la doctrina evolucionista, que tratan de resolver el 
mismo problema de las relaciones de lo «físico» y lo «biológico» como factores 
de la evolución orgánica. En este caso, lo «físico» frecuentemente se identifica 
con   las   condiciones   «externas»   circundantes,   y   lo   biológico   con   las   fuerzas 
vitales   autónomas,   «internas»,   «entelequias»   o   «dominantes»,   inmanentes   e 
inherentes a la vida como tal, en contraste con las leyes materiales «físicas» 
de la naturaleza.

La característica principal de esta lucha, y de la consiguiente fluctuación en 
las relaciones entre las ciencias físicas y las biológicas a través de toda la 
historia de la ciencia natural, es el uso acrítico de las concepciones de lo 
«físico» y de lo «biológico», de lo «externo» y de lo «interno», y la ausencia 
de   cualquier   tipo   de   criterio   filosófico   metodológico,   que   distingue   a   la 
abrumadora mayoría de los representantes de la ciencia empírica.

Así, dentro del contexto de la concepción «biológica» misma, no siempre hay una 
distinción suficientemente clara entre la idea de lo «bio­fisiológico» como un 
factor que determina principalmente los procesos del desarrollo individual, del 
metabolismo y la regulación de la actividad de los organismos (aunque lo «bio­
físiológico» también incluye inevitablemente [70] el elemento histórico), y la 
idea de lo «bio­histórico», como un factor en la formación de las especies y la 
filogénesis.

No son infrecuentes las tendencias a incluir en lo «biológico» también fenómenos 
de la historia social de la humanidad, dado que la sociedad humana se entiende 
como un simple resultado mecánico de la especie biológica humana{3}.

Por   otra   parte,   en   el   proceso   de   la   evolución   orgánica   se   identifica   con 


frecuencia   lo   «externo»   con   lo   físico,   y   lo   interno   con   lo   «biológico»   –
olvidando que lo biológico incluye factores físicos, químicos, y fisicoquímicos, 
como   momento   y   condición   necesaria   para   su   realización,   mientras   que   lo 
«externo»  con   relación   a un  organismo   particular,  está  compuesto   a su  vez   no 
sólo   de   las   condiciones   físicas   de   naturaleza   inorgánica,   sino   también   del 
entorno biológico de otros organismos, en cuyo medio y en cuya interacción tiene 
lugar la vida de las especies. Por lo que se refiere al hombre, lo «externo» 
viene definido principalmente por las relaciones productivas socioeconómicas y 
las condiciones de las fuerzas productivas materiales que determinan el proceso 
socio­histórico.

373
Una de las características más notables de la interminable contradicción en la 
que ha quedado sumida la ciencia natural empírica actual, es el hecho de que 
ninguna   de   las   teorías   de   la   evolución   existentes   en   la   ciencia   burguesa   es 
capaz   de   mantenerse   en   sus   propias   posiciones,   sino   que   acaba   aceptando   las 
mismas tesis que trata de refutar.

Así,   el   neolamarquismo,   que   originalmente   basa   sus   objeciones   al   darvinismo 


sobre   el   referido   carácter   «acientífico»   de   la   idea   de   cambio   sobre   la   que 
Darwin   basaba   su   teoría   de   la   selección,   y   sus   intentos   de   proporcionar   una 
justificación materialista para los hechos de la variabilidad de organismos y de 
sus adaptaciones (y consecuentemente para todo el proceso de formación de las 
especies)   en   el   «directo   equilibrio»   del   organismo   con   relación   a   las 
influencias   del   entorno   físico   circundante,   transfiere   el   problema   de   la 
adaptación desde el ámbito del estudio racional de las complejas relaciones que 
surgen   entre   el   organismo   y   el   medio   entorno   de   su   existencia,   al   propio 
organismo.   Así,   llega   a   las   concepciones   vitalistas   y   teleológicas   de   las 
fuerzas vitales inmanentes que determinan el curso y la dirección del proceso de 
la evolución.

De la misma manera, la teoría «mecánico­fisiológica» de Nägeli{4}, o la teoría 
de la Nomogénesis de Berg{5}, a pesar de todos los esfuerzos de los autores para 
probar   el   contenido   estrictamente   científico   y   materialista   de   sus 
construcciones,   llega   a   ideas   esencialmente   vitalistas   del   «principio   de   la 
perfección», o a la idea de adaptación como la «cualidad primaria físico­química 
de   la   materia   viva»   –ideas   que   no   pueden   engañar   a   nadie   con   su   fraseología 
aparentemente materialista. [71]

De la misma manera, las teorías francamente vitalistas, que tomaron la bandera 
de la lucha contra las concepciones del mecanicismo materialista vulgar, tratan 
de encontrar un camino para el conocimiento de la naturaleza de los fenómenos 
biológicos   a   través   de   fuerzas   inmateriales   e   incognoscibles,   contrarias   al 
mundo   físico.   Por   otra   parte,   están   obligados   a   abogar   por   el   «vitalismo 
práctico» –i. e., el avance de los mismos métodos mecanicistas de investigación 
en   la   actividad   práctica   del   investigador.   De   esta   manera,   pasan   a   las 
posiciones   del   mecanicismo   vulgar   en   todas   las   esferas   de   acción   cognitiva 
directa, condenando por eso sus fuerzas vitales y entelequias al estéril papel 
de una tímida cortina para nuestra ignorancia.

Y   del   mismo   modo,   el   genetista,   desarrollando   acríticamente   las   ideas   neo­


darvinistas   de   la   independencia   del   plasma   germinal   de   todas   las   influencias 
«físicas» del medio externo, llega objetivamente a la posición de la autonomía 
de   lo   «biológico»   frente   a   lo   «físico».   De   este   modo   desciende   a   las   mismas 

374
ideas   de   la   autogénesis   mantenidas   por   sus   oponentes   lamarquistas,   o   a   la 
concepción   de   la   evolución   como   el   resultado   de   las   combinaciones   de   genes 
eternamente existentes –i. e., de hecho, a la negación de la misma idea de la 
evolución, como un proceso de continuo despliegue de nuevas formaciones en la 
naturaleza.

Finalmente, el lamarquista, considerando la evolución como el resultado de los 
cambios   somáticos   acumulados   hereditariamente,   introduce   la   caduca 
identificación   mecanicista   de   lo   «bio­fisiológico»   y   lo   «bio­histórico», 
olvidando la peculiaridad cualitativa que distingue al huevo, que solo contiene 
en sí las posibilidades potenciales de posteriores desarrollos en un organismo 
complejo, y el organismo desarrollado. En último término, este punto de vista es 
una vez más la negación del verdadero hecho del desarrollo de nuevas formaciones 
como un proceso histórico independiente, representando el huevo como el modelo 
en   miniatura   de   la   forma   futura,   por   así   decir,   y   reduciendo   en   realidad   el 
proceso de desarrollo a las funciones de crecimiento.

Las mismas contradicciones internamente insolubles echan a perder los numerosos 
intentos   de   resolver   el   problema   de   la   evolución   orgánica   por   medio   de   la 
reconciliación  ecléctica  de  la  posición  darvinista  con  las  ideas   lamarquianas 
(Haeckel{6}, Plate{7}, Darwin mismo, quien aceptó –no obstante con reservas– la 
idea lamarquiana de la herencia de caracteres adquiridos, y varias otras), pues 
la conclusión lógica de la idea lamarquiana de la directa variación adaptativa 
colectiva   de   los   organismos,   en   respuesta   a   la   misma   influencia   del   medio 
externo, significa la inutilidad e impotencia de la selección, como un factor en 
la formación de las especies –i. e., la negación del darvinismo.

Un   ejemplo   llamativo   de   la   incapacidad   con   la   que   la   mayor   parte   de   los 


representantes   de   la   ciencia   burguesa   titubea   [72]   entre,   por   un   lado,   la 
«reducción» mecanicista de los procesos biológicos a lo físico, y por otro lado, 
el reconocimiento de la autonomía absoluta de lo biológico, es la posición del 
profesor Muller («The Method of Evolution»){8}. Habiendo probado en primer lugar 
con   lucidez   irreprochable   el   hecho   de   la   dependencia   del   plasma   germinal   con 
respecto a la acción del rayo Röntgen{9} –i. e., con respecto a las influencias 
físicas del medio externo, tan firmemente negadas hasta muy recientemente por la 
mayoría   de   los   genetistas–   y   situándose   en   general   en   las   posiciones   de   un 
correcto   darvinista,   Muller   regresa,   sin   embargo,   no   obstante   con   algunas 
reservas, a una proposición realmente mecanicista al considerar el proceso de 
variación  como  el  resultado  directo  de  la  influencia  de  los  rayos  de  Röntgen 
sobre el plasma germinal. De este modo, reduce el problema de la modificación de 
los   genes,   como   un   factor   biológico   de   la   herencia,   al   momento   físico   de   la 
expulsión   de   un   electrón   de   la   molécula   biológica,   olvidando   así   la   profunda 

375
peculiaridad   cualitativa   del   proceso   biológico   comparado   con   los   fenómenos 
físicos.

El   resultado   final   de   esta   crisis   por   la   que   está   pasando   la   teoría   de   la 
evolución   en   los   países   capitalistas   es   el   intento   de   negar   completamente   el 
verdadero   hecho   de   la   evolución,   o   considerar   la   teoría   como   una   de   las 
«hipótesis» posibles, que circula al lado de la leyenda bíblica de la creación 
del   mundo   en   seis   días   de   trabajo,   o   finalmente   la   posición   de   un   franco 
agnosticismo y desilusión frente a la posibilidad de resolver el problema de la 
evolución   en   el   nivel   actual   de   conocimiento   científico   (Johansen{10}, 
Bateson{11}, y en la URSS, Filipchenko{12}).

Desde  el  punto  de  vista socio­histórico, estas  escuelas  de  pensamiento  son  el 
resultado   y   el   reflejo   en   la   conciencia   de   los   científicos   burgueses   de   las 
contradicciones   internas   socioeconómicas   que   han   constreñido   a   los   países 
capitalistas, y expresan la imposibilidad del desarrollo posterior normal de la 
ciencia   natural,   como   de   todas   las   ciencias,   en   el   contexto   del   sistema 
capitalista.

Desde   el   punto   de   vista metodológico, estas   posiciones   son   el   resultado   del 


desprecio exhibido en la actualidad por los naturalistas, entusiasmados por el 
éxito  empírico  de  sus  ciencias  y  el  incremento  de  su  aplicación  técnica,  con 
respecto a las tareas de análisis filosófico metodológico y la superioridad de 
los   hechos   y   conclusiones   estudiadas   en   su   especialidad   científica.   Aunque 
algunos   científicos   han   tratado   de   lograr   tales   generalizaciones   filosóficas, 
las   posiciones   mostradas   en   ellas   reflejan   su   incapacidad,   en   virtud   de   las 
limitaciones   de   clase   sobre   la   línea   general   de   pensamiento,   para   adoptar   la 
única posición filosófica correcta del materialismo dialéctico.

«Los naturalistas creen liberarse de la filosofía simplemente por ignorarla o 
hablar   mal   de   ella.   Pero,   [73]   como   no   pueden   lograr   nada   sin   pensar   y   para 
pensar hace falta recurrir a las determinaciones del pensamiento y toman estas 
categorías,  sin  darse  cuenta  de  ello,   de  la  conciencia  usual  de  las   llamadas 
gentes cultas, dominada por los residuos de filosofías desde hace largo tiempo 
olvidadas, del poquito de filosofía obligatoriamente aprendido en la Universidad 
(y que, además de ser puramente fragmentario, constituye un revoltijo de ideas 
de gentes de las más diversas escuelas y, además, en la mayoría de los casos, de 
las   más   malas),   o   de   la   lectura,   ayuna   de   todo   crítica   y   de   todo   plan 
sistemático, de obra filosófica de todas clases, resulta que no por ello dejan 
de   hallarse   bajo   el   vasallaje   de   la   filosofía,   pero,   desgraciadamente,   en   la 
mayor   parte   de   los   casos,   de   la   peor   de   todas,   y   quienes   más   insultan   a   la 

376
filosofía son esclavos precisamente de los peores residuos vulgarizados de la 
peor de las filosofías.»{13}

Existe también la impresión firme pero incorrecta de que la tarea de la ciencia 
en   general   es   reducir   a   toda   costa   los   fenómenos   más   complejos   a   los   más 
simples, y que consecuentemente el éxito de las ciencias biológicas es posible 
sólo bajo la forma de la reducción de los fenómenos de la vida a los más simples 
principios   físicos,   mientras   las  ciencias  sociales  pueden  construir   sus  leyes 
sólo confiándose a los logros de la biología. En realidad nosotros vemos que, 
por ejemplo, el hecho de la herencia, que parecía relativamente simple en los 
días de Darwin –cuando se trataba en el sentido lamarquiano, el sentido vulgar 
de la transmisión por herencia de caracteres adquiridos, una interpretación muy 
atractiva por su aparente simplicidad–, solo ha recibido verdadera explicación 
hoy   mediante   las   complejas   fórmulas   del   Mendelismo   y   el   Morganismo.   Muchos 
fenómenos   físicos   importantes   han   sido   descubiertos   en   primer   lugar   por 
biólogos, así como muchas leyes relativas al efecto que esos fenómenos podían 
causar sobre los organismos vivos fueron establecidas antes de que se conociera 
su naturaleza física (rayos X, fenómenos de electricidad animal, &c.). Las leyes 
fundamentales   del   desarrollo   de   la   sociedad   humana   que   hicieron   posible   en 
nuestro   tiempo   para   la   población   de   una   sexta   parte   del   globo   superar 
exitosamente las dificultades de lo que podría considerarse una lucha desigual, 
fueron descubiertas por Marx y Engels 20 años antes de que Darwin formulara las 
leyes fundamentales de la evolución orgánica.

Todo esto muestra que la verdadera tarea de la investigación científica no es la 
de la identificación forzada de lo físico y lo biológico, sino la habilidad para 
descubrir   los   principios   de   control   cualitativamente   específicos   que 
caracterizan   los   rasgos   principales   de   todo   fenómeno   dado,   y   encontrar   los 
métodos de investigación apropiados al fenómeno estudiado. Esto es así porque si 
dentro del contexto de las mismas ciencias físicas enseñamos a comprender que el 
agua no representa una simple mezcla mecánica de oxígeno e hidrógeno, sino que 
constituye   una nueva   cualidad en   las   propiedades   físicas   y   químicas 
del agua, comprenderemos   que   todos   los   demás   fenómenos   de   la   vida   también 
representan   un   sistema   complejo,   cuyo   estudio   requiere   métodos   especiales   de 
investigación bio­física y bio­histórica. En cierto modo, estas leyes, como por 
ejemplo   la   ley   de   la   selección   natural,   o   las   leyes   fisiológicas   que   operan 
dentro de un organismo, no son más o menos simples o complejas que las leyes 
físicas [74] que rigen el movimiento del sistema planetario, o el movimiento de 
los electrones alrededor del núcleo atómico.

La consideración fundamental que debe tenerse en cuenta en este problema es la 
imposibilidad de una identificación cruda y simple de estas dos categorías de 

377
fenómenos, y la imposibilidad de reducir las leyes biológicas a lo físico, tal 
como el intento de los vitalistas de comprender los fenómenos del mundo desde el 
punto de vista de la animación universal de la materia.

Afirmando que la realidad del mundo existe objetivamente fuera de nosotros, el 
materialismo dialéctico parte de la convicción, justificada por toda la práctica 
de la actividad humana, de que nuestra conciencia refleja no sólo la realidad 
objetiva   de   los   hechos   directamente   percibidos   por   nuestros   órganos   de   los 
sentidos, sino también el orden constante de las relaciones que conectan estos 
hechos   entre   sí;   el   hecho   y   sus   relaciones   ordenadas   con   los   otros   hechos 
circundantes   son   considerados   por   la   dialéctica   en   su   absoluta   unidad   y 
totalidad. Esto nos exige aceptar no sólo los hechos de semejanza y unidad de 
estructura de los organismos, sino también que la única explicación racional y 
posible de estos hechos radica en el reconocimiento de la unidad de su origen y 
en la ley histórica de desarrollo, que interconecta todos los fenómenos en la 
naturaleza con los demás. Por lo tanto, para nosotros la evolución es un hecho 
tan incuestionable como el de la existencia separada del mono y del hombre que 
percibimos de manera directa.

Estableciendo el hecho del desarrollo, la variación, y el movimiento como las 
cualidades básicas de la materia, y la unidad de las leyes fundamentales de la 
dialéctica, que atañen a todas las formas de movimiento de la materia (la ley de 
la unidad de los opuestos, la ley de la negación de la negación, y la ley de la 
transformación   de   la   cantidad   en   cualidad   y   viceversa),   el   materialismo 
dialéctico enfatiza al mismo tiempo con toda su fuerza la extrema multiformidad 
y las distinciones cualitativas específicas de las diversas formas de movimiento 
de   la   materia,   y   las   leyes   características   de   las   diferentes   etapas   del 
desarrollo de la materia; y consecuentemente la necesidad de la existencia de 
ciencias   independientes   especiales   que   estudian   estas   diferentes   formas   de 
movimiento.

En este sentido, la concepción dialéctica del desarrollo universal –probada por 
Hegel y reinterpretada de modo materialista por Marx, Engels y Lenin– cubre la 
teoría   darviniana   de   la   evolución   orgánica,   que   es   la   expresión   concreta   del 
proceso dialéctico aplicado a la forma biológica de movimiento de la materia, y 
al   mismo   tiempo   hace   posible   superar   un   número   de   errores   metodológicos   y 
contradicciones   sobre   estas   cuestiones   acumulado   dentro   de   los   límites   de   la 
ciencia natural burguesa.

Precisamente   desde   este   punto   de   vista,   los   fenómenos   biológicos,   conectados 


históricamente   con   fenómenos   físicos   en   la   [75]   naturaleza   inorgánica,   no 
solamente   no   son   reducibles   a   leyes   físico­químicas   o   mecánicas,   sino   que 

378
presentan dentro de sus propios límites como procesos biológicos, leyes diversas 
y cualitativamente distintas. Por esta razón, las leyes biológicas no pierden en 
absoluto   su   carácter   material   y   su   cognoscibilidad,   requiriendo   sólo   en   cada 
caso métodos de investigación apropiados a los fenómenos estudiados.

La consecuencia necesaria de lo anterior es una conclusión en lo que se refiere 
al desarrollo dialéctico de la materia por saltos, relacionada con los cambios 
revolucionarios   cualitativos   como   un   resultado   de   la   acumulación   de   cambios 
cuantitativos, y la i= dea de la relativa autonomía del proceso biológico, que 
tiene lugar no sólo en circunstancias de interacción con las condiciones físicas 
de su entorno, sino también como resultado del desarrollo de las contradicciones 
internas latentes en el sistema biológico mismo. Por estos medios son superados 
los   intentos   mecanicistas   excesivamente   simplificados   de   concebir   el   proceso 
biológico   de   desarrollo   como   resultado   solamente   de   influencias   físicas   del 
medio   entorno,   o   de   semejantes   procesos   físicos   y   fisico­químicos   dentro   del 
organismo mismo, o de sus genes, por los cuales, se dice, es posible explicar 
los fenómenos más complejos y peculiares de mutaciones, y por lo tanto, todo el 
proceso   de   formación   de   las   especies.   Al   mismo   tiempo,   este   punto   de   vista 
también   supera   la   oposición   metafísica   de   lo   biológico   y   lo   físico,   como   un 
principio   absolutamente   autónomo   e   independiente,   hasta   el   punto   de   que   lo 
biológico es considerado en su indisoluble conexión histórica con los fenómenos 
físicos   (como   una   forma   más   alta   de   movimiento,   que   surge   de   las   formas 
inorgánicas inferiores de movimiento de la materia), y también en su conexión 
dinámica (metabolismo).

Al mismo tiempo, la metodología dialéctica no elimina de ningún modo el papel de 
lo externo y lo físico en el proceso de la evolución orgánica, requiriendo sólo 
una nítida definición de estas concepciones en cada caso, y el reconocimiento de 
la   multiformidad   de   todas   las   formas   de   conexión   que   existen   entre   los 
organismos y su medio externo, entre lo «biológico» y lo «físico». Así lo físico 
constituye   lacondición necesaria   en   el   contexto   de   la   cual   tiene   lugar   el 
proceso biológico, pero al mismo tiempo aquel entra como un aspecto necesario en 
el proceso biológico como tal. Además, lo «físico» puede ser el estímulo directo 
de mutaciones en el plasma germinal, siendo así simultáneamente tanto externo 
como interno en relación con lo «biológico». Finalmente, puede servir como el 
factor   de   control   que,   en   el   proceso   de   la   selección   natural,   determina   el 
verdadero curso del proceso de evolución, y por lo tanto, actúa como el creador 
de formas biológicas. En este sentido, lo «externo» se compone no sólo de las 
condiciones físicas del medio externo, sino también del entorno [76] biológico 
que   componen   los   otros   organismos   y   también   –en   el   caso   de   la   evolución   del 

379
hombre–   las   relaciones   socio­económicas   que   prevalecen   dentro   de   la   sociedad 
humana.

Diferenciando   la   concepción   de   lo   biológico   como   expresión   del   desarrollo 


ontogenético,   por   una   parte,   y   el   desarrollo   filogenético,   por   otra,   el 
materialismo dialéctico considera la filogénesis como una forma particular y más 
compleja   de   interacción   de   lo   «biológico»   y   lo   «físico»   (el   organismo   y   su 
entorno)   y   de   lo   biológico   consigo   mismo   (las   relaciones   biológicas   de 
organismos).   En   esta   concepción   han   sido   «eliminadas»,   por   así   decir,   o 
retiradas   a   un   segundo   plano,   tanto   las   leyes   puramente   físicas   del   ambiente 
externo,   como   las   leyes   «biofisiológicas»   del   desarrollo   individual, 
sometiéndose   cualitativamente   a   las   nuevas   leyes   específicas   de   la   biología 
histórica.

Sólo en virtud de estas nuevas relaciones reguladas por la ley darviniana de la 
lucha  por  la  vida  y  de  la  selección  natural,  pueden  adquirir  las  variaciones 
individuales heredadas la fuerza de un factor en la formación de las especies, y 
pueden recibir explicación materialista racional los fenómenos más complejos de 
la   adaptación   biológica   (tales   como   la   coloración   protectora,   el   mimetismo, 
atención para la progenie, y otros instintos, parasitismo, simbiosis, &c.)

Al mismo tiempo, finalmente aquí se colapsan los intentos igualmente estériles 
de abarcar toda la complejidad y multiformidad del mundo a través de una fórmula 
matemática   simple  del  movimiento  mecánico  de  las  moléculas,  o  a  través   de  la 
idea vitalista de un único «principio de perfección», que representa, en efecto, 
un   intento   por   conocer   y   explicar   el   mundo   a   través   de   lo   inexplicable   y  lo 
incognoscible.

Una   de   las   formas   de   interpretación   mecanicista   aceptada   consciente   o 


inconscientemente sobre la naturaleza de las cosas es el intento mecanicista de 
transferir   las   leyes   biológicas   a   la   esfera   de   las   relaciones   sociales   e 
históricas, en la que una vez más se ha olvidado la ley dialéctica fundamental 
de   la   peculiaridad   cualitativa   de   las   leyes   apropiadas   a   cada   forma   de 
movimiento de la materia. Estos intentos, en el marco del llamado «darvinismo 
social», tratan de encontrar en la ley biológica de la lucha por la existencia 
una justificación para la competencia capitalista, la desigualdad racial y de 
clase, y la guerra como un factor de la «selección». Mientras que revelan con 
peculiar claridad las limitaciones de clase de la teoría científica, y el papel 
del científico burgués como el ideólogo que refleja los intereses de su clase, 
al mismo tiempo esas teorías adolecen del defecto metodológico básico de dejar 
de comprender todas las condiciones específicas, en el marco de las relaciones 
productivas   socio­económicas,   que   condicionan   las   leyes   del   proceso   socio­

380
histórico y que conceden a los factores biológicos una importancia remotamente 
subordinada. [77]

Al   mismo   tiempo,   incluso   permaneciendo   dentro   del   contexto   de   los   factores   y 


leyes   biológicas,   no   podemos   sino   señalar   la   interpretación   claramente 
arbitraria   de   los   hechos   biológicos   por   parte   de   los   eugenistas   burgueses, 
quienes intentan considerar la desigualdad social de los hombres como resultado 
directo de la desigualdad biológica en sus caracteres adquiridos. Pues, aparte 
de   la   relatividad   y   del   contenido   de   clase   de   la   verdadera   concepción   de   un 
fundamento   genético   «superior»   o   «inferior»,   son   precisamente   los   hechos 
establecidos biológicamente de la persistencia y capacidad de resistencia de las 
características hereditarias, en relación a las influencias del medio entorno, y 
no   el   punto   de   vista   lamarquiano,   el   que   necesariamente   explica   el   hecho, 
confirmado   por   el   curso   objetivo   de   la   historia,   de   que, a   pesar   de las 
condiciones externas desfavorables –malnutrición multisecular, el desempleo, y 
otras   privaciones   conectadas   con   la   pobreza–   es   en   las   filas   de   la   clase 
trabajadora donde surgen siempre nuevos combatientes por un mejor futuro para la 
humanidad,   donde   el   país   que   está   construyendo   el   Socialismo   ha   encontrado 
inmediatamente sus propios líderes militares, los constructores de la economía 
nacional, de la ciencia y de la técnica, que han sido capaces de proporcionar 
los   mejores   ejemplos   de   trabajo   planificado   y   de   organización   de   la   vida 
nacional.

Es absolutamente normal que la clase burguesa industrial, progresiva en su día, 
muestre en las posiciones de radicalismo materialista formuladas conscientemente 
un   soporte   teórico   para   su   lucha   contra   la   influencia   de   la   Iglesia   y  de   la 
ideología   religiosa   idealista   que   sirvió   como   fundamento   a   las   fuerzas 
conservadoras del feudalismo. Esta es la razón por la que el núcleo materialista 
de   la   teoría   darviniana   fue   inicialmente   recibido   con   aprobación   por   los 
ideólogos de la burguesía, como una prueba científica y una justificación de los 
principios de la libre competencia capitalista. Tan normal como que a medida que 
aumentan las contradicciones económicas observamos en la literatura científica 
actual   del   Occidente   burgués   intentos   cada   vez   más   frecuentes   de   revisar   el 
darvinismo, y regresar a concepciones claramente idealistas y místicas –llegando 
inclusive   a   la   abierta   persecución   de   la   evolución   («el   juicio   del   mono» en 
América{14}), y la búsqueda en el entorno de la Iglesia y de la Biblia para dar 
respuesta a los problemas del universo y para la recuperación de la fe decadente 
en la estabilidad del sistema capitalista.

Todos estos hechos prueban la determinación socio­histórica y de clase de las 
teorías científicas.

381
Al reflejar el estado de las fuerzas materiales de producción y las relaciones 
socio­económicas de la épo= ca histórica particular, las teorías científicas no 
sólo   expresan   el   estado   actual   y   el   nivel   de   conocimiento   alcanzado   por   la 
ciencia, sino también la justificación ideológica de los intereses económicos de 
grupos enfrentados y de clases. Al mismo tiempo representan una guía [78] para 
la acción en manos de los grupos sociales que comparten la teoría referida. Esta 
es la razón por la que el proletariado, en lucha por la reconstrucción social de 
todo el mundo y extendiendo los fundamentos de una nueva sociedad y cultura, se 
enfrenta con la tarea de revisar críticamente la totalidad de la herencia de la 
ciencia burguesa recibida por nosotros, y de superar las estructuras teóricas 
que,   no   siguiéndose   de   la   verdadera   correlación   de   las   cosas,   manifiestan   al 
mismo tiempo el carácter de clase y el significado de las formaciones sociales 
que crearon esta ciencia en el pasado. Esto es necesario no sólo por el interés 
común del conocimiento de la verdad de nuestro mundo circundante, sino también 
por   los   intereses   inmediatos   de   la   lucha   de   la   clase   trabajadora   por   su 
emancipación   del   yugo   económico   y   de   la   influencia   ideológica   de   las   clases 
hostiles   en   los   países   capitalistas,   y   por   los   problemas   prácticos   de   la 
construcción Socialista en todas las esferas de la economía nacional en la URSS, 
organizada por el proletariado sobre los fundamentos del estudio científico de 
las   leyes   del   desarrollo   de   la   naturaleza   y   de   la   sociedad   humana.   En   esto 
radica   la   causa   del   profundo   interés   en,   y   de   la   atención   a,   la   teoría 
científica,   a   la   investigación   científica   teórica,   y   a   la   historia   de   las 
ciencias, que ostenta la Unión Soviética.

La definición correcta de las relaciones de las ciencias biológicas y físicas, y 
en   particular   la   relación   de   lo   «físico»   y   lo   «biológico»   en   el   proceso 
biológico –por una parte en el desarrollo individual, y por otra en la formación 
de   las   especies   y   la   producción   de   nuevas   razas   de   animales   domésticos   y   de 
plantas cultivadas– nace de su gran importancia para la solución planificada de 
los   problemas   de   la   agricultura   Socialista   a   gran   escala   y   de   la   crianza   de 
ganado. Esto requiere la superación tanto de la concepción mecanicista como de 
la   lamarquiana,   ampliamente   arraigada   en   la   práctica   de   la   mayoría   de   los 
criadores de ganado, que buscan la solución de todo el problema en la influencia 
física   artificial   sobre   el   organismo:   y   del   entusiasmo   autogenético   de   los 
genetistas,   que   piensan   que   las   tareas   del Plan   Quinquenal   Socialista se 
alcanzan por la aplicación de los métodos de la moderna genética y selección, 
ignorando el papel y la importancia del resto del sistema de medidas sociales 
del   hombre   basadas   en   la   influencia   del   contexto   físico   externo   sobre   el 
desarrollo   del   fenotipo   y   la   posible   emergencia   de   nuevas   variaciones 
hereditarias.

382
Finalmente,   estas   conclusiones   teóricas   son   de   no   menos   importancia   en   la 
resolución de los problemas prácticos que surgen a partir de la reorganización 
de todo el sistema de pedagogía y de la reconstrucción científica de la cultura 
física,   la   sanidad   y   la   higiene   del   cuerpo,   cuya   adecuada   solución   requiere 
también   en   cada   ocasión   una   teoría   testada   por   los   hechos   y   pensada 
metodológicamente,   y   contando inter   alia también   con   una   [79]   definición 
correcta   de   las   relaciones   de   las   ciencias   físicas,   biológicas   y   socio­
históricas.

Afirmando la unidad del universo y la multiformidad cualitativa de su expresión 
en diferentes formas de movimiento de la materia, es necesario renunciar tanto a 
la identificación simplificada y a la reducción de unas ciencias en otras, como 
tratan de hacer los defensores de las corrientes positivistas y mecanicistas en 
la esfera de la ciencia natural, como a la demarcación tajante que traza líneas 
divisorias   entre   las   ciencias   físicas,   biológicas   y   socio­históricas   –que 
frecuentemente   toma   la   forma   de   admitir   la   existencia   de   determinaciones 
causales de los fenómenos sólo en el ámbito de la ciencia física, mientras se 
propone   buscar   en   la   ciencia   biológica   soluciones   teleológicas,   y   renunciar 
completamente en la esfera de los fenómenos socio­históricos a la investigación 
de   cualquier   orden   y   explicación   del   curso   del   proceso   histórico   en 
absoluto{15}.

Partiendo de la base de que la realidad concreta de los fenómenos que nosotros 
estudiamos radica en la unidad e interacción compleja con la totalidad de los 
fenómenos   envolventes,   cada   parte   de   la   investigación   exhaustiva   y   valiosa 
requiere   la   consideración   y   penetración   de   todas   las   ramas   contiguas   de   la 
ciencia   y   los   métodos   particulares   de   investigación   que   ellas   suponen,   y   al 
mismo  tiempo  la  subordinación  de  todas  las  ciencias  a  la  única  gnoseología  y 
metodología del materialismo dialéctico.

Los numerosos intentos de revisar las concepciones del materialismo mecanicista 
–insatisfactorio para el naturalista actual, pero la única concepción con la que 
está familiarizado– sin caer en los brazos del vitalismo, están condenados de 
antemano al fracaso mientras el naturalista permanezca dentro de los límites de 
una metodología basada en la lógica formal y en la búsqueda metafísica por la 
esencia de las cosas, como absolutos aislados, sin consideración a su conexión e 
interacción   con   los   fenómenos   del   entorno,   y   sin   tener   en   cuenta   aquellas 
variaciones, tales como el movimiento, que caracterizan el desarrollo dialéctico 
del mundo en su totalidad.

Al   mismo   tiempo,   estas   investigaciones   atestiguan   el   hecho   de   que   la   ciencia 


natural   moderna   está   sufriendo   una   crisis   profunda,   que   impide   su   posterior 

383
desarrollo normal, y que el nivel general del conocimiento alcanzado está maduro 
para la aplicación consciente del método dialéctico.

Esta situación es aún más lamentable en la medida en que el naturalista actual, 
cuando   estudia   los   problemas   de   la   filosofía   y   de   la   historia   de   la   ciencia 
natural, ignora que estos problemas, tanto el de la superación de las corrientes 
de   pensamiento   idealistas   y   vitalistas   más   reaccionarias,   como   el   de   las 
posiciones mecanicistas demasiado simplificadas del materialismo vulgar, no sólo 
se   formularon   sino   que   también   se   resolvieron   en   sus   principios   básicos   y 
característicos   hace   más   de   setenta   años,   en   las   obras   clásicas   de   los 
fundadores   de   la   filosofía   del   materialismo   dialéctico,   Marx   y   Engels   y,   en 
nuestra propia época, en las profundas obras de Lenin.

Notas

{1} Como   decíamos   en   nuestro   ensayo   preliminar «El   Congreso   de   Londres   de 


1931», este era uno de los cuatro temas generales que configuraban el trabajo 
del congreso, junto con la enseñanza de la historia de la ciencia, la ciencia 
como   parte   integral   de   la   historia   general,   y   la   interdependencia   entre   la 
ciencia pura y la ciencia aplicada.

{2} Carl   Heinrich   Becker   (1876­1933).   Ortega   comenta   su   papel   como   primer 


ministro de instrucción en la república de Weimar, en su trabajo Misión de la 
Universidad.Sobre Becker, véase www.bautz.de

{3} Nótese   la   aproximación   a   la   problemática   que   luego   se   llamaría   de 


lasociobiología, que   en   este   texto   se   apunta   críticamente   como   una   tendencia 
dentro del biologismo.

{4} Karl Wilhelm von Nägeli, (27 de marzo de 1817­10 de mayo de 1891). Botánico 
suizo conocido por su trabajo sobre las células de las plantas.

{5} Leo S. Berg (1876­1950), ictiólogo y zoogeógrafo ruso. En 1922 publicó su 
obra,Nomogenez   ili   na   osnove   zakonomernostei, traducida   posteriormente   al 
inglés.

{6} Biólogo   y   filósofo   alemán   (1834­1919),   nacido   en   Potsdam.   Considerado   el 


padre de la ecología y el más destacado representante del monismo naturalista. A 
través   de   conferencias   y   escritos   dio   gran   popularidad   a   la   obra   de   Charles 
Darwin.

{7} Ludwig Plate (1862­1937)

{8} Hermann Joseph Muller, (1890­1967), genetista y Premio Nobel en 1946. Sobre 
la  referencia,  se  trata  del  artículo,   «The  method   of  evolution».  Leída   en  la 

384
Universidad de Tejas, en mayo de 1928. Publicado en Science Monthly, 19:481­505, 
1929. Reimpreso y revisado en Heritable variations, their production by x­rays 
and   their   relation   to   evolution,   Annual   Report,   Smithsonian   Institution   for 
1929,345­362, 1930. Véase sobre Muller.

{9} Se   refiere   a   los   rayos   X,   descubiertos   por   Wilhelm   Conrad   Röntgen   (1845­
1923).

{10} Genetista danés (1857­1927), acuñó el término gen, genotipo y fenotipo, en 
su   obra Los   elementos   de   la   herencia publicada   en   1905   y   reeditada   en   1909. 
Véasewww.wjc.ku.dk

{11} William Bateson (1861­1926)

{12} Yuri Aleksandrovich Filipchenko, (1882­1930). Genetista soviético, amigo y 
mentor de Dobzhansky.

{13} Zavadovsky   cita   aquí   este   texto   de   Engels   de   esta   manera: 


«Engels, Dialéctica de la naturaleza, pág. 25.» El texto, sin embargo, proviene 
de   las   «Notas   y   fragmentos»   incluidos   en   la obra   Dialéctica   de   la  
Naturaleza; sección «Ciencias naturales y Filosofía», penúltima nota, editorial 
Grijalbo, Madrid 1961; pág. 177.

{14} Se refiere al famoso juicio del mono «trial Monkey» que fue posteriormente 
convertido   en   una   interesante   película   por   Stanley   Kramer   en La   herencia   del  
viento, 1962.

{15} Zavadovsky   niega   aquí   una   línea   de   investigación   gnoseológica   de   manera 


demasiado   tajante,   pero   apunta   claramente   a   esta   posibilidad;   la   gnoseología 
materialista  no  dejará   de  explorarla.  El  materialismo  gnoseológico  de  Gustavo 
Bueno ha seguido precisamente la vía del cierre categorial que plantea no ya la 
necesidad de establecer «cortes epistemológicos» de un fondo metafísico común al 
modo   de   Althusser,   sino   el   hecho   de   que   los   diferentes   ámbitos   categoriales, 
lejos de ser coherentes entre sí, manifiestan contradicciones (que explican la 
inconmensurabilidad   y   la   imposibilidad   del   reduccionismo   mecanicista)   que 
obligan a postular un pluralismo ontológico sin complejos. Zavadovsky ni estaba 
en condiciones de seguir por aquí, ni el peso ideológico del modelo gnoseológico 
de Engels seguido por la filosofía soviética le permitía otra opción. Nótese que 
admitir   esta   inconmensurabilidad   requiere   aceptar,   entre   otras   cosas   el 
«ignorabimus», bestia negra del marxismo, es decir, la necesidad de asumir que 
las ciencias no agotan la realidad, y que por lo tanto, nuestros conocimientos, 
aunque firmes, no pueden ser completos.

385
386
Materialismo dialéctico y ciencia

Teoría del caos, Relatividad y Mecánica Cuántica?

David Rodrigo García Colin Carrillo

 Introducción

    A. Materialismo dialéctico: el método del marxismo.

    B. El contexto del surgimiento del método marxista.

    C. Engels y el método del marxismo.

        ¿Qué hay detrás del intento de separación entre el método del marxismo y 
el marxismo?

I. Movimiento, materia y teoría del conocimiento

   A. Movimiento único absoluto en la naturaleza.

   B. Consideraciones sobre el concepto de materia y teoría del conocimiento.

II. La teoría de la relatividad y el materialismo dialéctico

       Introducción.

   A. Teoría especial de la relatividad (unidad dialéctica materia y energía).

   B. Teoría general de la relatividad (unidad dialéctica materia, espacio y 
tiempo).

   C. Teoría de la relatividad. ¿Materialismo o idealismo?

III. Teoría del caos y materialismo dialéctico

       Introducción.

   A. Teoría del caos: susceptibilidad a las condiciones iniciales. Necesidad y 
accidente.

   B. El caos que nace del orden: Atractores extraños.

387
   C. El orden del caos: Fractalidad (atractores extraños).

   D. El orden que nace del caos: Ventanas de orden.

   E. La creatividad del caos: La objetividad progresiva del tiempo.

IV. Mecánica cuántica y dialéctica

        Introducción.

   A. MECÁNICA CUÁNTICA ESTÁNDAR

        1. Los saltos cuánticos o saltos dialécticos en la mecánica cuántica.

        2. El campo magnético y el espectro electromagnético: unidad y lucha de 
contrarios y negación de la negación.

        3. Dualidad onda partícula o unidad de contrarios.

        4. El ‘Principio de incertidumbre’.

   B. FÍSICA CUÁNTICA RELATIVISTA

        1. Unidad y lucha de contrarios, negación de la negación y saltos 
cualitativos.

        2. Materia y antimateria, unidad de contrarios.

        3. Las partículas elementales y el desarrollo del universo: unidad 
dialéctica de lo finito y lo infinito.

Conclusiones

A. Los saltos cualitativos.

B. Unidad y lucha de contrarios.

C. Negación de la negación.

388
 

INTRODUCCIÓN

El mundo, unidad de todo, no ha sido creado por ningún Dios, ni por ningún 
hombre, sino que ha sido, es y será un fuego eternamente vivo que se enciende y 
se apaga según leyes

Heráclito, 530­470 a.C.

   El materialismo dialéctico es el fondo del marxismo porque es el método del 
marxismo. No es posible separar mecánicamente las tres partes integrantes del 
marxismo aceptando unas y rechazando otras como quien elige salchichas o tocino 
en un bufet. Si rechazamos el método del marxismo, convertimos a este en un 
formalismo vacío, rígido y sin vida. Sólo podemos entender cabalmente El 
Capital, por ejemplo, si comprendemos que, en virtud de sus leyes internas y 
contradicciones, este sistema socioeconómico no es eterno, que nació de un 
rompimiento de la continuidad (una revolución), y que está condenado a perecer, 
o de lo contrario las bases de la civilización estarán en peligro, por ser un 
freno para el avance del hombre y la ciencia (fuerzas productivas) que se han 
desarrollado en su seno. La economía política marxista es la aplicación del 
materialismo dialéctico en el terreno de la sociedad capitalista. A diferencia 
de Hegel, Marx no impone el método a la realidad, sino que abstrae este método, 
por medio de la investigación, del desarrollo histórico real, muestra que este 
método es un reflejo ideal de la forma en que se desarrolla el capital y lo 
vuelve a aplicar a la realidad histórica como una herramienta de análisis 
superior. "Mi método" —nos dice Marx— "no sólo difiere en su base del hegeliano, 
sino que además es todo lo contrario de este. Para Hegel, el movimiento del 
pensamiento, que él encarna con el nombre de idea, es el demiurgo de la 
realidad, que no es más que la forma fenoménica de la idea. Para mí, en cambio, 
el movimiento del pensamiento es la reflexión del movimiento real, transportado 
y traspuesto en el cerebro del hombre (...) Hegel desfigura a la dialéctica por 
medio del misticismo, es, sin embargo, el primero que expone su movimiento de 
conjunto. En él se encuentra cabeza abajo; basta con ponerla sobre sus pies para 
encontrarle su fisonomía en todo sentido racional"1.

389
   Pero la dialéctica no es sólo un método para el estudio de la economía 
capitalista es, sobre todo, una concepción del mundo. Esta concepción del mundo 
es radicalmente diferente de las concepciones anteriores —aunque no tiene una 
posición nihilista de sus predecesoras, sino que es una negación dialéctica de 
ellas— porque no se separa metafísicamente de la realidad y de las ciencias 
específicas que estudian aspectos diversos de esa realidad, sino que constituye 
la generalización más amplia de sus resultados. Es la generalización que concibe 
a todos los aspectos de la realidad material y social —y sus reflejos ideales 
históricos— en constante movimiento, concebidas en su vida y no en su muerte, a 
través de sus contradicciones y de su conservación en el cambio. Al mismo 
tiempo, este método no pretende sustituir a las ciencias concretas, ni le dice 
al científico lo que debe hacer o decir (no pretende ser el policía de la 
ciencia); cada ciencia tiene sus métodos y leyes particulares determinadas por 
su campo de estudio, sólo dota al científico de un método más general que le 
permite concebir los hechos en su interconexión y sus recíprocas 
determinaciones. Al afirmar que se puede obtener un método a partir del 
desarrollo mismo de las ciencias y aplicarlo a ellas mismas, el marxismo es la 
negación del empirismo vulgar2, la escuela escolástica que se autodenomina 
filosofía de la ciencia y que en realidad es la negación del pensamiento 
abstracto y de la generalización teórica, condición de la ciencia y de la 
filosofía. Por supuesto el simple hecho de repetir como muñeco de ventrílocuo 
las ideas generales de la dialéctica (como la idea de la unidad y lucha de 
contrarios, etc.) a la manera de los manuales estalinistas no sirve para nada, 
es necesario estudiar la complejidad concreta de los fenómenos y explicar cómo 
el movimiento y las contradicciones se manifiestan en un fenómeno determinado, 
tal como lo hizo Marx en su estudio del capitalismo. Por ello la unidad con las 
ciencias positivas y su generalización teórica es una condición elemental del 
materialismo dialéctico.

Kant ya había afirmado que para el conocimiento científico no basta la 
percepción empírica, sino que ésta requiere de conceptos. Para Marx, estos 
conceptos no son productos de la razón pura sino productos de la historia; para 
liberarnos de la esclavitud de lo concreto, se requiere generalizar lo concreto 
con un criterio científico. Como decía el viejo Engels: "Los naturalistas" —el 
lector puede cambiar el término por positivista— "creen que se libran de la 
filosofía al hacer caso omiso de ella o injuriarla. Pero no pueden avanzar sin 
pensar, y para pensar necesitan determinaciones del pensamiento. Pero toman esas 
categorías, sin reflexionar, de la conciencia común de las así llamadas personas 
educadas, que se encuentra dominada por reliquias de filosofías hace tiempo 
caducas, o por la escasa porción de filosofía escuchada por obligación en la 
universidad (que no es sólo fragmentaria, sino además una mezcolanza de 

390
concepciones de personas pertenecientes a las más variadas escuelas, y por lo 
general las peores), o de lecturas acríticas y asistemáticas de escritos 
filosóficos de toda clase. Por lo tanto, no se encuentran menos cautivos de la 
filosofía, sino por desgracia, además, en la mayoría de los casos, de la peor 
filosofía, y quienes más insultan a la filosofía son esclavos, precisamente, de 
las peores reliquias vulgarizadas de las peores filosofías"3. "...Entonces, el 
desprecio empírico por la dialéctica recibe su castigo cuando algunos empiristas 
más formales se ven llevados a la más estéril de todas las supersticiones, al 
espiritualismo moderno"4.

Cuando tratamos de estudiar un fenómeno, no lo estudiamos por primera vez; en 
virtud de la influencia social, somos herederos de las ideas, métodos y 
conocimientos de nuestros antecesores, con los cuales enfocamos el fenómeno en 
cuestión, métodos que, en muchos casos, han sido rebasados por los resultados 
mismos de la ciencia. De lo que se trata es de ser concientes de si esos métodos 
contienen ideas que en lugar de ser una palanca del conocimiento constituyen un 
freno, de saber si esas ideas se imponen a la realidad o nos ayudan a 
profundizar en ella. A diferencia de lo que creen los irracionalistas, sí existe 
un criterio para saber si las ideas son correctas o incorrectas. Ese criterio es 
la práctica social, en la que el hombre interviene activamente, transformando la 
naturaleza y a sí mismo y contrastando sus ideas con su actividad práctica (todo 
criterio separado de la práctica es escolástico); en el materialismo dialéctico 
se trata de enriquecer nuestros métodos teóricos con el manantial de la 
experiencia histórica ampliada progresivamente por el desarrollo de las fuerzas 
productivas, teniendo la certeza de que, con los medios de que disponemos, 
nuestro método nos permite avanzar de la mejor manera en el proceso infinito de 
aproximaciones sucesivas del conocimiento humano. El método debe concebir a la 
realidad tal cual es: una realidad cuyo único absoluto es el movimiento complejo 
a través de contradicciones; esa es la esencia de la dialéctica materialista.

b) El contexto del surgimiento del método marxista

El marxismo como todas las expresiones ideológicas es, en última instancia, 
producto del desarrollo de las fuerzas productivas y expresión de la lucha de 
clases. En la época del nacimiento del marxismo, la visión mecanicista de la 
naturaleza empezaba a ser superada por el desarrollo de la ciencia, que mostraba 
ya su relación recíproca rebasando el método puramente analítico, que concibe 
los procesos de manera aislada como mariposas pegadas en la pared de un 
coleccionista. Parecía que se regresaba a la visión dialéctica de la filosofía 
griega, sólo que a un nivel cualitativamente superior en virtud de la cantidad 
de datos concretos verificados científicamente (la teoría del caos y la reacción 
cada vez mayor de la comunidad científica en contra de 

391
lasectarización y reductivismo del conocimiento es, como veremos en su momento, 
un reconocimiento tardío de este planteamiento).

Como Engels menciona en varios de sus escritos (Anti­Dühring, El fin de la 
filosofía clásica alemana, y Dialéctica de la naturaleza). A principios del 
siglo XIX, en el terreno de la geología, Lyell rompió con la visión estática de 
la superficie terrestre, abriendo, al mismo tiempo, las premisas de la 
adaptación y evolución de las especies. En Física, Joule determina el 
equivalente del calor en fuerza mecánica, mostrando la vinculación de las 
fuerzas físicas, su transformación mutua; su mediación universal como 
diría Hegel. Ahora las fuerzas físicas ya no estaban separadas por una muralla 
china, sino que en determinadas circunstancias, la fuerza mecánica se transforma 
en calor, el calor en luz, la luz en electricidad, la electricidad en 
magnetismo, etc. En Biología el descubrimiento de la "unidad básica de los 
organismos": la célula, significó el rompimiento de las especies supuestamente 
fijas creadas por separado y sin más relación que la armonía preestablecida. 
Darwin propuso una valiente teoría que rompía con la historia del Génesis y 
situaba a las especies en un proceso de transformación en relación dialéctica 
con el ambiente. Por otro lado en el terreno social en 1831, ocurrió en Lyón la 
primera sublevación obrera, Europa entera se encontraba al borde de una proceso 
revolucionario que estalló en 1848; el desarrollo de la industria había puesto 
de relieve la relación del avance tecnológico con las transformación de las 
relaciones sociales y todas las contradicciones estudiadas porMarx en El 
Capital.

Es dentro de este marco histórico como el marxismo se nos aparece: no como el 
producto fortuito de un genio, aunque por supuesto esta teoría solo podía 
surgir, en la forma magistral en que se nos legó, de la mente de un genio —ese 
recurso tan recurrido por los románticos ante su incapacidad de explicar el 
proceso histórico— , no como una teoría que bien podía haber aparecido en 
tiempos de Nabucodonosor, si en esos tiempos los hombres hubieran sido tan 
inteligentes, sino como una teoría hija de su tiempo: que es revolucionaria por 
su propia esencia, que no solamente trata de comprender al mundo por una 
necesidad puramente teórica o escolástica, sino fundamentalmente comprenderlo 
para transformarlo.

"La naturaleza es la piedra de toque de la dialéctica" decía Engels. Es 
intención de este texto mostrar cómo los últimos descubrimientos y teorías 
científicas demuestran el hecho de que la naturaleza se desarrolla en última 
instancia de manera dialéctica —confirmando la afirmación de Engels—, y la 
importancia para la ciencia y el mundo contemporáneo de esta forma de enfocar 
los procesos. Las nuevas ideas como la teoría del caos parecen señalar que 

392
estamos al borde de una verdadera revolución científica. Como diría Tomas Khunn, 
parece que el período de ciencia normal está al borde de una nueva era que 
abrirá nuevos paradigmas y someterá a los antiguos, sobre todo al viejo método 
metafísico de pensar (el cacareado positivismo), a una negación dialéctica. La 
teoría de Einstein de la relatividad, la física cuántica, la nueva versión de la 
teoría de la evolución de Darwin, desarrollada por el recientemente 
desaparecido Jay Gould, conocida como equilibrio puntuado, la teoría del caos y 
la complejidad desarrollada por BenoitMandelbrot, Lorenz, y otros; los recientes 
descubrimientos sobre el genoma humano, entre muchos otros, son muy llamativos 
por su similitud con la filosofía dialéctica. También llama la atención el que, 
a excepción de Jay Gould, quien reconoció abiertamente la similitud de su teoría 
con el materialismo dialéctico, todos estos descubrimientos y teorías, que 
apoyan conclusiones dialécticas, se hayan desarrollado al margen de la filosofía 
dialéctica. Lo cual, en nuestra opinión, es una muestra de que la concepción 
dialéctica es algo más que una mera especulación y de que la dialéctica objetiva 
(la dialéctica de la naturaleza y la sociedad) es la mejor prueba de su 
expresión teórica desarrollada (dialéctica subjetiva), sistematizada por primera 
vez por Hegel y aplicada científicamente por Marx.

c) Engels y el método del marxismo.

¿Qué hay detrás del intento de separación entre el método del marxismo y el 
marxismo?

Por último, es importante señalar que el que nos basemos en las obras 
de Engels para un trabajo sobre marxismo y ciencia no requiere mayor 
justificación. Las afirmaciones de algunos académicos en el sentido de que el 
"materialismo dialéctico" es obra de Engels y no de Marx y que, por lo tanto, el 
Materialismo dialéctico no es una parte integrante del marxismo, no tienen ni 
pies ni cabeza y no resisten una crítica seria5. Marx tuvo la intención de 
escribir una obra especial sobre el tema pero sus actividades como 
revolucionario y el trabajo agotador de su obra cumbre lo impidieron6; fue 
a Engels, sobre todo en su obra inconclusa Dialéctica de la naturaleza, a quien 
correspondió esta tarea que no pudo, lamentablemente, concluir. Entre estos dos 
grandes revolucionarios hubo una especie de "división del trabajo" dentro de una 
labor conjunta, a saber, la preparación teórica de un método de análisis para 
transformar el mundo. Muchas de las obras clásicas del marxismo fueron 
elaboradas en conjunto por Marx yEngels; es el caso de obras tan tempranas como 
La sagrada familia y La ideología alemana. Uno de los textos más trascendentales 
de la historia El Manifiesto Comunista se basó en un borrador de Engels; incluso 

393
los tres tomos de El Capital, la obra cumbre del marxismo, pueden ser 
considerados como obra conjunta. Es sabido que Marx consultaba a Engels en todos 
los problemas teóricos, que sometió a su crítica todos los capítulos del primer 
tomo y que los dos tomos siguientes no son sólo la recopilación de los 
borradores de Marx, sino la reconstrucción, en base a los borradores, de esta 
parte imprescindible de El Capital hecha por Engels. Pero no sólo eso, las bases 
del materialismo dialéctico y su aplicación se encuentran en toda la obra 
de Marx, en sus trabajos filosóficos, históricos y económicos se encuentra su 
visión del mundo. Si Marx no escribió una Lógica con mayúsculas sí escribió El 
Capital. Todas las categorías de la dialéctica se encuentran en esta obra; de 
hecho la obra es imposible de concebir sin método dialéctico. Una de las obras 
principales de Engels en que se expone el materialismo dialéctico en relación 
con la ciencia (Anti­Dühring) no sólo la conoció Marxsino, que además escribió 
uno de sus capítulos; El fin de la filosofía clásica alemana no es más que la 
esencia resumida del Anti­Dühring. Marx, como sabemos por su correspondencia, 
conoció y aprobó el plan de la obra Dialéctica de la naturaleza7; por lo tanto 
la pregunta correcta no es "en dóndeMarx expone su método dialéctico", sino "en 
dónde Marx no expone su método dialéctico".

Quizá algunos preferirían una obra en que se les proporcionara como papilla una 
teoría dialéctica acabada y lista para sacarse del bolsillo en los momentos 
adecuados, al estilo de los manuales estalinistas; pero Marx partía de la 
premisa de que escribió para seres que además de leer, saben pensar y que su 
método era para analizar el mundo, no un recetario de verdades eternas. El 
marxismo pasó a la historia bajo el nombre de Marxporque el mismo Engels, en el 
marco de la vida y obra maravillosa de estos dos grandes amigos y en su lucha 
por crear una organización internacional de los trabajadores —base de su 
profunda amistad y trabajo conjunto— rebajó conscientemente su papel y afirmó 
que en la teoría marxista a él le correspondió "tocar el segundo violín".

Si Marx conoció y participó en una obra en donde se expone claramente la visión 
dialéctica del mundo, Anti­Dühring, sin hacer mayor aclaración o comentario, 
sólo significa que no había diferencias en este punto entre Engels y Marx. 
Tanto Marx como Engels siempre fueron inflexibles en las cuestiones de 
principio; toda su obra es una constante, concienzuda e implacable polémica con 
ideas que consideraban reaccionarias (en el terreno filosófico, económico, 
político y social); sólo basta conocer aunque sea superficialmente la vida y la 
obra de Marx para estar seguro que, de haber habido cualquier diferencia en este 
punto, se habría dado una dura polémica. Para estos dos revolucionarios, las 
cuestiones políticas y de principio estaban por encima de cualquier 

394
consideración individual, inclusive su amistad (al mismo tiempo, esta postura es 
la base de su amistad).

Es claro que cada cual es libre de aceptar o rechazar el método de Marx. La 
inmensa mayoría de las obras de los clásicos del marxismo 
(Marx,Engels, Lenin, Trotsky y Rosa Luxemburgo) son obras polémicas que están a 
años luz del dogmatismo estalinista (dogmatismo que es correctamente condenable, 
pero que es incorrectamente identificado con el marxismo); para el marxismo la 
crítica de la teoría y su corrección, su no dogmatismo —por un lado frente al 
desarrollo de las ciencias y por otro frente al movimiento social— tiene un 
interés no sólo académico, sino práctico. Pero estamos convencidos de que una 
crítica seria de dicho método, no puede tener como premisas la tergiversación y 
la ignorancia. No somos tan ingenuos como para no percatarnos de que el intento 
de separar la dialéctica de la obra de Marx, no es un hecho fortuito ni de 
interés puramente académico o escolástico, es sólo el frente ideológico de la 
campaña sin precedentes, basada en tergiversaciones, contra el marxismo después 
de la caída del estalinismo; caída que, por cierto, fue prevista y explicada 
desde la óptica marxista, con más de cincuenta años de adelanto, por 
León Trotsky. El trasfondo de este intento es hacerle creer a las clases 
oprimidas que el sistema capitalista es eterno y que no vale la pena luchar por 
derribarlo. Más que la ignorancia (que juega un papel importante), es el intento 
consciente, según la inigualable frase de Trotsky, "de cortarle las barbas 
a Marx", es decir, en convertir la teoría de Marx y Engels en algo inofensivo, 
muerto, sin vida; en suprimir la esencia revolucionaria de Marx al suprimir el 
movimiento y el cambio revolucionario que son su conclusión teórica y práctica; 
se trata, en fin, de hacer de Marx un "Marx analítico", es decir, un vulgar 
positivista sin conexión con las masas y con la práctica revolucionaria8.

Es evidente que todos aquellos que basan sus privilegios en la renta, el interés 
y el beneficio, no pueden reconciliarse con una teoría que explica que el 
sistema social del que obtienen sus privilegios debe ser reemplazado por el 
control democrático de las fuerzas productivas por los trabajadores, si es que 
la humanidad no se ha de hundir en la barbarie. Son conscientes, y en ello 
tienen razón, de que el marxismo es un arma revolucionaria que, en un período de 
inestabilidad, de revoluciones y contrarrevoluciones como el actual, puede 
volver a ejercer una influencia de masas; no es sorprendente, pues, que le teman 
como a la peste y lo traten de sepultar bajo una "montaña de perros muertos" 
arrojados por sus acribas y sus políticos. Estamos convencidos de que la marea 
de la lucha de clases vuelve a soplar a favor de la teoría marxista —viento 
fresco que ya empieza a derribar la mitad de la "montaña"— como lo atestiguan 
los procesos abiertamente revolucionarios en América Latina y huelgas generales, 

395
sin precedentes desde los últimos veinte años, en Europa, incluso en países que 
eran supuestos modelos de estabilidad capitalista (Bélgica, Grecia, Italia, 
Francia, España, ...). Procesos que son indicadores de que los trabajadores 
intentarán una y otra vez "tomar el cielo por asalto"; la reciente reedición por 
editoriales comerciales de literatura marxista es un ejemplo menor; y 
finalmente, pero no menos importante, el hecho de que el margen de maniobra de 
todos los matices de reformismo de izquierda y de derecha, esté cada vez más 
reducido —por no hablar del keynesianismo, que como receta para combatir la 
crisis es ya, en general, un cartucho quemado—.

I. MOVIMIENTO, MATERIA Y TEORÍA DEL CONOCIMIENTO

a) Movimiento único absoluto en la naturaleza

Todo fluye, nada permanece.

Heráclito

La actividad es una propiedad esencial de la materia, pues ésta es el sujeto de 
todas las modificaciones, llamadas movimientos espaciales, cambios, diferencias 
y diversidades, y lo es principalmente puesto que el reposo absoluto, con el que 
se construía el concepto de inactividad o inercia de la materia, ha sido 
destruido totalmente y desenmascarado como una vacua invención.

Juan Toland, 1670­1722

"El movimiento en su sentido más general, concebido como modo de existencia, 
atributo inherente a la materia, abarca todos los cambios y procesos que se 
producen en el universo, desde el simple cambio de lugar hasta el pensamiento"9. 
Este es el punto de partida del materialismo dialéctico, el movimiento como 
único absoluto. Según los datos de la ciencia, la característica fundamental de 
la materia es el movimiento. Desde las partículas más pequeñas conocidas, los 
neutrinos, hasta las más grandes estructuras conocidas por el hombre, los 
supercúmulos de galaxias, se encuentran en un proceso de transformación 
constante. En el interior del núcleo atómico, según la llamada fuerza de 
intercambio de la física cuántica, los protones se convierten en neutrones y los 
neutrones en protones viajando a una velocidad de 1.500 metros por segundo; 
alrededor del núcleo, los electrones no sólo describen un movimiento orbital 
sino que además giran sobre su propio eje (espín del electrón), movimiento que 
sólo se puede detener destruyendo el electrón.

396
Las moléculas se encuentran en un equilibrio dinámico que aumenta o disminuye 
con el calor, en este caso, incluso en el cero absoluto de la escala Kelvin (­
273° C), en donde se supone que la energía de las moléculas se reduce a cero, 
todavía queda algo de energía que no puede desaparecer10.La Tierra, que en 
tiempos medievales se creía el centro del universo y un ente inmutable, gira 
sobre su eje en 24 horas; el sol lo hace en 26 días y alrededor de la galaxia en 
230 millones de años. Se supone que las galaxia y los cúmulos de galaxias tienen 
un movimiento similar.

Las estrellas nacen para consumir el hidrógeno, romper su equilibrio pulsante y 
explotar liberando la energía en forma de supernovas o colapsar en agujeros 
negros creando, como decía Carl Sagan, "polvo de estrellas": material para 
estrellas y galaxias nuevas. En la superficie terrestre la tierra se mueve bajo 
nuestros pies, las placas tectónicas se comprimen y cambian de lugar; ríos y 
mares se convierten, en un lapso de millones de años, en desiertos, incluso, 
hace millones del años el polo norte se encontraba en el actual polo sur. La 
vida, por su parte, no es más que la asimilación, transformación y desecho de 
sustancias para mantener en equilibrio dinámico al organismo, es decir, para 
mantenerlo vivo.

En realidad la materia y el movimiento son relativos y no pueden ser separados 
metafísicamente; de hecho materia y movimiento son dos expresiones de un mismo 
fenómeno, como señala la teoría de la relatividad, son equivalentes. La famosa 
fórmula E=mc2 expresa toda la energía concentrada en el universo que se 
manifiesta en el brillo del sol, en la desintegración radioactiva y en la vida 
misma. Con el conocimiento actual, no se requieren nociones sobrenaturales, ni 
primer impulso, ni fuerzas misteriosas inmateriales, ni la mano de Dios para 
explicar el movimiento. La fuerza sobrenatural, que supuestamente impulsaba a la 
pecadora materia resultó ser, a fin de cuentas, la misma materia. Engels decía: 
"El movimiento es el modo de existencia de la materia. Jamás y en ningún lugar 
ha habido materia sin movimiento, ni puede haberla (...) La materia sin 
movimiento es tan impensable como el movimiento sin materia"11. La teoría de la 
relatividad, al determinar la equivalencia de materia y energía, ha puesto una 
sólida base para esta tesis central del materialismo de Marx y Engels.

Las ciencias estudian los diferentes tipos de movimientos de la materia, desde 
el cambio de lugar (estudiado por la mecánica), hasta el pensamiento (estudiados 
por la medicina, psiquiatría y la psicología) y desde el pensamiento hasta la 
cosmología. Los procesos mecánicos, físicos, químicos, biológicos y sociales son 
diferentes tipos de movimientos estudiados por las principales ramas de la 
ciencia. Cada forma menos compleja de movimiento se convierte, en condiciones 
propicias, en una superior por medio de un salto dialéctico —así como la 

397
fricción mecánica se transforma en calor y el calor en electricidad y como la 
materia inorgánica se convierte en materia orgánica— . Un movimiento complejo 
contiene uno inferior como elemento subordinado —sin reducirse a él— así como 
las leyes sociales no anulan las leyes genéticas en el hombre y, al mismo 
tiempo, es estúpido y reaccionario explicar los fenómenos sociales como 
consecuencia de la genética. Por esta interacción y transformación dialéctica de 
los diferentes tipos de movimiento es posible tener una concepción general de 
los procesos que se dan en la naturaleza, la sociedad y el pensamiento sin 
reducirlos unos a otros y atendiendo a sus leyes específicas estudiadas por las 
ciencias particulares. La misma teoría del caos pretende tener una aplicación en 
una amplia gama de fenómenos y por ende, consistir en una interpretación del 
mundo (muy cercana como veremos al materialismo dialéctico).

Lo común en los diferentes campos de la ciencia es que todos ellos son casos 
específicos de movimiento y que, como veremos, se dan a través de la tensión 
dinámica entre fuerzas opuestas; que sus puntos de transición, en donde se 
convierten en otro tipo de fenómeno, resulta de la acumulación cuantitativa de 
algunos de sus aspectos y que, finalmente, el tipo precedente de movimiento es 
"negado" por el nuevo al mismo tiempo que se conserva subordinado a leyes 
diferentes.

b) Consideraciones sobre el concepto de materia y teoría del conocimiento

La crítica absoluta ha aprehendido de la Fenomenología de Hegel (..) el arte de 
convertir las cadenas reales y objetivas, existentes fuera de mí, en cadenas 
dotadas de una existencia puramente ideal, puramente subjetiva, que se da 
solamente en mí y, por tanto, todas las luchas externas sensibles, en puras 
luchas especulativas.

C. Marx y F. Engels, La sagrada familia

Es poco probable que pueda considerarse acertado un razonamiento como éste: yo 
soy una cosa que piensa, luego soy pensamiento. O este otro: soy una cosa que 
entiende, luego soy entendimiento. Pues de la misma forma podría decir: soy una 
cosa que pasea, luego soy paseo. Por tanto, Descartes identifica (...) la cosa 
que entiende con la razón, que es la facultad de entender".

Tomás Hobbes, 1588­1679

"Llamamos materialista a nuestra dialéctica", nos dice Trotsky, "porque sus 
raíces no están en el cielo ni en las profundidades del libre albedrío, sino en 
la realidad objetiva, en la naturaleza. Lo consciente surgió de lo inconsciente, 
la psicología de la fisiología, el mundo orgánico del inorgánico, el sistema 
solar de la nebulosa. En todos los jalones de esta escala de desarrollo, los 

398
cambios cuantitativos se transformaron en cualitativos. Nuestro pensamiento, 
incluso el pensamiento dialéctico, es solamente una de las formas de expresión 
de la materia cambiante. En este sistema no hay lugar ni para dios ni para el 
diablo, ni para el alma inmortal ni para leyes y normas morales eternas 
(..) posee en consecuencia un carácter profundamente materialista"12.

En la filosofía marxista, materia no se reduce, como en los antiguos 
materialistas griegos, a alguna de las expresiones de la materia (aire, agua 
fuego, tierra, etc) o, como en los materialistas ilustrados, a una de las formas 
de movimiento de la materia (mecánica), sino que es una abstracción que expresa 
todo lo que existe independientemente de la subjetividad humana, se refiere pues 
a la naturaleza en sus infinitas expresiones: desde los neutrinos a los 
supercúmulos de galaxias y, aun, a las infinitas cualidades que no conocemos y 
sus infinitas formas de movimiento (Lenin). Es una abstracción, por tanto, que 
prescinde de las cualidades específicas de los objetos concretos y se refiere 
únicamente a su existencia fuera de la conciencia humana como una realidad 
objetiva. Es un concepto abierto porque no abarca nunca la totalidad de su 
objeto, por ser inabarcable, pero es absoluto porque expresa, al mismo tiempo, 
la infinitud del universo y el hecho de su existencia al margen de los procesos 
subjetivos13.

A diferencia de los prejuicios poskantianos, el marxismo, junto con el 
pensamiento de Hegel, considera que no existe una muralla china entre el 
fenómeno y la cosa en sí o entre la percepción y el objeto percibido. Como 
decía Hegel: "la ley no se encuentra fuera o más allá del fenómeno, sino que le 
es directamente inmanente; el reino de las leyes es la tranquila imagen del 
mundo existente o fenoménico. O mejor dicho, el fenómeno y la ley forman una 
totalidad y el mundo quien, por sí mismo, constituye el reino de las leyes"14; 
conocemos la cosa en sí cuando la convertimos en cosa para nosotros o 
según Marx cuando además de contemplar la naturaleza, la transformamos. La 
transformación de la naturaleza es lo que nos convirtió en humanos; el hombre 
mismo es parte del mundo objetivo, de él surgió y en tanto ser social objetivo, 
es capaz de transformarlo.

La discusión sobre la existencia de la realidad material independientemente de 
la subjetividad humana ocupó un lugar especial en la polémica que 
tantoMarx como Engels (y posteriormente Lenin y Trotsky) sostuvieron con otras 
tendencias políticas y filosóficas alrededor del movimiento obrero y con las 
tendencias que se consideraban de izquierdas (tan sólo hay que recordar La 
sagrada familia, La ideología alemana y Miseria de la filosofía). Esto no es 
casualidad; la postura filosófica sobre esta cuestión determina la manera en que 
se aborda y se interviene en la realidad objetiva en sus infinitos niveles. Si 

399
consideramos, por ejemplo, que las leyes del capitalismo son sólo proyecciones 
de la subjetividad o, peor aún, que no existen tales leyes, no buscaremos la 
solución a los dilemas contemporáneos estudiando la dinámica del capitalismo 
para poder intervenir en ella, en tanto fuerza social objetiva para 
transformarla; al contrario, en tanto fenómeno en función de la categorías, 
buscaremos la solución dentro de la subjetividad misma, o en 
la intersubjetividad pura, en la introspección, en el arte per se, Dios, etc; 
nuestra no intervención sería una forma de intervención que alargaría la 
putrefacción de la sociedad capitalista con consecuencias desastrosas para la 
humanidad y la cultura. Es un hecho que la burguesía por una infinidad de medios 
(desde la destrucción del contrato colectivo y la promoción del contrato 
individual —conocida con el chillón eufemismo de "nueva cultura laboral"— hasta 
la literatura basura sobre superación personal), promueve en los trabajadores el 
individualismo, la introspección y el misticismo15. En esto, los miembros más 
inteligentes de la clase dominante tienen claro, como lo tienen claro los 
marxistas, que la fuerza de los trabajadores está en su acción colectiva. Si un 
médico no considerara el organismo de su paciente como algo material y regido 
por sus propias leyes, sería incapaz de entender el origen de la enfermedad y 
probablemente su no comprensión provocaría la muerte del paciente. De la misma 
manera, la difusión de dichos prejuicios en el movimiento obrero sería su 
declaración de muerte. Los dos fundadores del marxismo consideraban que 
cualquier error teórico, sobre todo en esta cuestión cardinal, se pagaba tarde o 
temprano en la práctica.

Por supuesto, el materialismo de Marx no era una petición de principio o una 
cuestión dogmática. El criterio que nos permite salir del solipsismo* típico de 
las filosofías subjetivistas es la práctica social. El conocimiento no es un 
proceso pasivo (encerrado en las universidades), sino la unidad dialéctica entre 
percepción, pensamiento y práctica. En este sentido discutiendo con el 
agnosticismo kantiano, Engels comentó: "Ni en un sólo caso, según la experiencia 
que poseemos hasta hoy, nos hemos visto obligados a llegar a la conclusión de 
que las percepciones sensoriales, científicamente controladas, originan en 
nuestro cerebro ideas del mundo exterior que difieran por su naturaleza de la 
realidad o de que entre el mundo exterior y las percepciones que nuestros 
sentidos nos transmiten de él, media una incompatibilidad innata. Pero al llegar 
aquí, se presenta el agnóstico neokantiano y nos dice: sí, podremos tal vez 
percibir exactamente las propiedades de una cosa, pero nunca aprender la cosa en 
sí por medio de ningún proceso sensorial o discursivo. Esta cosa en sí cae más 
allá de nuestras posibilidades de conocimiento. A esto, ya hace mucho que 
contestó Hegel: desde el momento en que conocemos todas las propiedades de una 
cosa, conocemos también la cosa misma; sólo queda en pie el hecho de que esta 

400
cosa existe fuera de nosotros, y en cuanto nuestros sentidos nos suministran 
este hecho, hemos aprehendido hasta el último residuo de la cosa en si, la 
famosa e incognoscible Ding an sich de Kant. Hoy sólo podemos añadir a eso que, 
en tiempos de Kant, el conocimiento que se tenía de las cosas naturales era lo 
bastante fragmentario como para poder sospechar detrás de cada una de ellas una 
misteriosa cosa en sí. Pero, de entonces a ahora, estas cosas inaprensibles han 
sido aprehendidas, analizadas y, más aún, reproducidas una tras otra por los 
gigantescos progresos de la ciencia"16.

Sin esta comprobación práctica, comprendiéndose aquí a la práctica como práctica 
social, puesto que el hombre sólo puede constituirse como tal, incluso 
constituirse como individuo aparentemente aislado (enajenado), y sobrevivir en 
tanto ser social; los juicios del razonamiento pueden elaborar una serie de 
deducciones lógicas, como la existencia de Dios, la independencia mística del 
pensamiento de la materia que piensa (el cerebro), incluso 
laincuestionabilidad del Estado como rector moral (Descartes, Hegel), que aunque 
parezcan claras y distintas a la razón humana, no son correctas. En todo caso, 
la razón humana no es infalible y necesita comprobar sus deducciones fuera de sí 
misma. Como se ve, el pensamiento que funda su veracidad únicamente en la 
racionalidad (o irracionalidad) humana, no sale de sus propios límites y sigue 
siendo puramente subjetivo. Marx critica a los filósofos o a "estos metafísicos 
que con sus abstracciones creen que están haciendo análisis, y a medida que van 
alejándose de los objetos creen estar aproximándose a ellos más"17.

De acuerdo con Marx y Engels, es posible salir del pantano solipsista del cual 
no han querido salir las modernas filosofías de moda; los siguientes dos 
ejemplos tal vez aclaren este punto: Cuando, gracias a los adelantos técnicos, 
el hombre percibió por primera vez una proteína, la percibió como fenómeno. De 
acuerdo con el escepticismo era imposible saber si la representación percibida 
correspondía a la cosa material que la producía, ni siquiera si existía tal 
cosa. Pero el hecho es que, de acuerdo a dicha representación y a la teoría 
química­biológica, se han reproducido proteínas en condiciones de laboratorio. 
Este simple hecho prueba más que mil argumentos escépticos, pues, estoy 
reproduciendo la cosa que produce la impresión subjetiva y probando que las 
hipótesis sobre su constitución corresponden al objeto que, para los escépticos, 
se suponía inaccesible. En tanto reproduzco la cosa en sí pruebo que esta existe 
independientemente de mi percepción. Y que entre el fenómeno (nuestra percepción 
del objeto) y el objeto percibido, no hay un abismo infranqueable. Que la 
objetividad del pensamiento se demuestra en la práctica. "Es en la práctica", 
nos dice Marx, "donde el hombre tiene que demostrar la verdad, es decir, la 
realidad y el poderío, la terrenalidad de su pensamiento. El litigio sobre la 

401
realidad o irrealidad de un pensamiento que se aísla de la práctica, es un 
problema puramente escolástico"18.

Cuando un sujeto, por ejemplo, decide arrojarse del último piso de un alto 
edificio matándose en el acto, un kantiano, si es consecuente, tendría que decir 
que las categorías a priori al organizar dicho fenómeno habrían matado de hecho 
al desafortunado sujeto. Lo que habría matado al suicida, según esto, no sería 
el suelo que en tanto cosa en sí se le habría estrellado en la cabeza, —puesto 
que aceptar este hecho es por lo menos aceptar que la cosa en sí tiene la 
propiedad de la dureza— sino las categorías que, al organizar los datos de la 
sensibilidad, así lo habrían legislado. Resultaría que las categorías nos 
podrían matar. Sólo basta plantear ejemplos de la práctica real de los hombres 
para darse cuenta de los absurdos a los que nos lleva el escepticismo 
positivista.

¿No tendríamos que decir, en contra de la opinión kantiana, que en realidad fue 
la cosa en sí (el objeto como tal y la velocidad del sujeto independiente de 
nuestros conceptos) la que mató al suicida?

Si aceptamos esto, ¿no implicamos que podemos interactuar con la cosa en sí, 
mostrando que no es inaccesible, y en virtud de dicha interacción, probar las 
representaciones que tenemos acerca de ella?

¿No probamos que el cuerpo humano, al interactuar con la cosa en sí demuestra 
que también es objetivo (cosa en sí)?

¿No es verdad que el suicida comprobó con su cabeza, al romperse con el suelo, 
que las leyes científicas, cuando son correctas, reflejan cualidades reales del 
objeto? (aunque por supuesto nunca alcanzamos a acceder al objeto en su 
totalidad pues éste es inagotable en sus determinaciones). Experimento que, por 
cierto, puede realizar el propio kantiano (lo cual no le recomendamos).

Con ello ¿no probaríamos que es la práctica individual y social la que en última 
instancia constituye el nexo entre nuestro conocimiento y la cosa en sí?

La experimentación y la práctica objetiva, sin embargo, son sólo un elemento 
vital de una totalidad orgánica que incluye la observación empírica, el 
razonamiento humano, la generalización teórica y la inducción­deducción 
práctica. Esta totalidad orgánica es lo que llamamos método dialéctico del 
conocimiento (esta interacción es lo que lo diferencia del empirismo estrecho y 
el racionalismo idealista respectivamente y no digamos ya el irracionalismo 
posmoderno que ha renunciado a toda posibilidad de conocimiento racional). La 
investigación objetiva parte de la observación empírica bajo condiciones 
naturales, abstrae a partir de estas observaciones hipótesis de explicación que 

402
están formuladas a partir de las teorías, correctas o incorrectas, construidas 
por generaciones pasadas en su praxis social, somete a una prueba práctica 
dichas hipótesis reproduciendo artificialmente el fenómeno estudiado, o en su 
caso (como en las ciencias sociales) contrastando las perspectivas con el 
desarrollo efectivo, de acuerdo a la hipótesis planteada. El fracaso o el éxito 
de la práctica o predicción, permite, en el primer caso, descubrir que nuestra 
hipótesis era precipitada, basada en observaciones incorrectas, debido a la 
transposición de teorías que no son aplicables a todas las condiciones 
concretas, etc; en este caso el error aumenta el conocimiento, lo delimita; en 
el segundo caso el éxito permite afirmar que, dentro de ciertos límites, nuestra 
hipótesis es correcta, permite ampliar las teoría precedentes; es decir, aumenta 
el cúmulo de nuestros conocimientos. En todo caso al final de la investigación, 
ya sea que la hipótesis resulte correcta o falsa, no volvemos al punto de 
partida sino que nos encontramos en uno nuevo. En las investigaciones próximas 
tendremos un marco teórico ampliado que permitirá hacer inducciones o 
deducciones para explicar un fenómeno dado19.

Este proceso de experimentación de científicos individuales, en el marco de 
ideas y herramientas sociales determinadas históricamente, va conformando la 
acumulación cuantitativa del conocimiento social (proceso cuantitativo llamado 
por Khunn, "períodos de ciencia normal"). En determinados puntos, en donde la 
praxis comienza a demostrar y acumular contradicciones entre sus resultados y la 
base teórica (paradigmas) desarrollada en el período anterior, se comienza a 
abrir un proceso de revolución científica, de transformación cualitativa que 
negará y conservará al mismo tiempo el período cuantitativo anterior que, a su 
vez, abrirá otro período de ciencia normal, en un proceso dialéctico, en espiral 
de conocimiento que nunca terminará mientras exista la humanidad20.

El hombre, por lo tanto, conoce las determinaciones de lo material transformado 
e interactuando con la objetividad, tanto social como natural. En este proceso 
las ideas condicionan relativamente la intervención y al mismo tiempo se 
transforman por ella; el hombre no es sólo un ser receptivo de la objetividad 
(como lo entendía en general Feuerbach y los materialistas anteriores a Marx) 
sino un ser receptivo activo y transformador de lo objetivo; es esta actividad 
la que nos saca del solipsismo, ya que dicha transformación no se da en el 
terreno inmaculado de las ideas puras o la subjetividad pura sino en su praxis 
objetiva y al mismo tiempo objetivadora (porque transforma lo objetivo).

Una objeción bastante popular al materialismo marxista es la idea de que con el 
concepto de materia se instituye, como nuevo objeto de fe, un nuevo Dios; se 
cree, en efecto, que cuando Engels habla de materia esta realizando un simple 
juego de manos, una sustitución de términos equivalentes, producto de la 

403
contaminación del materialismo burgués, un mito pseudofilosófico. 
Así Dussel argumenta que: "Engels (...) en su Dialéctica de la naturaleza (...) 
la materia deviene una masa infinita, eterna, retornante sin fin sobre sí misma, 
de donde emerge todo, donde se funden el hombre y la historia. No hay así una 
concepción socio­histórica de la materia (véase 3.3), sino una interpretación 
material de la historia. El panteísmo de la Materiatiene la misma lógica que el 
de la Idea. En ambos casos, sea la Materia o la Idea, todo es uno, idéntico, 
fundamento de toda diferencia. La Materia es el principio necesario de todo lo 
que acontece. Lejos de ser atea esta posición es en realidad un nuevo 
fetichismo. Es ateo del deísmo, pero panteísta de la Totalidad material"21.

Esta objeción al materialismo, en esencia, no es nueva; ya hace más de 250 años 
el obispo Berkeley la usó como arma ideológica en defensa del feudalismo caduco 
y contra los ilustrados burgueses22.

El materialismo anterior a Marx, ­el materialismo burgués y el 
de Ludwig Feuerbach23­ del cual Marx partió para negar y superar dialécticamente 
aHegel, coincide con el materialismo dialéctico en la convicción de la 
existencia de la realidad objetiva de la cual proceden, en última instancia, la 
vida y el pensamiento; pero hay diferencias cualitativas por las cuales no se 
pueden confundir. el materialismo de Marx no es un materialismo puramente 
receptivo­contemplativo sino transformador, dialéctico y no sólo naturalista, 
erudito, sino histórico; por ello, el ateísmo de Marx y Engels, su lucha contra 
el opio religioso, no se concibe como una lucha contra la ignorancia y estupidez 
del pueblo o como un acto de salvación individual de los dogmas modernos 
(Nietszche), sino una lucha contra el sometimiento del destino de los oprimidos 
a la anarquía capitalista de la cual el sentimiento religioso no es más que su 
reflejo impotente y, en cierto sentido, una forma de protesta contra un mundo 
inhumano. El hecho de que para Marx la materia sea objeto de transformación por 
la actividad humana no niega su materialismo, por el contrario, lo reafirma como 
un materialismo consecuente porque es en su actividad donde el hombre se percata 
de las leyes objetivas sociales y naturales.

Parece que contra lo que reacciona el profesor Dussel es contra el materialismo 
mecanicista antidialéctico, en ello estamos de acuerdo, pero Dussel"tira el agua 
sucia con el niño". En primer lugar las propiedades de la materia no dependen de 
la concepción históricamente determinada que se tenga al respecto (de "su 
concepción socio­histórica"). Lo que sí se desarrolla socio­históricamente es el 
concepto de materia; pero sólo un hegeliano confundiría la concepción socio­
histórica del objeto material ­desentrañado en un proceso infinito por 
la intersubjetividad humana (en su praxis objetiva y transformadora)­ con la 
materia, la realidad objetiva, que tiene su desarrollo dialéctico, objetivo, 

404
independiente de su concepción subjetiva. En segundo lugar la materia no es un 
pseudónimo de Dios, porque materia se refiere a lo existente independientemente 
del pensamiento, que no está más allá de la naturaleza, ni por encima de ella 
(el concepto de Dios implica un ser determinante y creador más allá del mundo 
material); el llamar panteísmo a la materia, por otro lado, esta fuera de lugar: 
el materialismo dialéctico no convierte a la naturaleza en Dios; la naturaleza 
no es un ser con voluntad propia, su desarrollo radica en leyes ciegas que 
pueden ser utilizadas y manipuladas por el hombre (la libertad es el 
conocimiento de la necesidad para transformar la realidad).

La voluntad y la subjetividad surgen de la materia sólo en condiciones 
determinadas y excepcionales; atribuir voluntad a la materia es proyectar una 
cualidad humana a la naturaleza, esto no tiene nada que ver con el marxismo, 
sino con el pensamiento mágico y el animismo (la semilla y la prehistoria de la 
religión).

Para el religioso todo lo que está más allá del pensamiento del hombre, y de la 
naturaleza, no puede ser más que Dios o por el contrario sólo queda el 
escepticismo e irracionalismo decadente; para el materialista no hay nada más 
allá de la naturaleza. No cae en la falsa disyuntiva del idealista. Pensamiento 
y materia son las abstracciones más generales que abarcan a la realidad, materia 
es lo primario porque hasta ahora nunca se ha visto a un pensamiento sin 
cerebro. El pensamiento del hombre es, además reflejo dialéctico no sólo de la 
naturaleza sino de su ser social. Para el religioso Dios es el principio, 
idéntico a sí mismo y, sobre todo, por encima de la realidad; para el 
materialista, materia es el principio y fundamento, por eso Engelshabla de la 
materia como lo absoluto (en el sentido de que no depende del pensamiento), pero 
es idéntico a la naturaleza en su infinito despliegue y desarrollo dialéctico.

Quien no capta la diferencia, no capta el problema fundamental de la historia de 
la filosofía, la diferencia cualitativa entre materialista e idealista expresado 
con infinitos matices a lo largo de la historia: entre Demócrito y Platón, 
entre Lucrecio y Cicerón, entre Averroes y Tomas de Aquino, entreMarx y Hegel, 
etc., etc.). Creer que la naturaleza existe independientemente de las ideas del 
hombre, que la mente humana no es más que el producto maravilloso de la materia 
altamente organizada y, en nuestros días, que el capitalismo tiene una dinámica 
objetiva, que sólo comprendiendo las leyes materiales se puede intervenir 
exitosamente en la realidad, eso, profesor Dussel, es ser materialista. No hay 
nada mejor para fundamentar el materialismo moderno (el materialismo de Marx) 
que la ciencia moderna y las revoluciones sociales.

405
Para concluir este punto podemos agregar que desde que Engels escribió 
Dialéctica de la Naturaleza se ha comprobado, más allá de toda duda, que la cosa 
en sí o la materia (el universo) existía antes de que existieran hombres que 
anduvieran por ahí con sus categorías o subjetividad (ya sea individual o 
colectiva) para percibirla o incluso antes de que hubiera hombre transformador 
de la materia. Que el hombre y sus categorías proceden de la evolución de la 
naturaleza en vida, de la vida en conciencia y de la conciencia animal en 
conciencia social. Esto, por supuesto, está en contradicción con el pensamiento 
religioso y la teología, pero que le vamos a hacer, como gustan decir los 
positivistas, "los hechos son los hechos"24. Por supuesto que nosotros 
preferimos retomar estos conocimientos, antes que la escolástica positivista.

II. LA TEORÍA DE LA RELATIVIDAD Y EL MATERIALISMO DIALÉCTICO

Introducción

Para la concepción del mundo marxista no hay que buscar la explicación de los 
fenómenos naturales y sociales fuera de la naturaleza y de las relaciones 
sociales objetivas. El mundo es concebido como una serie de procesos que se 
relacionan y se transforman recíprocamente. Una razón concluyente por la que no 
hay que buscar fuerzas externas que expliquen los fenómenos que se dan en la 
naturaleza radica en la equivalencia de materia y energía, expresada en la 
famosa fórmula de Einstein, E=mc2. La mecánica clásica, refutada filosóficamente 
ya hace bastante tiempo porHegel, Marx y Engels, explica el movimiento de un 
sistema en función de una fuerza inercial externa; esto sugería la conclusión, 
al llevarse esta teoría más allá de sus límites, de que en la intervención 
divina o en la mano de Dios se encontraba la fuerza o el primer impulso que, 
como en un mecanismo de relojería, "daba cuerda" al universo; "Dios", nos 
dice Einstein con respecto a esta visión reductivista, "creó las leyes de 
movimiento de Newton, junto con las necesarias masas y fuerzas"25. Para 
Descartes, por ejemplo, la máquina humana era puesta en movimiento por su unidad 
divina con el alma y para Newton el primer impulso había puesto la fuerza 
tangencial necesaria para que los planetas siguieran sus órbitas alrededor del 
sol. En última instancia este punto de vista radica en la separación absoluta 
entre energía y materia. La materia por sí misma era vista como un ser pasivo y 
a la energía como el elemento activo exterior a la materia. Una de las ideas 
básicas del materialismo dialéctico es la relación intrínseca entre materia y 
energía, tiempo y espacio.

Como explica Einstein: "la Mecánica Clásica daba resultados fiables siempre que 
fuese aplicada a movimientos en los cuales las derivadas superiores de la 

406
velocidad respecto al tiempo son despreciables."26. La teoría de la relatividad 
de Einstein vino a poner a la mecánica newtoniana* y a la geometría euclidiana** 
dentro de sus campos de manifestación específicos determinados en función de los 
límites cuantitativos de la velocidad de la luz, mas allá de los cuales se da el 
salto cualitativo de las leyes de Newton a las leyes de Einstein; estas leyes 
muestran la unidad dialéctica entre energía, materia, espacio y tiempo. El 
primer paso en esta dirección fue la teoría electromagnética de Maxwell*** 
y Faraday****, que abría la primera brecha en el principio de relatividad de 
Galileo, que afirma que las leyes físicas permanecen inmutables 
independientemente del sistema de referencia. En el electromagnetismo, en 
efecto, el campo magnético de una corriente eléctrica influye en una partícula 
cargada dependiendo de sus movimientos relativos. Por primera vez se mostraba 
que las leyes físicas podían modificarse según la relatividad de los movimientos 
de un sistema. El éter como punto de referencia eterno e inmutable ya no era 
necesario; la luz no requería de un medio fantasmal e imponderable (éter) para 
viajar (base para la importancia que la velocidad de la luz tiene en la teoría 
de Einstein). E. Lorenz, en base a la teoría electromagnética, estableció las 
ecuaciones para dejar invariantes las fórmulas de Maxwell al pasar de un sistema 
de referencia a otro, pero aceptando que la realidad física del tiempo se 
transformaba con el sistema de referencia. Esto significó una ruptura radical 
con las leyes de Galileo y de Newton. La teoría cuántica de la materia 
deMax Planck, por su parte, sirvió de base para el descubrimiento de la unidad 
materia­energía y la teoría del carácter contradictorio (dialéctico: partícula­
onda) del desplazamiento de la luz. El conocimiento más profundo de estos 
fenómenos ha permitido abrir una fuente potencial inagotable de energía para la 
humanidad —hecho expresado de manera trágica en Nagasaki— , y que pone sobre la 
mesa, la tarea cada vez más urgente de planificar racionalmente esas 
potencialidades en beneficio de la humanidad, tarea que choca frontalmente con 
la propiedad privada y la sociedad capitalista.

a) Teoría especial de la relatividad (unidad dialéctica materia y energía)

La materia lleva implícita la fuerza motriz que la anima y es causa directa de 
todas las leyes de movimiento.

Julián Offroy de La Mettrie, 1709­1751

La teoría de la relatividad especial se basa en los siguientes supuestos 
comprobados experimentalmente:

407
"1) Constancia de la velocidad de la luz.

"2) Independencia de las leyes (y en especial, por tanto, también de la ley de 
la constancia de la velocidad de la luz) con respecto a la elección de un 
sistema inercial ‘principio de la relatividad especial)"27.

El descubrimiento de Maxwell de los procesos no simultáneos —que no existe 
simultaneidad entre procesos distantes, de la relatividad del tiempo en la 
teoría electromagnética— tiró por la borda la concepción de un tiempo y espacio 
absoluto (simultáneo en todas las partes del universo, independientemente del 
movimiento material y las relaciones espaciales) de la teoría newtoniana28. 
Hacía falta un nuevo criterio para medir el tiempo de acuerdo con las relaciones 
espaciales y de movimiento material; la base de este nuevo criterio la 
encontró Einstein en la velocidad de la luz, una constante universal que no 
cambia, independientemente del movimiento del sistema material emisor o receptor 
de luz; la velocidad de un cuerpo no acelera la velocidad de la luz que se 
mantiene siempre constante. Además la relación que establecieron Maxwell 
y Lorenz entre la materia y el campo gravitacional y magnético, implicaba una 
relación entre inercia (movimiento) y masa, es decir una relación entre materia 
y energía que anteriormente eran vistos como fenómenos independientes.

La mecánica clásica considera que la masa de un cuerpo es independiente de su 
velocidad, pero según la teoría especial de la relatividad, existe una relación 
entre masa y velocidad. De hecho, cuando un piloto viaja en un automóvil gana 
masa en una fracción infinitesimal; (aumenta una diez mil millonésima parte del 
1%). En la vida diaria, los efectos de este fenómeno se pueden ignorar "si un 
objeto se mueve con una velocidad menor a 100 millas por segundo, la masa es 
constante dentro de una margen de una millonésima parte"29. Pero cuando estamos 
hablando de velocidades 100 veces superiores se da el salto cualitativo en donde 
los efectos de la relatividad son decisivos "un electrón gana masa cuando se 
mueve a 9/10 partes de la velocidad de la luz (...) la ganancia es 31/6 veces, 
exactamente la predicha por la teoría de Einstein. (...) Los electrones surgen 
de un poderoso acelerador de partículas 40.000 veces más pesados que al 
principio, la masa extra representa la energía del movimiento"30. De acuerdo con 
esto, si un cuerpo superase la velocidad de la luz la masa del cuerpo tendería 
al infinito. Además, la longitud de los cuerpos está en relación con su 
velocidad, a medida que la velocidad aumenta y se acerca a la velocidad de la 
luz la longitud de los cuerpos disminuye. Aquí, como podemos observar, las 
cualidades de la materia (masas y longitudes) están en función de la cantidad de 
movimiento en donde más allá de cierto punto se da el salto que transforma las 
cualidades del objeto; ésta es, precisamente, una relación dialéctica.

408
En palabras de Einstein, uno de los conceptos básicos de la teoría especial de 
la relatividad consiste en que "La masa inercial de un sistema aislado es 
idéntica a su energía, de manera que la masa, en tanto que concepto 
independiente queda eliminada"31. Ésta es la relación entre masa y energía que, 
expresada en la celebre formula E=mc2, "representa la enorme cantidad de energía 
encerrada en el átomo. Ésta es la fuente de toda la energía encerrada en el 
universo. La letra E representa la energía (en ergs), m representa la masa (en 
gramos) y c es la velocidad de la luz (en centímetros por segundo). El valor 
real de c2 es 900 millones de billones. Es decir, que la conversión de un gramo 
de energía encerrada en la materia produciría la asombrosa cantidad de 900 
millones de billones ergs. Para dar un ejemplo concreto de lo que esto 
representa, la energía concentrada en un solo gramo de materia equivale a la 
producida al quemar 2.000 toneladas de gasolina"32.

La energía que explica en última instancia desde la desintegración radioactiva 
hasta el resplandor del sol se encontró, no fuera de la pecadora materia, sino 
dentro de la misma materia. Con la teoría de la relatividad no hay necesidad de 
buscar la energía de la naturaleza fuera de la naturaleza. Y no solo eso, en 
determinadas condiciones la materia se transforma en energía y la energía en 
materia. La transformación de la materia en energía, sin embargo, no significa 
la desaparición de la materia. La energía no es más que otra forma de existencia 
de la materia y lo que llamamos materia (o masa), no es más que energía 
congelada o en reposo relativo. Si bien se considera a los fotones como cuantos 
de energía pura carentes de masa, el que la luz se desvíe por la influencia 
gravitacional revela su carácter material. La energía no es algo independiente 
de la materia, la energía se transporta por cuantos o portadores, (el mismo 
término portador puede llevar a confusiones, puesto que sugiere la idea de que 
la materia porta algo externo a ella). Así, cuando una masa de plutonio o uranio 
libera su energía en forma de explosión atómica, la energía liberada no es más 
que los rayos gamma, los neutrones y otros elementos del átomo —otra forma de 
existencia de la materia— . En este proceso, que se da tanto en las entrañas del 
Sol, como en las bombas homicidas, el átomo desparece como átomo, pero la 
materia no desaparece, sólo cambia a una forma más dinámica de existencia.

El proceso inverso también se da. La energía se transforma en materia: "Los 
científicos descubrieron en un experimento, que los rayos gamma podían producir 
partículas atómicas, transformando la energía de la luz en materia. También se 
descubrió que la energía mínima para producir una partícula depende de su 
energía en reposo, tal y como había predicho Einstein. De hecho no se producía 
una, sino dos partículas: una partícula y su opuesto, la antipartícula. En el 
experimento de los rayos gamma tenemos un electrón y un antielectrón (positrón). 

409
Igualmente se produce el proceso contrario, cuando un electrón se encuentra con 
un positrón se aniquilan mutuamente produciendo rayos gamma"33. La energía y la 
materia no sólo están en unidad dialéctica, sino que cuando se da su mutua 
transformación, el resultado se da también en pares contrarios. Las 
investigaciones de Einsteinpusieron las bases para la teoría cuántica, que 
explica que el movimiento de las "partículas elementales" es contradictorio: 
éstas se comportan al mismo tiempo como onda y como partícula, además, la teoría 
de Einstein posibilitó la comprensión de la transformación de la materia.

La vieja y unilateral ley de Lavoissier* fue superada y conservada al mismo 
tiempo. La conservación de la masa sólo expresa un lado de la ecuación que 
dejaba abiertas las puertas para que la energía viniera desde fuera de la 
materia (aunque ésta última fuera indestructible). En realidad, no sólo la 
materia es indestructible, sino que la energía se conserva y procede de sus 
entrañas. La ley más profunda y compleja es la "conservación de la masa y la 
energía" de tal manera que la suma de estos dos aspectos inseparables y en 
relación dialéctica, se mantiene siempre constante; no se puede crear ni 
destruir ni un solo gramo de materia­energía. La materia no fue creada por Dios 
y la fuente de todos los infinitos procesos que acaecen en el universo se 
expresa en la sencilla formula E=mc2. "El movimiento es por tanto", nos 
decía Engels hace casi 150 años, "tan increable y tan indestructible como la 
materia misma"34. Parece que la teoría de la relatividad le ha dado la razón 
a Engels.

b) Teoría general de la relatividad (unidad dialéctica, materia, espacio y 
tiempo)

La teoría especial de la relatividad no considera la fuerza de gravedad, porque 
sus marcos de aplicación están en el mundo subatómico donde la gravedad no es un 
factor decisivo. Sin embargo a medida que vamos considerando niveles 
relativamente más grandes que el mundo subatómico, se da el salto cualitativo en 
donde la gravedad (en el mundo de los cuerpos de "tamaño normal" y el espacio) 
es el fenómeno que ocupa el primer plano subordinando, como fenómeno secundario, 
a lo estudiado por la teoría especial de la relatividad; es en este último caso, 
cuando los efectos de la gravedad son decisivos, es en donde la leyes de Newton 
comienzan a aplicarse, pero ya como un caso especial de la teoría general de la 
relatividad.

Esta teoría, que trata con enormes fuerzas gravitatorias como las que se 
presentan en el espacio, pone en relación recíproca (dialéctica) al espacio, al 
tiempo y a la materia que en la antigua concepción se consideraban fenómenos 

410
independientes y absolutos. Se creía, en efecto, que el espacio era un vacío al 
estilo de las abstractas y rígidas figuras euclidianas, un vacío en donde la 
materia podía o no alojarse, conservándose físicamente indiferente de la materia 
o de su ausencia; el tiempo por su parte, era una especia de flujo independiente 
del movimiento de la materia, de acuerdo con esto podía existir tiempo sin 
materia. Estas ideas estaban en concordancia con la visión mecanicista de la 
naturaleza, cuyos fenómenos no eran más que el resultado de la suma de las 
partes existentes independientemente del todo, una especia de emplasto o 
superposición puramente cuantitativa de diferentes elementos. "Los profanos en 
matemáticas se sienten sobrecogidos de misterioso espanto al oír hablar de 
cosas cuatridimensionales, parecido al que sienten al pensar en fantasmas", nos 
dice Einstein. "Y sin embargo, no hay tesis más vulgar que aquella según la cual 
el mundo en que vivimos es un continuo espacio temporal de cuatro 
dimensiones"35. La teoría de Einstein ha venido a tirar por la borda esta rígida 
concepción; ahora, tiempo, espacio y movimiento son parte orgánica de la 
naturaleza en función del movimiento y las características de la materia —por 
ello la referencia a un universo cuatridimensional—.

"Según la teoría general de la relatividad, las propiedades geométricas del 
espacio no son independientes, sino que están determinadas por la materia". Nos 
dice el mismo Einstein: "De suerte que no podemos sacar conclusiones acerca de 
la estructura geométrica del universo, sino fundando nuestras consideraciones en 
el estado de la materia como algo que conocemos"36. La geometría del espacio 
está determinada por la materia que contiene; de hecho, bajo efectos 
gravitatorios enormes el espacio se curva (como en la periferia de un agujero 
negro). Las bellas figuras de Euclides, que tanto han entusiasmado a los 
idealistas, son prácticamente imposibles, porque la gravedad tiene influjo sobre 
la geometría del espacio y éste se curva. "Esta 
geometría cuatridimensional trata con superficies curvadas (el espacio­tiempo 
curvo). Aquí, los ángulos de un triangulo pueden no sumar 180 grados y las 
líneas paralelas pueden cruzarse o divergir"37. Aquí entramos en un campo donde 
las tranquilizadoras leyes de la lógica formal ya no se aplican.

El hecho de que el espacio se curve no significa en absoluto que "la nada se 
curve". La curvatura espacio­temporal manifiesta la indisoluble unidad de la 
materia, el espacio y el tiempo. No existe el espacio absolutamente vacío (tal 
como lo había intuido Descartes). El espacio aparentemente vacío esta repleto de 
plasma y de campos magnéticos, el vacío generado en laboratorio sólo es un vacío 
relativo, ya que aún quedarán varios millones de moléculas, cada segundo ese 
espacio es atravesado, entre otras micropartículas, por millones de neutrinos 
(estos elementos evanescentes son capaces de atravesar una barrera de plomo de 

411
un kilómetro de espesor). Esto no quiere decir que el espacio no exista, sino 
que expresa una relación entre un tipo de materia y otra con menor densidad. "La 
cuestión es que es imposible concebir espacio sin materia. Es una unidad 
inseparable. Lo que estamos considerando es una relación determinada del espacio 
con la materia. El uno no puede existir sin el otro. Un vacío total no es nada. 
Pero lo mismo es la materia sin fronteras. Por lo tanto, espacio y materia son 
opuestos que se presuponen, definen y limitan el uno al otro y que 
no pueden existir el uno sin el otro"38.

Además de poner en relación el espacio con la materia, la teoría de la 
relatividad pone en relación el tiempo con el tipo de movimiento del sistema 
material estudiado. "Todo cuerpo de referencia (sistema de coordenadas) tiene su 
tiempo particular; la especificación de un tiempo sólo tiene sentido cuando se 
indica el cuerpo de referencia al cual hace relación dicha especificación. Antes 
de la teoría de la relatividad, la física supuso siempre, tácitamente, que el 
significado de los datos materiales era absoluto, es decir, independiente del 
estado de movimiento del cuerpo de referencia"39.

En primer lugar hay que señalar que el tiempo no se considera como una categoría 
a priori del sujeto, ni tampoco una constante absoluta independiente de la 
materia. Aquí el tiempo se hace depender del movimiento material, no hay tiempo 
sin materia y en tanto, como ya vimos, la materia es inconcebible sin el 
movimiento —además de que la materia tiene infinitas formas de movimiento— , se 
entiende que el tiempo y su noción cambiará en función del tipo de movimiento. 
"El concepto de tiempo variará según el marco de referencia. Un año en la tierra 
no es lo mismo que un año en Júpiter. Ni tampoco la idea de tiempo y espacio es 
la misma para un ser humano y para un mosquito, con una vida de unos pocos días, 
o para una partícula subatómica con una vida de una billonésima parte de un 
segundo (asumiendo, por supuesto, que estas entidades pudieran tener algún tipo 
de concepto). A lo que nos estamos refiriendo es a la manera que se percibe el 
tiempo en diferentes contextos, (...) los métodos normales de medición no se 
pueden aplicar a la vida de las partículas subatómicas como al tiempo 
geológico"40.

Los experimentos han demostrado, por ejemplo, que la vida de los mesones 
(partículas subatómicas cuya vida media es de 10–6 segundos que se mueven 
rápidamente) es decenas y hasta cientos de veces superior en un acelerador de 
partículas. El tiempo o la duración de los procesos aumentaconforme aumenta la 
velocidad del sistema. La duración de los procesos está también relacionado con 
la gravedad. Los relojes atómicos son más lentos situados donde la gravedad es 
mayor. "Un reloj atómico volando a 30.000 pies de altura gana tres mil 
millonésimas de segundo en una hora. Esto confirma la predicción de Einstein con 

412
un margen de error del uno por ciento"41. Todo movimiento es movimiento con 
respecto a otros cuerpos; es inconcebible el movimiento de algo sin referirlo a 
su relación espacial con otro objeto, estas relaciones son las que determinan 
las cualidades de la cosa. Tal como Hegel había explicado: "La cosa es en si 
misma, pero también es en sí misma porque es para otro, en tanto que esos otros 
objetos determinan a la cosa y la hacen ser lo que es; la diferenciación de los 
distintos aspectos de la cosa que se creía en sí, son momentos que hacen de la 
cosa lo que es. Así, la cosa es en sí misma, porque las propiedades le 
pertenecen, y no lo es porque la delimitación con lo otro la muestra diferente y 
por ello única".

El tiempo es, entonces, una expresión del movimiento, su noción implica el 
conocimiento y generalización de muchas formas de movimiento particulares 
reducidas a su expresión general, encarnada en un movimiento particular usado 
como patrón de medida. De la misma forma que el dinero es la expresión de valor 
de todas las mercancías particulares, y así como el valor en general surge de la 
relación entre las mercancías particulares, el tiempo es una expresión entre el 
movimiento relativo de los cuerpos cuya objetividad radica en que la interacción 
relativa entre estos, por medio de la velocidad de la luz, determina el tiempo 
(movimiento) específico. A diferencia de lo que creía Kant, el tiempo no es una 
cualidad subjetiva y absoluta, constituyente del fenómeno (tal 
como Kant entendía fenómeno), sino una característica objetiva del universo 
reflejada y medida por el cerebro del hombre.

c) Teoría de la relatividad. ¿Materialismo o idealismo?

Por estas interrelaciones entre los objetos, los eventos que pueden ser 
simultáneos en un marco de referencia (por ejemplo dos explosiones simultáneas 
en vagones diferentes de un tren) no lo son con respecto a otro marco de 
referencia (por ejemplo un receptor de luz que está fijo a las vías del tren). 
Esto no quiere decir que en la teoría de la relatividad todo sea relativo. O que 
una cosa sea tan buena como la otra y se pueda decir cualquier barbaridad. Los 
marcos de referencia están determinados por los métodos de Lorentz42, que tienen 
entre sus absolutos la velocidad de la luz y la energía en reposo. Muchos 
intérpretes han sacado la conclusión de que la teoría de la relatividad afirma 
que el tiempo y el espacio son fenómenos subjetivos (puesto que no hay tiempo ni 
espacio absolutos) del hecho de que el tiempo y el espacio dependen del 
movimiento de un sistema material; así en las explicaciones vulgares se nos dice 
que: "Einstein establece que tiempo y espacio no significan nada fuera de lo que 
un observador percibe o mide: cada observador transporta su propio espacio y su 

413
propio tiempo" (Enciclopedia Salvat). De esta manera se nos quiere afirmar que 
la teoría de la relatividad postula que el espacio y el tiempo no son fenómenos 
objetivos sino proyecciones del sujeto.

Estas interpretaciones, que fueron rechazadas por el mismo Einstein en su 
madurez, se vieron reforzadas por la postura filosófica que Einstein mantuvo 
durante su juventud como admirador del físico y filósofo Ernest Mach (uno de los 
fundadores del neopositivismo), postura que permea en sus primeros escritos, 
donde explica popularmente su teoría. Según esta corriente, las sensaciones son 
la única realidad y las teorías sólo formas lógicas y económicas de organizar 
los datos de la experiencia, que nada tienen que ver con los objetos en sí (o al 
menos es imposible saberlo). Así en La relatividad: teoría especial y 
general, Einstein escribió: "Tenemos la costumbre de designar con la palabra 
verdadero la correspondencia con un objeto real; y la geometría no tiene nada 
que ver con la relación de la ideas con los objetos que conocemos por la 
experiencia; sino que se interesa únicamente por la coherencia de esas ideas 
entre sí"43.

En las posturas filosóficas del joven Einstein se apoyaron los intérpretes 
idealistas de su teoría. Hay que señalar que el mismo Einstein, junto con muchos 
otros científicos eminentes como Max Planck, Ludwig Boltzmann, Louis 
de Broglie, Erwin Schrödinger, entre otros, se opusieron a la interpretación 
idealista de la física (fundamentalmente a la corriente de Copenhague, 
encabezada por el físico alemán Werner Heisenberg), que increíblemente afirmaba 
que ¡las propiedades materiales solo aparecen en el acto mismo de la medición! 
"Es un hecho interesante", nos dice KarlPopper, que no era precisamente un 
marxista, "que el propio Einstein fue durante años un positivista 
y operacionalista dogmático. Más tarde rechazó esta interpretación: en 1950 me 
dijo que de todos los errores que había cometido, del que más se lamentaba era 
de ése. El error asumía una forma realmente seria en su popular libro, 
Relatividad; la teoría especial y general"44.

El mismo Einstein afirmó, con respecto a la posición positivista respecto a la 
realidad material, que "la aversión de estos investigadores hacia la teoría 
atómica", (relacionada con el hecho de que Planck, según Einstein había 
comprobado la realidad material —indepediente del observador— del átomo), "hay 
que atribuirla sin duda a su actitud filosófica positivista, lo cual constituye 
un interesante ejemplo de que incluso investigadores de espíritu audaz y fino 
instinto pueden verse estorbados por prejuicios filosóficos a la hora de 
interpretar los hechos"45. Así, mientras que en sus primero escritos las 
posturas idealistas de Einstein se mezclaban con conclusiones materialistas (por 
ejemplo cuando dice que el tiempo y el espacio dependen del movimiento 

414
material), ya en su autobiografía Einstein señala, sin lugar a dudas, que el 
tiempo y el espacio no dependen del observador (aunque los métodos e 
instrumentos de medición sí contienen un elemento subjetivo), que no son 
convenciones lógicas, sino hechos reales; en sus propias palabras "La física es 
un esfuerzo por aprehender conceptualmente la realidad como algo que se 
considera independiente del ser percibido. En este sentido se habla de lo 
físicamente real" (....) "Mi opinión es que la actual teoría cuántica, con 
ciertos conceptos básicos que en esencia están tomados de la mecánica clásica, 
representa una formulación óptima del estado de las cosas"46.

Este punto, la aceptación de Einstein de la realidad material independientemente 
de la percepción, es lo esencial en su alejamiento del positivismo lógico; 
debemos recordar que el "Círculo de Viena" (Carnap y Neurat), que enunció los 
principios clásicos del positivismo lógico, tenía como misión esencial erradicar 
de la ciencia toda metafísica47, es decir, toda afirmación que vaya más allá del 
lenguaje; toda afirmación cuyo contenido implique la existencia de algo más allá 
del sujeto que percibe, más allá de toda experiencia; reduciendo la filosofía al 
estudio lógico del lenguaje; en palabras deCarnap: "La verdad es que rechazamos 
la tesis de la realidad del mundo físico, pero no la rechazamos como falsa sino 
como carente de sentido y que su antítesis idealista se halla sujeta al mismo 
rechazo"48.

Einstein se distanció, además, del empirismo vulgar (otra característica del 
positivismo lógico) al comprender el papel activo del pensamiento, incluida la 
libre especulación, al interpretar los hechos. "El prejuicio" 
dice Einstein "consiste en creer que los hechos, sin libre construcción 
conceptual, pueden y deben proporcionar conocimiento científico"49. Como ya 
habían afirmado Engels y Marx (Grundrisse): "Sin pensamiento teórico no se puede 
relacionar entre sí dos hechos naturales, ni entender el vínculo que existe 
entre ellos"50. Es este pensamiento teórico el que nos permite ir más allá de lo 
concreto y al mismo tiempo entender lo concreto en sus múltiples 
determinaciones, sin la generalización, la practica se vuelve ciega, la 
investigación se convierte en una búsqueda en una caverna obscura dando tumbos a 
cada paso porque los objetos se nos presentan por primera vez, aisladamente, 
como las rígidas formas platónicas. En realidad el positivista, que se cree muy 
realista, sólo opera con abstracciones vacías (esta mesa, ese gato, ese 
fenómeno, es decir, ese hecho atómico), no sólo en la explicación de los hechos, 
sino en la teoría del conocimiento (separación absoluta entre síntesis y 
análisis, experiencia y teoría, etc.) y se postra ante los hechos consumados sin 
saber explicarlos. Es esta impotencia de explicar los hechos e intervenir en 
ellos, sobre todo en el campo social, lo que lleva a estos realistas a buscar 

415
salidas en supuestas leyes morales eternas (liberalismo) o en la introspección 
mística y el nihilismo51.

Quizá Einstein exageró el papel independiente del pensamiento en la génesis de 
las teorías, al señalar que entre la experiencia y la génesis de los conceptos 
científicos más complejos no había un nexo, —quizá por considerar correctamente 
que el conocimiento científico no puede surgir de la experiencia simplemente 
individual— , además de subrayar insistentemente el carácter lógico formal que 
deben tener las teorías científicas (cerrando aparentemente la posibilidad de 
otros tipos de lógicas no lineales). No obstante, Einstein insistía en que la 
corrección de una teoría se verifica con la experiencia y su aplicación a la 
realidad, concebía lo empíricamente determinable como "una magnitud ciertamente 
real"52, es decir, no en el sentido positivista. Además aclaró que ninguna 
teoría, en especial la suya, puede tener un carácter absoluto, sino debe verse 
como una aproximación a la realidad, que con el tiempo será rechazada o 
complementada en situaciones aún desconocidas (lo que al mismo tiempo debería 
abrir la posibilidad de otros tipos de lógica). El conocimiento es un proceso 
infinito de aproximaciones sucesivas a la verdad, en donde, como decía Lenin "el 
pensamiento humano se hace indefinidamente más profundo, del fenómeno a la 
esencia, de la esencia de primer orden, por así decirlo, a la esencia de segundo 
orden, y así hasta el infinito"53, proceso contradictorio que nunca llegará 
hasta el final porque cada horizonte alcanzado abre otro nuevo.

Por supuesto que la postura filosófica de Einstein, postura que se acercó en 
puntos importantes al marxismo, no es argumento para decidir las implicaciones 
filosóficas de su teoría. Sin embargo es su teoría la que nos da elementos para 
fundamentar una postura filosófica. Por ello es necesario insistir en que esta 
teoría implica la existencia de una realidad orgánica cuatridimensional, 
compuesta por sus tres dimensiones, el tiempo como la cuarta dimensión y al 
espacio, ligados íntimamente con la materia, independientemente de que por ahí 
se encuentre un sujeto con "categorías económicas". Es la teoría de Einstein, 
relacionada con el famoso efecto Doppler*, la que nos señaló que las estrellas 
que vemos en el cielo nocturno son fenómenos que existieron en el pasado, mucho 
antes de que hubiera vida y, mucho menos, sujetos con categorías. Es esta teoría 
la que nos ha permitido medir escalas de tiempo gigantescas en virtud de la 
descomposición radioactiva, testimonio de que la naturaleza material precede a 
la vida. Es esta teoría la que fundamenta las hipótesis sobre el nacimiento de 
soles y galaxias. No cabe duda que todos estos fenómenos existen 
independientemente de la subjetividad humana (a menos que alguien crea que en 
una supernova pueda sobrevivir algún hipotético observador que haga posible el 
fenómeno). El hecho de que el tiempo y el espacio no sean absolutos, no 

416
significa que sean subjetivos, la relatividad del tiempo y el espacio se refiere 
al movimiento, las características y las relaciones de los objetos materiales no 
a la subjetividad (disfrazada en las vulgarizaciones como "punto de vista del 
observador"). Además, como ya vimos, esta teoría implica una relación dialéctica 
entre materia, espacio y tiempo, además, de poner en la materia la fuente última 
de la energía.

Quizá el fenómeno más malinterpretado ha sido el concepto de simultaneidad. Los 
profesores rojos, en el período posterior a la muerte de Stalin, ya habían 
polemizado con las interpretaciones subjetivistas de la simultaneidad. Creo 
necesario, por su contundencia, citar los argumentos principales en contra de 
las tergiversaciones de la teoría de Einstein. "La identificación de lo relativo 
y lo subjetivo es totalmente inadmisible", nos dice el profesor rojo Kuznetsov. 
"El sujeto que conoce, el observador, (...) no es en modo alguno idéntico al 
sistema de referencia. Este es un sistema, con existencia objetiva, de cuerpos y 
procesos materiales relacionados entre sí por un determinado tipo de 
coordinación espacio temporal, condicionado, en última instancia, por 
interacciones materiales. (...) Considerar las relaciones entre un cuerpo dado y 
el sistema de referencia elegido no significa poner el fenómeno bajo la 
dependencia del punto de vista del observador, de su voluntad y de su 
conciencia. Significa, únicamente, que de todas las relaciones objetivamente 
existentes de un fenómeno con otro, nuestra atención se detiene en una y a 
través de ella son estudiadas las propiedades del fenómeno mismo, que tiene 
existencia objetiva".

"El hecho de que el investigador puede elegir el sistema de referencia que 
estime conveniente no va unido en absoluto a la existencia o inexistencia del 
objeto que se estudia, a la presencia o modificación en él de unas u otras 
propiedades, etc. Esta elección determina únicamente el camino concreto por el 
que el físico conoce el objeto, existente fuera del sujeto e independientemente 
de él, pero que existe en relación con un determinado sistema de relaciones 
materiales".

"Nos valdremos de una analogía para explicarlo: supongamos que estudiamos la 
forma de un cuerpo examinando la forma que proyecta sobre pantallas planas. Al 
dirigir sobre él un haz de luz sobre un lado, en la pantalla vemos un círculo 
negro. Cambiamos la posición del cuerpo, lo iluminamos desde otro lado y en la 
pantalla vemos un triangulo negro. Así ocurrirá si el cuerpo tiene forma cónica 
y la primera vez fue iluminado por un haz de luz perpendicular a la base y la 
segunda por un rayo paralelo a la base. Está claro que el cuerpo existe con 
independencia del observador. Lo único que depende de éste es la elección de la 
perspectiva desde la que examinará el cuerpo. Pero ni la forma del cuerpo, ni 

417
siquiera la forma de las proyecciones del cuerpo sobre la pantalla depende de la 
voluntad y la conciencia del sujeto. Una y otra, vienen determinadas enteramente 
por la naturaleza del cuerpo mismo y por el carácter de las relaciones 
espaciales que existen entre el cuerpo, los haces de luz y las pantallas".

"Lo relativo es lo objetivo que existe en un sistema concreto de relaciones 
creadas por ese sistema. Lo que en la teoría de la relatividad es considerado 
como relativo, depende sólo de las condiciones materiales. Las longitudes de los 
cuerpos, su masa, el ritmo de los procesos, la coordinación de los 
acontecimientos en el tiempo, la magnitud de las tensiones de los campos 
eléctrico y magnético, etc.; no depende, en la teoría de la relatividad, del 
punto de vista del observador, ni de la voluntad y la conciencia o de la 
elección que él realiza, sino, exclusivamente, del movimiento material real, de 
las relaciones materiales reales. En ello consiste su relatividad física"54.

Por supuesto que en la medición del tiempo hay un elemento subjetivo, a saber, 
el patrón de medida que se utiliza para medir un intervalo. Así, por ejemplo, el 
establecimiento de pesos y medidas es una elección arbitraria, así como lo es la 
medición del tiempo de la vida diaria en función de la rotación de la Tierra (es 
claro, no obstante, que la unidad de medida debe ser susceptible de expresar el 
tipo de movimiento que pretende medir y que, por ende, la elección no es 
absolutamente subjetiva). Pero no se debe confundir el acto de medir, con 
determinados instrumentos o fenómenos elegidos arbitrariamente, con el objeto 
medido y su magnitud espacial o temporal. Esta última existirá 
independientemente de la medición. Así, la Tierratenía la misma circunferencia 
antes de que el científico griego Eratóstenes la midiera por primera vez; este 
hecho no lo altera la subjetividad humana sino, en todo caso, procesos físicos 
de orden material. De modo que el hecho de que los procesos que son simultáneos 
en el celebre ejemplo del tren en movimiento no lo sean con respecto a un 
observador fijo a los rieles, sólo significa que la velocidad de la luz no 
depende del movimiento inercial de los procesos y por tanto, ésta no se ve 
acelerada por el movimiento del tren y, por tanto, existe un retardo, aunque en 
este caso infinitesimal, en la llegada de la luz al observador fijo, lo que 
explica la no simultaneidad de los procesos en sistemas en movimiento 
diferentes. En este caso, tanto el movimiento del tren, la posición fija de los 
rieles, la velocidad de la luz y las coordenadas espacio­temporales entre todos 
estos elementos no dependen de la subjetividad del observador y se darán de la 
misma manera en los diferentes campos de referencia independientemente de que el 
observador pase por ahí.

No podemos terminar este capítulo, si no mencionamos que, además de los notables 
puntos de convergencia entre el materialismo dialéctico y la teoría de la 

418
relatividad y las respectivas teorías del conocimiento, Einstein, a partir del 
genocidio de Nagasaki, se acercó al marxismo en un terreno más: en el de la 
política; (y cuando decimos que se acercó al marxismo decimos que se mantuvo 
alejado del estalinismo). Dejemos que Einstein termine este capítulo: "Ahora he 
alcanzado el punto donde puedo indicar brevemente lo que para mí constituye la 
esencia de la crisis de nuestro tiempo". (...) La anarquía económica de la 
sociedad capitalista tal como existe hoy es, en mi opinión, la verdadera fuente 
del mal. Vemos ante nosotros a una comunidad enorme de productores que se están 
esforzando incesantemente privándose de los frutos de su trabajo colectivo. 
(...). A este respecto, es importante señalar que los medios de producción, es 
decir, la capacidad productiva entera que es necesaria para producir bienes de 
consumo, tanto como capital adicional (...) es, propiedad privada de 
particulares".

El capital privado tiende a concentrarse en pocas manos, en parte debido a la 
competencia entre los capitalistas, y en parte porque el desarrollo tecnológico 
y el aumento de la división del trabajo animan la formación de unidades de 
producción más grandes a expensas de las más pequeñas. El resultado de este 
proceso es una oligarquía del capital privado cuyo enorme poder no se puede 
controlar con eficacia incluso en una sociedad organizada políticamente de forma 
democrática. (....)

En particular, debe notarse que los trabajadores, a través de luchas políticas 
largas y amargas, han tenido éxito en asegurar una forma algo mejorada de 
‘contrato de trabajo libre’ para ciertas categorías de trabajadores. Pero tomada 
en su conjunto, la economía actual no se diferencia mucho del capitalismo puro. 
La producción está orientada hacia el beneficio, no hacia el uso. No está 
garantizado que todos los que tienen capacidad y quieran trabajar puedan 
encontrar empleo; existe casi siempre un ejército de parados. El trabajador está 
constantemente atemorizado con perder su trabajo. Desde que parados y 
trabajadores mal pagados no proporcionan un mercado rentable. (...) El progreso 
tecnológico produce con frecuencia más desempleo en vez de facilitar la carga 
del trabajo para todos. La motivación del beneficio, conjuntamente con la 
competencia entre capitalistas, es responsable de una inestabilidad en la 
acumulación y en la utilización del capital que conduce a depresiones cada vez 
más severas. La competencia ilimitada conduce a un desperdicio enorme de 
trabajo, y a ése amputar la conciencia social de los individuos que mencioné 
antes.

Considero esta mutilación de los individuos el peor mal del capitalismo. Nuestro 
sistema educativo entero sufre de este mal. Se inculca una actitud competitiva 

419
exagerada al estudiante, que es entrenado para adorar el éxito codicioso como 
preparación para su carrera futura.

Estoy convencido de que hay solamente un camino para eliminar estos graves 
males, el establecimiento de una economía socialista, acompañado por un sistema 
educativo orientado hacia metas sociales. En una economía así, los medios de 
producción son poseídos por la sociedad y utilizados de una forma planificada. 
Una economía planificada que ajuste la producción a las necesidades de la 
comunidad, distribuiría el trabajo a realizar entre todos los capacitados para 
trabajar y garantizaría un sustento a cada hombre, mujer, y niño. La educación 
del individuo, además de promover sus propias capacidades naturales, procuraría 
desarrollar en él un sentido de la responsabilidad para sus compañeros— hombres 
en lugar de la glorificación del poder y del éxito que se da en nuestra sociedad 
actual". Por último y después de mostrar que era un excelente lector de El 
Capital, Einstein agrega algo que tira por la borda la afirmación infundada y 
superficial de que en los países de bonapartismo proletario (estalinismo), por 
usar el término científico de Trotsky, existía un supuesto socialismo real 
(cliché tan de moda que no explica nada):

"Sin embargo", prosigue Einstein, "es necesario recordar que una economía 
planificada no es todavía socialismo. Una economía planificada puede estar 
acompañada de la completa esclavitud del individuo. La realización del 
socialismo requiere solucionar algunos problemas sociopolíticos extremadamente 
difíciles: ¿cómo es posible, con una centralización de gran envergadura del 
poder político y económico, evitar que la burocracia llegue a ser todopoderosa y 
arrogante? ¿Cómo pueden estar protegidos los derechos del individuo y cómo 
asegurar un contrapeso democrático al poder de la burocracia?"55.

¡Sinceramente es difícil encontrar mejores lecturas de Marx!

III. TEORÍA DEL CAOS Y MATERIALISMO DIALÉCTICO

Introducción

Todo se debe al azar y a la necesidad

Demócrito, aprox. 460­370 a.C.

La segunda ley de Newton, F=ma, establece que si las fuerzas que actúan sobre un 
cuerpo son conocidas también lo será la aceleración; si conocemos la velocidad y 
la posición en un momento dado, el movimiento quedará determinado para toda la 
eternidad. Así hasta hace muy poco la ciencia era sinónimo de determinismo 
absoluto; el azar y el accidente estaban desterrados por decreto de la 

420
naturaleza o, en el mejor de los casos, se consideraban como perturbaciones que 
no tomaban parte de la esencia de su desarrollo. El azar era identificado con la 
ignorancia. En realidad, el azar no existía objetivamente, sino que constituía 
un indicador de nuestro desconocimiento, hablábamos de un fenómeno subjetivo. 
Así Laplace escribió en 1776: "si imaginamos una inteligencia que en un instante 
dado abarcara todas las relaciones entre los entes de este universo, podría 
decir las posiciones respectivas, los movimientos y las propiedades generales en 
cualquier tiempo del pasado y del futuro (...) Así es como debemos a la 
debilidad de la mente humana una de las más delicadas e ingeniosas de las 
teorías matemáticas, la ciencia del azar y la probabilidad"56.

En contraste, ya en el año 400 a.C. Demócrito había dicho: "Todo se debe al azar 
y a la necesidad"57. Para Engels, de la misma manera, necesidad y accidente sólo 
eran las dos caras de la misma moneda; si el accidente era concebido, 
incondicionalmente, como un fenómeno puramente subjetivo, la necesidad también 
sería convertida en ilusión. "El sentido común y con él la mayoría de los 
naturalistas", comentó Engels, "tratan a la necesidad y a la casualidad como 
determinaciones que se excluyen entre sí y para siempre. Una cosa, una 
circunstancia, es un proceso, es accidental o necesario, pero no ambos a la vez 
(...) Y luego se afirma que lo necesario es lo único de interés científico, y lo 
accidental es indiferente a la ciencia (...) de ahí que toda ciencia llegue a su 
fin, pues tiene que investigar precisamente aquello que no conocemos. (...) 
Cualquiera puede advertir que éste es el mismo tipo de ciencia que proclama 
natural lo que puede explicar, y asigna a causas naturales lo que no le es 
posible explicar. Que yo denomine casualidad la causa de lo inexplicable o 
que la llame Dios, es en todo sentido indiferente a lo que se refiere a la cosa 
misma. Una y otra equivalen a no sé. (...) De ahí que la casualidad no se 
explique aquí por la necesidad, sino más bien la necesidad se degrada hasta la 
producción de lo que es apenas accidental (...) En contraste con ambas 
concepciones, Hegel formuló las proposiciones hasta entonces desconocidas de que 
lo accidental tiene una causa porque es accidental, y de la misma manera carece 
de causa porque es accidental; que lo accidental es necesario, que la necesidad 
se determina como casualidad y, por otro lado, esa casualidad es más bien 
necesidad absoluta"58.

Esta manera dialéctica de concebir la naturaleza, la necesidad en el accidente y 
lo accidental en la necesidad, es una de las ideas fundamentales de una nueva 
ciencia, que algunos llaman junto con la teoría de la relatividad y la mecánica 
cuántica, la tercera gran revolución científica del siglo XX: la teoría del 
caos. Esta teoría que apenas tiene poco más de treinta años de existencia, ha 
abierto una prometedora línea de investigación para entender fenómenos complejos 

421
y contradictorios, que parecían indescifrables para el conocimiento humano y han 
transformado dialécticamente la idea de determinación en la ciencia. El tiempo 
meteorológico, la dinámica de las poblaciones, la complejidad creciente, las 
irregularidades en la naturaleza, entre muchos otros fenómenos, sólo se pueden 
comprender si, como decía Engels, concebimos el caos y el orden en su mutua 
determinación e interdependencia, en donde, el orden, la vida, los nuevos 
fenómenos, la complejidad, surgen del caos y el caos del orden, de las 
bifurcaciones debidas a diferencias accidentales, así como dentro del caos mismo 
se encuentra un orden subyacente complejo y sencillo al mismo tiempo 
(fractalidad). Los fenómenos que creíamos lineales y mecánicos, paradigmas del 
determinismo, se convierten por ese mismo cambio lineal en fenómenos caóticos. 
Que la casualidad es un fenómeno objetivo, tanto como la más férrea necesidad y 
que gracias a esta interdependencia la naturaleza no es un ciego autómata 
predeterminado para toda la eternidad, sino que implica flexibilidad, 
creatividad, el surgimiento de infinidad de nuevos fenómenos debidos a cambios 
accidentales que no se pueden determinar por siempre y que, no obstante, no 
dejan de estar regidos por leyes subyacentes. Como dice el premio 
Nóbel, Ilya Prigogine "El futuro es incierto, más incierto aún de lo que hacía 
presagiar la mecánica cuántica tradicional con las relaciones de incertidumbre 
de Heisenberg"59. Es un futuro incierto, es verdad, pero creativo y, al 
contrario de lo que creía Heisenberg, regido por leyes objetivas. El accidente, 
que se creía haber arrojado fuera de la ciencia, se ha metido por la puerta 
trasera, enriqueciendo prometedoramente a la ciencia y a la concepción de 
causalidad misma.

Es intención de este capítulo mostrar que la teoría del caos representa, 
implícitamente, una reivindicación de las ideas que hace más de cien años 
explicara Engels. Que estas ideas se hayan desarrollado al margen de la 
filosofía marxista, aunque es cierto que los primeros científicos en 
profundizarla fueron físicos soviéticos (V. Arnold y A. Kolmogorov), es una 
muestra de que ésta no representa un dogma sino una aproximación a los fenómenos 
complejos y no lineales. La teoría del caos, como veremos, implica la unidad e 
interpenetración de los contrarios, los cambios cuantitativos que se transforman 
en cualitativos, la negación de lo viejo y el surgimiento de nuevos fenómenos, 
la objetividad de la línea del tiempo (del carácter progresivo del desarrollo), 
es decir, de las ideas que Engels y Marx desarrollaron como concepción del 
mundo.

422
a) Teoría del caos: susceptibilidad a las condiciones iniciales. Necesidad y 
accidente

Excepto en economía, donde la teoría de Marx se constituyó como la única manera 
coherente de entender la sociedad capitalista, las ideas dialécticas 
prácticamente no encontraron eco como método entre amplios sectores de la 
comunidad científica. No fue sino hasta 1908 con el trabajo de 
HenriPoincaré (Ciencia y Método), que se llamó la atención sobre el efecto de 
pequeñas incertidumbres en la medición, que en sí mismas no alteran leyes 
deterministas, pero pueden transformar totalmente el fenómeno mas allá de cierto 
punto. Poincaré escribió que "nosotros sólo podemos conocer la situación inicial 
de manera aproximada. Si esto nos permitiera conocer la situación que sigue en 
el tiempo con la misma aproximación, es todo lo que necesitaríamos, y podríamos 
decir que el fenómeno ha sido predicho, que está regido por leyes. Pero esto no 
es siempre así; puede ocurrir que pequeñas diferencias en las condiciones 
iniciales produzcan condiciones muy diferentes en los fenómenos finales"60. A 
pesar del tono reservado,Poincaré es considerado como el fundador de los métodos 
que están en la base del caos determinista. No obstante, pasaron más de sesenta 
años antes de que sus ideas fueran retomadas, fundamentalmente por las 
limitaciones técnicas en los cálculos que son necesarios para entender la 
dinámica no lineal del caos (debido a factores objetivos), pero también debido 
al factor subjetivo: la ortodoxia dominante no podía aceptar ideas que 
implicaran interrupciones, saltos y contradicciones. El mismo Poincaré escribió 
que: "La lógica a veces engendra monstruos. Desde hace medio siglo se han visto 
surgir una multitud de funciones raras que parecen esforzarse lo menos posible a 
las honestas funciones que sirven para cualquier cosa. No más continuidad, no 
más derivadas, etc."61. ¡Estas funciones raras y monstruos matemáticos 
(fractales) representan, paradójicamente, la matemática discontinua y 
contradictoria que subyace a la teoría cuyo pionero es el mismo Poincaré!

La mecánica clásica con su concepción lineal del desarrollo sólo es correcta 
cuando tratamos de sistemas simples formados por la interacción de dos variables 
continuas (como dos planetas y dos cuerpos, por ejemplo) pero la cosa cambia 
cuando hablamos de sistemas de más de tres variables; el caos se comienza a 
presentar en fenómenos tan simples como en un juego de billar. Como explican 
investigadores en la teoría del caos, quizá de una forma exagerada, pero que 
ilustra bien la esencia de la cuestión planteada por Poincaré: "Con un simple 
golpe, el jugador provoca en el juego de bolas una prolongada sucesión de 
colisiones, (...) ¿durante cuánto tiempo podría predecir la trayectoria de las 
bolas un jugador con un control perfecto de su taco? Si el jugador de billar 
ignorase un efecto tan minúsculo como la atracción gravitatoria de un electrón 

423
situado en el borde de la galaxia, ¡la predicción sería errónea al cabo de un 
minuto! El extraordinario aumento de la incertidumbre débase a que las bolas 
están curvadas por lo que las pequeñas diferencias en el punto de impacto se 
amplían en cada colisión. Ampliación que es exponencial: crece con cada colisión 
(...) Cualquier efecto, por pequeño que sea, adquiere rápidamente proporciones 
macroscópicas"62.

Esta propiedad de ampliación exponencial de las perturbaciones, propia de los 
fenómenos dinámicos complejos, es llamada "sensibilidad a las condiciones 
iniciales" y es una idea central de la teoría del caos. Si esto sucede con la 
predicción en el humilde juego de billar ya podemos imaginar lo que sucede con 
un gas en donde un sólo centímetro cúbico contiene 27 trillones de átomos: aquí 
es imposible explicar la dinámica del gas mediante el movimiento de las 
partículas individuales, es decir, mediante matemáticas diferenciales que tratan 
sobre movimientos lineales.

La "sensibilidad a las condiciones iniciales", como se puede ver claramente, no 
es más que otra manera de expresar la idea de los cambios cuantitativos que se 
transforman en cualitativos, un cambio insignificante puede a la larga producir 
cambios espectaculares. Un buen ejemplo para ilustrar esta idea es la de "un 
camello muy cargado al que, en cierto momento, se le añade una pajita y se rompe 
su espalda. La paja es en extremo liviana pero el peso extra que añade tiene una 
consecuencia fuera de toda proporción"63. La fractura del infortunado camello 
representa una interacción entre la miserable paja y el resto de las variables 
que afectan al camello y que tienen resultados inesperados. Este ejemplo 
aparentemente chusco ilustra la dinámica de la complejidad y no es una simple 
anécdota curiosa como pudiera parecer. Ilya Prigogine comenta que "El caos es 
siempre consecuencias de inestabilidad. El péndulo sin fricción es un 
sistema estable , pero curiosamente la mayoría de los sistemas de interés 
físico, tanto en el ámbito de la mecánica clásica como de la cuántica, son 
inestables. En estos sistemas una pequeña perturbación se amplifica, unas 
trayectorias inicialmente cercanas se separan. La inestabilidad introduce 
aspectos nuevos esenciales64".

En realidad el universo no es un sistema de dos cuerpos aislados, sino que 
consiste en la interacción infinita entre la multiplicidad de los fenómenos que 
se determinan recíprocamente. Como dice Engels: "En el hecho de que estos 
cuerpos se encuentren relacionados entre sí ya se incluye el de que reaccionen 
los unos sobre los otros, y precisamente esa reacción mutua constituye el 
movimiento"66. En ciertas condiciones, es posible aislar un proceso de la 
interacción universal y comprenderlo así separado, pero en la teoría del caos se 
trata de comprender al fenómeno como totalidad: ahí en donde el aislamiento 

424
mecánico se torna un dogma para comprender la realidad como en la mayoría de los 
procesos de interés para la ciencia moderna. Sin interacción el universo sería 
nada: "En cierto modo", nos explica Prigogine "es una suerte que Poincaré haya 
demostrado la imposibilidad de eliminar las interacciones. Si se pudieran 
eliminar, el universo sería isomorfo a un universo de partículas libres, y todo 
sería tan incoherente que no habría química, ni biología, ni por supuesto 
culturas humanas"67.

La comprensión de la imposibilidad de entender la totalidad en un fenómeno 
complejo por las posiciones y velocidades de los elementos individuales se vio 
impulsada por la termodinámica: el movimiento de las partículas de un gas sólo 
podía comprenderse colectivamente como el promedio de sus estados de libertad 
(todos los estados posibles del contenedor del gas). La pregunta no era ya donde 
se encuentra esta partícula, sino qué probabilidades hay de encontrar una 
partícula en determinado lugar y determinado tiempo; esto llevó a afirmar 
a J . C. Maxwell en oposición al mecanicismo de Laplace que: "La lógica 
verdadera de este mundo está en el cálculo de probabilidades"68. Este método 
representa ya un alejamiento de las certidumbres tranquilizadoras e 
incondicionales; no obstante, la indeterminación era vista como la simple 
acumulación cuantitativa de elementos simples, es decir, la imposibilidad de 
determinar el movimiento de las partículas individuales se atribuía a una 
incapacidad subjetiva y no al hecho de que el movimiento caótico fuera esencial 
al sistema; la visión mecanicista y la estadística convivieron como antípodas 
entre el conocimiento y la ignorancia, entre lo conveniente (el mecanicismo) y 
un método que se utilizaría mientras no se pudiera utilizar la ciencia 
verdadera. Comentando el idealismo, Prigogine comenta que en éste: "Habría que 
atribuir el funcionamiento de nuestra vida a nuestra ignorancia, o relegarla a 
lo que es solamente fenomenológico" (como en la fenomenología subjetivista 
de Husserl) "¿Es menos fundamental la vida que la no vida?" (...) "por suerte 
(...) hoy podemos relacionar la irreversibilidad no ya a nuestra ignorancia, 
sino con la estructura fundamental de las leyes de la dinámica clásica o 
cuántica, formuladas para los sistemas inestables o caóticos"69.

En la teoría del caos el accidente es tan objetivo como la necesidad. De acuerdo 
con Ilya Prigogine "la novedad reside en que actualmente tenemos sistemas 
caóticos muy simples, y ya no nos sirve la coartada de la complejidad. El 
carácter inestable e irreversible pasa a ser parte integrante de la descripción 
en el nivel fundamental" y más adelante agrega que "La irreversibilidad, una vez 
más, no se debe a nuestra intervención en la naturaleza, sino a la formulación 
de la dinámica extendida a los sistemas dinámicos inestables (...) Así pues, las 
trayectorias (individuales) no son eliminadas por razones de dificultad de 

425
cálculo, sino de principio"70. Ya en el primer cuarto de siglo, la mecánica 
cuántica había mostrado que la probabilidad era fundamental para la comprensión 
de las leyes físicas.

b) El caos que nace del orden: atractores extraños

Es necesario comentar un poco sobre el espacio de fases, 
los atractores extraños, y otras cosas más; exposición que podrá ser pesada, 
pero es fundamental para pasar a estudiar la fractalidad del caos o el orden 
subyacente al caos. Para el estudio de los sistemas caóticos el viejo sistema 
cartesiano es inútil. En lugar de representar el fenómeno por los puntos 
individuales y rígidos, en el plano se introduce el llamado "espacio de fases" 
que representa el fenómeno en su totalidad como una figura geométrica en 
movimiento haciendo visibles los grados de libertad del sistema (sus variables 
independientes); en esta representación las variables independientes del sistema 
(por ejemplo coordenadas de posición x, y, z, de velocidad e impulso, el 
tiempo, etc) son tratadas como diversas dimensiones del proceso o como sus 
grados de libertad.

El movimiento oscilante de un péndulo, por ejemplo, puede ser representado en el 
espacio de fases con las variables de impulso y posición; así si el péndulo 
recibe un impulso y después de un lapso, por pérdida gradual de energía (estos 
sistemas son llamados disipativos) vuelve a su estado de reposo (el punto "a" en 
la figura) el espacio de fases sería el de la figura 1. En este caso el punto 
"a" es el punto a donde el sistema tiende a llegar; este punto de atracción es 
llamado atractor; si, por el contrario, se tratara de un péndulo ideal sin 
pérdida de energía (los sistemas que conservan su energía son 
llamados hamiltonianos) o recibiera constantemente energía del exterior para 
continuar su oscilación constante, el espacio de fases sería como el de la 
figura 2, ahora su atractor periódico consistiría en la curva cerrada que 
describe su movimiento; esta curva atractora sería también su cuenca de 
atracción.

Para complicar un poco las cosas y llegar a la representación de un proceso 
caótico, representemos ahora el movimiento pendular como un conjunto de dos 
péndulos acoplados que influyen mutuamente en su movimiento y que no tienen 
pérdida de energía (un sistema hamiltoniano) como se ilustra en la figura.

En este caso, en la representación del espacio de fases los dos péndulos que 
interactúan se combinan y sus trayectorias, que independientemente se 
representarían como planos o curvas cerradas, resultan en una trayectoria de 

426
tres dimensiones ya que ambas trayectorias se desvían del plano horizontal, 
describiendo una trayectoria en anillo selenoide en tres dimensiones. Si el 
movimiento (las frecuencias) de los péndulos acoplados están en una relación 
simple, entera o mensurable (por ejemplo 1/9), su trayectoria, es lineal porque 
siempre pasa por los mismos puntos del espacio de fases (a la figura que 
describe el espacio de fases se le llama toro) su comportamiento es totalmente 
predecible y determinado. (véase la figura siguiente).

Si los períodos de las oscilaciones, en cambio, son inconmensurables, resultan 
en un número irracional o una representación decimal infinita ("Pi" es un 
ejemplo de número irracional) la curva en el espacio de fases nunca se repetirá 
a sí misma, su trayectoria o su cuenca de atracción se moverá hasta cubrir casi 
toda la superficie de la figura (del toro), sin embargo, este sistema no es aún 
caótico porque las trayectorias de los péndulos se mantendrán siempre juntas y 
si sabemos la posición de una en un punto determinado sabremos la posición de la 
otra. A estos sistemas se les llama sistemas cuasiperiódicos (véase la figura).

En realidad no existen los péndulos ideales, un péndulo siempre está sometido a 
los flujos de aire, a vibraciones pequeñas que provocan perturbaciones 
aleatorias que los separan de su cuenca de atracción. No obstante, en los 
péndulos con movimientos lineales, estas pequeñas perturbaciones se pueden 
ignorar porque el péndulo, a pesar de los pequeños movimientos caóticos, tiende 
a regresar a su atractor lineal, el margen de error no ha llegado al punto 
crítico en donde pasamos al caos. Pero si en este sistema hamiltoniano (sin 
pérdida de energía) de péndulos acoplados, aun en estas condiciones ideales, las 
perturbaciones se amplifican por un impulso cambiante y una amortiguación que 
saque a los péndulos de su cuenca de atracción, cosa que bien puede suceder, 
pues el péndulo no está aislado del mundo circundante. Entonces las trayectorias 
vecinas separan su dimensión en el espacio de fases, ya no se puede expresar con 
números enteros (como en la geometría euclidiana), su dimensión es mayor que dos 
(mayor que los planos en dos dimensiones que veíamos) pero menor que tres (no 
llega a ser un cuerpo de tres dimensiones), es decir una situación intermedia 
entre una superficie y un volumen. Su atractor (hacia lo que tiende las 
trayectorias) es llamado atractor extraño porque al mismo tiempo que tiende a 
ocupar el toro (o la figura), tiende al mismo tiempo a separarse 
del atractor vecino dejando infinitos puntos por los que no pasa y adquiriendo 
infinitos valores "caóticos" en cada momento (véase la figura).

"Será imposible el seguir las vueltas", nos dice el profesor Sametband, "prever 
si en un centímetro más adelante va a replegarse, ir hacia adentro del ovillo, o 
hacia fuera, etc; como tiene sensibilidad a las condiciones iniciales, la más 
ínfima alteración de éstas se representará con otro ovillo enmarañado cuyas 

427
vueltas no tienen nada que ver con el primero, aunque el volumen que ocupa sea 
prácticamente el mismo"75. Con el atractorextraño impredecible hemos entrado al 
caos en donde, como afirma Prigogine, lo aleatorio no se debe al desconocimiento 
o a la subjetividad humana, sino a las interacciones objetivas del proceso y a 
la susceptibilidad a los pequeños cambios despreciables que se amplifican hasta 
transformar el proceso; la dinámica es caótica porque es aleatoria, pero al 
mismo tiempo está determinada porque se mantiene en promedio dentro del toro o 
del espacio de fases; aquí es imposible despreciar lo accidental por la simple 
razón de que no se pueden despreciar las interacciones recíprocas (dialécticas). 
"Puesto que los atractores tienen tamaño finito" (ya que están determinados al 
espacio de fases), nos comentan un grupo de científicos del caos, "dos órbitas 
en uno de ellos no pueden divergir exponencialmente de manera indefinida. En 
consecuencia el atractor debe plegarse sobre sí mismo, aunque las trayectorias 
diverjan y sigan caminos cada vez más alejados; en algún momento habrán de 
acercarse de nuevo entre sí, (...) para imaginar lo que ocurre con las 
trayectorias vecinas en un atractor caótico, coloquemos una gota de colorante 
azul en una masa. El amasado consiste en dos acciones: estirar la masa, con la 
consiguiente extensión del colorante, y plegarla sobre sí misma (...) y con el 
paso del tiempo se estira y se repliega muchas veces (...) tras tan sólo 20 
pasos, la gota inicial se habrá estirado hasta más de un millón de veces de su 
longitud original y su espesor ha disminuido hasta el nivel molecular"76. Este 
proceso de plegado y estirado en el espacio de fases caótico se ilustra en la 
siguiente figura.

c) El orden del caos: fractalidad (atractores extraños)

 Lo hostil se une; de lo divergente surge una muy bella armonía y todo esto se 
produce por medio de la lucha.

Heráclito

Si nosotros hiciéramos un corte transversal del toro para determinar la posición 
de las trayectorias en un punto determinado de un sistema caótico (corte llamado 
sección de Poincaré) como en la figura siguiente, nos percataremos que las 
trayectorias son fractales: es decir describen una figura que 
tiene autosimilitud o, en caso de fractales no lineales, irregularidad en su 
estructura a cualquier escala a la que la miremos, que tiene longitud infinita y 
dimensión fraccional, su atractor, a pesar de que en el siguiente momento el 
corte habrá cambiado, es un fractal una figura caótica pero ordenada.. ¡Todo 
este caos misterioso se oculta en el simple movimiento de dos péndulos acoplados 
que se suponían eran los paradigmas del movimiento lineal!, ¡aun la linealidad 

428
mas monótona de un péndulo simple puede transformarse por pequeños cambios en un 
movimiento complejo! Por eso es quePrigogine dice que la indeterminación no es 
necesariamente sinónimo de muchas variables, como se creía en los cálculos de 
probabilidades de la termodinámica, sino resultado de la acumulación 
cuantitativa de las perturbaciones en los movimientos simples y mecánicos.

Los fractales se presentan como la "huella del caos". La fractalidad del caos, 
junto con la misma teoría del caos, y la nueva matemática que ésta implica 
(llamada topología), está en contradicción con la matemática euclidiana, que 
sólo puede trabajar con realidades que se puedan medir con reglas, escuadras y 
compases, —de la misma manera que la lógica formal sólo trabaja con tautologías 
y que el liberalismo sólo tiene ojos para el desarrollo lineal (una verdadera 
obsesión enfermiza)— calificando a la realidad contradictoria, abollada, 
irregular como una monstruosidad en lugar de adaptar su teoría a la realidad 
(éste es el Talón de Aquiles del idealismo). Como decía Goethe: "gris es la 
teoría, pero verde es el árbol de la vida". De hechofractal significa fractura. 
Las fracturas y las irregularidades nos rodean por todas partes; como 
decía Mandelbrot (trabajador de la IBM, que desentrañó estas estructuras): "las 
nubes no son esferas, las montañas no son conos, las costas no son círculos, ni 
la corteza de los árboles es lisa ni un rayo viaja en línea recta... La 
naturaleza no solamente exhibe un grado mayor, sino también un nivel diferente 
de complejidad". Los fractales no sólo aparecen en formas inertes sino, sobre 
todo, en la dinámica de procesos caóticos. Parece que la mayoría de los objetos 
y procesos del universo sonfractales (aunque más complejos que cualquier 
abstracción). La distribución de estrellas y galaxias en el universo mismo tiene 
una estructura fractal, la superficie de las células, la forma de la nubes, las 
montañas, la radiación de los quásares, los árboles, los líquenes, los 
relámpagos, la membrana nasal, los pulmones, las venas y arterias, los nervios, 
el cerebro, la distribución de palabras en este texto, los ruidos de fondo en un 
aparato telefónico, la música de Beethoven, etc. ¡La matemática había ignorado 
la mayoría de los objetos del universo! En realidad la matemática euclidiana 
como la lógica formal y el liberalismo, tienen campos de aplicación muy 
estrechos y se convierten en abstracciones vacías mas allá de cierto punto.

Los fractales son estructuras que están plegadas sobre sí mismas de manera 
infinita, son tan irregulares que no son diferenciables matemáticamente en 
ningún punto, es decir, es imposible trazar una tangente en cualquiera de sus 
infinitos puntos. Se suponía que la matemática era un ejemplo de perfección 
absoluta, ¡nada más lejano a la realidad! Cuando vayamos a la costa, por 
ejemplo, intentemos medir su perímetro; como dice Eliezer Braun: "podemos seguir 
indefinidamente de esta manera, tomando unidades cada vez más y más pequeñas. 

429
Intuitivamente esperaríamos que la sucesión de valores que se obtenga para las 
longitudes de la costa, medidas de esta manera, tendería a alcanzar un valor 
bien definido que sería la verdadera longitud de la costa; sin embargo, esto no 
ocurre; de hecho lo que sucede es que esta sucesión de longitudes aumenta cada 
vez más y más. Es decir, al seguir el proceso indefinidamente la longitud de la 
costa que se mide se va haciendo más y más grande, es decir, ¡la longitud de la 
costa tiene un valor infinito!"78. La curva de Koch es un ejemplo de una línea 
infinitamente plegada, que encierra un área finitamente determinada, como sucede 
en el perímetro de los continentes (véase la figura).

Los paladines de la lógica formal habían supuesto que el finito y el infinito se 
encontraban separados por un abismo irreductible, en donde lo finito se dejaba 
para la ciencia y el infinito para el misticismo; de hecho las bases del 
positivismo están en el supuesto de que sólo conocemos las cosas particulares; 
pero en la vida real, el infinito se encuentra en lo finito y lo finito no es 
más que un elemento de un infinito que, al mismo tiempo, jamás conoceremos en su 
totalidad, ¡de otra forma llegaríamos al absurdo de una totalidad infinita y sin 
embargo contada! Por eso cuando descubrimos una ley en un conjunto de fenómenos 
finitos, podemos estar seguros que en todos los infinitos casos en donde esas 
condiciones se presenten, la ley se cumplirá incondicionalmente. Engels había 
comentado que "la infinitud es una contradicción en sí misma. Ya es una 
contradicción el que una infinitud tenga que estar compuesta de honradas 
finitudes (...) precisamente porque la infinitud es una contradicción, es 
infinita, un proceso que se desarrolla sin fin en el espacio y en el tiempo. La 
superación de la contradicción sería el final de la infinitud"80.

Otro ejemplo es el movimiento browniano (se supone que las partículas 
subatómicas y las partículas suspendidas describen este movimiento) que en su 
trayectoria describe una infinita irregularidad de movimientos, de tal manera 
que, si nosotros establecemos los puntos por los que pasa en un tiempo 
determinado y dibujamos su trayectoria (en un segundo por ejemplo), para la 
medición en milésimas de segundo en el mismo lapso, la partícula habrá pasado 
por otra infinidad de puntos aleatoriamente y así hasta el infinito, para 
tiempos más cortos, pero, además, el dibujo de su trayectoria 
seráfractal (autosimilar) en todos los niveles. Es decir su irregularidad tendrá 
un patrón o un orden fractal (véase la figura).

Los fractales, por tanto, son estructuras geométricas verdaderamente 
contradictorias (patológicas como se les llama en matemáticas). Así, el polvo de 
Cantor (un fractal de una dimensión) tiene longitud cero y al mismo tiempo, 
infinidad de puntos (porque a medida que disminuimos la escala, la longitud 
total tiende a cero, mientras que "el polvo" va aumentando), o la empaquetadura 

430
de Sierpinski (fractal en dos dimensiones), que tiene un perímetro infinito, 
pero su área es de cero (véase la figura) o la esponja de Menger (fractal en 
tres dimensiones), que tiene área superficial infinita y volumen nulo y por si 
fuera poco, todas estas estructuras tienen autosimilitud hasta el infinito 
(véase la figura).

Debemos repetir que estos monstruos matemáticos no son curiosidades: "hay cada 
vez más pruebas", nos dice Leonard Sander, estudioso de la formación espontánea 
de fractales en la naturaleza, "de que la naturaleza siente un amor 
verdaderamente profundo por las formas fractales"82. ¡Incluso el crecimiento 
demográfico de las ciudades tiene una estructura fractal! (véase la imagen).

Para evitar cualquier interpretación mística de la fractalidad hay que aclarar 
que, aunque la estructura fractal constituye una aproximación mucho más cercana 
a la realidad que la matemática euclidiana, la fractalidad en la naturaleza es 
más compleja aún que los modelos generados por computadora. En primer lugar 
la autosimilitud de las estructuras y procesos caóticos constituye 
una autosimilutud estadística, se repetirá considerando procesos y estructuras 
del mismo tipo a gran escala; en segundo lugar la autosimilitud fractal en la 
naturaleza tiene límites cuantitativos más allá de los cuales se pasa a otro 
tipo de estructura. "A nivel microscópico llegará el momento en que la figura se 
desdibuje y nos encontremos con los átomos y las moléculas; a nivel macroscópico 
siempre hay una frontera en que el objeto real cambia de un tipo de patrón a 
otro"84. Estos saltos cualitativos de una estructura fractal a otra están 
determinados por las leyes mismas del proceso estudiado, por ejemplo, por la 
gravedad (a nivel macroscópico) o por la función de onda (a nivel microscópico). 
No es suficiente con mostrar la estructura fractal de un proceso, puesto que 
la fractalidad se da en fenómenos muy diversos; es necesario, además y sobre 
todo, explicar las leyes inmanentes al fenómeno y descubrir cómo éstas se 
relacionan con la forma fractal. Para no mistificar la teoría es necesario, 
pues, vincular orgánicamente la forma y el contenido del proceso estudiado o en 
otras palabras concebirlo dialécticamente.

Los asombrosos conjuntos de Mandelbrot, figura resultado de representar en un 
plano complejo números generados con iteraciones (repeticiones de una misma 
operación sucesivamente sobre los resultados obtenidos) sobre la serie de 
números complejos llamados "conjuntos de Julia", utilizando una función 
cuadrática, constituyen una clase de fractales que se acercan aún más a 
la fractalidad que se presenta en la realidad concreta. Estos son un conjunto de 
"fractales no lineales" que presentan autosimilitud conservada hasta cierto 
punto, para transformarse posteriormente en otro tipo de estructuras fractales, 
que se transforman en otras y otras por medio de saltos dialécticos hasta el 

431
infinito (véase la imagen del conjunto de Mandelbrot) así como en la naturaleza 
nos encontramos progresivamente en una dinámica infinita con estructuras 
autoorganizadas a diversas escalas de la realidad, estructuras formales que ya 
predicen la existencia de leyes cualitativamente diferentes con cada nuevo salto 
dialéctico: cúmulos de galaxias, galaxias, estrellas y planetas, cordilleras, 
moléculas, átomos, partículas subatómicas, quarks...

El comportamiento del simple péndulo que veíamos más arriba, por tanto, no es 
una simple anécdota académica. Éste se presenta también en el flujo turbulento, 
en el tiempo meteorológico, en la dinámica de la población; y en un número cada 
vez más creciente de multitud de fenómenos que parecían incomprensibles, 
inclusive, el movimiento del sistema solar. En este último, que se supone es un 
sistema hamiltoniano (que conserva su energía) y, además, es el símbolo clásico 
del mecanicismo, nos encontramos con nuestro buen amigo el caos. Newton 
descubrió las leyes que rigen la interacción de dos cuerpos por el simple hecho 
de tener masa y consideró al sistema solar como la simple interacción entre el 
sol y los planetas como si éste se redujera a un sistema de dos cuerpos, 
considerando que la gravedad de los demás planetas y masas que componen el 
sistema solar eran despreciables en comparación a la fuerza gravitatoria del sol 
y, por tanto, lo trató como un sistema estable para toda la eternidad, desde que 
Dios se dignó a darle el primer impulso —de paso vemos como la imposibilidad de 
entender la relación entre lo necesario (las leyes de Newton en este caso) y lo 
accidental (la perturbación de los otros cuerpos) llevó a Newton directamente 
a la Teología para tratar de garantizar la estabilidad del universo—. Sin 
embargo, la mecánica newtoniana significó un paso de gigante en la comprensión 
de la naturaleza ya mucho antes con este método, aunque aún sin bases teóricas 
firmes, Tales de Mileto predijo un eclipse que tuvo lugar el 28 de mayo del año 
584 a.C.

Para los tiempos humanos la estabilidad del sistema solar está garantizada pero 
el tiempo es, como vimos, relativo, y para el sistema solar los tiempos humanos 
no son más que suspiros; en realidad el sistema solar no se reduce a la 
atracción entre dos cuerpos; las cosas se complican con la interacción 
gravitatoria entre tres cuerpos y cada vez que agregamos un cuerpo, las cosas se 
complican aún más; las leyes que dominan los sistemas de más de dos cuerpos no 
son lineales y, por ende, son susceptibles a las condiciones iniciales. "Resultó 
que el comportamiento de los nueve planetas, a partir de los próximos cuatro 
millones de años, revela que el sistema planetario está en un estado caótico. 
Para nuestra tranquilidad, esto no significa que el caos en el sistema solar sea 
de tales características que se vaya a aniquilar dentro de poco tiempo, con 
planetas chocando entre sí, o huyendo hacia otras galaxias, sino que sus órbitas 

432
son impredecibles cuando se calculan para tiempos del orden de los cien millones 
de años y, por lo tanto, sólo se puede anticipar que se moverán en el espacio 
dentro de zonas determinadas"85.

Esto significa que si un humilde asteroide pasa un kilómetro mas cerca de la 
Tierra, dentro de cuatro millones de años, esa diferencia, junto con las miles 
de perturbaciones provocadas por otros cuerpos miserables, se habrá amplificado 
exponencialmente y cambiará su órbita radicalmente. Este comportamiento se 
observa ya en los asteroides que, para pequeños cambios en la distancia del Sol, 
entran en una región caótica; lo mismo se encontró en la órbita de Plutón y en 
el cambio periódico del giro sobre su eje de un satélite de Saturno (Hiperión), 
provocado por simples irregularidades en su forma elongada.

d) El orden que nace del caos: Ventanas de orden

En la dinámica de la población, el caos se presenta de una manera increíble; lo 
explicaremos porque este comportamiento es esencial en el surgimiento de la 
complejidad a partir de lo lineal, del caos a partir de lo complejo y del orden 
a partir del caos. La ecuación demográfica parecía tener siempre un 
comportamiento lineal y cuando se daban perturbaciones se atribuía al 
desconocimiento de las variables. Pero en 1970, estudiando el ciclo de insectos 
y bacterias, se descubrió algo asombroso. Cuando la tasa de natalidad es menor a 
uno, la población desaparece paulatinamente; cuando la tasa de población es 
mayor a dos, después de algunas fluctuaciones, la tasa de la población queda 
estabilizada en 0.5, para 2.7 la tasa fluctúa en virtud del crecimiento y los 
depredadores para, finalmente, estabilizarse en 0.63; hasta una tasa menor a 
tres pero mayor a 1, la población queda estacionaria teniendo como atractores a 
una sola cifra (dependiendo de la tasa) y no importa cuantos ciclos 
consideremos, la población tenderá a estabilizarse en suatractor; pero en el 
punto crítico de 3.0 se da el cambio cualitativo, la tasa de población se hace 
compleja y el atractor se bifurca en dos valores estables que se alternan 
anualmente (véase la gráfica) que representa la interacción entre los 
depredadores y la población considerada, provocando ciclos periódicos. Para una 
tasa de 3.4495, los ciclos bifurcados se vuelven inestables y se dividen en 
cuatro estados estables que se vuelven a alternar; si seguimos aumentando la 
tasa, los atractores se bifurcan de nuevo a 8, luego a 16, etc. Hasta aquí vimos 
como un cambio cuantitativo en un esquema lineal y determinado provoca un cambio 
cualitativo a la complejidad; no obstante, el sistema sigue siendo perfectamente 
determinable; pero para un punto crítico poco menor a 3.56999 el sistema se 
vuelve inestable, cualquier cambio infinitesimal puede desencadenar el caos; 

433
cuando éste se desencadena, tenemos un proceso irreversible que ha saltado al 
caos (véase la figura), ya es imposible determinar la tasa de población para el 
año siguiente.

Cuando estamos al borde del caos, el más pequeño cambio cuantitativo provoca una 
brusca transición cualitativa, como una explosión atómica o como el inicio de 
una revolución social, que puede estallar por el más mínimo ataque a los niveles 
de vida (como, por cierto, se dio en Argentina cuando la clase media vio 
esfumados sus ahorros). Este punto crítico está expresado en el famoso efecto 
mariposa acuñado por Lorenz, que en meteorología representa que, más allá de 
cierto tiempo, nuestra predicción en las condiciones meteorológicas ya no se 
aplica, en virtud de los mas pequeños cambios meteorológicos en las condiciones 
iniciales: así, el batir de las alas de una mariposa en un punto crítico podría 
marcar la diferencia, varias semanas más tarde, entre un ciclón y una sequía (el 
siguiente esquema representa la diferencia del batir de las alas de una mariposa 
o más precisamente los atractores de Lorenz).

Una vez llegados al caos, vemos que éste tiene un orden, porque está limitado al 
espacio caótico (o, en el espacio de fases, al toro) y lo más asombroso es que, 
dentro del mismo mar caótico, encontramos zonas llamadas "ventanas de orden" que 
vuelven a dar lugar a tasas lineales por algunos períodos y que 
son fractales con respecto a la escala inicial; aquí el orden vuelve a nacer del 
caos por un incremento cuantitativo en una interacción dialéctica de transición 
a los contrarios y de unidad de los opuestos (véase la imagen).

En contra de lo que se pudiera pensar, las características de la transición del 
orden que se bifurca y de la bifurcación que transita al caos, son tan 
universales como "Pi", estas características comunes se expresan en los números 
de Feigenbaum*, que "aparecen de modo universal y caracterizan la transición del 
orden al caos; son fundamentales para la naturaleza"89, nos dice el 
doctor Rañada. Lo que interesa aquí es el hecho de que las características de la 
dinámica caótica de las poblaciones se presenta en una cantidad cada vez mayor 
de fenómenos que van desde el humo del cigarro que se bifurca antes de 
desparecer y las oscilaciones del ojo de los esquizofrénicos, pasando por la 
transición del flujo laminar al turbulento, los casos de sarampión en 
Nueva York, los ritmos cardiacos que se bifurcan justo antes de un ataque 
cardiaco, hasta la actividad cerebral. En todos estos casos, un simple aumento 
de un parámetro específico provoca un salto cualitativo.

434
e) La ‘creatividad’ del caos: la objetividad progresiva del tiempo

Quizá lo más importante en esta fascinante teoría es que, de acuerdo 
con Ilya Prigogine y como veíamos con respecto a los fractales no lineales, la 
transición del orden al caos puede constituir un proceso creativo y de 
surgimiento de nuevas leyes y nuevos niveles de desarrollo, de la misma forma 
que para Marx la anarquía del capital y las revoluciones que emergen de lo 
caduco, que sin duda son fenómenos de rompimiento de la continuidad y de caos, 
son el caldo de cultivo donde todo lo inamovible y eterno es barrido y en donde 
se empieza a gestar una nueva sociedad. "Los fenómenos irreversibles no se 
reducen, como se pensaba antes, a un aumento del desorden", comenta Prigogine, 
"Estos fenómenos, por el contrario, tienen un papel constructivo muy 
importante"90.

Así, de acuerdo con la ciencia del caos, los cerebros que en su encefalograma 
tienen estructuras fractales o complejas, corresponden a los estados mentales 
más alertas. Los sistemas biológicos por ser inestables se adaptan, cambian y 
sobreviven. Sin el caos, el universo estaría muerto. En el caos aleatorio de las 
supernovas, las partículas elementales vencen el punto de increíble oposición 
del electromagnetismo que las separa uniéndose en virtud de la fuerza nuclear 
fuerte; el caos que une a las micropartículas permite el nacimiento de los 
núcleos atómicos, que a su vez atrapan electrones y forman los diferentes átomos 
para formar planetas, vida, mente y sociedades tecnológicas. Cada punto de 
transición de lo potencial a lo irreversible crea nuevas leyes y nuevas 
posibilidades de evolución; negaciones diferentes a sus antecedentes y que, por 
el famoso "efecto mariposa", no se pueden anticipar para toda la eternidad. Un 
universo sin caos sería un universo eternamente muerto y eternamente el mismo. 
Como se puede ver en la siguiente figura, parece ser que el caos esta en el 
tuétano mismo del universo (véase la figura).

La flecha del tiempo para la teoría del caos es un proceso creativo. "Esta 
flecha del tiempo sigue presente en la actualidad. Es más, existe un estrecho 
vínculo entre irreversibilidad y complejidad. Cuanto más nos elevamos en los 
niveles de complejidad (química, vida, cerebro), más evidente es la flecha del 
tiempo"92. Esto, en verdad, es una reivindicación de la idea dialéctica, tan 
menoscabada por la crítica superficial, del carácter progresivo del desarrollo a 
través de contradicciones.

La flecha del tiempo era para Ludwig Boltzmann sinónimo de muerte térmica (o 
aumento de la entropía), que convertiría al universo en una eterna nada incapaz 
de volver a crear la luz de una estrella. La evolución del cosmos sólo tenía un 
camino sin retorno a la muerte eterna; se concebía a la segunda ley de la 

435
termodinámica aplicable a un sistema termodinámico aislado, como una ley 
absoluta de la naturaleza; paradójicamente al mismo tiempo 
queBoltzmann planteaba esta idea, Darwin concebía una teoría en la que explica 
que de la naturaleza podía surgir vida; pero hasta la física anterior al Caos, 
sólo se comprendía cabalmente el primer boleto del universo. No obstante las 
limitaciones de su tiempo, Engels había criticado la idea del final de todo 
movimiento "el movimiento no puede, pues, crearse sino sólo transformarse y 
transportarse (...) por todo ello, un estado inmóvil de la materia resulta ser 
una de las representaciones más vacías, para llegar a ella hay que imaginarse el 
equilibrio relativo en que puede encontrarse un cuerpo en esta tierra como un 
reposo absoluto, para generalizarlo luego al conjunto del universo"93. Con la 
teoría del caos, se ha dado un salto cualitativo que ha confirmado 
experimentalmente esta tesis de Engels.

Afortunadamente el Universo no es un sistema aislado reducible a las leyes de la 
termodinámica. Las estructuras que se autoorganizan están por todas partes, la 
interacción y el caos pueden organizar una vez llegados al punto de 
irreversibilidad de manera espontánea a la materia, aun en la dinámica de los 
gases, donde se supone sólo se tiene el camino hacia el desorden. Un ejemplo 
asombroso es el reloj químico, en donde una mezcla específica de gases de 
diferentes colores a cierta temperatura, que de acuerdo a la segunda ley debería 
llegar al equilibrio inerte "se observó que la solución cambiaba periódicamente 
su color, pasando a intervalos regulares de incolora a amarillo pálido para 
volver a hacerse incolora, lo que significa que la reacción retrocedía y volvía 
a avanzar como si no pudiese decidir qué sentido tomar"94.

La importancia de este ejemplo en la autoorganización de la materia la 
comenta Prigogine: "Tal grado de orden surgiendo de la actividad de miles de 
millones de moléculas parece increíble y, de hecho, si no se hubieran observado 
relojes químicos, nadie creería que un proceso semejante fuera posible. Para 
cambiar el color todas al mismo tiempo, las moléculas deben tener una manera de 
comunicarse. El sistema tiene que actuar como un todo. (...) Las 
estructuras disipativas introducen probablemente uno de los mecanismos físicos 
más simples de comunicación"95, parece que, después de todo, el universo no 
tiene un billete sólo hacia la muerte; el billete hacia la muerte implicaba su 
contrario, vida y muerte se condicionan recíprocamente; la muerte de una 
estrella es el nacimiento potencial de un nuevo sistema, de la misma forma que 
el metabolismo y la muerte de unas células significa el desarrollo y la vida del 
organismo.

Ya habíamos comentado en otra parte que Einstein había puesto al tiempo en 
relación al movimiento relativo de la materia. Para Prigogine las 

436
características de irreversibilidad, bifurcación, caos y nuevo orden propios de 
los sistemas caóticos le dan al tiempo, además de objetividad, un carácter 
irreversible con lo cual pretende fundamentar la flecha del tiempo de Boltzmann, 
pero, ahora, como una flecha creativa ad infinitum y no como una flecha hacia la 
muerte; en donde los puntos de rompimiento de la continuidad son también 
rompimiento de la simetría temporal. Al igual queEinstein el tiempo depende del 
movimiento de un sistema, pero se agrega la idea de que los sistemas dinámicos 
tienden a la complejidad o en lenguaje dialéctico a la negación de la negación, 
en una dinámica en espiral, en un progreso contradictorio.

La teoría del caos ha permitido una comprensión profundamente dialéctica de la 
naturaleza y una promesa de cautivantes aplicaciones en la ciencia y la técnica, 
que van desde la transmisión de información compleja con operaciones muy 
sencillas, la reproducción de modelos y fenómenos naturales, que parecían 
imposibles de reproducir; hasta el control de procesos caóticos para predecir, 
por ejemplo, un ataque al corazón o estimular al caos para que genere una 
infinidad de estados ordenados de acuerdo con lo que se requiera en un momento 
dado. Dejemos que Prigogine termine con sus propias palabras este capítulo: 
"Después que tenemos la irreversibilidad, la flecha del tiempo, podemos estudiar 
su efecto en otras rupturas de la simetría y la aparición del orden y el 
desorden a la vez, a escala macroscópica. En ambos casos el orden y el desorden 
emergen, a la vez, del caos. Si la descripción fundamental se hiciese en 
términos de leyes dinámicas estables, no tendríamos entropía, pero tampoco 
coherencia debida al no equilibrio, ni posibilidad de hablar de estructuras 
biológicas, y por lo tanto tendríamos un universo del que estaría excluido el 
hombre. (...) Tradicionalmente estas leyes (las leyes de la naturaleza) estaban 
asociadas al determinismo y a la reversibilidad en el tiempo. En los sistemas 
inestables las leyes de la naturaleza se tornan fundamentalmente 
probabilísticas. Expresan lo que es posible, y no lo que es cierto. Esto resulta 
especialmente palpable en los primeros momentos del universo. En este momento el 
universo se puede comparar con un niño que acaba de nacer y podría llegar a ser 
arquitecto, músico o empleado de banca, pero no puede llegar a serlo todo a la 
vez. Evidentemente, la ley probabilista contiene fluctuaciones e incluso 
bifurcaciones"96 y termina comentando que para la teoría del caos, a diferencia 
de la visión lúgubre de la muerte térmica: "El mensaje es (..) optimista. La 
ciencia empieza a ser capaz de describir la creatividad de la naturaleza, y hoy 
el tiempo ya no habla de soledad, sino de alianza entre el hombre y la 
naturaleza descrita por él"97. De la misma manera, como dice Alan Woods, a los 
marxistas, a diferencia de la decadente filosofía del pesimismo: "Se nos ha 
acusado de ser unos optimistas incorregibles. Pues bien, nos declaramos 
culpables. Los marxistas somos optimistas por naturaleza. Pero nuestro optimismo 

437
no es artificial, sino que está arraigado en dos cosas; la filosofía del 
materialismo dialéctico y nuestra confianza en la clase obrera y en el futuro 
socialista de la humanidad"98.

IV. MECÁNICA CUÁNTICA Y DIALÉCTICA

El átomo mueve al mundo; nada más cierto, pero también es certísimo que el mundo 
mueve al átomo, ya que el átomo posee fuerza propia, ésta no puede quedar sin 
efecto.

 Denis Diderot, 1713­1784

Introducción

La física cuántica es una de las grandes revoluciones científicas del siglo XX, 
sólo comparable a la revolución de la física newtoniana del siglo XVIII. 
Representa un aumento espectacular en los horizontes del conocimiento y del 
potencial productivo de los hombres; es perfectamente posible poner esas fuerzas 
increíbles descubiertas por la física cuántica y la ciencia moderna bajo el 
control democrático y racional de los trabajadores, arrebatándola al grupo de 
parásitos en cuyo interés egoísta de ganancia se desarrolla y se utiliza.

Entre otras cosas, la física cuántica ha podido arrojar luz a fenómenos que van 
desde lo más pequeño hasta ahora conocido (los quarks y los gluones), pasando 
por la tabla periódica de los elementos, hasta lo infinitamente grande: la 
formación de las estrellas y la explosión de supernovas, procesos que son la 
matriz de todos los elementos químicos que hacen posible la existencia de soles, 
galaxias y, por supuesto, la vida y el pensamiento. Esto representa por sí mismo 
una expresión de que lo infinitamente pequeño y lo infinitamente grande son 
aspectos que sólo pueden ser comprendidos en su interconexión.

A pesar de ser una de las grandes conquistas del género humano, la física 
cuántica, sin hablar de la ciencia y la cultura en general, es una gran 
desconocida para la mayoría de las personas. De hecho, las ideas de la ciencia 
son el monopolio de un grupo reducido de iluminados, trabajando para las grandes 
corporaciones, encerrados en las universidades y que a veces, además de la 
ciencia, tienen intereses más sustanciosos que defender. Está claro que, dentro 
del capitalismo, la población tiene suficientes cosas de qué ocuparse antes que 
de la ciencia y de la cultura como, por ejemplo, el hambre, el desempleo y, en 
general, sobrevivir al día siguiente.

Por si esto fuera poco, en realidad lo que se enseña al respecto en la escuela, 
con maestros mal pagados, con estudiantes mal comidos y con planes de estudio en 

438
constante agresión por parte de la burguesía, sirve de muy poco para 
interesarlos en la ciencia y en general en cualquier cosa que no sea, para los 
que tienen el privilegio de ir a la escuela, salir lo más pronto posible y 
conseguir un empleo para sobrevivir. Generalmente, por ejemplo, se enseña en la 
escuela secundaria que el átomo es como un sistema planetario en el que los 
electrones de carga negativa orbitan en círculos perfectos alrededor de un 
núcleo formado de protones, con carga idéntica al electrón pero de signo 
contrario y de neutrones con masa igual a la del protón, pero sin carga. Esta 
representación por supuesto es desafortunada y sumamente abstracta y consiste en 
la transposición más o menos arbitraria del movimiento newtoniano a un nivel de 
la realidad material que requiere otros instrumentos conceptuales para 
reflejarla con mayor aproximación. Para poder comenzar con nuestro tema, hay que 
acercarse un poco más a la complejidad concreta del átomo y visualizar el 
escenario en donde se desenvuelve la física cuántica estándar y la relativista, 
aún a costa de alejarnos un poco de los familiares esquemas académicos.

Los electrones, cuyo tamaño es al ser humano lo que el ser humano es a la vía 
láctea y cuya masa es al mosquito, lo que el mosquito es al sol99, que giran 
alrededor del núcleo, no describen un movimiento newtoniano en el que se pueda 
localizar el cuerpo en movimiento con absoluta precisión (a=a) "La posición de 
una partícula, como el electrón", nos comenta el profesor M. Y. Han, uno de los 
descubridores de los quarks, "nunca está perfectamente definida, sino que se 
extiende sobre una región, dando lugar a incertidumbres inherentes. Una órbita 
circular realmente se parece más a un anillo toroidal, con contornos muy 
difusos. Se parecen mucho a los anillos que se hacen con humo de cigarros, con 
una distribución desigual de humo que esta girando, fluctuando y cambiando 
constantemente"100. El movimiento de las partículas subatómicas es caótico, pero 
el caos, como vimos anteriormente, es al mismo tiempo ordenado, puede ser 
representado mediante un espacio de fases, en este caso un 
anillo toroidal llamado nube electrónica, que representa el espacio en donde 
podemos encontrar con mayor probabilidad un electrón que, al mismo tiempo, 
estará cambiando su posición constantemente y dejando infinitos puntos del campo 
de probabilidades por los que no pasa. Por esta razón, la delimitación del átomo 
no es precisa, sino contradictoria y dialéctica, porque cuando la nube del 
último nivel de energía comienza a difuminarse por completo, es posible aun 
encontrar electrones que extienden el límite del átomo un poco más allá, pero en 
la siguiente millonésima de segundo no existirá ninguno (aun así como veremos 
más adelante, un miserable átomo tiene un alcance de influencia infinito).

El tamaño de los átomos fluctúa entre el pequeño margen de 1 a 
3 angstroms (1 angstrom=1x10­10 metros) y aún así los núcleos atómicos son 

439
60.000 veces mas pequeños que el átomo, cuya unidad de medida son 
los fermis (1x10­35 metros), para dar un ejemplo de lo que esto significa, 
tendríamos que imaginar esquemáticamente "un aeropuerto cuya pista principal 
tiene tres millas de longitud. Justo en la mitad de la pista en el centro del 
aeropuerto, cuyos límites están marcados por barreras de 12 millas hay una 
pelota de baloncesto de cerca de un pie de diámetro. En un extremo lejano del 
aeropuerto, a los pies de la barrera, escondido entre las hierbas, hay 
una piedrecita del tamaño de un frijol"102. En este ejemplo los límites del 
aeropuerto representan los límites del átomo, el balón representa el núcleo y 
el frijol al electrón. ¡En realidad el esquema simplista del colegio no era más 
que una superficial e inadecuada caricatura! En este escenario alucinante se 
desenvuelven los procesos estudiados por la física cuántica normal y relativista

Cuando hablamos del mundo subatómico, estamos ante fenómenos que involucran 
dimensiones de 10­10 metros (un angstrom); masas del orden de 9 x 10­28 grs. y a 
tiempos característicos que fluctúan entre 10­10 a 10­20 segundos. Dimensiones y 
procesos que escapan a la vida cotidiana y sobrepasan a la imaginación más 
desbordante. Hablamos de un nivel de la realidad que ya no es posible explicar 
con los viejos modelos cartesianos, ni con la vieja lógica del sentido común (a 
menos que caigamos en el idealismo y en el subjetivismo). En estas condiciones 
estamos en el punto crítico más allá del cual nos encontramos con partículas 
extremadamente susceptibles a la interacción recíproca, o dialéctica diríamos 
nosotros; las variables que describen los fenómenos subatómicos, a diferencia de 
la mecánica de Galileo y Newton, no son independientes y están orgánicamente 
interrelacionadas, no se puede alterar una variable sin modificar otras en el 
acto. Un fenómeno que, por ejemplo, desa­fía el sano sentido común y que es 
objeto de una acalorada polémica, fundamentalmente entre una posición 
materialista (Einstein, Planck, Prigogine y otros) y la ortodoxa o subjetivista 
(Heisenberg, Borh y otros), es que mientras con mayor precisión conocemos el 
momento o velocidad de una partícula, más indeterminada es su posición y 
viceversa (el famoso principio de incertidumbre enunciado por Heisenberg). Por 
si fuera poco, el movimiento de estas partículas es dual (onda y partícula) 
y probabilístico (como planteó Louis de Broglie): a toda partícula le 
corresponde una onda y al mismo tiempo las propiedades de la onda están 
determinados por las partículas que la portan. Si bien no es posible conocer con 
exactitud la posición y la velocidad de una partícula individual, cuyo 
movimiento es caótico, es posible saber la probabilidad de encontrar una 
partícula en un punto determinado, considerando un gran número de partículas 
mediante la visualización del espacio de fases (principalmente gracias a la 
mecánica matricial de Erwin Schrödinger), refutando de paso el prejuicio formal 
de que el todo es igual a la suma de las partes.

440
Todas las propiedades del átomo sin excepción están cuantizadas, es decir, que 
sólo cambian a otro nivel de energía —transformando sus propiedades o pasando a 
ser una partícula totalmente diferente por la emisión o absorción de energía (en 
forma de luz, rayos X, rayos gamma, alfa, u otras partículas)— , en puntos 
críticos que están relacionados con la constante Planck, puntos en donde se da 
el salto cualitativo o salto cuántico. En general, los paradigmas relacionados 
con la física cuántica además de la teoría de la relatividad, son 
fundamentalmente dos: la constante Planckrelacionada además con la unidad 
materia y energía; y el principio de incertidumbre de Heisenberg. Discutiremos 
sus implicaciones filosóficas.

A lo anterior se debe agregar que a niveles aún más pequeños en el interior del 
núcleo atómico (cuya medida es como veíamos el fermi), a velocidades aún 
mayores, los efectos de la relatividad comienzan a hacer efecto; entramos aquí 
al mundo de la mecánica cuántica relativista, cuyas ideas fundamentales son el 
principio de Paul Dirac, según el cual a toda partícula le corresponde una 
antipartícula. La idea de los cuantos de acción o interacciones entre las 
partículas, proceso que supone, por ejemplo, en la fuerza nuclear fuerte, la 
emisión espontánea de partículas o cuantos que transforman en su contrario en 
tiempos inimaginablemente cortos, a la partícula emisora y receptora: 
transformación por la que podemos decir que son ellas mismas y no son las mismas 
en millonésimas de segundo. Los cuantos de acción son responsables de las cuatro 
fuerzas o campos principales de la naturaleza: la fuerza electromagnética —con 
sus polos opuestos implícitos que explica desde la interacción y unión entre 
moléculas, hasta la interacción sináptica—; la fuerza nuclear fuerte, atractiva 
y repulsiva al mismo tiempo, que explica la unidad del núcleo atómico; la fuerza 
nuclear débil, que explica la desintegración radioactiva y el hecho de que los 
átomos inestables se conviertan con el tiempo en un elemento totalmente 
diferente; y, finalmente, el campo gravitatorio (cuyo cuanto aún se desconoce). 
Aquí no hay prejuicio más vulgar que la idea metafísica de que A=A. En realidad 
el átomo es una suma de contradicciones en cuyo interior los opuestos se 
transforman el uno en el otro; colisionan y se transforman en energía (luz) y en 
donde la energía es absorbida transformándose en materia; en donde solamente en 
puntos críticos se dan transformaciones cualitativas tanto del átomo como de sus 
"partículas elementales"; en donde el movimiento se expresa en la unidad 
dialéctica entre onda y partícula y en donde partículas cada vez más pequeñas 
presuntamente elementales, se encuentran en un proceso aparentemente sin final, 
confirmando la idea dialéctica de la complejidad infinita de la realidad y el 
proceso infinito de conocimiento humano.

441
No cabe duda de que una de las mejores maneras de fundamentar, nutrir y 
desarrollar la filosofía de Marx y Engels es estudiando estas maravillosas 
conquistas del pensamiento humano y, al mismo tiempo, aportar una salida al 
subjetivismo e idealismo de la ortodoxia teórica de la escuela de Copenhague, 
pantano en el que desemboca el positivismo, y tener una actitud materialista 
consecuente de la física cuántica; una concepción dialéctica de la naturaleza. 
En este capítulo exploraremos todas estas fascinantes implicaciones. Con este 
esquema inicial pasemos, por fin, a abordar la dialéctica del mundo subatómico.

a) Mecánica cuántica estándar

1) Los saltos cuánticos o saltos dialécticos en la mecánica cuántica

En realidad, el átomo cumple estrictamente con la ley hegeliana de la línea 
nodal de medida. En física cuántica el aumento cuantitativo de energía 
suministrado al átomo se transforma, en puntos críticos, en un cambio 
cualitativo. El átomo no cumple con el dogma linneano (variante naturalista del 
liberalismo reformista) según el cual "la naturaleza no da saltos". Más bien al 
contrario, en física cuántica los cambios se dan a través de saltos bruscos y 
repentinos. Una de las características más importantes del átomo y una de las 
ideas fundamentales que le da el nombre a la física cuántica, es el hecho de que 
está cuantificado (como lo propuso Bohr, retomando las ideas de Planck). Las 
órbitas que describen las nubes electrónicas alrededor del núcleo, por ejemplo, 
representan energía o niveles de energía ­energía resultante de la interacción 
entre los propios electrones y de estos con el núcleo, llamada fuerza 
electromagnética­, que tiene valores determinados, discretos o cuantificados. 
"Sería como un hipotético rascacielos", nos dice M. Y. Han, "en el que sólo 
existiese un número intermitente de plantas: 3, 8, 16, 64...son las únicas 
plantas que existen en el edificio y no hay nada entre ellas"103. Podemos 
suministrar energía a un átomo (bombardeándolo con electrones de baja energía 
por ejemplo) y no sucederá nada, el átomo seguirá siendo el mismo, mientras no 
lleguemos a los puntos críticos en los que la cantidad de energía se transforma 
en calidad, punto en donde los electrones saltarán a un nivel mayor de energía 
convirtiendo al átomo en uno más energético y emitiendo rayos X al mismo tiempo 
(bombardeándolo con electrones de alta energía por ejemplo). La diferencia entre 
los niveles de energía entre las órbitas es de 10–34 julios (1 julio igual a 1 
vatio por segundo, NE) el valor de la constante Planck, valor esencial en la 
física moderna que determina el punto crítico donde se transforman sus 
cualidades.

442
Esta característica no es un simple dato curioso del átomo, es la idea esencial 
de la física cuántica: todas las propiedades del átomo están cuantizadas o en 
lenguaje dialéctico se transforman mediante saltos cualitativos, no sólo las 
orbitas de los electrones, sino todas sus características: el tamaño del átomo, 
relacionado con la función de onda de Schrödinger, es decir, con el espacio 
donde hay probabilidad de encontrar un electrón; la forma geométrica del campo 
que emite el átomo o las partículas en su interacción dialéctica4554 
(electromagnético, fuerte y débil), la cual sólo puede adquirir formas discretas 
o específicas; aquí, por cierto, la forma geométrica o el espacio en el que está 
inmerso la partícula depende dialécticamente de la misma partícula. Espacio y 
materia como ya veíamos en la física de Einstein están orgánicamente unidos y 
son inconcebibles sin esta relación (a despecho de la vacía geometría 
euclidiana). Incluso el valor del espín o el valor de la rotación de todas las 
partículas llamadas elementales sobre su propio eje, ya sea a la derecha o a la 
izquierda, serán múltiplos de la constante Planck. El espín, además, es un 
ejemplo más de que no hay materia sin movimiento.

2) El campo magnético y el espectro electromagnético: unidad y lucha de 
contrarios y negación de la negación

Para representarse el movimiento fuera de la materia existente hay que 
imaginarse una fuerza que actúe sobre ella. Pero no es así. La molécula, dotada 
de la propiedad que le es inherente, es por sí misma una fuerza activa. Actúa 
sobre otra molécula, que a su vez actúa sobre la primera.

Denis Diderot

Los electrones y protones son como imanes que implican la unidad entre cargas 
opuestas y cuya relación determina la carga del átomo en cuestión y su capacidad 
para unirse con otros átomos para formar moléculas. La interacción entre las 
cargas opuestas del protón y el electrón determina el campo magnético del átomo. 
Sin esta contradicción sería imposible la formación de cuerpos macroscópicos y 
por supuesto, usted y yo no estaríamos aquí discutiendo sobre la dialéctica. El 
campo magnético implica la interacción entre contrarios: lo positivo y lo 
negativo. A su vez, la unidad de contrarios entre la atracción electromagnética 
y la repulsión que se le opone en el movimiento de las partículas, 
específicamente en el electrón que se mueve a varios kilómetros por segundo, es 
el secreto de la formación de moléculas que se manifiesta desde la pompa de 
jabón, cuya tensión superficial es la tensión entre la fuerza electromagnética y 
la gravedad, pasando por la unión entre las moléculas del ADN, hasta la 
interacción eléctrica entre la neuronas que, a su vez, en su relación con el 

443
mundo externo, posibilitan el pensamiento (por cierto un argumento más en contra 
del solipsismo idealista).

Al mismo tiempo, las moléculas o uniones entre átomos manifiestan propiedades 
que no se pueden reducir a las características de los átomos que las componen. 
Cuando se une una gran cantidad de moléculas que superan el punto crítico de 
magnitudes, tiempos y masas que caracterizan a la física cuántica, la 
constante Planck y consecuentemente la longitud de onda (o el 
carácter probabilístico del movimiento subnuclear) se hace prácticamente 
despreciable; de hecho no desaparece, pero a efectos prácticos queda subordinada 
a una nueva ley representada por la gravedad que la niega y la conserva al mismo 
tiempo. Con la gravedad entramos al campo concreto donde las categorías de la 
mecánica clásica se transforman de anacrónicas y falsas en pertinentes y 
verdaderas.

Muchas propiedades nuevas emergen con el salto cualitativo que representa la 
formación de moléculas y cuerpos macroscópicos. En la teoría del caos y la 
complejidad, a estos fenómenos se les llama propiedades emergentes. Por ejemplo 
nos dice Alan Woods: "Una molécula de agua es una cuestión relativamente 
sencilla: un átomo de oxígeno unido a dos átomos de hidrógeno gobernados por 
ecuaciones de física atómica bien comprendidas. Sin embargo, cuando combinamos 
un gran número de moléculas, adquieren propiedades que ninguna de ellas tiene 
aisladamente —liquidez— . Este tipo de propiedad no está implícita en las 
ecuaciones. En lenguaje de la complejidad, la liquidez es un fenómeno 
emergente"105. Aún más sorprendente es el hecho de que el fenómeno del 
pensamiento, de acuerdo con la teoría del caos, es también un fenómeno emergente 
que no se puede reducir a la suma de las partes o como resultado de simples 
hechos atómicos aislados. Según el positivismo, los hechos atómicos o hechos de 
la experiencia son eventos aislados y sin ninguna relación más que el haber sido 
objeto de mis impresiones empíricas e inmediatas. Pero en el mundo real, los 
hechos no son aislados sino que están interconectados en una red cuyos infinitos 
puntos de intersección determinan las propiedades de los objetos y en cuya 
interacción orgánica emergen fenómenos nuevos e inesperados. Así, nos explica de 
manera contundente Alan Woods: "El conocimiento de los detalles de las neuronas, 
axones y sinapsis individuales no es suficiente para explicar los fenómenos del 
pensamiento y las emociones. Sin embargo, no hay en ello nada místico. En el 
lenguaje de la teoría de la complejidad, tanto la mente como la vida son 
fenómenos emergentes. En el lenguaje de la dialéctica, el salto de la cantidad a 
la calidad significa que el todo posee cualidades que no pueden ser deducidas de 
la suma de las partes, ni reducidas a ellas. Ninguna de las neuronas es 
consciente en sí misma. Pero sí lo son la suma de las neuronas y sus 

444
interconexiones. Las redes neuronales son sistemas no lineales. Es la actividad 
compleja y las interconexiones entre las neuronas lo que produce el fenómeno que 
llamamos conciencia"106.

Es irónico que la autoproclamada "filosofía de la ciencia" (El círculo de Viena) 
no quiso darse cuenta de que la ciencia desarrollada en su tiempo (la física 
cuántica), trataba precisamente de esos saltos cualitativos que habían sido tan 
desdeñosamente rechazados como metafísica, prefiriendo entretenerse en su nueva 
y "profunda" ocupación de ser "policía de la ciencia", un policía con un 
criterio empíricamente estrecho (como la mentalidad de todo policía de tráfico); 
y en su sueño metafísico y quijotesco de encontrar la estructura lógica formal 
de las matemáticas, proyecto ahora abandonado desde que Kurt Gödel demostró que 
las matemáticas no se podían reducir a la lógica formal. En contraste el genio 
de Engels, sin conocer nada de física cuántica ni mucho menos de teoría del 
caos, tan sólo con los limitados marcos de la ciencia de su tiempo y con esa 
metafísica desechada por los positivistas, ya había señalado la idea fundamental 
de "las propiedades emergentes" de la teoría del caos: "La molécula" —nos 
dice Engels— "se descompone en sus átomos, que tienen propiedades muy distintas 
de la de aquella (...) los átomos libres del oxigeno naciente pueden lograr con 
gran facilidad lo que nunca conseguirán los del oxígeno atmosférico, unidos por 
una molécula. (...) El campo en que la ley de la naturaleza descubierta 
por Hegel celebra sus triunfos más importantes es la de la química. Se puede 
denominar a ésta la ciencia de los cambios cualitativos de los cuerpos a 
consecuencia de los de la modificación en la composición cuantitativa"107. De 
hecho con la unión atómico­molecular, posibilitada por el fenómeno del 
electromagnetismo, emerge con un salto cualitativo la interacción y 
trasformación de átomos, moléculas, iones y radicales, forma de movimiento 
estudiado por la química; la química misma constituye una propiedad emergente, 
inexistente en el átomo per se.

Cuando un electrón da un salto cuántico, libera (o absorbe) energía que se 
propaga en forma de onda. El electromagnetismo no es más que la carga eléctrica 
en movimiento; movimiento que genera una onda de fotones que se extiende en 
todas direcciones llamada radiación electromagnética. El campo electromagnético 
y, en general, los otros tres campos fundamentales de la naturaleza, son 
resultado del movimiento e interacción entre la materia, expresado en sus 
respectivos cuantos de acción o partículas materiales. Al mismo tiempo las 
propiedades del campo dependen de las características de movimiento del cuanto 
específico. El espectro electromagnético, por ejemplo, representa los saltos 
cualitativos en la radiación electromagnética, en función de los cambios 
cuantitativos de la frecuencia de propagación de los fotones (o las oscilaciones 

445
por segundo, Hertz). Todo mundo sabe la diferencia entre los rayos X y las ondas 
de radio; ambas tienen propiedades totalmente distintas: los rayos X traspasan 
los órganos y se reflejan en el tejido óseo y permiten obtener radiografías, las 
ondas de radio por su parte, al menos en el contexto capitalista, constituyen un 
medio de difusión de estupideces y mentiras y de control mediático de la clase 
dominante. La única diferencia está en que los rayos X se encuentran en una 
frecuencia mucho más alta que las ondas de radio. Verdaderamente el espectro 
electromagnético es una confirmación sorprendente de los cambios cuantitativos 
que se transforman en cualitativos. Este espectro incluye, desde la frecuencia 
más alta hasta la más baja: a los rayos gamma, rayos X, rayos ultravioleta, luz 
visible (pasando por el violeta, azul, verde, amarillo, naranja, rojo), para 
pasar al infrarrojo, a las microondas con las que calentamos nuestra comida 
basura; llegando a las ondas de radio, para finalizar en la parte más baja del 
espectro con la onda larga usada en loswalkie­talkies. Este ejemplo es tan claro 
y evidente que hasta los positivistas, quienes se habían rasgado las vestiduras 
en su lucha contra la dialéctica, lo podrían entender. Quizá la tesis 
de Engels ya no suene tan descabellada, después de todo, a los oídos de los 
señores analíticos, "es probable que los mismos caballeros que hasta ahora 
tacharon a la transformación de la cantidad en calidad de misticismo y de 
trascendentalismo incomprensible", dice el propio Engels, "declaren ahora que en 
verdad se trata de algo evidente por sí mismo, (..) entonces tendrán que 
consolarse como el MonsieurJourdain de Molière, quien hizo prosa durante toda su 
vida, sin tener la menor noticia de ello"108.

3) Dualidad onda­partícula o unidad de contrarios

Hasta la postura dialéctica del movimiento de la luz, sostenida por la mecánica 
cuántica, las posturas corpuscular y ondulatoria eran vistas como opuestos 
irreconciliables; ¿qué podía ser más opuesto que estos dos tipos de 
movimiento?. Newton creía que la luz significaba el movimiento de partículas 
discretas, visión que fue negada por la teoría ondulatoria de Huygens y Maxwell 
y sustituida de nuevo por la teoría cuántica que incorpora ambas posturas en una 
relación orgánica. Hasta esta negación dialéctica, ambas teorías, la corpuscular 
por un lado y la ondulatoria por el otro, tenían sustento experimental. Algunos 
fenómenos sólo podían ser interpretados como la confirmación del movimiento 
corpuscular de la luz, de hecho con un fenómeno de tipo corpuscular 
(dispersión Compton), Thompson descubrió la existencia de los electrones. No 
obstante, otros fenómenos como la difracción e interferencia parecían ser la 
confirmación del movimiento ondulatorio. Esta pugna de posturas parecía 
fortalecer la visión pragmática o subjetivista de la ciencia; parecía, en 
efecto, que las teorías científicas no tienen nada que ver con la realidad 

446
material o con leyes objetivas sino, más bien, con la mejor descripción de 
fenómenos inconexos de la experiencia, que pueden admitir descripciones 
convencionales de cualquier tipo y no tienen que ver con la realidad objetiva, 
sino con nuestras experiencias subjetivas e incluso (como con Feyerabend) con la 
capacidad retórica de las teorías en pugna.

La mecánica cuántica, no obstante, supone un salto cualitativo; el movimiento 
corpuscular y ondulatorio de la luz representan las dos caras de la misma 
moneda. Sorprendentemente en el movimiento de las partículas subatómicas, el 
movimiento corpuscular y ondulatorio está orgánicamente vinculado y sólo tiene 
sentido en esta vinculación. Erwin Schrödinger hizo un descubrimiento asombroso, 
representado en la ecuación que lleva su nombre: a todo electrón y en general a 
toda partícula con masa finita en reposo se le asocia una longitud de onda; 
mientras más grande sea la masa y la velocidad de una partícula, la longitud de 
onda tiende a cero y el movimiento puede ser descrito con los tradicionales 
planos cartesianos: el movimiento corpuscular se vuelve dominante. Pero mientras 
la masa sea menor, como las masas características del mundo subatómico, la 
longitud de onda se transforma en un aspecto esencial del movimiento. Los 
fotones son partículas en movimiento pero, al mismo tiempo, la probabilidad de 
su ubicación queda establecida dentro de los límites de la función de onda que, 
a su vez, depende de la velocidad y la masa del ensamble de partículas; entre 
los dos aspectos de su movimiento (onda y partícula) hay una relación de mutua 
determinación.

La confirmación experimental de esta relación dialéctica es sorprendente: Si 
lanzamos un chorro de electrones a una pantalla fotográfica que detecte su 
impacto, interponiendo una barrera con dos agujeros los suficientemente angostos 
que se oponga al movimiento de los electrones, veremos que el patrón de 
movimiento reflejado en la pantalla no será el resultado de dos cúmulos de 
impactos bien definidos, como el sentido común nos haría suponer, —y como sucede 
si en lugar de electrones lanzamos granos de arena— sino que la distribución en 
la pantalla reflejará, en palabras del doctorLuis de la Peña: "una distribución 
mucho más complicada, con una serie de máximos y mínimos muy notables y cuyo 
número excede por mucho el número de rendijas, (...) el fenómeno observado con 
electrones no puede explicarse en un lenguaje puramente corpuscular"110. Este 
experimento se ilustra en la figura siguiente.

Los electrones que chocan con las rendijas provocan ondas, como cuando arrojamos 
una piedra a un estanque tranquilo; las ondas que se propagan por el estanque no 
se reducen a partículas con posiciones definidas sino que la onda abarca un 
espacio que no puede ser reducido a un movimiento discreto; está en un lugar y 
en otro al mismo tiempo. "El contacto con sistemas clásicos nos ha acostumbrado 

447
a que una piedra está en un lugar o no está allí", nos dice el doctor Alberto 
Clemente de la Torre, "en la mecánica cuántica a un electrón se le asigna una 
probabilidad de estar en cierto lugar que, en algunas ocasiones, no es ni cero 
(no está), ni uno (si está), sino algún valor intermedio"112. La imposibilidad 
de determinar la posición exacta de un electrón que viaja varios kilómetros por 
segundo es evidente; aquí el electrón está en un punto y en otro en un momento 
determinado y su probabilidad de estar y no estar queda determinado por la onda 
que describe su movimiento. Esto no es simplemente la imposibilidad subjetiva de 
fijar su posición específica sino un aspecto concreto, verificable 
experimentalmente, del movimiento de los electrones (esta cuestión la 
abordaremos con más detalle cuando discutamos el "principio de incertidumbre").

La onda, no obstante, no es el resultado de la simple suma de las partículas. Si 
repetimos el experimento anterior reduciendo el chorro de electrones hasta que 
pase un electrón a la vez por los agujeros en la barrera que se interpone a la 
placa, veremos que en esta quedan registrados puntos discretos, confirmando en 
este caso el aspecto corpuscular de los electrones; pero al mismo tiempo los 
electrones aislados o corpúsculos siguen vinculados a una onda específica. De 
esta manera si seguimos lanzando los electrones progresivamente veremos que los 
puntos en la placa comienzan a perderse y su ubicación quedará dentro de los 
límites de la onda que describimos en el experimento anterior. Es decir, que el 
movimiento de un corpúsculo aislado está determinado por su respectiva longitud 
de onda. Es, en realidad, una relación dialéctica porque al mismo tiempo que la 
onda es producto de la difracción (fenómeno ondulatorio) de los corpúsculos, 
además de estar determinada en sus características por la velocidad y masa de 
los corpúsculos, los corpúsculos aislados tienen su ubicación determinada por la 
onda asociada; la vinculación es recíproca e inseparable.

Además, este experimento pone en evidencia la relación dialéctica entre orden y 
caos, que veíamos en el capítulo anterior. En palabras del doctor Luisde la 
Peña: "Cada electrón está sujeto a un movimiento estocástico (caótico, 
impredecible), por lo que la trayectoria específica es impredecible; esto hace 
que electrones idénticamente preparados tengan un comportamiento diferente, que 
no existan dos electrones dinámicamente idénticos. Sin embargo, en cada arreglo 
experimental, el comportamiento estadístico de un gran número de electrones es 
perfectamente regular, controlable y predecible (con ayuda de la mecánica 
cuántica); este comportamiento estadístico presenta, frecuentemente, propiedades 
ondulatorias, que están caracterizadas por la longitud de onda de 
de Broglie"113. Aquí tenemos la contradicción dialéctica de que una onda de 
características perfectamente predecibles y determinadas esté compuesta por 
partículas caóticas e impredecibles y que lo caótico e impredecible de los 

448
electrones esté, al mismo tiempo, determinado en una onda específica; aquí, como 
en muchos otros casos, el todo no es igual a la suma de las partes y el cambio 
cuantitativo da resultados cualitativos totalmente diferentes e incluso 
opuestos. "Todos estos son fenómenos de la materia", nos dice Trotsky comentando 
el electromagnetismo, y la radiactividad —que constituían para él teorías muy 
nuevas y prometedoras en sus implicaciones para la filosofía marxista—, 
"procesos materiales, ondas y turbulencias en el espacio y en el tiempo. Los 
nuevos descubrimientos y sus aplicaciones técnicas sólo demuestran que la 
materia es mucho más heterogénea y rica en potencialidades de lo que hasta ahora 
se había pensado. Pero, hoy, como antes, nada se hace de la nada"114.

4) El ‘principio de incertidumbre’

Como hemos señalado, una tesis fundamental del materialismo dialéctico es que 
pequeños cambios cuantitativos pueden producir grades cambios cualitativos. La 
proposición adicional a esta tesis es que el todo no es igual a la suma de las 
partes y que las partes manifiestan propiedades específicas en relación al todo. 
Una de las características más relevantes de las partículas subatómicas es el 
hecho de que son extremadamente susceptibles a las perturbaciones o en lenguaje 
de la dialéctica, los pequeños cambios e interacciones provocan en ellas cambios 
cualitativos recíprocos, sobre todo, entre velocidad y posición. La "acción" o 
la capacidad que un sistema tiene de modificar su entorno es muy grande en 
comparación con los sistemas reflejados en la mecánica clásica. Una consecuencia 
de este hecho es que las características que definen al nivel subatómico no 
pueden ser consideradas de manera aislada, como en el caso de un mecanismo de 
relojería; en física clásica, por ejemplo, la posición y la velocidad no tienen 
dependencia numérica alguna, es verdad que la velocidad es el resultado del 
cambio de posición, pero el determinar la posición no nos dice nada con respecto 
a la velocidad, dos cuerpos pueden adquirir la misma posición sin tener la misma 
velocidad.

En Física cuántica, por el contrario, la relación entre posición y velocidad se 
vuelve esencial. Tan esencial que este fenómeno se expresa en el "principio de 
incertidumbre" un principio fundamental de la física cuántica. Este principio 
plantea que "si determinamos con absoluta precisión la posición de una partícula 
subatómica, el conocimiento sobre su velocidad quedará indeterminado y, a la 
inversa, mientras mejor quede determinada la velocidad de una partícula, más 
indeterminada será su posición". Este principio refleja la relación entre 
las incertezas recíprocas de la posición y la velocidad, las dos no pueden ser 
nulas al mismo tiempo, es decir, no pueden simultáneamente estar absolutamente 
determinadas, la determinación absoluta de una modifica objetivamente a la otra 
al aumentar su campo de probabilidad. De hecho, si se pudiera determinar la 

449
posición y velocidad al mismo tiempo, como sucede en el movimiento mecánico, 
violaríamos lo más esencial de la física cuántica: el hecho de que el valor de 
la capacidad de perturbación de las partículas a este nivel no puede ser menor 
al de la constante Planck ya que al determinar al mismo tiempo posición y 
velocidad, la constante Planck podría valer cero, cosa que es imposible. En 
otras palabras diríamos que la parte no se puede separar del todo y el todo 
resiente los cambios pequeños de sus elementos constituyentes.

La fuerza de la costumbre se imprime en nuestros cerebros de manera tan 
conservadora que parece increíble que si en la vida cotidiana podemos determinar 
la posición de un corredor de los cien metros planos en un momento en el tiempo 
sin modificar su velocidad, en el mundo subatómico no sucede lo mismo; Alberto 
Clemente de la Torre comenta al respecto que: "Considerar el sistema como 
susceptible de ser separado en sus partes, es consecuencia de nuestra 
experiencia con sistemas clásicos, pero no necesariamente para los sistemas 
cuánticos. Los observables de un sistema cuántico están ligados de cierta forma 
que impiden su total independencia (..) La necesidad de considerar el sistema 
físico en su totalidad, no siempre separable, se denomina holismo. Pero conviene 
resaltar que este holismo en la física corresponde a argumentos científicos 
rigurosos con sustento experimental y no debe ser confundido con 
charlatanerías pseudocientíficas"115. Lo que muchos científicos destacados 
parecen no saber es que la relación entre los observables en física cuántica 
representa una relación dialéctica; podemos parafrasear a Marx cuando, citando 
a Maurice le responde "¿qué ha definido el autor sino el método dialéctico?". En 
efecto, el holismo no es más que otra manera de decir que las características de 
los sistemas cuánticos están en determinación dialéctica y que por nuestra parte 
sólo nos corresponde poner en relieve esa relación y enriquecer nuestra 
filosofía en este hecho material.

Es claro que la posición y la velocidad de una vaca en movimiento no se altera 
en lo más mínimo porque lo iluminemos con un haz de luz, ya que la acción o 
capacidad de perturbación es tan pequeña en los procesos mecánicos, como para 
ser modificada por simples fotones. En contraste, en el mundo de la física 
cuántica la capacidad de perturbación es tan grande, que el simple hecho de 
interactuar con un fotón transforma sus cualidades; así cuando se observa un 
electrón con un microscopio, la única manera en que podemos ver directamente a 
las partículas subatómicas, se altera el estado del sistema, mientras la luz sea 
de onda corta (baja energía) la velocidad de la partícula quedará determinada, 
quedando indeterminada su posición, mientras que con fotones de gran energía 
determinaremos la posición y no sabremos nada de la velocidad. El intercambio de 

450
energía del fotón lanzado por el aparato hace del fotón parte del sistema 
observado.

Este hecho fue interpretado de distintas maneras por los científicos más 
eminentes. La "escuela de Copenhague", con Bohr y Heisenberg a la cabeza, 
interpretó el "principio de incertidumbre" de manera idealista y positivista. En 
realidad, de acuerdo con esta interpretación: "el concepto de objeto material, 
de constitución y naturaleza independientes del observador, es ajeno a la física 
moderna, la que, forzada por los hechos, ha debido renunciar a esta 
abstracción"116, afirmó con toda claridad Heisenberg. Lo que concebimos como una 
partícula elemental "no es una formación material en el espacio y en el tiempo, 
sino, en cierto modo, un símbolo (..)"117, sostuvo W. Pauli. 
Además Heisenberg afirmó: "la teoría cuántica no se refiere a la naturaleza, 
sino a nuestros conocimientos de la naturaleza"118. La ciencia, según esta 
escuela, no afirma nada sobre la realidad objetiva puesto que la observación es 
modificación y por tanto, la ciencia no trata sobre la cosa en sí, sino frases 
sobre los aparatos utilizados y, en última instancia, sobre fenómenos 
subjetivos.

Los fenómenos llamados objetivos sólo se materializan al ser observados. "Estas 
consideraciones llevan a Bohr a decir que es falso creer que la meta de la 
física es descubrir cómo es la naturaleza, pues, en verdad, sólo se ocupa de lo 
que podemos decir acerca de ésta, dudando así que la realidad de la naturaleza 
sea conocible. La palabra realidad, dice Bohr, es una palabra que hay que 
aprender a usar correctamente. La descripción de la naturaleza que hace la 
física no es, para Bohr, un reconocimiento de la realidad del fenómeno, sino una 
descripción de las relaciones entre diferentes aspectos de nuestra 
experiencia. Heisenberg afirma, extremando el pensamiento de Bohr, que la meta 
única de la física es predecir los resultados experimentales, excluyendo en el 
lenguaje toda mención a la realidad"119.

Además, si no hay realidad objetiva con la cual podamos contrastar los esquemas 
teóricos, las formas alternas de organizar la experiencia en teorías o sistemas 
son complementarios; de esta manera se concilia la visión religiosa y científica 
pues son sólo posturas complementarias120 de articulación de los "hechos de la 
experiencia".

En absoluto la idea filosófica central de la Escuela de Copenhague tiene 
sustento en el principio de incertidumbre o en cualquier cosa que no sea la 
posición deliberadamente idealista que Heisenberg sostuvo y que, por cierto, le 
sirvió de justificación para apoyar el régimen nazi (aunque por supuesto, esto 
no disminuye en absoluto su aporte científico). En primer lugar no es la 

451
observación, ni el acto subjetivo de medir, lo que trasforma las propiedades del 
sistema cuántico, sino el electrón y el fotón que emite el microscopio el que 
interactúa con el sistema de manera independiente a la observación. No es la 
visión del sujeto, ni siquiera la medición lo que transforma el sistema; no se 
puede confundir el acto subjetivo de observar y medir con la objetividad del 
instrumento usado para observar y medir; ni siquiera es el aparato como tal el 
que cambia el estado del sistema, sino el fotón lanzado por ese aparato, exista 
o no observador, sea o no un aparato el que lo emita. El electrón por supuesto 
es un objeto material y no una proyección idealista, es la unidad fundamental de 
carga y sustento de innumerables adelantos tecnológicos y fenómenos naturales, 
inclusive el pensamiento mismo es resultado de la actividad eléctrica del 
cerebro en su relación con el ambiente natural y social.

El formalismo de la mecánica cuántica no incluye por ningún lado la observación 
subjetiva. El principio de incertidumbre, que expresa la vinculación dialéctica 
entre las variables y su carácter probabilístico, se funda en la 
constante Planck, que es una ley fundamental para el nacimiento de estrellas, 
galaxias, elementos químicos, los cuatro campos fundamentales de la naturaleza y 
cuerpos macroscópicos. Procesos que de hecho prueban su independencia con 
respecto a la subjetividad al ser condiciones esenciales de la misma 
subjetividad. En efecto, no es posible la existencia de sujetos pensantes donde 
no hay posibilidad de surgimiento de cuerpos macroscópicos. Procesos todos ellos 
regidos, entre otras leyes, por los saltos dialécticos de la constante Planck. 
Sólo basta mirar por un telescopio potente para presenciar eventos que 
ocurrieron antes de la existencia de la subjetividad. La llamada radiación de 
fondo es testigo del nacimiento de soles y galaxias en donde las leyes de la 
física cuántica jugaron (y juegan) un papel primordial, "pero la idea de que 
esta radiación es el resultado de mediciones es absurda: ¿quién medía?"121, nos 
dice con toda razón IlyaPrigogine. En realidad los positivistas se comportan 
como los clérigos que no creyeron lo que veían por el telescopio de Galileo, 
pues contradecía las sagradas escrituras y seguramente era cosa del demonio122. 
En el caso de los positivistas no es posible la existencia del mundo y 
su cognoscibilidadporque eso es, (¡Dios nos libre!), metafísica; en ambos casos 
existe una posición dogmática, subjetivista y sin ningún apoyo en la ciencia. En 
segundo lugar el "principio de incertidumbre" sólo se manifiesta en procesos en 
donde la constante Planck juega el papel central. Y constituye una 
generalización abusiva y sin fundamento plantear la incerteza como propiedad 
absoluta del universo. En tercer lugar la física cuántica no tiene nada de 
indeterminada, la medición de los efectos de un ensamble de partículas, como por 
ejemplo el campo magnético, es una de las más exactas y determinadas que existen 
dentro de la ciencia moderna.

452
La postura ortodoxa está en contradicción no sólo con la física cuántica, sino 
con la experiencia científica en general, cuya idea implícita es que el mundo no 
sólo existe, sino que además es cognoscible, que la ciencia describe leyes 
objetivas. De hecho, la mayoría de los científicos, por no hablar del resto de 
la humanidad a lo largo de todos los tiempos, tienen la convicción, aunque sólo 
sea por las características de su propia actividad y no una posición filosófica 
deliberada, de que el mundo existe independientemente de su percepción. 
Inclusive los pocos científicos que sostienen conscientemente la visión 
ortodoxa, cuando están en las cuatro paredes de sus laboratorios y aún en el 
mundo cotidiano, trabajan y actúan como si su objeto de estudio existiera al 
margen de su pensamiento, lo cual parece ser una manifestación de lo poco que 
respetan sus consideraciones filosóficas reservadas para las discusiones en los 
seminarios y en las cafeterías. ¿Qué valor puede tener una filosofía científica 
que es inaplicable cuando se hace ciencia? ¿Puede haber una filosofía científica 
al margen del quehacer científico? Y a la inversa. ¿Qué sentido puede tener una 
ciencia que no dice nada del mundo objetivo? ¿Cómo puede tener valor práctico 
algo que no tiene conexión más que con nuestra subjetividad? En realidad el 
positivismo como filosofía de la ciencia es inútil justo cuando se hace ciencia, 
es como un paraguas que es inútil justo cuando llueve, como explica Engels: 
"¿Qué se pensaría de un zoólogo que dijese: un perro parece tener cuatro patas, 
pero qué sabemos si en realidad tiene cuatro millones de patas o ninguna? (...) 
pero los hombres de ciencia se cuidan de no aplicar la frase de la cosa en sí a 
las ciencias naturales; sólo se lo permiten al pasar a la filosofía. Esta es la 
mejor prueba de la poca seriedad con que la toman, y del escaso valor que posee. 
Si se tomara en serio, ¿de qué serviría investigar nada?"123.

Es una pena y un indicador verificar que detrás de la ortodoxia hay intereses no 
meramente científicos (como el prestigio y el control de los recursos de los 
institutos por ejemplo, que la posición de EPR, planteada 
por Einstein, Podolsky y Rosen, (además de Erwin Schrödinger y el mismo Planck), 
que postula una interpretación materialista de la física cuántica ha sido 
silenciada deliberadamente y que generalmente no sea planteada con tanta 
insistencia como la visión ortodoxa, evitando una discusión general racional al 
respecto. "Tal intento de callar el problema no es neutro", nos dice Clemente 
de la Torre, "sino que favorece una interpretación ortodoxa de la teoría que se 
adoptó en sus principios, sustentada por la enorme autoridad, bien merecida, 
de Bohr, Heisenberg y otros de sus fundadores. Hoy, la mayoría de los físicos 
que investigan temas fundamentales de esta teoría no se adhieren a dicha 
interpretación y encuentran necesaria una actitud más crítica en la didáctica de 
la física cuántica"124.

453
Einstein, Podolsky y Rosen publicaron en 1935 ¿Puede considerarse completa la 
descripción que de la realidad física da la Mecánica Cuántica?, en donde 
fundamentalmente se argumenta que la mecánica cuántica describe fenómenos reales 
existentes, con independencia de la subjetividad. Las partículas subatómicas 
tienen simultáneamente posición y velocidad y el hecho de no poderla determinar 
con los instrumentos teóricos a nuestra disposición sólo significa que la física 
cuántica como teoría aún es incompleta y está en proceso de elaboración; existen 
variables ocultas que por principio no son incognoscibles y que nos obligan, por 
ahora, a considerar de manera probabilística dichos fenómenos. En este argumento 
debemos señalar dos elementos: a) que se reconoce la existencia del mundo 
material y b) que la física cuántica es sólo una aproximación a los fenómenos 
objetivos, dejando fuera de su consideración variables ocultas que impiden su 
precisión absoluta, es decir, la física cuántica no es una teoría completa. El 
destacado investigador Luis de la Peña señala la esencia de la posición de EPR y 
la suya: "(...) se considera que la función de onda describe un sistema material 
que existe con independencia de nosotros y que tiene la propiedad objetiva de 
encontrarse en ese estado, independientemente de nuestro conocimiento sobre el 
sistema"125.

De igual manera, Erwin Schrödinger ridiculizó la visión ortodoxa en su famoso 
experimento conocido como el gato de Schrödinger, en donde un gato es encerrado 
en una caja con un frasco de cianuro y un tubo con un átomo que emite un 
electrón al segundo de cerrar la caja, electrón cuya probabilidad de salir hacia 
la izquierda o hacia la derecha es igual. En el lado derecho tenemos un detector 
de electrones que de ser activado romperá el frasco de cianuro y, 
consecuentemente, el gato morirá y del lado izquierdo el electrón saldrá y el 
gato vivirá. Si la visión ortodoxa es correcta, el "colapso de función de 
estado" o determinación de la posición del electrón sólo ocurre con la visión 
subjetiva del fenómeno, es decir, la posición del electrón no se materializa más 
que cuando alguna subjetividad se digna mirar dentro de la caja. Como la 
probabilidad del electrón hacia la izquierda (gato muerto) y a la derecha (gato 
vivo) es, en este caso, igual, mientras no abramos la caja, el electrón no 
tiene, según la visión positivista, ni posición ni velocidad, por no ser 
propiedades objetivas, por tanto el gato, mientras no se mire dentro de la caja, 
¡no estará ni vivo ni muerto! Las implicaciones de este conocido experimento 
mental son claras: evidentemente el gato ya estaba vivo o muerto antes de que el 
científico abriera la caja, el científico sólo cobra conciencia de un hecho 
preexistente a su constatación subjetiva; consecuentemente el electrón tiene 
posición y velocidad, independientemente de la subjetividad y la observación; y 
el hecho de que en los fenómenos cuánticos las variables de posición y velocidad 

454
estén íntimamente vinculadas no impide su carácter material, ni es argumento (ni 
siquiera desde el punto de vista de la lógica formal) para negar su objetividad.

El adoptar una postura conscientemente materialista no se reduce a adquirir una 
postura consistente con la ciencia moderna y en particular de la física 
cuántica, como habían señalado ya los clásicos del marxismo. Todo error en la 
teoría se refleja tarde o temprano en la práctica. La posición filosófica en la 
ciencia en tanto que unidad teórico­práctica deriva en resultados concretos, 
como el investigar o no fenómenos de interés para la ciencia moderna que de 
acuerdo con la visión idealista de Copenhague no tendría ningún sentido 
investigar, en efecto, si la cosa en sí es incognoscible y "el principio de 
incertidumbre" significa que no hay leyes ni causalidad objetivas "no hay mucho 
más que investigar en relación al comportamiento azaroso de los electrones", nos 
dice Luis de la Peña, "pero si se cree que el fenómeno azaroso es causado por 
algún agente externo," (o interno agregaríamos nosotros) "es evidente que este 
agente requiere de una cuidadosa investigación física, lo que abre un amplio 
terreno a la investigación"126.

Una alternativa materialista y dialéctica fascinante a la explicación de 
la estocasticidad (aleatoriedad) de los fenómenos cuánticos constituye la teoría 
del caos, que tiene algunas diferencias secundarias con las postura 
materialista de EPR. No es necesario buscar la causa de la aleatoriedad en 
fenómenos externos sino en una característica inmanente de este tipo de 
fenómenos: la acción o susceptibilidad asombrosa a los cambios por interacción 
dinámica, o en palabras de teoría del caos "susceptibilidad a las condiciones 
iniciales" pueden ser indicadores de que los fenómenos cuánticos son fenómenos 
explicables en términos de caos. Son caóticos y ordenados al mismo tiempo o, en 
otras palabras, del desorden y aleatoriedad de las partículas elementales, 
aleatoriedad inevitable en virtud de su susceptibilidad a los pequeños cambios, 
de sus velocidades inmensas y su complejidad aún mayor que en la termodinámica; 
nace el orden a gran escala, orden probabilísticamente determinado con la 
función de onda. El orden y las leyes que nacen del desorden del caos es tan 
sorprendente que el margen de error de la medición del momento magnético, por 
ejemplo, es del orden de uno en 10.000 millones; la incertidumbre en la mecánica 
cuántica no es obstáculo para adquirir certidumbres que superan la precisión de 
la mayoría de las ciencias.

Así, las variables ocultas que buscaba Einstein y la posición EPR, podrían 
encontrar su explicación en la teoría del caos y en las características 
inmanentes de los fenómenos cuánticos; efectivamente, las partículas tienen 
posición y velocidad independientemente de la observación y medición (el hecho 
mismo de que la medición objetiva transforme el estado nos dice mucho sobre las 

455
leyes objetivas de ese fenómeno) pero su medición no puede ser más que 
probabilística por las características mismas que no pueden ser explicables en 
función de las partículas aisladas sino del todo cualitativamente distinto. Se 
ha comprobado más allá de cualquier duda, que los sistemas cuánticos son 
sistemas orgánicos o dialécticos irreductibles a las partes componentes; éstas 
son precisamente las características fundamentales de los sistemas caóticos o 
dialécticos que conjugan dialécticamente el orden y el desorden, el todo y las 
partes. "Por tanto", nos dice Ilya Prigogine, "en mecánica cuántica tiene que 
haber un mecanismo intrínseco que lleve a los aspectos estadísticos observados 
(...) este mecanismo es, precisamente, la inestabilidad, el caos"127. 
Independientemente del desarrollo ulterior de la física cuántica y de que las 
causas de la aleatoriedad se encuentren en la teoría del caos o en algún factor 
externo —la teoría del caos es aún muy joven— , no cabe duda que la solución de 
esta fructífera polémica se dará en el campo del materialismo y de la búsqueda 
de la solución en el mundo objetivo y sus leyes inmanentes. La preocupación 
esencial de Einstein: que la mecánica cuántica, como la ciencia en general, 
describen el mundo independientemente del observador, sustituirá, sin duda, a la 
ortodoxia, cada vez más cuestionada y criticada.

B) Física cuántica relativista

1) unidad y lucha de contrarios, negación de la negación y saltos cualitativos

Y si miramos preparar ajenjos

Sentimos amargor: tanta certeza

Tenemos de que envían emisiones

De sí todos los cuerpos de continuo,

Que a todas partes giran sin pararse,

Y sin interrumpir jamás su flujo,

Tito Lucrecio Caro, aprox 99­55 a. C.

Cuando a principios de siglo Ernest Rutherford descubrió el núcleo atómico, 
abrió un nuevo horizonte de investigación y con el consiguiente descubrimiento 
de la estructura interna del núcleo, se comprendió mejor la fuente de las cuatro 
fuerzas fundamentales de la naturaleza (fuerza nuclear fuerte, débil, fuerza 
electromagnética y gravitatoria), comprensión que aún está muy lejos de ser 

456
exhaustiva, pero que permite comprender muchas interrogantes aparentemente 
inextricables y sin relación aparente, como el origen de las galaxias, la tabla 
periódica de los elementos y las propiedades de las partículas más 
increíblemente pequeñas y efímeras hasta ahora conocidas.

Tanto Hegel como Engels se mofaron del uso indiscriminado del término fuerza, 
que en muchos casos servía como un pretexto deus ex machina para ocultar nuestra 
ignorancia sobre las verdaderas causas de los fenómenos naturales. A lo más, el 
concepto de fuerza era pertinente en la mecánica clásica en donde el impulso 
venía de una fuerza externa al sistema. Pero en la explicación de los campos por 
la mecánica cuántica relativista esa necesidad de fuerzas externas ha sido 
superada; las fuerzas, si es que es correcto seguir usando ese término, se 
explican por la emisión de cuantos o, mejor dicho, por la unidad dialéctica 
entre radiación y absorción de partículas materiales que interactúan y 
transforman a la partícula emisora y receptora; cuantos que provienen de la 
estructura interna de las partículas elementales (demostrando que no son tan 
elementales) y de la unidad materia­energía de la relatividad de Einstein; ya no 
hay necesidad de acudir a fuerzas misteriosas y externas a las que son tan 
aficionados los místicos y ocultistas charlatanes.

El átomo constituye el punto crítico o salto cualitativo donde comienza a operar 
de manera decisiva el electromagnetismo, que permite la unión molecular. Con la 
unión de moléculas en cuerpos de tamaño suficiente para hacer despreciable la 
longitud de onda de Schrödinger se da el salto cualitativo a la fuerza 
gravitatoria, que es 10­11 veces más pequeña que la electromagnética, y que, no 
obstante, tiene una influencia infinita —aunque inversamente proporcional al 
cuadrado de la distancia— y opera ya entre dos objetos, desde la manzana que 
según la leyenda cayó en la cabeza de Newton hasta el colapso gravitacional de 
los agujeros negros; cuando bajamos de escala hasta los 10­15 metros (fermis) se 
niega dialécticamente el electromagnetismo: el electromagnetismo sigue 
existiendo a este nivel pero su presencia ya no juega el papel decisivo, estamos 
ante un caso de "negación de la negación". Ahora los protones que por 
electromagnetismo se repelerían mutuamente, se pueden unir entre si y con los 
neutrones para formar el núcleo atómico (en un espacio que en el caso del núcleo 
de carbono es, con relación al átomo de 60.000 a 1, a pesar de que el tamaño del 
protón es 2.000 veces mayor al electrón).

Por su magnitud espectacular, 100 veces superior a la electromagnética, esta 
interacción entre la materia es conocida como la fuerza nuclear fuerte, aunque 
su campo de acción es infinitamente pequeño. Por esta limitación los núcleos 
atómicos tienen una barrera potencial de 84 protones para su tamaño a partir de 
este punto cualitativo el núcleo se transforma de estable en inestable, el 

457
núcleo de uranio, por ejemplo, es tan grande que esta al borde del caos, la 
frágil unión nuclear se puede romper más allá de la capacidad de la fuerza 
nuclear fuerte para mantener el núcleo como unidad dinámica, expulsando 
violentamente el contenido del núcleo en forma de una temible explosión atómica 
con la liberación de la energía implícita a la materia, poniendo de relieve su 
unidad dialéctica y mostrando un ejemplo concreto y violento de salto 
cualitativo. La fuerza nuclear fuerte, además, consiste en la tensión dinámica 
de tendencias opuestas: atracción­repulsión y absorción­radiación: este campo es 
atractivo y repulsivo de manera simultánea; se vuelve repulsivo cuando los 
nucleones casi se tocan y atractivo cuando atractiva cuando se "alejan" a 3 o 4 
veces el radio del protón; se transforma cualitativamente en su contrario mas 
allá de este punto cuantitativo. Por su parte el proceso dialéctico absorción­
emisión se manifiesta con la emisión recíproca de una partícula virtual liberada 
de la energía interna de los nucleones (protones y neutrones) transformada en 
materia, partícula conocida como mesón (por tener masa media entre el protón y 
el electrón) que viaja a velocidades cercanas a la de la luz y cuya vida media 
es de 10­23 segundos; esta partícula es el cuanto o partícula asociada a este 
campo, que interactúa con los nucleones y los mantiene unidos.

Con el surgimiento dialéctico de la fuerza nuclear fuerte aparece la fuerza 
nuclear débil que es responsable de la desintegración radiactiva, verdadero 
alquimista de la naturaleza, en virtud del cual las partículas radioactivas o 
inestables se transforman en un elemento totalmente diferente; así, por ejemplo, 
"en un gramo de radio cada segundo se transforman 37.000 millones de átomos en 
átomos de otro elemento, el radón, que es un elemento gaseoso"128 y este cambio 
cualitativo espectacular se dio porque el átomo de radio perdió sólo dos 
unidades cuantitativas en su número atómico. Además la fuerza nuclear débil se 
manifiesta en el interior del núcleo de una manera dialécticamente asombrosa: 
esta fuerza transforma un neutrón en un protón emitiendo en el acto un electrón; 
a su vez el protón se transforma en neutrón emitiendo en el acto un positrón 
(antipartícula del electrón) y todo ello en la inimaginable fracción de tiempo 
de 10­23 segundos. ¿Qué sentido puede tener aquí el prejuicio de que A es igual 
a A, cuando esa A se transforma en B y esa B en A millones de veces en milésimas 
de segundo? ¿No tendríamos literalmente que decir que la identidad de A 
permanece cambiando y trasformándose en su contrario para volver a ser la misma 
millones de veces en milésimas de segundo? Las leyes de identidad son útiles 
cuando estudiamos la estructura formal de los juicios y en los estrechos límites 
de la vida cotidiana, pero constituye una necedad proyectarla como esencia 
ontológica del mundo. La necia dialéctica de la naturaleza se impone aquí una 
vez más.

458
Al mismo tiempo, un miserable átomo, por su campo electromagnético, tiene una 
influencia infinita, verdaderamente el átomo es una unidad discreta, finita, 
determinada, cuya existencia finita tiene una influencia infinita. Incluso los 
cuerpos del tamaño de nuestra experiencia cotidiana y base de todos nuestros 
prejuicios lógicos (A=A), al contrario de lo que afirmaron los empiristas 
estrechos, no constituyen entes aislados o "hechos atómicos" (en la terminología 
arbitraria e inapropiada de Wittgenstein130) sin ninguna vinculación, cuyo 
conocimiento no nos dice nada acerca del mundo en su totalidad. En realidad su 
influencia es infinita ya que su campo gravitatorio tiene un alcance infinito. 
Conocemos elementos de lo infinito por medio de lo finito. Lo finito e infinito 
no están separados por un abismo, por la relación universal de la materia y la 
unidad dialéctica entre lo finito y lo infinito, de la cual el campo 
gravitacional y el electromagnético constituye sólo un ejemplo. Podemos 
constituir una concepción general del mundo sin necesidad de ningún misticismo 
ni charlatanería.

Con el descubrimiento de la dinámica del núcleo atómico, se ha podido 
fundamentar la tabla periódica de los elementos químicos; las propiedades 
cualitativas de los elementos están en función de las diferencias cuantitativas 
de sus pesos atómicos o más precisamente, del número de protones en el núcleo. 
El extraordinario genio de Mendeleyev consiste en que, sin tener noticia sobre 
la estructura del átomo y solamente con el conocimiento cuantitativo de los 
pesos atómicos, relacionó y organizó la tabla periódica vinculando la cantidad 
con la cualidad, descubriendo que propiedades similares se repetían 
periódicamente por el simple aumento de los pesos atómicos; propiedades que "se 
niegan y se conservan al mismo tiempo" y que se transforman de la cantidad en 
calidad, como diríamos en lenguaje dialéctico. "Y la demostración de esto es 
brillante" —escribió Engels a quien produjo honda impresión la conquista del 
pensamiento del gran químico ruso—, "Mendeleyev probó que las distintas brechas 
que ocurren en la serie de elementos emparentados, organizados según los pesos 
atómicos, indicaba que en ellas había nuevos elementos que descubrir. Describió 
por anticipado las propiedades químicas generales de uno de esos elementos 
desconocidos (...) Locoq de Boisbaudran descubrió ese elemento, y las 
predicciones de Mendeleyev concidían con muy leves discrepancias. El eka­
aluminio fue, a partir de entonces, el galio. Por medio de la aplicación —
inconsciente— de la ley de Hegel, de la transformación de la cantidad en 
calidad, Mendeleyev realizó una hazaña científica que no es excesiva audacia 
equiparar con la de Leverrier, cuando calculó la órbita del planeta Neptuno, 
hasta entonces desconocido"131. A pesar de esta hazaña 
científica,Mendeleyev mismo creía que los elementos químicos eran inmutables, el 
oro siempre sería oro y el plomo, plomo hasta el final de los tiempos. El gran 

459
revolucionario León Trotsky comentó al respecto de las implicaciones de la 
radiactividad: "Hasta muy recientemente los científicos supusieron que en el 
mundo existían cerca de noventa elementos, que estaban más allá de todo tipo de 
análisis y que no podían ser transformados el uno en el otro. Esta noción 
contradecía al materialismo dialéctico, que habla de la unidad de la materia, y, 
lo que es todavía más importante, de la transformación de los elementos de la 
materia"132. Como comenta Trotsky, la periodicidad de las propiedades de los 
elementos y el conocimiento de la radiactividad, manifestación de la fuerza 
nuclear débil, ha logrado no sólo la conciencia del hecho de que la naturaleza 
misma transforma y crea a los elementos químicos en las profundidades de las 
estrellas y en las explosiones de supernova, sino el acariciado sueño medieval 
de los alquimistas, la transformación deliberada de los elementos químicos. 
"Desde entonces, casi todos los elementos conocidos han sido transmutados por 
medio del bombardeo con diversas partículas (...) Hoy día , el mercurio puede 
transformarse de hecho en oro, mediante técnicas nucleares; pero el costo actual 
de esta transmutación sería tan elevado que el proceso sería un fracaso 
económico"133.

Más sorprendente aún es el hecho de que con la aplicación —aunque inconsciente 
por parte de la mayoría de los científicos— de las leyes dialécticas implícitas 
a la física moderna, específicamente en las propiedades periódicas de los 
elementos y en la física cuántica, se han podido producir elementos químicos 
inexistentes en la naturaleza, creando núcleos atómicos artificiales que por sus 
características son útiles para el hombre. El hombre conoce a la naturaleza 
transformándola objetivamente. Junto con la transformación de sus relaciones 
sociales, la historia de la naturaleza, desde la emergencia activa del hombre, 
no se puede separar de la historia de la humanidad. La interacción hombre­
naturaleza se va volviendo más determinante conforme avanza el potencial técnico 
del ser humano. Con el desenvolvimiento de los modos de producción y a medida 
que, de ser esclavo de la naturaleza, el hombre se convierte en su amo, aun 
cuando dentro del capitalismo el amo sea estúpido y egoísta (todo un burgués 
contemporáneo), el capitalismo ha llevado esta transformación hasta sus límites, 
dentro de lo que cabe, en una sociedad de clases y ha vuelto a las fuerzas 
productivas, potencialemancipatorio en una sociedad sin clases, contra el hombre 
mismo; como su "nuevo amo" aparentemente indomable. Para Marx, el hecho de que 
no sólo podamos reproducir la cosa en sí sino además crear cosas en sí como 
cosas para nosotros que no existían antes de la intervención objetiva del ser 
humano, representa una prueba asombrosa de la terrenalidad y objetividad del 
pensamiento del hombre y la posibilidad misma de poner sus resultados bajo el 
control democrático de la humanidad.

460
2) Materia y antimateria: unidad de contrarios

Una de las tesis cardinales del materialismo dialéctico "la unidad y lucha de 
contrarios" ha encontrado su confirmación más sorprendente en el terreno de la 
naturaleza con el principio de Paul Dirac: "a toda partícula le corresponde su 
antipartícula". Desde entonces las antipartículas han sido descubiertas, una a 
una, en los aceleradores nucleares. Y el principio de Paul Dirac se ha 
convertido en una de las piedras angulares de la física moderna

Las partículas y sus antipartículas son verdaderos opuestos, idénticos en su 
masa, en su espín; su oposición radica en su carga opuesta; oposición que se 
manifiesta explosivamente cuando los opuestos se encuentran : se aniquilan 
transformándose en fotones de diversa energía; pero los opuestos negados siguen 
implícitos en los fotones, vuelven a emerger cuando la característica esencial 
de la luz —su movimiento a 300.000 kilómetros por segundo— es negada mediante la 
colisión con diversas partículas, generando en el acto diversas partículas y 
antipartículas.

La gran explosión que generó el universo conocido se supone que originó la misma 
cantidad de materia y antimateria. Una de las líneas de investigación más 
cautivantes de la cosmología y la física modernas es rastrear el destino de la 
antimateria generada. Si esta hipótesis resulta correcta la unidad de contrarios 
estaría implicada en el origen mismo del universo conocido.

Las contradicciones han sido encontradas, una detrás de otra, en las partículas 
llamadas elementales, como burlándose de su nombre y mofándose de la ley de 
identidad. Todo un abanico de contradicciones (en todos los niveles hegelianos: 
diferencia, contradicción, antagonismo) están implicados en cada una de las 
partículas elementales. Así el neutrón en estado libre se desintegra en un 
electrón, un protón y un antineutrino; el protón se desintegra en un neutrón, en 
un positrón (antielectrón) y un neutrino; los mesones (cuantos de la interacción 
fuerte) además de existir positivos, negativos, y neutros decaen en fotones de 
gran energía; los muones (electrones pesados), además de ser positivos o 
negativos se desintegran en neutrones, neutrinos y antineutrinos o en 
positrones, neutrinos y antineutrinos respectivamente. Muchas de estas de­
sintegraciones (como la de los muones) se dan en pocas millonésimas de segundo y 
otras como la del protón en un tiempo en años de un 1 seguido de 31 a 33 ceros.

Por si estas contradicciones no fueran suficientes y no estuviéramos 
suficientemente apabullados y confundidos con la enorme cantidad de nuevas 
partículas materiales —por no hablar del irónico nombre de "partículas 
elementales"—, agreguemos a esto que todas tienen sus antipartículas y que todos 
los nucleones se componen de partículas aun más pequeñas llamadas quarks, que 

461
además de existir en cuatro variantes, también tienen sus antipartículas. Con 
los quarks emerge un nuevo nivel de la realidad, con nuevas propiedades o campos 
(también cuantificados con la constantePlanck), que no existen en el nivel de 
los nucleones (protones, neutrones, mesones,) campos conocidos con los 
extravagantes nombres de: color, extrañeza, belleza, etc.; junto con sus cuantos 
o partículas, conocidos como gluones que, se cree, son responsables de estos 
campos, mostrando que incluso los quarks, en tanto emiten partículas virtuales, 
no son "elementales". Hasta el momento sólo el electrón y algunas otras 
partículas permanecen sin revelar su estructura interna. Muchos científicos, 
ilusamente diríamos nosotros, las siguen considerando partículas elementales, 
eternas e inmutables, pero, como lo demuestra la historia de la ciencia, 
seguramente será cuestión de tiempo para que revelen sus secretos. El átomo 
supuestamente indivisible y simple es un verdadero universo compuesto por una 
cantidad, en imparable crecimiento, de "partículas elementales" (hasta el 
momento se han descubierto alrededor de ochenta) cuya característica más 
relevante consiste en que no son elementales.

Una tras otra, estas partículas han sido derribadas de su pedestal de supuestas 
partículas irreductibles, más allá de las cuales ya no hay nada que investigar. 
Alan Woods y Ted Grant en Razón y Revolución subrayan el constante e 
interminable proceso de confirmación de la complejidad infinita de la materia, 
que representa una de las ideas fundamentales del materialismo dialéctico. "A 
pesar del hecho de que la experiencia ha demostrado que la materia no tiene 
límite, los científicos siguen buscando en vano los "ladrillos de la materia". 
(...) Las propiedades de los quarks todavía esperan ser analizadas, y no hay 
razón para suponer que eso no se vaya a conseguir, señalando el camino para el 
sondeo cada vez más profundo de las infinitas propiedades de la materia. Este es 
el camino por el que siempre ha avanzado la ciencia. Las supuestamente 
infranqueables barreras al conocimiento que ha erigido una generación, han sido 
derribadas por la siguiente, y así sucesivamente. Toda la experiencia previa nos 
da la razón al afirmar que este proceso dialéctico de avance del conocimiento 
humano es tan infinito como el propio universo"134. El materialismo dialéctico, 
bien entendido, representa una concepción del desarrollo como una espiral 
dialéctica siempre abierta y rica en contenido cuya única constante es el 
movimiento y la contradicción concretas.

3) Las partículas elementales y el desarrollo del Universo:

unidad dialéctica de lo finito y lo infinito

462
En resolución: quien quiera conocer los más importantes secretos de la 
naturaleza contemple y considere en torno a lo mínimo y a lo máximo de los 
contrarios y opuestos".

Giordano Bruno, 1548­1600

Una confirmación asombrosa e incontrovertible de la unidad dialéctica entre lo 
finito y lo infinito se encuentra en la vinculación recíproca de las partículas 
elementales con las características y el desarrollo del universo, la gestación 
de estrellas y todos los elementos químicos. Es difícil comprender sin quedarse 
anonadados los conceptos de infinito que implica esta relación. 
Tanto Engels como Marx135 siempre argumentaron que el concepto matemático de 
infinito no era una simple creación de la razón: "...todo el sistema solar y las 
distancias que aparecen entre éste aparecen, a su vez, como infinitamente 
pequeñas en cuanto tratamos con distancias calculadas en años luz", 
dice Engels hablando de la objetividad del concepto de infinito. "Aquí ya 
tenemos, pues, un infinito, no sólo de primero, sino además de segundo grado, y 
podemos dejar a cargo a la imaginación de los lectores la construcción de nuevos 
infinitos de un grado más elevado en el espacio infinito, si tienen deseos de 
hacerlo"136. Es difícil de asimilar para el sentido común que el universo tan 
inconmensurablemente inmenso, tanto que todos los granos de arena de toda las 
playas del mundo serían insuficientes para contabilizar las estrellas que nacen, 
se desarrollan y mueren en ese infinito escenario, esté relacionado con su 
extremo opuesto que le es inconmensurable e infinitamente pequeño. 
Matemáticamente sus magnitudes relativas están infinitamente separadas y 
opuestas, sin embargo, existe una relación esencial entre estos opuestos. Las 
partículas elementales surgen y se fusionan en átomos en las entrañas de las 
estrellas; estrellas que existen como manifestación de la energía que se 
requiere para fusionar las partículas en átomos y transmutar elementos; 
estrellas que forman galaxias, cúmulos de galaxias y supercúmulos; estrellas que 
explotan y generan nuevos elementos químicos, agujeros negros y pulsares que 
emiten neutrones; partículas y átomos que tras ser arrojados en la vastedad del 
universo se unen en nubes moleculares o matrices de nuevas estrellas y galaxias; 
galaxias que pueden ser estudiadas por la influencia infinita del espectro 
electromagnético emitido por los elementos químicos inconmensurablemente 
pequeños con relación a las estrellas e infinitamente pequeños en relación con 
el universo y que, no obstante, hacen sentir su influencia en todo el universo. 
El universo es el sistema más grande e infinito, donde se desenvuelven todos los 
procesos materiales en sus infinitas manifestaciones; este todo infinito se 
vincula con su opuesto infinitamente pequeño, que está al borde de la no 
existencia, la mayoría de las partículas elementales son inestables y tienen una 

463
vida media que llega a ser de millonésimas de segundo, tiempos que no son nada 
en la escala del universo. Con un criterio materialista tenemos la oportunidad 
de estudiar la unión de lo infinitamente grande e infinitamente pequeño, no en 
la intuición irracional de un Schopenhauer, sino en el estudio de las leyes 
concretas del universo, leyes que unifican los opuestos. Desde hace varias 
décadas, dicha unidad se ha puesto de relieve en la ciencia y la cosmología 
modernas con implicaciones filosóficas infinitamente más ricas y cautivantes que 
las abstracciones vacías y presuntuosas de la filosofía burguesa posmoderna 
entretenida en un empirismo estéril o en la noche negra de la irracionalidad 
donde "todos los gatos son pardos".

El "polvo de estrellas", producto de la explosión agónica de una estrella en 
forma de nova o supernova, se acumula en una suerte de cementerios estelares o 
"nubes moleculares" formadas de polvo y principalmente de moléculas de 
hidrógeno; el rompimiento del balance entre las fuerzas opuestas de la presión, 
que tiende a expandir la nube y la gravedad que la tiende a contraer, o en otras 
palabras, el rompimiento de su simetría como resultado de su interacción con el 
resto del universo, provoca la condensación en grumos de estas nubes que las 
colapsan gravitacionalmente. Este proceso de nacimiento de galaxias a partir del 
caos puede ser visto en la nebulosa de Orión. El caos, la falta de simetría 
y homegeneidad en el universo, como habíamos visto, genera orden. Según una 
teoría del astrofísico soviético L. M. Orzenoi: "el universo primordial se 
encontraba en un estado caótico, lleno de gigantescos remolinos de materia, tal 
como en un líquido turbulento"137. Cuando la masa implicada en el colapso 
gravitacional supera el punto cualitativo de una décima parte de la masa del sol 
y una temperatura de los seis millones de grados, la nube molecular comienza a 
romper la enorme oposición del electromagnetismo y fusiona los protones en 
átomos para formar helio a partir del hidrógeno; con esta reacción termonuclear 
presenciamos el nacimiento de una estrella. No obstante las estrellas de estas 
magnitud solo producen átomos de helio y un poco de nitrógeno. Las estrellas que 
tienen una masa mayor a la mitad de la del Sol producen todos los elementos más 
ligeros que el hierro, entre ellos el carbono y el oxígeno, sin los cuales, el 
surgimiento de la vida sería imposible.

Lo más representativo de la verdadera alquimia natural de las estrellas está en 
que la masa de los átomos creados no es igual a la suma de sus partes138, los 
átomos creados son más ligeros que los protones de los cuales se formaron, la 
diferencia de masa se manifiesta en la increíble energía de las reacciones 
atómicas que originan el brillo de las estrellas. Además los protones y 
neutrones que forman los átomos son cualitativamente distintos a los que se 
encuentra en estado libre; en la interacción dialéctica que describimos más 

464
arriba, las partículas subatómicas adquieren estabilidad, sin la cual decaen 
radiactivamente para formar protones y electrones: las únicas partículas con 
cierta estabilidad (los protones se desintegran en 1 x 1033 años)

El nacimiento de estrellas y su desarrollo se da en función de cambios graduales 
interrumpidos por bruscos cambios cualitativos a través de la dinámica y tensión 
de fuerzas opuestas. Su dinámica sólo puede ser entendida cabalmente como un 
proceso dialéctico. La estrella consiste en la dinámica de la presión de gas 
caliente que irradia energía y tiende a expandirla y la gravedad de su masa que 
tiende a contraerla, mientras que el parámetro para determinar sus propiedades 
se mide en función de su relación cuantitativa con la masa del sol. La lucha 
entre las fuerzas opuestas de la estrella determina su destino.

Cuando la masa de la estrella no supera el punto crítico de una vez y media la 
masa solar, al terminar de manera gradual y más o menos lineal su combustible 
(hidrógeno), las tendencias repulsivas dominan, se convierte en una gigante roja 
para, finalmente, explotar en forma de nova y crear una nebulosa; las tendencias 
gravitatorias dominarán posteriormente el núcleo de la estrella que se colapsará 
y se comprimirá a un tamaño de unas cinco veces la Tierra, en donde las fuerzas 
gravitacionales serán tan inmensas que una cucharada de materia pesará mas de 
cien kilogramos139.

Cuando la masa de la estrella supera el punto crítico de una vez y media la masa 
del sol (punto crítico conocido como "límite de Chandrasekhar"), da el salto 
cualitativo y al final de su vida se colapsará aún más, hasta superar a la 
fuerza nuclear fuerte, los protones se fusionan para crear neutrones y neutrinos 
formando una estrella de "neutrones" en una masa de un escaso radio de diez 
kilómetros girando y emitiendo un campo magnético y pulsos en ondas de radio. 
Estos pulsares tienen un campo gravitacional tan inmenso que una cucharada de su 
materia pesa miles de millones de toneladas.

Si la masa de la estrella supera unas seis veces la del sol, explotará como 
supernova con la fuerza suficiente para crear los átomos de todos los elementos 
más pesados a partir del hierro, átomos que, a diferencia de los más ligeros, al 
fusionarse, gracias a la enorme energía de la supernova, tienen un peso superior 
a las partículas que los componen; no han perdido energía sino que la han 
absorbido transformándola en materia; aquí, como en todos los procesos 
complejos, el todo nunca es igual a la suma de las partes y las partes no son 
iguales que en su aislamiento. Un testigo de esta explosión espectacular de 
supernova la constituye la nebulosa Cangrejo. Nebulosas que son embriones de 
nuevas galaxias en cuyo centro el antiguo núcleo colapsará tan infinitamente que 
la velocidad para escapar a su gravitación superará a la velocidad de la luz, 

465
dando origen a un "agujero negro". A diferencia de lo que se pudiera suponer los 
"agujeros negros", fenómenos extraordinariamente destructivos, tienen, al mismo 
tiempo, un papel creativo en el universo y se encuentran en el centro de toda 
galaxia, al parecer, en los puntos de no retorno, en la periferia de los 
agujeros negros, mas allá de los cuales nada, ni siquiera la luz, puede escapar 
se forman remolinos y chorros de materia que rompen el fino equilibrio de las 
nubes moleculares colapsándolas en nuevas estrellas y galaxias. Cuando la 
expansión de la galaxia ha llegado a cierto punto el "agujero negro" deja de 
arrojar material y se inactiva. Como comenta Alan Woods: "Aquello que en 
principio se suponía era una fuerza puramente destructiva, ahora resulta ser una 
fuerza creadora, un elemento que reside en el centro de toda galaxia, 
manteniéndola unida y dándole cohesión, esencial para toda la vida y para 
nosotros mismos (...) De esta forma, la fuerza más destructiva de todo el 
universo resultó tener poderes colosales creadores. La concepción dialéctica de 
la unidad y lucha de contrarios ha recibido una poderosa confirmación de la 
fuente más inesperada"140.

Hemos dejado muy atrás la creencia del gran filósofo Aristóteles según la cual 
el reino celeste, incluidas las estrellas, constituían el reino de 
loecuclidianamente puro e inmutable; y también hemos dejado muy atrás los 
prejuicios positivistas de Augusto Comte, según el cual, investigar la 
composición química del sol, por no hablar del resto de las estrellas, era una 
perdida de tiempo por estar oculta o ser una cosa en sí absolutamente 
inaccesible142. A pesar de todos estos prejuicios presuntuosos que imponen 
límites artificiales al conocimiento, no sólo hemos accedido al conocimiento de 
la composición de nuestra estrella, no sólo sabemos que algún día el Sol no 
volverá a aparecer en el horizonte (el ejemplo clásico del escepticismo 
de Hume), y no porque los científicos hayan adoptado el escepticismo 
positivista, sino por el conocimiento de sus leyes inmanentes que predicen el 
fin de su combustible; además, hemos ido mucho más allá de lo que supuestamente 
podíamos acceder en el conocimiento de la cosa en sí, no sólo de la vinculación 
de lo infinitamente pequeño con lo infinitamente grande, sino en la vinculación 
de los fenómenos estelares con la creación de los elementos químicos que hacen 
posible la vida y el pensamiento. La cosa en sí no sólo se ha vuelto cosa para 
nosotros sino que ha mostrado cómo de su evolución dialéctica ha surgido el 
pensamiento que, en algunas filosofías, además de imponerse límites, en un 
delirio producto de la división extrema del trabajo manual e intelectual del 
capitalismo, se cree fundamento solipsista o trascendental de la naturaleza.

  

466
CONCLUSIONES

El sentido común, herencia y expresión de la vida cotidiana nos dice que "A" es 
igual a "A". Las leyes de la lógica formal son adecuadas para una gran cantidad 
de fenómenos de la vida cotidiana, precisamente de aquellos eventos lineales y 
aparentemente estables como, por ejemplo, reconocer la identidad y permanencia 
de los objetos de nuestra vida diaria; saber que un perro es un perro 
(especialmente si se trata de mi perro), la autoconciencia de mi propio Yo, 
saber reconocer los rostros familiares y queridos; todas son condiciones para la 
supervivencia en el mundo cotidiano143.

Sin embargo, el mundo cotidiano no deja de informar continuamente de la 
complejidad del mundo capitalista, donde la estabilidad es sólo un momento 
transitorio del movimiento. La lógica formal es una fuerza esencialmente 
conservadora y tranquilizadora que se convierte en una especie de 
rigor mortismental cuando no se reconoce en sus propios límites; la estabilidad 
relativa de lo cotidiano se transforma en su contrario por la gradual 
acumulación de tensiones producto, en este caso, de las leyes inmanentes del 
capitalismo, que actúan en las profundidades, que llegan a un punto crítico y 
emergen bruscamente a la superficie; transformando la conciencia de los hombres, 
especialmente de los trabajadores. El cuerpo muerto y rígido vuelve a cobrar 
vida; el Yo aparentemente inmutable se transforma bruscamente; el Yo 
individualista se percata de su fuerza como clase social. En realidad es ya otro 
sujeto cualitativamente distinto, una negación dialéctica de su conciencia 
pasada. Estos procesos, impulsados en última instancia por factores objetivos, 
obligan a las masas a intentar tomar el destino en sus propias manos. Se llaman 
revoluciones; procesos que son profundamente dialécticos y que, en palabras 
de Marx, constituyen la locomotora de la historia.

Ahora la lógica formal se torna en un cascarón vacío, rígido y sin vida porque 
la estabilidad ha sido rota y el movimiento a través de contradicciones se 
vuelve absoluto. "Trataré aquí de esbozar lo esencial del problema en forma muy 
concisa" nos dice Trotsky hablando de los límites de la lógica formal. "La 
lógica aristotélica del silogismo simple parte de la premisa de que "A" es igual 
a "A". Este postulado se acepta como axioma para una cantidad de acciones 
humanas prácticas y generalizaciones elementales. Pero en realidad "A" no es 
igual a "A". Esto es fácil de demostrar si observamos estas dos letras bajo una 
lente: son completamente diferentes. Pero, se podrá objetar, no se trata del 
tamaño o la forma de las letras, dado que ellas son sólo símbolos de cantidades 
iguales, por ejemplo de una libra de azúcar. La objeción no es válida; en 
realidad una libra de azúcar nunca es igual a una libra de azúcar: una balanza 
delicada descubrirá siempre la diferencia. Nuevamente se podría objetar: sin 

467
embargo una libra de azúcar es igual a sí misma. Tampoco esto es verdad: todos 
los cuerpos cambian constantemente de peso, color, etc. Nunca son iguales a sí 
mismos. Un sofista contestará que una libra de azúcar es igual a sí misma en un 
"momento dado". Fuera del valor práctico extremadamente dudoso de este "axioma", 
tampoco soporta una crítica teórica. ¿Cómo concebimos realmente la palabra 
"momento"? Si se trata de un intervalo infinitesimal de tiempo, entonces una 
libra de azúcar está sometida durante el transcurso de ese "momento" a cambios 
inevitables. ¿O este "momento" es una abstracción puramente matemática, es 
decir, cero tiempo? Pero todo existe en el tiempo y la existencia misma es un 
proceso ininterrumpido de transformación; el tiempo es en consecuencia, un 
elemento fundamental de la existencia. De este modo el axioma "A" es igual a 
"A", significa que una cosa es igual a sí misma si no cambia, es decir, si no 
existe"144.

Quizá cuando vamos al mercado y queremos comprar azúcar estas consideraciones 
dialécticas carecen de importancia y aparentan ser necedades pedantes e 
inútiles. Seguramente resultará un ejercicio bastante improductivo buscar 
contradicciones en todo lo que vemos cada vez que vamos a La merced, —aun 
cuando Marx haya mostrado que "el mercado" se encuentra plagado de 
contradicciones—. Pero cuando nos enfrentamos con procesos dinámicos y 
complejos, a los que la vida cotidiana se encuentra en última instancia 
subsumida, la cosa cambia. Precisamente estos fenómenos son los de más interés 
para la ciencia moderna y la filosofía marxista y en los que se puede encontrar 
respuestas a los problemas que aquejan a la humanidad. Y no es que los procesos 
complejos como los estudiados por la economía política marxista, la teoría de la 
relatividad, la teoría del caos y la mecánica cuántica, no puedan ser entendidos 
racionalmente. Todo lo contrario, la condición para comprender racional y 
cabalmente y de forma coherente la dinámica interna de estos procesos complejos 
se encuentra, según Marx, en "la reproducción de lo concreto por la vía del 
pensamiento"145, en someter lo concreto, síntesis de múltiples determinaciones, 
a un estudio objetivo que desvele sus leyes subyacentes, y a su vez, comprender 
la riqueza del fenómeno como manifestación inmediata de su esencia (ley). El 
materialismo dialéctico es un modelo general del movimiento, una guía para la 
acción y un método para el estudio de lo complejo; un método basado en la 
historia y en las ciencias particulares modernas, se abstrae de allí y se aplica 
como método para la intervención práctica.

El objetivo primordial de este trabajo ha sido poner de relieve que la ciencia 
moderna muestra, en general, que el movimiento lineal o la acumulación gradual 
de alguna de las variables involucradas provoca saltos repentinos; que el 
movimiento implica la dinámica de fuerzas y tendencias opuestas y diversas, y 

468
que los saltos cualitativos, debido a la acumulación cuantitativa por medio de 
contradicciones, dan lugar a nuevos fenómenos y estabilidades relativas que 
niegan las leyes anteriores al surgir nuevas y, al mismo tiempo, procesos en los 
que se puede rastrear su antecesor porque conservan algunas leyes como 
subordinadas. Estas son, a grandes rasgos, las tres leyes generales del método 
dialéctico abstraído de la naturaleza y de la sociedad como un modelo que 
refleja en su generalidad la dinámica del movimiento y que puede ser aplicado a 
lo concreto, nuevamente para comprender sus múltiples determinaciones 
específicas en sus manifestaciones infinitas.

a) Los saltos cualitativos

Aunque desde Darwin la idea de evolución y cambio se ha fijado en la conciencia 
popular, se tiene una idea castrada y vulgar de movimiento. Esperamos haber 
mostrado que una de las ideas más importantes de la ciencia moderna se encuentra 
en los puntos críticos, ya sea en la teoría del caos donde el cambio gradual 
provoca un salto al caos y del caos al orden; en la mecánica cuántica en donde 
la constante Planck determina los puntos críticos de cambio cualitativo de todos 
los números cuánticos (espín, campo magnético, niveles de energía, encanto, 
etc.), es decir, de todas las propiedades a nivel atómico y subatómico (al menos 
el nivel de la realidad subatómica hasta donde se ha estudiado); en la teoría de 
la relatividad donde la mecánica clásica se transforma en física relativista en 
virtud de su relación con la velocidad de la luz, los movimientos relativos y la 
gravedad.

La idea dialéctica de la transformación de lo cuantitativo en cualitativo y 
viceversa, parece ser un patrón que se repite en una multitud asombrosa de 
ciencias y fenómenos: desde la cosmología y la evolución estelar a la física, 
con las transiciones de fase: de conductor a superconductor, los estados de 
agregación de la materia (sólido, líquido, gaseoso); en el espectro 
electromagnético, etc.; en la química y en física con las propiedades 
emergentes, con la tabla periódica de los elementos químicos, la desintegración 
radiactiva; en geología con la acumulación de tensiones, choques de placas 
tectónicas que provocan terremotos.

Estos saltos cualitativos dan lugar a nuevos fenómenos, a una nueva relativa 
estabilidad con leyes específicas. Estos saltos vinculan a las ciencias entre sí 
e incluso vuelven sus fronteras borrosas: la física cuántica relativista se 
transforma en standard cuando disminuyen las velocidades; ésta se transforma en 
química cuando se vuelve dominante el electromagnetismo que une las moléculas, y 
genera procesos de óxido­reducción y unión de iones y radicales; la tabla 

469
periódica de los elementos químicos se comprende mejor a través de la física 
cuántica; la física cuántica se transforma en física clásica cuando la longitud 
de onda disminuye con los cuerpos de la vida cotidiana; la física clásica se 
transforma en relativista cuando aumentan las velocidades y la gravedad.

La química se transforma en biología cuando aparece históricamente el 
metabolismo y la fotosíntesis, y aun antes cuando aparecen los primeros 
"metanógenos" y la formación de proteínas. La vida genera conciencia y la 
conciencia adquiere su impulso más importante con la fabricación de herramientas 
por el hombre, transformándose en conciencia social y en historia humana que, a 
su vez, condiciona y determina a la historia de la naturaleza, como lo explicó 
de manera maravillosa y premonitoria Engels. Incluso la idea incorrecta 
gradualista de Darwin, que no nacía de la idea misma de evolución, ni de la 
evidencia fósil, sino de la convicción ciega de Darwin en el cambio gradual, ha 
sido negada, al mismo tiempo que se conserva en su esencia central evolutiva por 
la teoría hoy generalmente aceptada de equilibrio puntuado, en donde se afirma 
que la evolución es un proceso contradictorio de cambios graduales —como los 
tres mil millones de años después de la aparición de la vida en la tierra— 
interrumpidos por cambios bruscos y rápidos: de extinciones masivas y aparición 
repentina de nuevas especies, como la explosión cámbrica hace unos 600 millones 
de años que produjo los principales diseños de la vida animal en pocos millones 
de años, incluso, el mismo surgimiento repentino de la vida hace unos tres mil 
millones de años. "Si el gradualismo es más un producto del pensamiento 
occidental que un hecho de la naturaleza", nos dice el creador de esta 
teoría, Stephen Jay Gould, "entonces deberíamos tomar en consideración 
filosofías alternativas de cambio para ampliar nuestro espacio de prejuicios 
limitativos. En la Unión Soviética, por ejemplo, los científicos se formaron una 
idea del cambio muy diferente —las llamadas leyes de la dialéctica, reformuladas 
por Engels a partir de la filosofía de Hegel—. Las leyes dialécticas son 
explícitamente puntuacionales. Hablan, por ejemplo, de ‘la transformación de 
cantidad en cualidad’. Esto puede sonar a bobadas esotéricas, pero sugiere que 
el cambio se produce a grandes saltos tras una lenta acumulación de tensiones 
que un sistema resiste hasta llegar a un punto de fractura. Calentamos el agua y 
finalmente hervirá. Opriman a los trabajadores cada vez más y se producirá la 
revolución. Eldredge y yo nos sentimos fascinados al enterarnos de que muchos 
paleontólogos rusos apoyaban un modelo similar a nuestro equilibrio 
puntuado"146.

Incluso la idea dialéctica de cambios cuantitativos que se convierten en 
cualitativos ha recibido su confirmación de la fuente más asombrosa e 
inesperada: El Genoma Humano. Como explica Alan Woods y Ted Grant en su 

470
excelentísima obra Razón y Revolución: "Hasta ahora los científicos creían que 
el genoma humano contenía las instrucciones para crear entre 50.000 y 150.000 
genes. Esta suposición se basaba en su comparación con los organismos simples, 
como la mosca del vinagre (Drosophila melanogaster). Los científicos decían que 
si esta humilde mosca tenía 13.000 genes, una entidad más grande y compleja como 
el ser humano debería tener muchos más. Una estimación superior a los 150.000 
genes parecía razonable, después de descifrar los dos primeros genomas animales. 
Pero estaban equivocados. Probablemente el número de genes humanos no supere los 
treinta o cuarenta mil.

"Este pequeño número les plantea a los científicos un dilema. Si el ser humano 
sólo tiene trece mil genes más que la lombriz intestinal (...) ¿cómo explicar su 
gran complejidad? ¿Por qué comparativamente somos tan avanzados? La lombriz 
intestinal es una pequeña criatura tubular formada por 959 células, de las 
cuales 302 son neuronas. El cuerpo humano posee cien billones de células, de las 
cuales unas cien mil millones son células nerviosas. A pesar de la tendencia 
actual a negar la existencia del proceso evolutivo, sería bastante razonable 
suponer que hay algo más en el Homosapiens que en la Caenorhabditis elegans. 
(...)

"Existe una interacción compleja entre la composición genética del organismo y 
las condiciones físicas que lo rodean. En lenguaje hegeliano, los genes 
representan el potencial. Pero este potencial solo se puede activar a través del 
estímulo exterior. (...) El editorial de The Observer llega a la siguiente 
conclusión ‘políticamente, ofrece alivio para la izquierda y su creencia en el 
potencial de todos (...) Pero condena a la derecha, con su gusto por las clases 
dominantes y el pecado original"147.

De hecho entre humanos y chimpancés sólo hay una diferencia del 1% en su 
composición genética, pero es una diferencia cualitativa fundamental y evidente 
para todos; y a pesar de ello, sobre todo en el hombre contemporáneo, lo 
dominante en el desarrollo humano no es la genética, sino el ambiente social 
capitalista que inhibe y ahoga las potencialidades culturales, científicas y 
hasta genéticas en el ser humano

b) Unidad y lucha de contrarios

Otra tesis que hemos intentado someter a prueba es la idea de "la unidad y lucha 
de contrarios" o, en otras palabras, la vinculación recíproca, la tensión entre 
fuerzas opuestas como fuente del desarrollo. Incluso el simple cambio de lugar, 
como decía Lenin, no puede entenderse como una simple suma de estados de reposo 

471
sino, más bien, como la unidad entre la discreción y la continuidad; como la 
discreción del objeto que pasa por una sucesión de puntos y, al mismo tiempo, la 
continuidad de su trayectoria. Las contradicciones se manifiestan de manera 
específica dependiendo del tipo de proceso y el nivel de la realidad del que se 
trate y se vuelven mas relevantes y evidentes a medida que la complejidad del 
proceso aumenta. Como comentó el destacado profesor y doctor en Ciencias, 
Pedro Miramontes: el movimiento requiere contradicción. En una esfera 
platónicamente perfecta, idéntica a sí misma, situada en el vacío es imposible 
saber o determinar movimiento alguno, ni relación ni punto de referencia alguno 
para determinar su movimiento; se requiere pintar una raya a la esfera perfecta, 
pero con ello deja de ser perfecta, se rompe su simetría. El movimiento requiere 
que esa "A" deja de ser "A" o igual a sí misma para que suceda el movimiento, 
condición esencial para la existencia148.

Hemos intentado mostrar que las cuatro fuerzas fundamentales de la naturaleza 
implican una relación de tendencias opuestas. La fuerza nuclear débil implica la 
unidad y tensión dinámica entre protones y neutrones en su transformación 
recíproca, emitiendo partículas radiactivas (alfa, beta o gamma); la "fuerza 
nuclear fuerte" se presenta como unidad dialéctica de la atracción y repulsión y 
la interacción de las partículas con sus cuantos; el electromagnetismo con sus 
polos opuestos inmanentes y como resultado de la relación entre las cargas del 
núcleo y de los electrones, además, del campo magnético implícito en los 
protones, electrones y otras partículas en sí mismas; a nivel del núcleo atómico 
la unidad y lucha de contrarios se manifiesta en la correspondencia entre 
materia y antimateria y su aniquilación mutua para dar origen a energía o 
fotones; los fotones, a su vez, como potencial de surgimiento de partículas y 
antipartículas, por no hablar de la oposición y diversidad implícitas en la 
inagotable complejidad de las partículas elementales.

La unión entre finito e infinito que implica el campo magnético y gravitatorio, 
así como la unidad entre lo infinitamente inmenso: el universo y lo 
infinitamente pequeño: las partículas elementales; la unidad entre lo finito e 
infinito en los fractales; la unidad dialéctica entre orden y caos en Teoría del 
Caos, en donde la aleatoriedad puede comprenderse determinada en su espacio de 
fases y en sus atractores extraños y el orden como producto del caos creativo; o 
en otras palabras, quizá menos académicas: "Un desmadre organizado"149. La 
vinculación entre necesidad y accidente en donde el punto crítico es fracturado 
por un accidente aparentemente insignificante que manifiesta la necesidad misma 
de ese rompimiento y de las leyes que llevaron hasta este punto crítico.

Los opuestos irreconciliables de la mecánica clásica, espacio, tiempo, materia y 
energía, se han comprendido en su interacción recíproca con la teoría de la 

472
relatividad: el espacio se curva y se determina por la materia que contiene; la 
materia no puede concebirse, en su heterogeneidad, fuera del espacio; el tiempo 
se transforma con el movimiento de un sistema material; las longitudes, masas y 
tiempos propios de un cuerpo están en relación con su movimiento. La materia y 
la energía no están separados por un abismo infranqueable, en tanto que la 
fuente del movimiento y desarrollo de la materia esta implícita en ella misma En 
la evolución estelar vemos la unidad de contrarios en la tensión entre la 
expansión de la energía de la estrella y su contracción gravitacional, que hace 
de la estrella un sistema con relativa estabilidad. Contradicciones que anuncian 
ya la posibilidad del rompimiento de dicha estabilidad, rompimiento que genera 
nuevos fenómenos cualitativamente distintos como enanas blancas, estrellas de 
neutrones y agujeros negros destructivos y extraordinariamente creativos al 
mismo tiempo; tanto que se encuentran en el centro de toda galaxia, atestiguando 
su unidad con la creación de planetas y estrellas y eventualmente vida y 
conciencia.

La teoría de la evolución se explica como la unidad entre lo accidental y lo 
necesario: Lo accidental de la mutación genética, lo accidental de infinidad de 
características fenotípicas, que no tienen ninguna utilidad evolutiva y al mismo 
tiempo accidentalidad, que en su interacción dialéctica con el medio, posibilita 
a que algunos de esos accidentes se manifiesten como necesarios en la 
supervivencia y en relación con la transformación constante del medio. La 
contradicción concreta se encuentra en el núcleo de la propia vida: "Vivir es 
consumirse y consumir la propia vida es ya morir. La vida y la muerte están 
estrecha e indisolublemente unidas. Los contradictorios, concretamente, están 
unidos, ¡son idénticos!"150.

En matemáticas Marx y Engels ya habían puesto de relieve la unidad dialéctica 
entre una recta como un fragmento infinitesimalmente pequeño de una curva cuya 
integración daba origen a su contrario: la circunferencia. Las contradicciones 
han sido la característica esencial de la matemática moderna dando, de paso, el 
tiro de gracia al intento de encontrar una estructura lógico formal a todas las 
matemáticas: podemos hablar de la topología en donde un plano es un fragmento 
pequeño de una esfera y en la fractalidad en donde existe autosemejanza 
estructural infinita en una estructura finita. Matemáticas que tratan del mundo 
tal cual es: un mundo abollado, doblado, retorcido o en otras palabras 
contradictorio. Es importante tomar conciencia de que estas tensiones entre la 
diferencia y la oposición no son arbitrarias sino que se fundan en las 
fuerzas mas generales de la naturaleza hasta ahora conocidas y en las 
matemáticas implicadas.

473
c) Negación de la negación

La "negación de la negación" vincula las diferentes etapas cualitativas del 
desarrollo, considerando lo que tienen de específicas, en su esencia relativa 
(en la leyes que se manifiestan en ese nivel) y, a la vez, en lo que conservan 
de su pasado o de su origen relativo; y en su tendencia a la autoorganización y 
a la mayor complejidad. Hegel le dio expresión a esta idea de una forma ya 
clásica y particularmente bella: "El capullo desaparece al abrirse la flor, y 
podría decirse que aquel es refutado por ésta; del mismo modo que el fruto hace 
aparecer la flor como un falso ser allí de la planta, mostrándose como la verdad 
de ésta en vez de aquella. Estas formas no sólo son distinguibles entre sí, sino 
que se eliminan las unas a las otras como incompatibles. Pero, en su fluir, 
constituyen al mismo tiempo otros tantos momentos de la unidad orgánica, en la 
que, lejos de contradecirse , son todos igualmente necesarios, y esta igual 
necesidad es cabalmente lo que constituye la vida del todo151".

La negación implica una nueva etapa de un desarrollo orgánico, en la cual nuevas 
leyes emergen y al mismo tiempo se conservan las huellas de su antecesor negado. 
Tratamos de mostrar que las cuatro leyes fundamentales de la naturaleza 
constituyen negaciones dialécticas. En el interior del núcleo domina la mecánica 
cuántica relativista con sus leyes específicas (fuerza nuclear fuerte, fuerza 
nuclear débil y electromagnetismo). Cuando estamos en el nivel de las órbitas de 
los electrones se niegan las fuerzas nucleares y domina el electromagnetismo. La 
onda de Schrödinger, que define a la mecánica cuántica, es negada y disminuida 
por las leyes de Newton hasta hacerse despreciable con los cuerpos mesocósmicos, 
la onda deSchrödinger sigue asociada a los cuerpos pero es tan pequeña que es 
prácticamente inexistente. Cuando aumenta la velocidad y la gravedad, las leyes 
de la relatividad general niegan a la física de Newton y la conservan al mismo 
tiempo como un caso especial. Al igual que las etapas de la vida de la planta, 
estos son niveles de la realidad que se niegan recíprocamente y se conservan al 
mismo tiempo

El caos es un punto límite de la acumulación de tensiones en un movimiento 
lineal y constituye su negación. Pero el caos conserva un orden particular que 
conjuga orgánicamente aleatoriedad y determinación; el orden se afirma en el 
caos de una forma más compleja y creativa. A su vez, el orden del caos genera 
una nueva ventana de orden lineal dentro de un mar caótico. Este orden niega 
nuevamente al caos, nueva linealidad que tiene las semillas del caos. La 
linealidad mecánica de un péndulo, por ejemplo, implica perturbaciones 
insignificantes que llevadas al extremo generan caos, aun en esta linealidad se 
encuentra el caos negado, que puede volverse determinante al negar la linealidad 
ahora dominante. La geometría fractal de los atractoresextraños propia de los 

474
procesos caóticos, mantiene autosemejanza en sus infinitos niveles pero, en 
los fractales no lineales, los niveles son cualitativamente distintos, se 
conserva la fractalidad estructural pero se niegan cualitativamente.

De la misma forma en que una flor riega su simiente para preparar futuras 
generaciones; las estrellas explotan para esparcir el polvo de estrellas y 
preparar futuras generaciones estelares. Negación del polvo estelar y de la 
estrella desaparecida. De la misma manera que un individuo es negación 
dialéctica de sus progenitores y los conserva en sus genes. Y el genoma humano 
conserva genes antiquísimos de organismos más simples y antiguos que fueron ya 
hace mucho tiempo negados y que no obstante permanecen en nuestros genes mismos. 
La comprobación científica de la negación de la negación en los genes humanos es 
asombrosa. "En muchos casos nos hemos encontrado con que los humanos tienen 
exactamente los mismos genes que las ratas, los ratones, los gatos, los perros o 
incluso moscas del vinagre", afirma uno de los dos equipos que estudiaron el 
genoma humano. "Tomemos por ejemplo el gen PAX­6. Hemos descubierto que si está 
dañado no se formarán los ojos. Si le implantamos a la mosca del vinagre un gen 
humano, conseguiremos que su descendencia recupere la visión"152. A pesar de 
ello, el individuo no puede ser reducido a su carga genética que queda subsumida 
a la relación con su medio ambiente.

El individuo ya no es el mismo que fue cuando era niño o joven, pero en su 
vejez, el individuo conserva las experiencias negadas de su pasado que 
constituyen lo que es. Y el individuo joven o viejo no se reduce a su 
individualidad aislada, sino que se constituye inmerso en su formación social 
con leyes independientes de su subjetividad; leyes objetivas que en sus puntos 
críticos de desarrollo se definen por la acción consciente de los individuos y, 
en ocasiones, de un solo individuo que se encuentra a la cabeza de fuerzas 
sociales. En estos puntos excepcionales la subjetividad emerge y puede decidir 
el desenlace de un proceso objetivo (lo que Marx llamó el factor subjetivo).

La teoría del caos parece confirmar la idea dialéctica del desarrollo 
progresivo, idea generalmente denigrada e incomprendida. De acuerdo 
con IlyaPrigogine los procesos muestran una tendencia hacia la organización y la 
mayor complejidad; fundamentando la línea progresiva del tiempo. La negación de 
la negación se representa como una espiral ascendente y contradictoria, cuyos 
vórtices, a veces, caen por debajo de la espiral anterior y que, a veces, se 
eleven muy por encima de su predecesora y, en la totalidad orgánica de su 
desarrollo, muestra una tendencia creciente hacia la complejidad. La evolución 
del cosmos, el nacimiento de galaxias y estrellas, por lo menos hasta donde 
conocemos, consiste en el rompimiento de la relativa simplicidad, tanto en 
composición como en dinámica, de las nubes moleculares provocando un colapso 

475
gravitacional, dando origen a estrellas, galaxias, cúmulos de galaxias y 
supercúmulos, que generarán el resto de los elementos químicos a partir del 
hidrógeno. Y a partir de aquí, en condiciones propicias, el surgimiento de la 
materia viva y, con el cerebro del hombre, la materia que ha cobrado conciencia 
de sí misma. En palabras de Lenin "la materia más altamente organizada". Después 
de todo, podemos afirmar que el cerebro humano es más complejo que una fría nube 
molecular. Aun con el fin de nuestro sistema solar por la explosión del Sol en 
una supernova, podemos estar seguros junto con Engels que: "por la misma férrea 
necesidad con que un día desaparecerá de la tierra su floración más alta, el 
espíritu pensante, volverá a brotar en otro lugar y en otro tiempo"153.

La vida misma constituye un proceso de creciente complejidad estructural, desde 
los simples organelos reductores de metano, hasta los organismos multicelulares 
y el hombre mismo. Con el hombre, el mundo natural del cual surgió, queda 
subordinado y negado a las leyes del desarrollo histórico. Por supuesto, el 
mundo natural sigue existiendo, y sigue estando en la base de la vida y de la 
producción humanas, pero su historia se vuelve cada vez más inseparable del 
desarrollo de las fuerzas productivas, a tal grado que ha sido totalmente 
transformada irracionalmente, dentro del capitalismo (a excepción de algunos 
arrecifes coralinos del Caribe como diría Marx). La historia del hombre, desde 
el hombre paleolítico de las cuevas de Francia y España, hasta el hombre 
moderno, muestra un inmenso aumento de la capacidad de transformar la 
naturaleza; ésta es la base de la historia y de la vida humana. Se puede objetar 
que por lo menos el hombre primitivo no devastaba la naturaleza ni asesinaba 
masivamente a sus semejantes y que, más que de un progreso, tendríamos que 
hablar de un retroceso; pero eso sólo prueba que el hombre moderno tiene una 
capacidad infinitamente superior de asesinar a sus semejantes y transformar su 
entorno.

El hombre, antes de amar a sus semejantes, necesita comer y para comer necesita 
producir; y el producir ha transformado las relaciones entre los hombres muchas 
veces y de ellos mismos con la naturaleza. El hombre se volvió hombre en su 
intento de controlar y transformar la naturaleza. El desarrollo de la ciencia y 
la técnica y la consiguiente transformación de las relaciones 
sociales constituye el motor de la historia y no los sermones sobre moral 
abstracta. La misma complejidad de la ciencia dentro del capitalismo posibilita 
que el hombre salte del reino de la necesidad al reino de la libertad, no con 
las lecciones de moral sino por medio de la revolución y el control democrático 
de las fuerzas productivas. Este salto revolucionario representa la conservación 
de las conquistas culturales del capitalismo al mismo tiempo que su negación 
total.

476
Si la espiral de desarrollo no resuelve satisfactoriamente las tendencias de su 
propio desarro­llo, el proceso puede ser frustrado, ya no como negación 
dialéctica, sino como liquidación del proceso mismo. Así, la especialización 
extrema en los organismos, su adaptación perfecta a un medio determinado, puede 
generar la extinción de una especie al entrar en contradicción con un medio que 
se transforma más allá de su punto de adaptación. Esto fue lo que sucedió con 
algunos rivales bípedos del Homo habilis excesivamente adaptados (Homo faber). 
Esto fue lo que sucedió con la caída del imperio romano cuando el régimen 
esclavista llegó a sus límites y los esclavos fueron incapaces de tomar la 
hegemonía; la invasión de los bárbaros significó el accidente que provocó el 
colapso necesario de un régimen, ya podrido desde hacía siglos. Y no hay razones 
para pensar que un colapso de la civilización no pueda volver a ocurrir si las 
contradicciones ya insoportables del capitalismo, en especial la propiedad 
privada y los estados nacionales, no son resueltas por la vía revolucionaria. La 
primera y segunda guerra mundial fueron un serio aviso de que el capitalismo 
había llegado ya a sus límites; la contradicción se resolvió temporalmente con 
la destrucción masiva de las fuerzas productivas de toda Europa y con la muerte 
de masde 55 millones de personas. Esto posibilitó el auge de posguerra que 
finalizó en 1973. Ahora somos testigos de una crisis de sobreproducción a escala 
global. Las condiciones objetivas para la negación revolucionaria están dadas; 
el proletariado constituye ya más del 70% de la PEA de los países avanzados, hoy 
es más fuerte que nunca. Sin su permiso no se prende un foco ni se mueve una 
rueda. La vinculación económica se extiende a escala global. Los escépticos 
eternos de la revolución y de la capacidad creativa de las masas pueden mirar 
con sus propios ojos procesos revolucionarios a ritmos diferentes en toda 
América Latina: Argentina, Bolivia, Venezuela, Perú, Brasil; y huelgas generales 
en Italia, España, Francia, movilizacionesantibélicas de decenas de millones de 
personas en todo el mundo el mismo día, sobre todo en países que se suponían 
modelos de estabilidad y de capitalismo con rostro humano. El rostro humano ha 
mostrado su verdadera cara al atacar las jubilaciones y pensiones de todos los 
trabajadores del mundo. Todas las ilusiones del pasado han quedado hechas 
añicos. Hay inestabilidad a todos los niveles en todos los continentes del 
planeta. Estamos al borde del caos y al borde de un nuevo período histórico.

La concepción del mundo que mejor se corresponde a la complejidad 
de las procesos revolucionarios y los procesos naturales que estudia la ciencia 
moderna es la filosofía de Marx y Engels: un modelo general del movimiento a 
través de las contradicciones y de los rompimientos de la continuidad en sus 
manifestaciones concretas. Un instrumento de análisis concreto para la 
intervención concreta. "El materialismo dialéctico no es, naturalmente, una 
filosofía eterna e inmutable", nos dice Trotsky. " Pensar otra cosa es 

477
contradecir el espíritu de la dialéctica. El ulterior desarrollo del pensamiento 
científico creará, indudablemente, una doctrina más profunda en la que el 
materialismo dialéctica entrará como material de estructuración. Sin embargo, no 
hay ninguna base para esperar que esta revolución filosófica se realice bajo el 
decadente régimen burgués, sin mencionar que un Marx no nace todos los años ni 
todas las décadas. La tarea de vida o muerte del proletariado no consiste 
actualmente en interpretar de nuevo al mundo, sino en rehacerlo de arriba 
abajo"154.

Herzen decía que la dialéctica era el "álgebra de la revolución". Ningún tipo de 
filosofía es eterna como tampoco lo es ningún modo de producción. El capitalismo 
sólo ha existido de modo dominante unos 200 años. La historia registrada consta 
de 5.000 años y la humanidad tiene tan sólo una existencia de 100.000 años. En 
esta escala, el capitalismo junto con su filosofía, su moral, sus instituciones, 
que muchos creen eternos y ante los cuales muchos se arrodillan cobardemente, 
equivale a los últimos segundos dentro de un drama de 24 horas; solamente un 
suspiro. Esos últimos segundos han dado ya lo que podían ofrecer a la humanidad 
y ha llegado la hora de que la continuidad del tiempo se vuelva a romper, como 
ha ocurrido muchas veces a lo largo de la historia, para que una nueva sociedad 
más justa emerja del caos capitalista y el hombre dé un nuevo salto de gigante 
hacia delante.

"Dum suspiro spero!" (mientras hay vida hay esperanza), dijo en una ocasión el 
joven Trotsky lleno de esperanza revolucionaria ante el futuro, que nunca lo 
abandonaría a lo largo de toda su vida y que suscribimos totalmente por su 
vigencia "... Si yo fuera uno de esos cuerpos celestes, miraría con completa 
indiferencia a esta miserable bola de polvo y suciedad... Alumbraría por igual 
sobre el bien y el mal... Pero soy un hombre. ¡La historia mundial que para 
ti, desa­pasionado glotón de la ciencia, y para ti, contador de la eternidad, es 
sólo un momento despreciable en la balanza del tiempo, para mí lo es todo! ¡En 
tanto viva lucharé por el futuro, por ese radiante futuro en el que el hombre 
fuerte y bello, será el dueño de la cambiante corriente de su historia, a la que 
dirigirá hacia los horizontes infinitos de la belleza, la alegría y la 
felicidad! (...)

"El siglo XIX" —el lector puede leer siglo XX— "ha satisfecho en muchos aspectos 
las esperanzas del optimista. Pero también lo ha decepcionado en otros tantos, 
aún más numerosos... Lo ha obligado a transferir la mayoría de sus esperanzas al 
siglo XX. Siempre que el optimista se veía confrontado por un hecho atroz, 
exclamaba: ¡Cómo es posible que esto pueda ocurrir en los umbrales del siglo XX! 
Cuando proyectaba bellos paisajes armoniosos los ponía en el siglo XX.

478
"¡Y ahora ese siglo ha llegado! ¿Qué ha traído consigo en sus inicios?

"En Francia, la espuma venenosa del odio racial, en Austria el antagonismo 
nacionalista...; en África del Sur, la agonía de un pueblo débil, asesinado por 
un coloso (...) Odio, asesinatos, hambre y sangre...

"Parece como si el nuevo siglo, este gigantesco recién llegado, estuviera 
destinado desde el mismo momento de su surgimiento a llevar al optimista al 
pesimismo absoluto y al nirvana cívico...

"— ¡Muera la utopía!, ¡Muera la fe!, ¡Muera el amor!, ¡Muera la esperanza!, 
truena el siglo XX con salvas incendiarias y con el golpeteo de las 
ametralladoras.

"— Ríndete patético soñador. Aquí estoy, yo, tu largamente esperado siglo XX, tu 
"futuro".

"— No, responde el optimista invencible: Tú, tú eres sólo el presente155".

Fuente: Fundacion Federico Engels, www.engels.org

479

También podría gustarte