Está en la página 1de 22

Historia de la Química/Unidad IV/Siglo XX

< Historia de la Química | Unidad IV


Ir a la navegación Ir a la búsqueda

El siglo XX traería al escenario mundial dos grandes guerras que paradójicamente darían un
impulso al desarrollo del conocimiento científico en aquellas áreas en que se advertían
necesidades internas y principalmente con fines relacionados con la tecnología militar. Este
desarrollo dio lugar, incluso, al holocausto nuclear de la década de los años cuarenta.

Al finalizar la Segunda Guerra Mundial se conformaron dos grandes bloques militares,


económicos y políticos, que se enfrascaron en una guerra fría, desarrollaron una irracional
carrera armamentista, y fomentaron la hipertrofia de un complejo militar industrial.

En el polo de los países pobres, la mayoría de las colonias de África y Asia lograba su
independencia contribuyendo al derrumbe del sistema colonial mundial que había servido como
fuente de riqueza para las metrópolis.

Ya a finales de la década de los años ochenta y principios de los noventa, con el derrumbe del
sistema socialista en el este europeo, se establecieron las bases de un mundo unipolar,
caracterizado por un proceso de globalización, que si en principio pudiera considerarse en bien
del intercambio científico – técnico, realmente representa un desafío para la supervivencia del
mosaico de culturas de las naciones emergentes y de sus identidades nacionales.

Por otra parte, la desaparición de la guerra fría y el clima de universal entendimiento que parecía
poder alcanzarse abría la posibilidad de congelar la irracional carrera de armamentos y desviar
estos enormes recursos financieros hacia la esfera del desarrollo. Esto equivale a decir que podría
al fin inaugurarse la era en que Ciencia y Tecnología alinearan sus fuerzas en bien de toda la
humanidad. Pronto el optimismo inicial, derivado de semejante razonamiento se evaporó ante las
nuevas realidades.

El progreso de las Ciencias debió navegar en medio de tales circunstancias sociohistóricas.


Comenzó a manifestarse la principal característica de su desarrollo consistente en la
transformación, de producto social, elemento de la superestructura de la sociedad humana, en
una fuerza productiva con rasgos muy especiales. Esta característica estuvo precedida por una
explosión en el ritmo de la producción de los conocimientos científicos que alcanzó un
crecimiento exponencial. Las relaciones Ciencia – Sociedad se hicieron más complicadas.

No obstante, se pueden apreciar determinadas tendencias como es el hecho de que el avance de


las Ciencias en este siglo es fiel reflejo del desarrollo socioeconómico de los países, resultando
tan asimétrico y desigual como irracional es la distribución de riquezas heredada del pasado
colonial.

En un ámbito como el de la Química, que tanta resonancia tiene en la producción de nuevos


materiales para el desenvolvimiento de las tecnologías de “punta”, advertimos un liderazgo
alemán hasta la segunda guerra mundial que se ilustra con precisión en la nacionalidad de los
científicos laureados con el premio Nobel de la Academia Sueca de las Ciencias. Un 40% de los
40 premiados en Química hasta 1939 son alemanes, lo cual supera en conjunto los lauros
alcanzados por el Reino Unido, Francia y los Estados Unidos. Esta pirámide que descubre la
concentración de los polos científicos en la Europa de la preguerra se invierte totalmente en el
período posterior pasando el liderazgo absoluto a los Estados Unidos. De las 98 personalidades
que encabezando grupos o laboratorios élites en la investigación científica reciben el Premio
Nóbel en la postguerra, 43 son estadounidenses, lo que supera la suma de los laureados del Reino
Unido, Alemania, y Francia.

Un cuadro similar se advierte si se recurre a cifras que ilustren el financiamiento por países en el
área de investigación y desarrollo, así como si se analizan la producción de patentes de
invención. En esta última esfera un nuevo problema viene a matizar el progreso científico. En
todo el siglo XIX, la protección de la propiedad industrial, se había convertido en elemento de
financiamiento de nuevas investigaciones que alentaran y permitieran nuevos logros en la
invención. Pero con el siglo XX se van haciendo borrosos los contornos de los descubrimientos y
las invenciones para la pupila de las grandes transnacionales interesadas más que todo en
competir con éxito en el templo del mercado. Una encendida polémica se viene gestando en la
opinión pública que gana creciente conciencia de los peligros que entraña semejante política.
Afortunadamente, entre los propios investigadores se desarrolla un movimiento tendiente a
preservar como patrimonio de toda la humanidad los descubrimientos científicos de mayor
trascendencia.

Un proceso de fortalecimiento de los nexos en la comunidad científica, que se habían iniciado


con las Sociedades fundadas en el siglo XVIII, se advierte desde inicios de siglo, sufriendo en los
períodos de duración de ambas guerras un inevitable debilitamiento. En este contexto se destacan
los Congresos realizados en Bruselas, con el apoyo financiero del empresario belga Ernest
Solvay, que congregaron a los más brillantes físicos de la época.

El Congreso de Solvay de 1911, se puede considerar como el primer acto en el desarrollo


conceptual de la Teoría Cuántica, verdadera revolución en el campo de las Ciencias Físicas. En
el transcurso del evento se alcanzó un consenso en el reconocimiento de que la Física de Newton
y Maxwell si bien explicaba satisfactoriamente los fenómenos macroscópicos era incapaz de
interpretar los fenómenos de la interacción de la radiación con la sustancia, o las consecuencias
de los movimientos microscópicos de los átomos en las propiedades macroscópicas. Para
cumplir este último propósito era necesario recurrir a las ideas de la cuantificación. Ello
demostraba la comprensión de la vanguardia de las Ciencias sobre el carácter temporal, histórico
en la construcción del conocimiento científico.

El siglo XX traería también una organización de la ciencia en Instituciones que debían


concentrar sus esfuerzos bien en estudios fundamentales como en aquellos de orden práctico. Los
políticos se darían cuenta, desde la Primera Guerra Mundial, de la necesidad de sufragar los
gastos de aquellas investigaciones relacionadas con la tecnología militar.

El Laboratorio de Cavendish en Cambridge, fundado en el siglo XIX, hizo época no sólo por la
relevancia de sus investigaciones fundamentales para la determinación de la estructura atómica,
sino por la excelencia mostrada por sus directores científicos, J.J. Thomsom y Ernest Rutherford,
que lograron con su liderazgo que siete investigadores asistentes del Laboratorio alcanzaran el
Premio Nóbel de Física.

El Laboratorio “Kaiser Guillermo” de Berlín constituyó un modelo de institución investigativa


en las primeras décadas del siglo y contó, en el período de la Primera Guerra Mundial, con la
asistencia de los más célebres científicos alemanes vinculados a proyectos de desarrollo de
nuevas armas. Fritz Haber, notable químico alemán jugó el triste papel de introductor del arma
química en los campos de batalla. Como se verá más adelante el destino del investigador alemán
se cierra con el destierro, por su origen judío, de la Alemania fascista.

En la década del 40, se crea en Nuevo México, el Laboratorio Nacional de los Álamos, verdadera
empresa científica multinacional, con el objetivo de dar cumplimiento al llamado Proyecto
Manhattan para la fabricación de la bomba atómica. La movilización de hombres de ciencias de
todas las banderas tuvo el propósito de neutralizar cualquier tentativa de la Alemania hitleriana
de emplear el chantaje nuclear. El propio Einstein, con su enorme prestigio y autoridad moral,
inicia el movimiento enviando una misiva al presidente de los Estados Unidos. Cinco años
después, enterado de los éxitos ya obtenidos en los ensayos de la bomba atómica, vuelve a usar
la pluma está vez para reclamar prudencia en el empleo de este engendro de la Física Nuclear. El
resto de la Historia es bien conocido. El 9 de agosto de 1945 la humanidad se aterrorizaba con la
hecatombe nuclear en Hiroshima, días después se repetía la escena esta vez en Nagasaki. Se
inauguraba la época del arma nuclear con un saldo inmediato de cien mil muertos y más de
ciento cincuenta mil heridos, y una multiplicación a largo plazo de las víctimas como resultado
de las manifestaciones cancerígenas y las mutaciones genéticas inducidas por la radiación
nuclear.

Los más relevantes exponentes, y la mayoría de la comunidad científica reaccionaron


vigorosamente contra el desarrollo del armamento nuclear y abrazó la causa del uso pacífico de
la energía nuclear. El propio Einstein abogó por el desarme internacional y la creación de un
gobierno mundial. No faltaron, sin embargo aquellos que consideraron oportuno continuar la
espiral armamentista, confiados en que el liderazgo de un país podía resultar ventajoso para todo
el mundo. Entre estos se contó con el arquitecto principal de la bomba de Hidrógeno, el físico
húngaro, nacionalizado estadounidense, Edward Teller.

En la segunda mitad del siglo XX, la rivalidad entre las instituciones científicas del este y oeste
constituían un reflejo de la guerra fría que prevaleció hasta bien avanzado el siglo. A la
competencia y el intercambio que alentó, en lo fundamental, el desarrollo de las investigaciones
en las primeras décadas entre las Escuelas de Copenhague, Berlín, París, y Londres, le sustituyó
un cerrado silencio. El intercambio fue tapiado y supuestas filtraciones al bando opuesto
adquirieron la dramática connotación de espionaje político. Los logros publicables que obtenían
los laboratorios nucleares de Dubna, en la ex - Unión Soviética, Darmstad en Alemania, y
Berkeley de los Estados Unidos eran sometidos a encendidas polémicas sobre prioridad, como es
el caso del descubrimiento (acaso sería mejor decir “la fabricación” en los aceleradores lineales)
de los elementos transférmicos que ocupan una posición en la tabla periódica posterior al
elemento número 100.
Pero a pesar del mar de contradicciones en que debió navegar nuestra nave planetaria ha sido el
XX un siglo de un espectacular salto de la Ciencia y la Tecnología. Se inauguran la “Era
Atómica”, la “Edad de los Materiales Sintéticos”, los tiempos de la “Conquista del Espacio
Sideral”, la “Época de la Robótica”, el período de “la Informatización”, el despegue de “la
Ingeniería Genética”… En cada una de estas conquistas están presentes las tres Ciencias Básicas
que nos ocupan.

Desde el punto de vista de su auto desarrollo, las Ciencias, a partir de la segunda mitad del siglo
XIX, experimentan una delimitación de los respectivos campos de cada disciplina científica y a
la vez una tendencia a la interdisciplinariedad. Se advierten pues la aparición de ramas de las
Ciencias de naturaleza "fronteriza", y el acercamiento hacia un mismo objeto de estudio desde
perspectivas diferentes siguiendo luego una intención totalizadora.

En particular, la Química del siglo XX ha sido “empujada” desde diferentes ángulos por las
necesidades sociales de la época pero en todo caso su autodesarrollo relativo inclinaba en un
primer momento la atención de los químicos hacia el amplio campo de los compuestos naturales.

En conexión con esta gravitación hacia los compuestos bioactivos se encuentra el desarrollo de
una novedosa generación de fármacos prototipos para cumplir una misión reiteradamente
planteada ante los químicos desde la legendaria Casa de la Sabiduría de Bagdad en el medioevo,
pasando por Livabius y Paracelso en el Renacimiento europeo, hasta alcanzar con Erlich en el
siglo XIX el antecedente inmediato de la Quimioterapia.

A la luz de la interdisciplinariedad exigida de Fisiología, Bioquímica, Farmacología, Medicina, y


Química se han alcanzado logros increíbles. De cualquier manera es procedente reconocer que
fueron los fisiólogos y médicos los que abrieron fuego desde bien temprano en este siglo sobre el
campo de los productos químicos que cumplían importantes funciones reguladoras en el
organismo humano. Así en 1902, el fisiólogo británico William M. Bayliss (1860 – 1964) al
estudiar la secretina, hormona intestinal que estimula la secreción pancreática, introduce el
término de hormona para indicar una secreción que puede actuar sobre otros órganos al
trasladarse en la corriente sanguínea; y ya en 1912 los fisiólogos Frederick G. Banting (1891 –
1941) y Charles H. Best (1899 – 1978) conducen la investigación hacia el ámbito clínico al
inyectar un extracto hepático a un muchacho en fase terminal de diabetes y lograr la reversión de
su estado. Más de diez años de investigaciones los llevan al descubrimiento de la hormona
pancreática insulina, por lo que recibe Banting en 1923 el premio Nóbel de Medicina, que no
puede decirse en este caso haya sido compartido sino disputado con su colega de la Universidad
de Toronto John J. Macleod (1876 – 1978). Paralelamente con las investigaciones de médicos y
fisiólogos y sobre todo a partir de la década del 20, especialmente en los laboratorios alemanes,
los químicos van a obtener resultados trascendentales en el campo de las vitaminas, hormonas,
proteínas, ácidos nucleícos y otros importantes compuestos asociados a la vida.

Nuevos materiales que exhibieran una combinación de propiedades no observadas en los


productos naturales eran exigidos por un alud de invenciones que van desde la inauguración de la
época del teléfono en 1887 y su rápida difusión (la primera central telefónica del mundo se puso
en servicio durante 1878 en New Haven, Estados Unidos; comprendía un cuadro conmutador y
21 abonados); el desarrollo de la industria de artículos eléctricos (Edison había inventado el
fonógrafo en 1877 y Berliner el disco fotográfico en 1887); la conquista del aire iniciada con el
vuelo de 59 segundos de los hermanos Wright en 1903; la producción en cadena de automóviles
de Ford en 1913; el debut de la radio con su explosivo crecimiento a partir del 20; y otros
desarrollos industriales.

Ahora no prevalecería la casualidad que llevó en el siglo pasado a C. Goodyear (1800-1860) al


descubrimiento del caucho vulcanizado y a John Hyatt a producir la casi accidental
transformación de la celulosa en el primer material termoplástico, el celuloide. A partir de la
década del treinta se despegarían uno tras otros las invenciones de nuevos polímeros sustentados
en rutas sintéticas cuidadosamente proyectadas. La carrera en la síntesis de nuevos polímeros
llega hasta hoy impulsada por la conquista del cosmos, la revolución en las comunicaciones, el
dominio de los biopolímeros para fines médicos, y se concreta con la producción de polímeros
biodegradables, conductores, fotopolímeros, y otros con propiedades específicas para la
tecnología de punta.

En otro extremo de la cuerda se destacan las investigaciones que posibilitaron el desarrollo de


una revolución agrícola para un mundo mayoritariamente afectado por el hambre y en constante
crecimiento (a pesar de las dos guerras mundiales devastadoras). Más adelante se incluyen, como
ejemplos polémicos de esta dirección, los desarrollos asociados a la producción del amoníaco,
pieza clave para el impulso de la industria de los fertilizantes nitrogenados, y las investigaciones
que condujeron al empleo masivo del DDT.

Algunos autores han señalado el lanzamiento del libro “Primavera Silenciosa” por la bióloga
estadounidense Rachel Louise Carson (1907 - 1964) como un momento de especial importancia
en la toma de conciencia por la comunidad científica y por amplios sectores de la opinión pública
sobre los peligros generados por la actividad humana en el entorno ambiental. Lo cierto es que a
partir de la década de los setenta se van acopiando más y más datos que conforman una visión
dramática sobre los cambios que viene observando nuestra atmósfera y el impacto real y
potencial que tales alteraciones promueven. La comunidad química ha prestado atención a este
relevante problema contemporáneo y los principales resultados de esta ocupación encuentran un
breve espacio en estas páginas.

En cualquiera de los ámbitos enunciados arriba, como en otros no abordados en este trabajo, el
desarrollo de potentes herramientas para el análisis estructural de las complejas sustancias bajo
examen precedió o evolucionó paralelamente con las necesidades planteadas a la investigación.
Un amplio repertorio de estas técnicas fue inventado y prosigue en permanente
perfeccionamiento y expansión, entre las que sobresalen aquellas basadas en la interacción
específica de la radiación con la sustancia.

Sumario
 1 La química de los compuestos naturales
 2 Progresos en el diseño y producción de fármacos
 3 El desarrollo de nuevos materiales
 4 Productos sintéticos para necesidades apremiantes
 5 La química del medioambiente
 6 El desarrollo del instrumental analítico
 7 Una ojeada al desarrollo de la teoría del enlace químico
 8 La transmutación de los elementos: Radioactividad y fusión nuclear
 9 Ver también

La química de los compuestos naturales


Sobresalen en el período del liderazgo alemán, antes de la Segunda Guerra Mundial los trabajos
de Emil Fischer (1852-1919) sobre las estructuras de los carbohidratos y purinas en Berlín y de
Adolf Windaus (1876 -1959), quien había quedado fascinado con las conferencias de Emil
Fischer y mas tarde descubre la constitución de los esteroles y su profunda relación con las
vitaminas. Su discípulo Adolf Butenandt (1903 – 1995) mas tarde se abrirá paso en el campo de
las hormonas sexuales. Estas investigaciones, conducidas en la legendaria Universidad de
Gotinga, tuvieron una gran incidencia en la posibilidad de sintetizar luego en una escala
industrial, la cortisona. En 1931, Butenandt aisló la androsterona, tres años después logró aislar
la progesterona, y en 1939 había sintetizado a partir de la androsterona, la testosterona. En un
plazo de ocho años inició el camino hacia el dominio de las hormonas sexuales.

En otra de las instituciones alemanas que han servido de escenarios para la gestación de
sobresalientes descubrimientos en el campo de la Química, el Instituto Kaiser Guillermo, más
tarde rebautizado como Instituto Max Planck, el austríaco- alemán Richard Kuhn (1900 – 1967)
durante un período de veinte años descubrió ocho nuevos tipos de carotenoides, y fue capaz de
analizar su constitución. Sobre esta base, obtuvo importantes resultados sobre las vitaminas B2 y
B6 que lo hicieron merecedor del premio Nóbel en 1938.

La segunda guerra mundial detuvo estas investigaciones fundamentales y a partir de este


momento la química alemana pierde su liderazgo.

En uno de los propósitos más ambiciosos de la Química moderna: encontrar la relación íntima
entre la estructura molecular de complejos productos orgánicos y la función biológica que
cumplen, campo dónde se inicia la frontera aún difusa con la biología molecular, brilló la
actividad de la química británica Dorothy Crowfoot Hodgkin (1910 – 1994). Hodgkin empleó
durante largos años el análisis de rayos X para la determinación de las configuraciones
moleculares de la penicilina, la vitamina B-12, la insulina, y otras importantes proteínas. En
particular sus estudios sobre la estructura tridimensional de la insulina se prolongaron durante
tres décadas, tiempo en el cual se convirtió en pionera del uso de la computadora para la
interpretación de los espectros de rayos X y el correspondiente mapeo de las densidades
electrónicas en los sitios moleculares. Con cada nuevo descubrimiento, la doctora Hodgkin
produjo una expansión de la tecnología de la Cristalografía por rayos X.
En el Laboratorio Cavendish de Cambridge donde se condujeron las investigaciones de Hodgkin,
otros dos investigadores John C. Kendrew (1917-1997) y Max F. Perutz (1914 – 2002) fueron
capaces de obtener vistas claras, tridimensionales de la estructura molecular de la mioglobina y
la hemoglobina y recibieron en 1962 el premio Nóbel compartido por sus estudios
fundamentales.

La concentración de estrellas en el Cavendish incluye a quienes realizarían descubrimientos


esenciales para el ulterior desarrollo de la Ingeniería Genética y la Biología Molecular. Francis
Crick (1916-2004 ) y el estadounidense James D. Watson (1928- ), describirían el primer modelo
de doble estructura helicoidal para los ácidos nucleicos y por esta contribución compartieron el
premio Nóbel en Fisiología y Medicina en 1962.

A partir de 1962, se suma a esta comunidad de Cambridge, F. Sanger (1918- ), el primero en


descifrar la estructura de la secuencia de aminoácidos de una proteína, la insulina, por lo cual
mereció el premio Nóbel de 1958, y el único químico en archivar un segundo premio Nóbel en la
propia especialidad, 22 años después, por su contribución decisiva a la determinación de la
secuencia de las bases nitrogenadas en los ácidos nucleicos, principales responsables del código
hereditario.

Al otro lado del Atlántico, a partir de la década del treinta, en la institución que más tarde se
convertiría en Universidad de Rockefeller se incubaba un fuerte movimiento en el campo de la
Química de los compuestos naturales que, luego de la segunda guerra mundial, se convertiría en
liderazgo de la ciencia estadounidense. Uno de los iniciadores de este movimiento es John H.
Northrop (1891 – 1987), premio Nóbel en 1946, por su contribución al aislamiento y
determinación estructural de las importantes enzimas digestivas proteolíticas, tripsina y pepsina.
En esta Institución transcurren las trascendentales investigaciones de William H. Stein (1911 –
1980) y Stanford Moore (1913 -1982) que representan una contribución decisiva a la
comprensión de la relación entre actividad catalítica y estructura de los sitios activos de la
ribonucleasa; así como los estudios de nuevas rutas en la síntesis de péptidos y proteínas en una
matriz sólida conducidos por Robert B. Merrifield (1921- ).

En otro “santuario” estadounidense de la investigación en el campo de los compuestos naturales,


la Universidad de Harvard, se suceden nuevas conquistas.

Un equipo de químicos relevantes se concentró en los laboratorios de investigación de este


centro a fines de los años cincuenta. Entre ellos cabe mencionar especialmente a Robert B.
Woodward (1917 – 1979), Premio Nóbel en 1965, cuyo equipo en la década del 40 consigue la
obtención de la quinina, luego en los años cincuenta reporta la síntesis de esteroides como el
colesterol y la cortisona, en la siguiente década demuestra la vía que conduce a la obtención de la
clorofila, y ya a inicios de los setenta corona con el éxito la síntesis de la vitamina B-12.

Otro gigante en el campo de la síntesis de complejas sustancias bioactivas, que desarrolló su


actividad en Harvard como colaborador de Woodward, fue Elías B. Corey (1928 - ), Premio
Nóbel de Química en 1990. Corey en la década de los sesenta diseñó un nuevo método conocido
como retrosíntesis a partir del cual obtuvo más de 100 productos naturales y condujo por primera
vez a la síntesis química de las prostaglandinas.
Las prostaglandinas son derivados de los ácidos grasos que se encuentran en casi todos los
tejidos del cuerpo humano, interviniendo en variadas funciones esenciales. En particular, John R.
Vane (1927- ), químico por formación inicial y farmacólogo por inclinación, premio Nóbel de
Medicina en 1982, demostró que las prostaglandinas intervienen en los mecanismos neurológicos
del dolor y que las múltiples aplicaciones médicas de la aspirina se derivan de su capacidad para
bloquear la producción de ciertas prostaglandinas.

En las décadas de los setenta y los ochenta ha aparecido en escena un nuevo tipo de
neurotransmisor de origen proteico, las endorfinas. Roger Guillemin francés – estadounidense,
ha estudiado la producción de este tipo de hormona péptidica del cerebro y los mecanismos de su
acción. Por lo visto se ha descubierto el tipo de sustancia que desempeña importantes roles en los
mecanismos conducentes a la aparición de las emociones placenteras relacionadas con el
sentimiento de felicidad. Guillemin ha merecido el Premio Nóbel de Fisiología en 1977.

En conclusión, durante este siglo la Química de los compuestos naturales ha vencido importantes
problemas en las esferas de la síntesis y análisis de complejas moléculas bioactivas; y en la
comprensión teórica del rol catalítico de los biopolímeros y el mecanismo de su interacción en el
metabolismo de los seres vivos.

Progresos en el diseño y producción de fármacos


Los avances en este sector de la Biorgánica, junto con los extraordinarios progresos de la
Fisiología, la Bioquímica, la Medicina y las técnicas de Computación han promovido una
revolución en el ámbito de la Quimioterapia.

En el diseño de fármacos una posición especial han ocupado desde los mismos orígenes de la
Quimioterapia, los compuestos naturales. Ellos han sido una de las grandes fuentes de fármacos
prototipos. Sirva citar como ejemplos de este grupo, los glicoesteroides, con propiedades
cardiotónicas, las hormonas de mamíferos (insulina, corticoides, hormonas sexuales), y otros
productos endógenos como las prostaglandinas, vitaminas o neuropéptidos. La penicilina G,
cabeza de serie de antibacterianos lactámicos, marcó el inicio de la edad de oro de estos
antibióticos. Más recientemente en 1969 con el aislamiento de la ciclosporina A, un metabolito
undecapéptido del hongo Tolypocladium inflatum, se creyó disponer de un prototipo para una
nueva generación de agentes antivirales, pero su demostrada actividad inmunodepresora, al
interferir la biosíntesis de la linfoquina, tuvo un gran impacto en la cirugía de trasplantes, a fines
de los setenta, al disminuir notablemente el rechazo al órgano injertado.

La época del desarrollo de programas de ensayos farmacológicos sistemáticos con productos


sintéticos fue inaugurado por Paul Erlich (1845 – 1915), uno de los pioneros de la Quimioterapia
contemporánea. La tradición heredada desde los tiempos de Paracelso y su intuición (no hay que
olvidar que al decir de Pasteur, “el azar favorece a las mentes preparadas”) lo llevó a desarrollar
un programa teniendo como prototipo una estructura arsenical, en la lucha contra el flagelo de la
sífilis, y el éxito le sonrió con el preparado 606, al cual llamó salvarsan.

Ya a la altura de la tercera década, teniendo como base el éxito de Erlich con el azul de metileno
sobre el paludismo, G. Domagk (1895 – 1964), premio Nóbel de Medicina en 1938, desarrolla
un amplio programa de evaluación de colorantes azoicos que concluyen en 1935 con el
descubrimiento de la eficacia del prontosil, un azo derivado que por reducción metabólica libera
la sulfanilamida, el verdadero compuesto responsable de la acción antibiótica. El programa de
búsqueda de mejores sulfamidas bacterianas, mediante el estudio de miles de compuestos
portadores del grupo -SO2N- condujo a espectaculares aperturas en otros sectores de los
fármacos, tales como diuréticos (sulfonamidas y disulfonamidas), hipoglucemiantes
(sulfonilureas), leprostáticos y antituberculosos (sulfonas).

Otra dirección en el diseño de fármacos consiste en la búsqueda de antimetabolitos por


variaciones de la estructura de metabolitos. Esta estrategia es una de las más usadas en el diseño
de agentes anticancerosos. Una aproximación dentro de esta dirección es el diseño de inhibidores
enzimáticos, entre los cuales merecen mencionarse las cefalosporinas que actúan como
inhibidores de de las transpeptidasas de las bacterias.

El desarrollo de nuevos materiales


La necesidad social de aparición en escena de los plásticos alcanzó tal impacto que algunos han
bautizado cierto momento del siglo XX como la “era de los plásticos”. En el campo de los
materiales termoplásticos el siglo pasado había dejado como saldo la modificación accidental de
la celulosa en nitrocelulosa que permitiría la producción del celuloide. Pero la inauguración de
una nueva época en la producción de materiales sintéticos correspondió al químico belga -
estadounidense L.H. Baekeland (1863–1944), al obtener en 1907 resinas termoestables por la
condensación del fenol y el formaldehído, las bakelitas (combinación del apócope de su nombre
con el sufijo procedente del griego lithos, piedra, es decir, la piedra de Baekeland).

Sus sorprendentes propiedades como elevada dureza, inercia frente a los más enérgicos
disolventes, termoestabilidad, baja conductividad eléctrica y térmica y capacidad de moldearse al
ser calentados para después solidificar, fueron anunciadas por Baekeland en 1909 en Nueva
York, indicando la posibilidad de fabricar con las bakelitas desde conmutadores eléctricos hasta
discos fonográficos.

En estos primeros tiempos prevalece el método de ensayo y error como reflejo del escaso
conocimiento sobre la estructura de las moléculas gigantes y de los detalles de las reacciones en
que se producían.

Al filo de la década del treinta ya se disponía de la materia prima suministrada por la industria
del petróleo, y del bagaje teórico suficiente, para que el químico J.A. Nieuwland (1878 – 1936)
investigara con éxito la producción del caucho sintético, al que denominó neopreno. Este
neopreno por sus propiedades elastómeras superaría al caucho natural.

La aplicación de la Termodinámica y la Cinética Química al estudio sistemático de estos


materiales, fue tarea abordada por diferentes grupos de investigación entre los cuales se destacó
el dirigido por el químico alemán H. Staudinger (1881-1965). Estos trabajos resultaron premisas
fundamentales para el asalto a la síntesis de los nuevos polímeros.
En 1928, la Compañía Dupont tomó una decisión poco común por entonces en el mundo de los
negocios: abrió un laboratorio para investigaciones fundamentales que sería dirigido por el
brillante químico estadounidense William Carothers (1896–1937).

Carothers demostró la posibilidad de producir controladamente fibras artificiales que con el


tiempo competirían por sus propiedades con las fibras extraídas de fuentes naturales. Fueron
sintetizados en el laboratorio las poliamidas (nylon) y los poliésteres (dacrón, terylene, etc.) a
partir de los monómeros bifuncionales complementarios, es decir, los ácidos dicarboxílicos (o
sus derivados) y las diaminas o glicoles correspondientes.

Frente a la vía de policondensación ya descrita se desarrollaban nuevas técnicas de


polimerización por la vía de poliadición de los monómeros vinílicos. Estos monómeros podían
ser producidos masivamente por la industria petroquímica y su reactividad se vería condicionada
por la presencia de dobles enlaces que mediante la acción de iniciadores radicálicos daban lugar
a estructuras poliméricas con una cadena principal básicamente apolar. Del trabajo de equipo
dirigido por P.J. Flory (1910 – 1985), premio Nóbel en 1974, quedaron definidas en lo
fundamental las rutas sintéticas que posibilitaron la producción de los polímeros vinílicos tales
como el polivinilcloruro, los poliacrilatos, poliacetatos, el teflón y otros.

Un nuevo período en el campo de las síntesis de polímeros se abre con las investigaciones
realizadas paralelamente por el químico alemán K. Ziegler (1898-1973) y el italiano G. Natta
(1903-1979). En 1954 inician la aplicación de nuevos sistemas catalíticos órgano – metálicos
para la producción de polímeros vinílicos con un alto ordenamiento de los grupos laterales a su
espina dorsal (cadena principal). Esta elevada estereoespecifidad lograda en las etapas de síntesis
había sido una conquista privativa de la fisiología de los seres vivos.

Sin poder compararse con los reconocidos logros en el campo de la microelectrónica, la ciencia
japonesa ha expresado en las últimas décadas importantes contribuciones a la Química. En
particular, son importantes exponentes los éxitos alcanzados por el químico japonés Hideki
Shirakawa (1936- ), premio Nóbel del 2000, descubridor de una nueva generación de polímeros
conductores al polimerizar el gas acetileno sobre la superficie de un catalizador especial de
Ziegler-Natta. Este tipo de polímeros conductores vienen siendo estudiados también por
investigadores de la Universidad de Pennsylvania y constituyen una prometedora vía para la
obtención de nuevos materiales, únicos por sus propiedades híbridas de termoplásticos y metales.

Otra conquista sobresaliente en el campo de los polímeros sintéticos viene dada por la
fabricación de materiales biodegradables y biocompatibles. La aplicación del ácido poliglicólico
que experimenta una relativa facilidad para hidrolizarse y asimilarse por los tejidos vivos y la
capacidad mostrada por similares productos para formar matrices tridimensionales dónde pueden
“sembrarse” células de tejidos han abierto campos insospechados de aplicación en la Medicina.

Las suturas quirúrgicas sintéticas, con excelente resistencia mecánica y fácilmente reabsorbibles
por el organismo, son un ejemplo de masiva aplicación. Pero por ahora las más trascendentes
invenciones se relacionan con el transporte y suministro lento de medicamentos en zonas de
difícil o impenetrable acceso, como es la barrera hematoencefálica, que evita la penetración de
una gran variedad de sustancias químicas procedentes de la sangre en el cerebro; y el uso de los
polímeros biocompatibles como armazón genérica donde crecen tejidos.

Robert Langer (1949- ), un ingeniero químico del Instituto Tecnológico de Massachussets,


diseñó láminas de polímeros en forma de disco que fueran implantadas en 1992 por el
neurocirujano de la institución médica Johns Hopkins, Henry Brem (1952 - ), para tratar el
cáncer tras realizar intervenciones quirúrgicas en el cerebro. Dado que las sustancias químicas
embebidas en el polímero de superficie biodegradable, se administran localmente, no ocasionan
la toxicidad sistemática típica de los fármacos para combatir el cáncer. Estas láminas representan
el primer tratamiento nuevo para el cáncer cerebral en 25 años. En la actualidad se utilizan
sistemas de administración lenta muy similares para tratar el cáncer de próstata, la endometriosis
e infecciones óseas agudas.

Las empresas de biotecnología utilizan estructuras poliméricas para crear piel artificial con el fin
de tratar las quemaduras graves y las úlceras producidas por la diabetes. Multiplican células
vivas en cultivos (normalmente procedentes de tejidos que se desechan durante las operaciones
quirúrgicas) y, a continuación, “siembran” las células en la estructura de polímeros.

Cuando la ingeniería de materiales y la ciencia especializada en polímeros unen sus fuerzas con
la biología y la medicina se logran estos milagros modernos. De cualquier manera, una
conciencia universal debe ser creada, en primer lugar para que los logros de la ciencia de punta
no sean privativos de los sectores minoritarios de los países ricos, y para que en ningún caso un
Frankestein espiritual pueda apoderarse del género humano por una irracional manipulación
genética.

Productos sintéticos para necesidades apremiantes


En relación con otro problema crucial del siglo, los primeros años del siglo apuntan a la
conquista de productos sintéticos que traerían soluciones a problemas relacionados con la presión
demográfica y al mismo tiempo conducirían a nuevos desafíos en las relaciones del hombre con
la naturaleza.

La producción de alimentos para una población mundial creciente, problema que se planteaba
desde inicios de siglo XX, demandaba una revolución verde en los rendimientos agrícolas.
Fertilizar adecuadamente las tierras era una exigencia y la reserva natural existente de sales
nitrogenadas no permitía dar respuesta a esta necesidad.

Así las cosas, la fijación del nitrógeno atmosférico mediante una adecuada transformación
química se erigía como un problema de muy difícil realización. La síntesis del amoníaco,
precursor de los fertilizantes nitrogenados, mediante la reacción entre el dinitrógeno y el
dihidrógeno chocaba con dificultades prácticas.

Fritz Haber, con la ayuda de su joven colaborador inglés Le Rossignol encontró en la primavera
de 1909 las condiciones, en pequeña escala, para obtener poco más de una gota del amoniaco por
minuto. Estos resultados experimentales fueron expuestos ante los dirigentes de la Badische
Anilin und Soda Fabriken, la mayor empresa de productos químicos de la época.
Los directivos de la sociedad Badische terminaron por apostar, sin límite de tiempo ni de crédito,
a la solución del problema del escalado, confiando esta tarea a dos expertos en el escalado Carl
Bosch y Aldwin Mittasch. Las perspectivas que alentaban el proyecto cubrían un doble
propósito: la producción de abonos y de explosivos nitrogenados.

Luego de cuatro años en que realizarían más de 10 000 pruebas de síntesis y evaluarían mas de 4
000 catalizadores en el laboratorio, Bosch y Mittasch levantaron la industria que producía unas
mil veces la producción inicial de Haber, es decir unas cuatro toneladas de amoniaco
diariamente. Hoy se produce más de cien mil veces esta cantidad de amoniaco pero el catalizador
propuesto por Mittasch no ha podido ser superado en eficiencia y costo.

Otro problema en el orden del día de las necesidades alimentarias del mundo lo era – y lo sigue
siendo aún hoy- encontrar aquellas sustancias insecticidas que combatieran las plagas causantes
de enormes pérdidas al arrasar cosechas enteras de las principales fuentes energéticas nutritivas
de la población. En esta realidad se inserta la polémica página de la síntesis y aplicación de uno
de los más potentes insecticidas fabricados por el hombre: el D.D.T. Existen los testimonios de
que el dicoloro-difenil-tricloroetano fue sintetizado por primera vez en 1873, por un joven
estudiante austríaco, Othmar Zeidler, pero el producto carece de interés hasta que el químico
industrial suizo Paul Hermann Müller (1899 – 1965) descubre en 1936 la fuerte acción
insecticida por contacto que exhibe y luego de cuatro años de intensa labor obtiene la patente
industrial en 1940. Dos productos el Gesarol y el Niocide fueron comercializados a ambos lados
del Atlántico al probar su eficaz acción en el combate del tifus, la malaria y en la agricultura.
Müller recibe por este trabajo el premio Nóbel de Fisiología o Medicina en 1948. Décadas
después se exigía el cese de su aplicación por el impacto global que había provocado en
diferentes ecosistemas al reducir dramáticamente la población de insectos que se insertan en la
cadena alimentaria de diferentes especies.

A pesar del incuestionable valor social que presentan la síntesis industrial de fertilizantes
nitrogenados y la producción de insecticidas, la evaluación del impacto que ha venido
provocando su empleo irracional, promueve a partir de los años ochenta una corriente de
pensamiento relacionada con las nociones de biocompatibilidad, fuentes renovables de recursos,
y el desarrollo de una conciencia que reconoce la necesidad apremiante de una actuación más
racional de convivencia con el entorno.

La química del medioambiente


En la década de los setenta, los científicos de la Universidad de California, Irvine, F. Sherwood
(1927- ) y el mexicano – estadounidense Mario Molina (1943- ) determinaron, luego de un
exhaustivo estudio, que los clorofluorcarbonos empleados masivamente como propulsores en
todo tipo de “spray” y como refrigerantes, tienen potencial para destruir la capa de ozono. Y en
efecto, en años recientes, se ha confirmado el enrarecimiento de la capa de ozono en diferentes
latitudes del planeta. Este adelgazamiento ocasiona un aumento de los niveles de la radiación
ultravioleta dura que penetra en la atmósfera e incide sobre la superficie del planeta. Esta
radiación puede ser responsable del incremento de la frecuencia del cáncer en la piel observada
en los países nórdicos desarrollados, así como de la disminución del plancton marino, primer
eslabón en la cadena alimentaria de los peces. La importancia concedida a estos problemas por la
comunidad científica se expresa en el premio Nóbel concedido de forma compartida a Sherwood,
Molina y al químico holandés Paul Crutzen (1933- ) en 1995. Este último había predicho que el
óxido de nitroso podría ser responsable de la destrucción del ozono estratosférico, participando
en una reacción en cadena.

A este problema se suma el peligroso deterioro causado por las lluvias ácidas que afectan
diversas regiones del orbe. La primera señal de alarma seria se dio a comienzos del setenta
cuando en Escocia se reportó precipitaciones con un índice de acidez comparable al del vinagre.

El origen de las lluvias ácidas está directamente relacionado con la actividad industrial. Las
investigaciones realizadas en los glaciares de Groenlandia demuestran inobjetablemente que hace
unos 500 años el pH oscilaba entre 6 y 7 (el índice de acidez de una solución neutra se
corresponde con un pH de 7), es decir a mitad del milenio anterior la lluvia era sólo ligeramente
ácida. Hace aproximadamente 190 años se produce un descenso notable de este pH que se sitúa
entre 5,8 y 6,0 lo que coincide con la revolución industrial, el advenimiento de la máquina de
vapor de Watt y un aumento considerable en la combustión de diferentes carbones. Hacia 1955 el
promedio del pH de la lluvia se desplaza hacia 5,6 lo que se califica de descenso espectacular lo
que coincide con el no menos espectacular aumento de la actividad industrial en el mundo
desarrollado de la postguerra. El mecanismo de formación de las lluvias ácidas se conoce desde
1975. La opinión pública ha sido informada. La voluntad política de los países con la máxima
responsabilidad por este grave trastorno de un ciclo de precipitaciones que ha recibido la Tierra
durante millones de años está preñada de fariseísmos.

La comunidad científica viene gestando los contornos de una Química del Medio Ambiente, que
exige del concurso de otras disciplinas de la Química, en particular de la Química de los
radicales libres, la Cinética en cuanto demanda del desarrollo de nuevos sistemas catalíticos, y la
intervención de las técnicas de análisis más refinadas y fiables. Será necesario un financiamiento
y el desplazamiento de recursos para una política de monitoreo y de búsquedas de soluciones a
los problemas industriales y de los equipos de transporte.

El desarrollo del instrumental analítico


Las potencialidades que brindan los espectros de difracción de rayos X fueron explotadas para la
determinación de complejas estructuras cristalinas de compuestos biológicos. Un baluarte en la
aplicación y desarrollo de estos métodos lo encontramos en el Laboratorio Cavendish de
Cambridge. En este laboratorio se concentraron recursos materiales y capital humano que forjó
una comunidad con un nivel de primera línea. Trascendentales revelaciones sobre la estructura y
la síntesis de valiosos productos naturales vieron la luz en este grupo.

En la década de los cincuenta, una contribución extraordinaria al campo del análisis estructural
de las sustancias orgánicas fue realizada por el físico estadounidense Félix Bloch (1905 – 1983),
premio Nóbel de Física en 1952, al desarrollar la Resonancia Magnética Nuclear. Pronto esta
técnica se difundió por los laboratorios de investigación, contribuyendo de manera especial a este
esfuerzo de expansión el también suizo Richard Ernst (1933 - ), premio Nóbel de Química en
1991, por el diseño y construcción de una nueva generación de equipos de alta resolución, y el
desarrollo paralelo de la teoría para ampliar el alcance de su aplicación. Un nuevo salto se
produciría durante la década de los ochenta cuando el químico suizo Kurt Wuthrich (1938- ),
premio Nóbel de Química del 2002, desarrolló la idea sobre cómo extender la técnica de
Resonancia Magnética Nuclear al estudio de las proteínas. En muchos aspectos el método de
RMN complementa la cristalografía de rayos X, pero presenta la ventaja de estudiar la molécula
gigante de la proteína en solución, es decir en un medio que se asemeja a cómo ella se encuentra
y cómo funciona en el organismo viviente. Un ejemplo de la aplicación del método propuesto
por Wuthrich para orientar las investigaciones clínicas la encontramos en el reciente estudio de
las proteínas implicadas en un número de enfermedades peligrosas tales como “la enfermedad de
las vacas locas”. Ahora la técnica de RMN puede también usarse para los estudios estructurales y
dinámicos de otros biopolímeros tales como los ácidos nucleicos que dirigen el dominio de la
información hereditaria.

En la década del 30, el físico e ingeniero electrónico alemán Ernst A. Ruska (1906 – 1988),
premio Nóbel de Física en 1986, elaboró los principios de funcionamiento y diseñó el primer
microscopio electrónico. Al comienzo del 45, cerca de 35 instituciones científicas fueron
equipadas con este equipo. Los modernos microscopios electrónicos capaces de ampliar la
imagen del objeto unos dos millones de veces se fundamentan en las propuestas técnicas de
Ruska. Una nueva generación de microscopios fue propuesta hacia la década de los sesenta,
cuando el físico suizo H. Rohrer (1933- ), quien compartió el premio Nóbel de Física en 1986
con Ruska, desarrollara la técnica de microscopía electrónica de barrido por efecto túnel en el
laboratorio IBM de Zurich. Con esta técnica se detectan imágenes con resolución atómica.

Las posibilidades brindadas por la microscopía electrónica fueron aprovechadas para la


obtención de imágenes tridimensionales de virus, proteínas y enzimas. En este propósito
sobresale la obra de Aaron Klug (1926- ), biólogo molecular, lituano de nacimiento, surafricano
por crianza, y británico según adopción, que mereció el Nóbel de Química en 1991.

La espectrometría de masas es en la actualidad una de las más potentes técnicas analíticas con
que cuenta el químico. El inicio de su aplicación data del registro de los espectros de masas de
moléculas sencillas de bajo peso molecular obtenidas por J.J. Thomson en 1912. Los primeros
prototipos de espectrógrafos, siguiendo los mismos principios básicos de los empleados hoy día
fueron principalmente desarrollados por Francis W. Aston (1877 – 1945), quien descubrió un
gran número de isótopos (elementos con igual carga nuclear pero que difieren en los índices de
masas) y fue laureado por estas aportaciones con el premio Nóbel de Química de 1922. El equipo
para obtener tales espectros debía ser capaz de: a) producir iones gaseosos a partir de las
moléculas a investigar; b) separar estos iones de acuerdo con la relación carga : masa; y c) medir
la abundancia relativa de cada ión. En la década del cuarenta ya se habían fabricado
espectrógrafos para analizar sustancias orgánicas de peso molecular medio; a finales de los
cincuenta se demostró el papel de los grupos funcionales sobre la fragmentación directa
ampliándose la capacidad de los equipos para determinar estructuras orgánicas; y ya hacia los
setenta el perfeccionamiento de los equipos alcanzaba una sensibilidad que permitía trabajar con
masas de muestras del orden de una millonésima de gramo.
Pero hasta esta altura la espectrometría de masas no servía para la determinación de estructuras
de moléculas gigantes como lo son importantes biopolímeros. La primera etapa de la técnica
exige el paso de las macromoléculas a la fase gaseosa lo cual implica la ocurrencia de
indeseables transformaciones estructurales que empañaban los resultados. Dos investigadores en
la década de los ochenta propusieron los procedimientos para burlar este obstáculo.

El estadounidense John B. Fenn (1917- ) propuso dispersar la proteína bajo estudio en un


solvente y luego atomizar la muestra sometiéndolas a un campo eléctrico. Cómo el solvente se
evapora las microgotas se convierten en moléculas de las proteínas totalmente desnudas. El
método se conoce como ionización por electrodispersión (en inglés se emplean las siglas ESI,
correspondientes a electrospray ionization).

La aplicación de la espectrometría de masa, sobre todo acoplada a la Cromatografía Gaseosa,


técnica capaz de separar componentes de una muestra, se extiende en la actualidad al análisis de
sustancias dopantes o drogas; el control de los alimentos; y los ensayos ultrarrápidos para
determinar los niveles de contaminación ambiental.

También para el análisis surgen técnicas genéticas con la ADN polimerasa termoestable que se
aisló por primera vez de T. aquaticus en 1976 en la caldera de Yellowstone donde Kary Mullis
(1944- ) y otros investigadores descubren que esta enzima podría utilizarse en el proceso de
reacción en cadena de la polimerasa (PCR) para amplificar segmentos cortos de ADN.

Una ojeada al desarrollo de la teoría del enlace químico


El descubrimiento de la estructura electrónica de los átomos, la descripción del modelo nuclear y
de los estados estacionarios de los electrones en la envoltura atómica, y la formulación de una
nueva ley periódica para las propiedades de los elementos químicos basada en la carga nuclear
de los átomos, constituyeron premisas para penetrar en la naturaleza del enlace químico que
esperaba por una coherente explicación desde mediados del siglo pasado.

En 1916 se publican los trabajos del físico alemán W. Kossel (1888 -1956) y del químico físico
de la Universidad de California G. N. Lewis (1876 – 1946) que presentaron una notable
resonancia en el tratamiento posterior de este problema.

Kossel desde la Universidad de Munich fue el primero en postular la posible transferencia


electrónica desde un átomo electropositivo hacia otro electronegativo como mecanismo de
formación del llamado enlace iónico, que supone su fortaleza por la fuerza electrostática
desarrollada entre las especies cargadas con signo opuesto.

La idea de la posible existencia de dos tipos de compuestos con enlaces polares y apolares
expuesta inicialmente por Lewis en el 1916, fue complementada en los años siguientes cuando
formula la tesis de que el enlace en las sustancias moleculares es el resultado del compartimiento
de un par de electrones por parte de los átomos unidos, que expresan tendencia a alcanzar la
configuración electrónica del gas noble que le sucede en la Tabla Periódica de los elementos (la
famosa regla del octeto para la última capa de la envoltura atómica).
Estos modelos, en sus aspectos cualitativos, llegan hasta nuestros días como un a primera visión
acerca del enlace químico. Pero la necesaria profundización llegó a partir de 1927 cuando se
introducen en el pensamiento químico las ideas de la mecánica cuántica.

En 1927, un año después de la publicación del artículo de Schrödinger en el cual fue propuesta la
ecuación de onda que lleva su nombre, el físico alemán W. Heitler (1905 – 1981) y F. London
(1900 – 1954) desarrollaron el cálculo mecánico cuántico de la molécula de dihidrógeno, que dio
una explicación cuantitativa del enlace químico. En esencia el cálculo vino a demostrar que
durante el acercamiento de dos átomos con electrones de spines opuestos ocurre un aumento de
la densidad de la nube electrónica en el espacio entre los núcleos, que se acompaña con una
disminución considerable de la energía del sistema. Surge el enlace con la formación así de un
sistema más estable.

Comenzaría a desarrollarse un nuevo sistema de categorías para explicar las características del
enlace químico. Algunos de los conceptos que emergen con un contenido cualitativamente
distinto son los de orbital atómico y orbital molecular que ahora designan regiones que con
determinada probabilidad se encuentra la nube de electrones; las nociones de energía de enlace
para indicar su fortaleza, radio o distancia internuclear promedio para señalar las posiciones
relativas de los núcleos, densidad electrónica relativa para denotar la existencia de los sitios
activos responsables de la reactividad, y orden de enlace para advertir la multiplicidad que
presentan los átomos al enlazarse.

Las representaciones de Heitler y London sobre el mecanismo de la formación del enlace


sirvieron de base para la explicación y el cálculo por aproximación del enlace en moléculas más
complejas. Estas representaciones fueron desarrolladas por el método de enlaces de valencia o de
pares electrónicos introducidos por los estadounidenses J. Slater (1900 – 1975) y L. Pauling
(1901 -1994). La formación del enlace es comprendido como la cobertura de las funciones de
ondas de los electrones en juego. La orientación espacial que adoptan estos enlaces y que
determinan la forma geométrica de la molécula, obedece a la máxima posibilidad de
sobreposición de las funciones de ondas que participan en la formación del enlace. Sobre la base
de estos principios desarrollan la productiva teoría de hibridación de los orbitales atómicos que
explica la capacidad de combinación mostrada por los átomos y la geometría que exhiben las
moléculas.

A pesar de la fertilidad mostrada por el método de los enlaces valentes, sus presupuestos fueron
incapaces de dar explicación a determinados hechos experimentales como el paramagnetismo
mostrado por el dioxígeno. Más fructífero para la explicación y el cálculo del enlace covalente
resultó el método de orbitales moleculares elaborado en sus fundamentos por R. Millikan (1868
– 1953). Hay diversas variantes del método de orbitales moleculares. Mereció una especial
atención la propuesta de E. Hückel ( (1896 - 1980) para las moléculas orgánicas, el llamado
método de combinación lineal de los orbitales atómicos. Como resultado de la utilización de este
método se formaron tres conceptos de gran significado en la química orgánica moderna, el orden
de enlace, la densidad electrónica π y el índice de valencia libre.

El desarrollo de la capacidad predictiva de ambas teorías del enlace químico no sólo han
sustentado las propiedades de los nuevos materiales sintéticos sino que han orientado el diseño
de complicadas estructuras moleculares en el campo de los complejos metal-orgánicos y de los
polímeros biológicos abriendo paso a la compresión de los mecanismos, al nivel molecular, de
los procesos que definen la génesis hereditaria y la inmunidad biológica y abren paso a nuevas
conquistas de las Ciencias en el campo de la Biología Molecular y la Ingeniería Genética.

La transmutación de los elementos: Radioactividad y fusión


nuclear
El átomo indivisible había nacido en el ámbito químico mientras el mundo subatómico aparecía
vinculado a la física contemporánea. De cualquier manera una enorme resonancia tendría sobre
la Química el conocimiento de la estructura atómica. De hecho el trabajo conjunto de
radioquímicos y físicos experimentadores condujo a relevantes descubrimientos sobre todo en el
campo de la desintegración radiactiva.

El descubrimiento del electrón y la radioactividad fueron prácticamente coincidentes en el


tiempo. La práctica demostraba la complejidad del átomo, por lo menos los electrones y las
partículas alfa (emitidas por los radioelementos) entraban en la estructura atómica.

Casi desde estos primeros momentos comenzaron las tentativas por describir un modelo atómico.
William Thomsom (Lord Kelvin) ya en 1902 concebía la carga positiva distribuida
uniformemente por todo el átomo mientras los electrones en número que compensaba esta carga
se encuentran en el interior de esta nube positiva. Un año más tarde, J.J Thomsom concibe a los
electrones en movimiento dentro de la carga positiva distribuida en una esfera.

Luego de otros intentos para describir un modelo que explicara el espectro de rayas y de bandas
y el fenómeno de la radioactividad, aparece en 1911 la publicación del físico neozelandés Ernest
Rutherford (1872 – 1937) “La dispersión por parte de la materia, de las partículas alfa y beta, y la
estructura del átomo” en la que propone el modelo nuclear del átomo. Según Rutherford la carga
positiva y la masa del átomo se confinan en una porción muy reducida, 104 veces menor que las
dimensiones del átomo, mientras los electrones quedan alojados en una envoltura extranuclear
difusa. La carga positiva nuclear es igual a Ze, siendo e, la carga del electrón y Z
aproximadamente la mitad del peso atómico.

Rutherford fue más allá y en diciembre de 1913 expone la hipótesis de que la carga nuclear es
una constante fundamental que determina las propiedades químicas del átomo. Esta conjetura fue
plenamente confirmada por su discípulo H. Moseley (1887 – 1915), quien demuestra
experimentalmente la existencia en el átomo de una magnitud fundamental que se incrementa en
una unidad al pasar al elemento siguiente en la Tabla Periódica. Esto puede explicarse si se
admite que el número de orden del elemento en el sistema periódico, el número atómico, es igual
a la carga nuclear.

Durante este primer período la atención de la mayor parte de la vanguardia de los físicos teóricos
se concentraba en extender los razonamientos cuánticos iniciados por Planck; mientras, la
construcción de un modelo para el núcleo atómico era un problema relativamente relegado y
frente al cual se levantaban enormes obstáculos teóricos y prácticos.
Rutherford había sugerido desde sus primeras investigaciones que muy probablemente el núcleo
estaría constituido por las partículas alfa emitidas durante la desintegración radioactiva. Ya para
entonces el propio Rutherford había cuidadosamente comprobado que las partículas alfa
correspondían a núcleos del Helio, es decir, partículas de carga +2 y masa 4. Otra línea de
pensamiento conducía a suponer que los electrones (partículas beta) emitidos durante la
desintegración radioactiva eran lanzados desde el mismo núcleo.

Frederick Soddy (1877 –1956), uno de los primeros y más sobresalientes radioquímicos, premio
Nobel en 1921, al pretender ubicar el creciente número de productos de la desintegración
radioactiva en la Tabla Periódica colocó los elementos que mostraban propiedades químicas
idénticas en la misma posición aunque presentaran diferentes masas atómicas. Al hacerlo estaba
ignorando la ley de Mendeleev y modificando el propio concepto de elemento químico. Ahora
surgía una nueva categoría para los átomos, el concepto de isótopos (del griego iso: único, topo:
lugar). Poco después, el descubrimiento de Moseley apoyaría su decisión, al demostrar que la
propiedad fundamental determinante de las propiedades químicas y de la propia identidad de los
átomos era la carga nuclear.

Con la Primera Guerra Mundial se levantaron obstáculos para el progreso de los estudios
fundamentales recién iniciados, quedarían interrumpidos los intercambios científicos, detenidas
las publicaciones, el campo de acción de las investigaciones desplazado a la práctica de la
tecnología militar.

Pero en Berlín una pareja de investigadores, Lise Meitner (1879 – 1968) y Otto Hahn (1878 –
1968), una física y un químico, venían investigando sobre el aislamiento y la identificación de
radioelementos y de productos de la desintegración radioactiva. Ante el alistamiento de Hahn en
el ejército para llevar a cabo estudios vinculados con la naciente guerra química, Meitner
continúa las investigaciones y descubre en 1918 el protactinio.

En 1919, Rutherford, que encabeza a partir de este año el laboratorio Cavendish en Cambridge,
al estudiar el bombardeo con partículas alfa sobre átomos de nitrógeno, descubre la emisión de
una nueva partícula, positiva, y evidentemente responsable de la carga nuclear del átomo. La
existencia en el núcleo de partículas positivas y de los electrones emitidos como radiaciones
beta, llevó a este relevante investigador a concebir una partícula que constituyese una formación
neutral, un doblete comprendido como una unión estrecha de un protón y un electrón.

Durante más de 10 años Rutherford y su principal asistente James Chadwick (1891 – 1974)
intentaron en vano demostrar experimentalmente la existencia del neutrón.

Las señales alentadoras vendrían de París, del laboratorio de los Joliot. Jean Frederick (1900 –
1958) e Irene Joliot- Curie (1897 – 1956) reportaron en 1932 que al bombardear con partículas
alfa, provenientes de una fuente de polonio, átomos de berilio se producía una radiación de alto
poder de penetración que ellos asociaron a rayos γ. Pero Chadwick no compartió este supuesto y
procedió a verificar que estas partículas eran los escurridizos neutrones. Chadwick fue acreditado
para la Historia como el descubridor de los neutrones.
La nueva oportunidad que se les presentó dos años más tarde a los Joliot fue esta vez
convenientemente aprovechada. Ellos encontraron que al bombardear aluminio con partículas
alfa, la emisión de positrones continuaba después de retirar la fuente de plutonio, y además el
blanco continuaba emitiendo conforme a la ley exponencial de la descomposición de
radionúclidos. Se había descubierto la radioactividad artificial.

Inmediatamente después del descubrimiento del neutrón, W.Heinseberg propone el modelo del
núcleo del protón – neutrón. Conforme con este modelo los isótopos descubiertos por Soddy se
distinguen sólo por el número de neutrones presentes en el núcleo. Este modelo se verificó
minuciosamente y obtuvo una aprobación universal de la comunidad científica. Sin embargo
numerosas interrogantes quedaban en pie, entre otras flotaba la pregunta: ¿de dónde proceden los
electrones resultantes de la desintegración radiactiva?

Para responder a esta pregunta el eminente físico teórico suizo Wolfgang Pauli (1900 – 1978)
supuso, en el propio 1932, que durante la desintegración beta junto con los electrones se emite
otra partícula que acompaña la conversión del neutrón en un protón y un electrón y que porta la
energía correspondiente al defecto de masa observado según la ecuación relativista de Einstein.
Lo trascendente en la hipótesis de Pauli es que semejante partícula, necesaria para que el proceso
obedeciera la ley de conservación y transformación de la energía, no presentaba carga ni masa en
reposo.

Esta vez fueron 24 años, la espera necesaria para que la partícula postulada por Pauli y bautizada
por Enrico Fermi (1901 - 1954) con el nombre de neutrino, fuera observada mediante
experimentos indirectos conducidos de modo irrefutable por el físico norteamericano F. Reines
(1918 - ). Con este descubrimiento se respaldaba la teoría desarrollada por Fermi sobre la
desintegración beta y las llamadas fuerzas de interacción débil entre las partículas nucleares.

Pero antes de esta espectacular verificación de la teoría, aún en la memorable y triste década de
los 30, el propio Fermi y su grupo de la Universidad de Roma, al juntar las nociones del neutrón
y la radioactividad artificial, en el transcurso de unas semanas inició el camino hacia la fisión
nuclear, considerando por el contrario que se dirigía hacia el descubrimiento de nuevos
elementos más pesados.

En Berlín, un equipo de investigación compuesto por Otto Hahn, Fritz Strassmann y Lise
Meitner, pretendió verificar los estudios del grupo de Roma e inició el bombardeo de átomos de
uranio con neutrones, esperando poder descubrir nuevos elementos más pesados. En vez de esto,
a finales de 1938, Hahn y Strassmann (la Meitner había sido clandestinamente sacada de
Alemania ya que peligraba su integridad por su origen judío) descubren no un elemento más
pesado como resultado del bombardeo nuclear del uranio sino un elemento más ligero, llamado
bario. Sin poder darles una explicación, envían estos resultados inmediatamente a Meitner,
entonces en Estocolmo, donde ella y su sobrino, el físico Otto Frisch (1904 – 1979), investigaron
el misterio. Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o
un pequeño grupo de partículas como se suponía, se rompía en dos fragmentes ligeros, cuyas
masas, unidas, pesaban menos que el núcleo original del uranio. El defecto de masa, según la
ecuación de Einstein, podía transformarse en energía.
Dos años después, en la Universidad de Berkeley, California, un grupo de jóvenes científicos
demostraron que algunos átomos de uranio, en vez de dividirse, absorbían los neutrones y se
convertían en las sustancias que había predicho Fermi. Los investigadores de Berkeley, Edwin
McMillan (1907 – 1991) y P.H. Abelson (1940- ) realizaron experimentos en los que obtuvieron
un elemento que poseía un protón más que el uranio, de modo que su número atómico era 93. Se
le llamó neptunio, por el planeta Neptuno, más allá de Urano.

Luego un equipo dirigido por Glenn Seaborg (1912 – 1999), del propio Berkeley, descubrió que
los átomos de neptunio se deterioraban y se convertían en un elemento cuyo número atómico era
94. Este elemento fue llamado plutonio por el planeta Plutón. El primer isótopo descubierto fue
el plutonio 238. Un segundo isótopo, el plutonio 239, resultó ser tres veces más fisionable que el
uranio 235 (el material que finalmente se utilizó en la bomba de Hiroshima). En teoría, 300
gramos podían generar una carga explosiva equivalente a 20.000 toneladas de TNT.

En octubre de 1942, un equipo de científicos dirigido por Fermi empezó a construir una pila
atómica (uranio colocado entre ladrillos de grafito puro) bajo las gradas de un estadio en la
Universidad de Chicago. La investigación formaba parte del proyecto Manhattan para la
fabricación de la bomba atómica y pretendía demostrar que los neutrones liberados en la fisión
de un átomo de uranio podían “disparar” un mecanismo en cadena que generaría una enorme
cantidad de energía.

Nueve años después de creada la pila atómica de Fermi, y a seis años del holocausto de
Hiroshima y Nagasaki, científicos estadounidenses emplearon por primera vez la tecnología
nuclear para generar electricidad. En 1951, bajo la supervisión de la Comisión de Energía
Atómica se iniciaron las pruebas del funcionamiento de un reactor nuclear experimental
instalado en una central eléctrica construida por los Laboratorios Nacionales Argonne en Idaho.
El reactor experimental produjo energía suficiente para poner en funcionamiento su propio
sistema de puesta en marcha; como llegaría a ser común en todas las plantas de energía atómica,
el calor del núcleo haría hervir agua y el vapor impulsaría una turbina.

En 1954, los soviéticos abrieron la primera planta nuclear civil. Dos años después, los británicos
inauguraron la segunda planta industrial.

Pronto empezaron a funcionar centrales nucleares en todo el mundo pero las predicciones de un
futuro impulsado por energía atómica resultaron poco realistas. Las centrales nucleares, caras de
construir y de mantener, también resultan peligrosas por los residuos radiactivos y la posibilidad
de accidentes catastróficos. Contrario al supuesto de los especialistas sobre la confiabilidad de
los sistemas de seguridad de las Plantas Nucleares, varios accidentes ha conocido la humanidad a
causa del error humano. La catástrofe de Chernobil, en Ucrania, conmocionó por su devastador
impacto a toda la humanidad.

A partir de ahora uno de los grandes retos de la civilización contemporánea será emplear
racionalmente y orientar sobre una base ética las conquistas de las nuevas Ciencias que se
refunden e integran en medio de una revolución informática y de la Ingeniería Genética.
¿Seremos capaces de lograrlo? Tal vez una comprensión de la Historia, contribuya a proyectar
correctamente el rumbo de nuestra nave planetaria hacia el futuro.
Ver también
 Historia de la Química/Unidad IV
 Historia de la Química
 Departamento de química

Categoría:

 Química

Menú de navegación
 No has accedido
 Discusión
 Contribuciones
 Crear una cuenta
 Acceder

 Página
 Discusión

 Leer
 Editar
 Ver historial

Buscar

 Página principal
 Claustro Wikiversitario
 Actualidad
 Cambios recientes
 Página aleatoria
 Ayuda
 Donaciones

Herramientas

 Lo que enlaza aquí


 Cambios relacionados
 Páginas especiales
 Enlace permanente
 Información de la página
 Citar esta página
Imprimir/exportar

 Crear un libro
 Descargar como PDF
 Versión para imprimir

En otros idiomas

Añadir enlaces

 Esta página se editó por última vez el 25 nov 2020 a las 06:08.
 El texto está disponible bajo la Licencia Creative Commons Atribución-CompartirIgual
3.0; pueden aplicarse términos adicionales. Véase Términos de uso para más detalles.

 Política de privacidad
 Acerca de Wikiversidad
 Limitación de responsabilidad
 Versión para móviles
 Desarrolladores
 Estadísticas
 Declaración de cookies

También podría gustarte