Documentos de Académico
Documentos de Profesional
Documentos de Cultura
El siglo XX traería al escenario mundial dos grandes guerras que paradójicamente darían un
impulso al desarrollo del conocimiento científico en aquellas áreas en que se advertían
necesidades internas y principalmente con fines relacionados con la tecnología militar. Este
desarrollo dio lugar, incluso, al holocausto nuclear de la década de los años cuarenta.
En el polo de los países pobres, la mayoría de las colonias de África y Asia lograba su
independencia contribuyendo al derrumbe del sistema colonial mundial que había servido como
fuente de riqueza para las metrópolis.
Ya a finales de la década de los años ochenta y principios de los noventa, con el derrumbe del
sistema socialista en el este europeo, se establecieron las bases de un mundo unipolar,
caracterizado por un proceso de globalización, que si en principio pudiera considerarse en bien
del intercambio científico – técnico, realmente representa un desafío para la supervivencia del
mosaico de culturas de las naciones emergentes y de sus identidades nacionales.
Por otra parte, la desaparición de la guerra fría y el clima de universal entendimiento que parecía
poder alcanzarse abría la posibilidad de congelar la irracional carrera de armamentos y desviar
estos enormes recursos financieros hacia la esfera del desarrollo. Esto equivale a decir que podría
al fin inaugurarse la era en que Ciencia y Tecnología alinearan sus fuerzas en bien de toda la
humanidad. Pronto el optimismo inicial, derivado de semejante razonamiento se evaporó ante las
nuevas realidades.
Un cuadro similar se advierte si se recurre a cifras que ilustren el financiamiento por países en el
área de investigación y desarrollo, así como si se analizan la producción de patentes de
invención. En esta última esfera un nuevo problema viene a matizar el progreso científico. En
todo el siglo XIX, la protección de la propiedad industrial, se había convertido en elemento de
financiamiento de nuevas investigaciones que alentaran y permitieran nuevos logros en la
invención. Pero con el siglo XX se van haciendo borrosos los contornos de los descubrimientos y
las invenciones para la pupila de las grandes transnacionales interesadas más que todo en
competir con éxito en el templo del mercado. Una encendida polémica se viene gestando en la
opinión pública que gana creciente conciencia de los peligros que entraña semejante política.
Afortunadamente, entre los propios investigadores se desarrolla un movimiento tendiente a
preservar como patrimonio de toda la humanidad los descubrimientos científicos de mayor
trascendencia.
El Laboratorio de Cavendish en Cambridge, fundado en el siglo XIX, hizo época no sólo por la
relevancia de sus investigaciones fundamentales para la determinación de la estructura atómica,
sino por la excelencia mostrada por sus directores científicos, J.J. Thomsom y Ernest Rutherford,
que lograron con su liderazgo que siete investigadores asistentes del Laboratorio alcanzaran el
Premio Nóbel de Física.
En la década del 40, se crea en Nuevo México, el Laboratorio Nacional de los Álamos, verdadera
empresa científica multinacional, con el objetivo de dar cumplimiento al llamado Proyecto
Manhattan para la fabricación de la bomba atómica. La movilización de hombres de ciencias de
todas las banderas tuvo el propósito de neutralizar cualquier tentativa de la Alemania hitleriana
de emplear el chantaje nuclear. El propio Einstein, con su enorme prestigio y autoridad moral,
inicia el movimiento enviando una misiva al presidente de los Estados Unidos. Cinco años
después, enterado de los éxitos ya obtenidos en los ensayos de la bomba atómica, vuelve a usar
la pluma está vez para reclamar prudencia en el empleo de este engendro de la Física Nuclear. El
resto de la Historia es bien conocido. El 9 de agosto de 1945 la humanidad se aterrorizaba con la
hecatombe nuclear en Hiroshima, días después se repetía la escena esta vez en Nagasaki. Se
inauguraba la época del arma nuclear con un saldo inmediato de cien mil muertos y más de
ciento cincuenta mil heridos, y una multiplicación a largo plazo de las víctimas como resultado
de las manifestaciones cancerígenas y las mutaciones genéticas inducidas por la radiación
nuclear.
En la segunda mitad del siglo XX, la rivalidad entre las instituciones científicas del este y oeste
constituían un reflejo de la guerra fría que prevaleció hasta bien avanzado el siglo. A la
competencia y el intercambio que alentó, en lo fundamental, el desarrollo de las investigaciones
en las primeras décadas entre las Escuelas de Copenhague, Berlín, París, y Londres, le sustituyó
un cerrado silencio. El intercambio fue tapiado y supuestas filtraciones al bando opuesto
adquirieron la dramática connotación de espionaje político. Los logros publicables que obtenían
los laboratorios nucleares de Dubna, en la ex - Unión Soviética, Darmstad en Alemania, y
Berkeley de los Estados Unidos eran sometidos a encendidas polémicas sobre prioridad, como es
el caso del descubrimiento (acaso sería mejor decir “la fabricación” en los aceleradores lineales)
de los elementos transférmicos que ocupan una posición en la tabla periódica posterior al
elemento número 100.
Pero a pesar del mar de contradicciones en que debió navegar nuestra nave planetaria ha sido el
XX un siglo de un espectacular salto de la Ciencia y la Tecnología. Se inauguran la “Era
Atómica”, la “Edad de los Materiales Sintéticos”, los tiempos de la “Conquista del Espacio
Sideral”, la “Época de la Robótica”, el período de “la Informatización”, el despegue de “la
Ingeniería Genética”… En cada una de estas conquistas están presentes las tres Ciencias Básicas
que nos ocupan.
Desde el punto de vista de su auto desarrollo, las Ciencias, a partir de la segunda mitad del siglo
XIX, experimentan una delimitación de los respectivos campos de cada disciplina científica y a
la vez una tendencia a la interdisciplinariedad. Se advierten pues la aparición de ramas de las
Ciencias de naturaleza "fronteriza", y el acercamiento hacia un mismo objeto de estudio desde
perspectivas diferentes siguiendo luego una intención totalizadora.
En particular, la Química del siglo XX ha sido “empujada” desde diferentes ángulos por las
necesidades sociales de la época pero en todo caso su autodesarrollo relativo inclinaba en un
primer momento la atención de los químicos hacia el amplio campo de los compuestos naturales.
En conexión con esta gravitación hacia los compuestos bioactivos se encuentra el desarrollo de
una novedosa generación de fármacos prototipos para cumplir una misión reiteradamente
planteada ante los químicos desde la legendaria Casa de la Sabiduría de Bagdad en el medioevo,
pasando por Livabius y Paracelso en el Renacimiento europeo, hasta alcanzar con Erlich en el
siglo XIX el antecedente inmediato de la Quimioterapia.
Algunos autores han señalado el lanzamiento del libro “Primavera Silenciosa” por la bióloga
estadounidense Rachel Louise Carson (1907 - 1964) como un momento de especial importancia
en la toma de conciencia por la comunidad científica y por amplios sectores de la opinión pública
sobre los peligros generados por la actividad humana en el entorno ambiental. Lo cierto es que a
partir de la década de los setenta se van acopiando más y más datos que conforman una visión
dramática sobre los cambios que viene observando nuestra atmósfera y el impacto real y
potencial que tales alteraciones promueven. La comunidad química ha prestado atención a este
relevante problema contemporáneo y los principales resultados de esta ocupación encuentran un
breve espacio en estas páginas.
En cualquiera de los ámbitos enunciados arriba, como en otros no abordados en este trabajo, el
desarrollo de potentes herramientas para el análisis estructural de las complejas sustancias bajo
examen precedió o evolucionó paralelamente con las necesidades planteadas a la investigación.
Un amplio repertorio de estas técnicas fue inventado y prosigue en permanente
perfeccionamiento y expansión, entre las que sobresalen aquellas basadas en la interacción
específica de la radiación con la sustancia.
Sumario
1 La química de los compuestos naturales
2 Progresos en el diseño y producción de fármacos
3 El desarrollo de nuevos materiales
4 Productos sintéticos para necesidades apremiantes
5 La química del medioambiente
6 El desarrollo del instrumental analítico
7 Una ojeada al desarrollo de la teoría del enlace químico
8 La transmutación de los elementos: Radioactividad y fusión nuclear
9 Ver también
En otra de las instituciones alemanas que han servido de escenarios para la gestación de
sobresalientes descubrimientos en el campo de la Química, el Instituto Kaiser Guillermo, más
tarde rebautizado como Instituto Max Planck, el austríaco- alemán Richard Kuhn (1900 – 1967)
durante un período de veinte años descubrió ocho nuevos tipos de carotenoides, y fue capaz de
analizar su constitución. Sobre esta base, obtuvo importantes resultados sobre las vitaminas B2 y
B6 que lo hicieron merecedor del premio Nóbel en 1938.
En uno de los propósitos más ambiciosos de la Química moderna: encontrar la relación íntima
entre la estructura molecular de complejos productos orgánicos y la función biológica que
cumplen, campo dónde se inicia la frontera aún difusa con la biología molecular, brilló la
actividad de la química británica Dorothy Crowfoot Hodgkin (1910 – 1994). Hodgkin empleó
durante largos años el análisis de rayos X para la determinación de las configuraciones
moleculares de la penicilina, la vitamina B-12, la insulina, y otras importantes proteínas. En
particular sus estudios sobre la estructura tridimensional de la insulina se prolongaron durante
tres décadas, tiempo en el cual se convirtió en pionera del uso de la computadora para la
interpretación de los espectros de rayos X y el correspondiente mapeo de las densidades
electrónicas en los sitios moleculares. Con cada nuevo descubrimiento, la doctora Hodgkin
produjo una expansión de la tecnología de la Cristalografía por rayos X.
En el Laboratorio Cavendish de Cambridge donde se condujeron las investigaciones de Hodgkin,
otros dos investigadores John C. Kendrew (1917-1997) y Max F. Perutz (1914 – 2002) fueron
capaces de obtener vistas claras, tridimensionales de la estructura molecular de la mioglobina y
la hemoglobina y recibieron en 1962 el premio Nóbel compartido por sus estudios
fundamentales.
Al otro lado del Atlántico, a partir de la década del treinta, en la institución que más tarde se
convertiría en Universidad de Rockefeller se incubaba un fuerte movimiento en el campo de la
Química de los compuestos naturales que, luego de la segunda guerra mundial, se convertiría en
liderazgo de la ciencia estadounidense. Uno de los iniciadores de este movimiento es John H.
Northrop (1891 – 1987), premio Nóbel en 1946, por su contribución al aislamiento y
determinación estructural de las importantes enzimas digestivas proteolíticas, tripsina y pepsina.
En esta Institución transcurren las trascendentales investigaciones de William H. Stein (1911 –
1980) y Stanford Moore (1913 -1982) que representan una contribución decisiva a la
comprensión de la relación entre actividad catalítica y estructura de los sitios activos de la
ribonucleasa; así como los estudios de nuevas rutas en la síntesis de péptidos y proteínas en una
matriz sólida conducidos por Robert B. Merrifield (1921- ).
En las décadas de los setenta y los ochenta ha aparecido en escena un nuevo tipo de
neurotransmisor de origen proteico, las endorfinas. Roger Guillemin francés – estadounidense,
ha estudiado la producción de este tipo de hormona péptidica del cerebro y los mecanismos de su
acción. Por lo visto se ha descubierto el tipo de sustancia que desempeña importantes roles en los
mecanismos conducentes a la aparición de las emociones placenteras relacionadas con el
sentimiento de felicidad. Guillemin ha merecido el Premio Nóbel de Fisiología en 1977.
En conclusión, durante este siglo la Química de los compuestos naturales ha vencido importantes
problemas en las esferas de la síntesis y análisis de complejas moléculas bioactivas; y en la
comprensión teórica del rol catalítico de los biopolímeros y el mecanismo de su interacción en el
metabolismo de los seres vivos.
En el diseño de fármacos una posición especial han ocupado desde los mismos orígenes de la
Quimioterapia, los compuestos naturales. Ellos han sido una de las grandes fuentes de fármacos
prototipos. Sirva citar como ejemplos de este grupo, los glicoesteroides, con propiedades
cardiotónicas, las hormonas de mamíferos (insulina, corticoides, hormonas sexuales), y otros
productos endógenos como las prostaglandinas, vitaminas o neuropéptidos. La penicilina G,
cabeza de serie de antibacterianos lactámicos, marcó el inicio de la edad de oro de estos
antibióticos. Más recientemente en 1969 con el aislamiento de la ciclosporina A, un metabolito
undecapéptido del hongo Tolypocladium inflatum, se creyó disponer de un prototipo para una
nueva generación de agentes antivirales, pero su demostrada actividad inmunodepresora, al
interferir la biosíntesis de la linfoquina, tuvo un gran impacto en la cirugía de trasplantes, a fines
de los setenta, al disminuir notablemente el rechazo al órgano injertado.
Ya a la altura de la tercera década, teniendo como base el éxito de Erlich con el azul de metileno
sobre el paludismo, G. Domagk (1895 – 1964), premio Nóbel de Medicina en 1938, desarrolla
un amplio programa de evaluación de colorantes azoicos que concluyen en 1935 con el
descubrimiento de la eficacia del prontosil, un azo derivado que por reducción metabólica libera
la sulfanilamida, el verdadero compuesto responsable de la acción antibiótica. El programa de
búsqueda de mejores sulfamidas bacterianas, mediante el estudio de miles de compuestos
portadores del grupo -SO2N- condujo a espectaculares aperturas en otros sectores de los
fármacos, tales como diuréticos (sulfonamidas y disulfonamidas), hipoglucemiantes
(sulfonilureas), leprostáticos y antituberculosos (sulfonas).
Sus sorprendentes propiedades como elevada dureza, inercia frente a los más enérgicos
disolventes, termoestabilidad, baja conductividad eléctrica y térmica y capacidad de moldearse al
ser calentados para después solidificar, fueron anunciadas por Baekeland en 1909 en Nueva
York, indicando la posibilidad de fabricar con las bakelitas desde conmutadores eléctricos hasta
discos fonográficos.
En estos primeros tiempos prevalece el método de ensayo y error como reflejo del escaso
conocimiento sobre la estructura de las moléculas gigantes y de los detalles de las reacciones en
que se producían.
Al filo de la década del treinta ya se disponía de la materia prima suministrada por la industria
del petróleo, y del bagaje teórico suficiente, para que el químico J.A. Nieuwland (1878 – 1936)
investigara con éxito la producción del caucho sintético, al que denominó neopreno. Este
neopreno por sus propiedades elastómeras superaría al caucho natural.
Un nuevo período en el campo de las síntesis de polímeros se abre con las investigaciones
realizadas paralelamente por el químico alemán K. Ziegler (1898-1973) y el italiano G. Natta
(1903-1979). En 1954 inician la aplicación de nuevos sistemas catalíticos órgano – metálicos
para la producción de polímeros vinílicos con un alto ordenamiento de los grupos laterales a su
espina dorsal (cadena principal). Esta elevada estereoespecifidad lograda en las etapas de síntesis
había sido una conquista privativa de la fisiología de los seres vivos.
Sin poder compararse con los reconocidos logros en el campo de la microelectrónica, la ciencia
japonesa ha expresado en las últimas décadas importantes contribuciones a la Química. En
particular, son importantes exponentes los éxitos alcanzados por el químico japonés Hideki
Shirakawa (1936- ), premio Nóbel del 2000, descubridor de una nueva generación de polímeros
conductores al polimerizar el gas acetileno sobre la superficie de un catalizador especial de
Ziegler-Natta. Este tipo de polímeros conductores vienen siendo estudiados también por
investigadores de la Universidad de Pennsylvania y constituyen una prometedora vía para la
obtención de nuevos materiales, únicos por sus propiedades híbridas de termoplásticos y metales.
Otra conquista sobresaliente en el campo de los polímeros sintéticos viene dada por la
fabricación de materiales biodegradables y biocompatibles. La aplicación del ácido poliglicólico
que experimenta una relativa facilidad para hidrolizarse y asimilarse por los tejidos vivos y la
capacidad mostrada por similares productos para formar matrices tridimensionales dónde pueden
“sembrarse” células de tejidos han abierto campos insospechados de aplicación en la Medicina.
Las suturas quirúrgicas sintéticas, con excelente resistencia mecánica y fácilmente reabsorbibles
por el organismo, son un ejemplo de masiva aplicación. Pero por ahora las más trascendentes
invenciones se relacionan con el transporte y suministro lento de medicamentos en zonas de
difícil o impenetrable acceso, como es la barrera hematoencefálica, que evita la penetración de
una gran variedad de sustancias químicas procedentes de la sangre en el cerebro; y el uso de los
polímeros biocompatibles como armazón genérica donde crecen tejidos.
Las empresas de biotecnología utilizan estructuras poliméricas para crear piel artificial con el fin
de tratar las quemaduras graves y las úlceras producidas por la diabetes. Multiplican células
vivas en cultivos (normalmente procedentes de tejidos que se desechan durante las operaciones
quirúrgicas) y, a continuación, “siembran” las células en la estructura de polímeros.
Cuando la ingeniería de materiales y la ciencia especializada en polímeros unen sus fuerzas con
la biología y la medicina se logran estos milagros modernos. De cualquier manera, una
conciencia universal debe ser creada, en primer lugar para que los logros de la ciencia de punta
no sean privativos de los sectores minoritarios de los países ricos, y para que en ningún caso un
Frankestein espiritual pueda apoderarse del género humano por una irracional manipulación
genética.
La producción de alimentos para una población mundial creciente, problema que se planteaba
desde inicios de siglo XX, demandaba una revolución verde en los rendimientos agrícolas.
Fertilizar adecuadamente las tierras era una exigencia y la reserva natural existente de sales
nitrogenadas no permitía dar respuesta a esta necesidad.
Así las cosas, la fijación del nitrógeno atmosférico mediante una adecuada transformación
química se erigía como un problema de muy difícil realización. La síntesis del amoníaco,
precursor de los fertilizantes nitrogenados, mediante la reacción entre el dinitrógeno y el
dihidrógeno chocaba con dificultades prácticas.
Fritz Haber, con la ayuda de su joven colaborador inglés Le Rossignol encontró en la primavera
de 1909 las condiciones, en pequeña escala, para obtener poco más de una gota del amoniaco por
minuto. Estos resultados experimentales fueron expuestos ante los dirigentes de la Badische
Anilin und Soda Fabriken, la mayor empresa de productos químicos de la época.
Los directivos de la sociedad Badische terminaron por apostar, sin límite de tiempo ni de crédito,
a la solución del problema del escalado, confiando esta tarea a dos expertos en el escalado Carl
Bosch y Aldwin Mittasch. Las perspectivas que alentaban el proyecto cubrían un doble
propósito: la producción de abonos y de explosivos nitrogenados.
Luego de cuatro años en que realizarían más de 10 000 pruebas de síntesis y evaluarían mas de 4
000 catalizadores en el laboratorio, Bosch y Mittasch levantaron la industria que producía unas
mil veces la producción inicial de Haber, es decir unas cuatro toneladas de amoniaco
diariamente. Hoy se produce más de cien mil veces esta cantidad de amoniaco pero el catalizador
propuesto por Mittasch no ha podido ser superado en eficiencia y costo.
Otro problema en el orden del día de las necesidades alimentarias del mundo lo era – y lo sigue
siendo aún hoy- encontrar aquellas sustancias insecticidas que combatieran las plagas causantes
de enormes pérdidas al arrasar cosechas enteras de las principales fuentes energéticas nutritivas
de la población. En esta realidad se inserta la polémica página de la síntesis y aplicación de uno
de los más potentes insecticidas fabricados por el hombre: el D.D.T. Existen los testimonios de
que el dicoloro-difenil-tricloroetano fue sintetizado por primera vez en 1873, por un joven
estudiante austríaco, Othmar Zeidler, pero el producto carece de interés hasta que el químico
industrial suizo Paul Hermann Müller (1899 – 1965) descubre en 1936 la fuerte acción
insecticida por contacto que exhibe y luego de cuatro años de intensa labor obtiene la patente
industrial en 1940. Dos productos el Gesarol y el Niocide fueron comercializados a ambos lados
del Atlántico al probar su eficaz acción en el combate del tifus, la malaria y en la agricultura.
Müller recibe por este trabajo el premio Nóbel de Fisiología o Medicina en 1948. Décadas
después se exigía el cese de su aplicación por el impacto global que había provocado en
diferentes ecosistemas al reducir dramáticamente la población de insectos que se insertan en la
cadena alimentaria de diferentes especies.
A pesar del incuestionable valor social que presentan la síntesis industrial de fertilizantes
nitrogenados y la producción de insecticidas, la evaluación del impacto que ha venido
provocando su empleo irracional, promueve a partir de los años ochenta una corriente de
pensamiento relacionada con las nociones de biocompatibilidad, fuentes renovables de recursos,
y el desarrollo de una conciencia que reconoce la necesidad apremiante de una actuación más
racional de convivencia con el entorno.
A este problema se suma el peligroso deterioro causado por las lluvias ácidas que afectan
diversas regiones del orbe. La primera señal de alarma seria se dio a comienzos del setenta
cuando en Escocia se reportó precipitaciones con un índice de acidez comparable al del vinagre.
El origen de las lluvias ácidas está directamente relacionado con la actividad industrial. Las
investigaciones realizadas en los glaciares de Groenlandia demuestran inobjetablemente que hace
unos 500 años el pH oscilaba entre 6 y 7 (el índice de acidez de una solución neutra se
corresponde con un pH de 7), es decir a mitad del milenio anterior la lluvia era sólo ligeramente
ácida. Hace aproximadamente 190 años se produce un descenso notable de este pH que se sitúa
entre 5,8 y 6,0 lo que coincide con la revolución industrial, el advenimiento de la máquina de
vapor de Watt y un aumento considerable en la combustión de diferentes carbones. Hacia 1955 el
promedio del pH de la lluvia se desplaza hacia 5,6 lo que se califica de descenso espectacular lo
que coincide con el no menos espectacular aumento de la actividad industrial en el mundo
desarrollado de la postguerra. El mecanismo de formación de las lluvias ácidas se conoce desde
1975. La opinión pública ha sido informada. La voluntad política de los países con la máxima
responsabilidad por este grave trastorno de un ciclo de precipitaciones que ha recibido la Tierra
durante millones de años está preñada de fariseísmos.
La comunidad científica viene gestando los contornos de una Química del Medio Ambiente, que
exige del concurso de otras disciplinas de la Química, en particular de la Química de los
radicales libres, la Cinética en cuanto demanda del desarrollo de nuevos sistemas catalíticos, y la
intervención de las técnicas de análisis más refinadas y fiables. Será necesario un financiamiento
y el desplazamiento de recursos para una política de monitoreo y de búsquedas de soluciones a
los problemas industriales y de los equipos de transporte.
En la década de los cincuenta, una contribución extraordinaria al campo del análisis estructural
de las sustancias orgánicas fue realizada por el físico estadounidense Félix Bloch (1905 – 1983),
premio Nóbel de Física en 1952, al desarrollar la Resonancia Magnética Nuclear. Pronto esta
técnica se difundió por los laboratorios de investigación, contribuyendo de manera especial a este
esfuerzo de expansión el también suizo Richard Ernst (1933 - ), premio Nóbel de Química en
1991, por el diseño y construcción de una nueva generación de equipos de alta resolución, y el
desarrollo paralelo de la teoría para ampliar el alcance de su aplicación. Un nuevo salto se
produciría durante la década de los ochenta cuando el químico suizo Kurt Wuthrich (1938- ),
premio Nóbel de Química del 2002, desarrolló la idea sobre cómo extender la técnica de
Resonancia Magnética Nuclear al estudio de las proteínas. En muchos aspectos el método de
RMN complementa la cristalografía de rayos X, pero presenta la ventaja de estudiar la molécula
gigante de la proteína en solución, es decir en un medio que se asemeja a cómo ella se encuentra
y cómo funciona en el organismo viviente. Un ejemplo de la aplicación del método propuesto
por Wuthrich para orientar las investigaciones clínicas la encontramos en el reciente estudio de
las proteínas implicadas en un número de enfermedades peligrosas tales como “la enfermedad de
las vacas locas”. Ahora la técnica de RMN puede también usarse para los estudios estructurales y
dinámicos de otros biopolímeros tales como los ácidos nucleicos que dirigen el dominio de la
información hereditaria.
En la década del 30, el físico e ingeniero electrónico alemán Ernst A. Ruska (1906 – 1988),
premio Nóbel de Física en 1986, elaboró los principios de funcionamiento y diseñó el primer
microscopio electrónico. Al comienzo del 45, cerca de 35 instituciones científicas fueron
equipadas con este equipo. Los modernos microscopios electrónicos capaces de ampliar la
imagen del objeto unos dos millones de veces se fundamentan en las propuestas técnicas de
Ruska. Una nueva generación de microscopios fue propuesta hacia la década de los sesenta,
cuando el físico suizo H. Rohrer (1933- ), quien compartió el premio Nóbel de Física en 1986
con Ruska, desarrollara la técnica de microscopía electrónica de barrido por efecto túnel en el
laboratorio IBM de Zurich. Con esta técnica se detectan imágenes con resolución atómica.
La espectrometría de masas es en la actualidad una de las más potentes técnicas analíticas con
que cuenta el químico. El inicio de su aplicación data del registro de los espectros de masas de
moléculas sencillas de bajo peso molecular obtenidas por J.J. Thomson en 1912. Los primeros
prototipos de espectrógrafos, siguiendo los mismos principios básicos de los empleados hoy día
fueron principalmente desarrollados por Francis W. Aston (1877 – 1945), quien descubrió un
gran número de isótopos (elementos con igual carga nuclear pero que difieren en los índices de
masas) y fue laureado por estas aportaciones con el premio Nóbel de Química de 1922. El equipo
para obtener tales espectros debía ser capaz de: a) producir iones gaseosos a partir de las
moléculas a investigar; b) separar estos iones de acuerdo con la relación carga : masa; y c) medir
la abundancia relativa de cada ión. En la década del cuarenta ya se habían fabricado
espectrógrafos para analizar sustancias orgánicas de peso molecular medio; a finales de los
cincuenta se demostró el papel de los grupos funcionales sobre la fragmentación directa
ampliándose la capacidad de los equipos para determinar estructuras orgánicas; y ya hacia los
setenta el perfeccionamiento de los equipos alcanzaba una sensibilidad que permitía trabajar con
masas de muestras del orden de una millonésima de gramo.
Pero hasta esta altura la espectrometría de masas no servía para la determinación de estructuras
de moléculas gigantes como lo son importantes biopolímeros. La primera etapa de la técnica
exige el paso de las macromoléculas a la fase gaseosa lo cual implica la ocurrencia de
indeseables transformaciones estructurales que empañaban los resultados. Dos investigadores en
la década de los ochenta propusieron los procedimientos para burlar este obstáculo.
También para el análisis surgen técnicas genéticas con la ADN polimerasa termoestable que se
aisló por primera vez de T. aquaticus en 1976 en la caldera de Yellowstone donde Kary Mullis
(1944- ) y otros investigadores descubren que esta enzima podría utilizarse en el proceso de
reacción en cadena de la polimerasa (PCR) para amplificar segmentos cortos de ADN.
En 1916 se publican los trabajos del físico alemán W. Kossel (1888 -1956) y del químico físico
de la Universidad de California G. N. Lewis (1876 – 1946) que presentaron una notable
resonancia en el tratamiento posterior de este problema.
La idea de la posible existencia de dos tipos de compuestos con enlaces polares y apolares
expuesta inicialmente por Lewis en el 1916, fue complementada en los años siguientes cuando
formula la tesis de que el enlace en las sustancias moleculares es el resultado del compartimiento
de un par de electrones por parte de los átomos unidos, que expresan tendencia a alcanzar la
configuración electrónica del gas noble que le sucede en la Tabla Periódica de los elementos (la
famosa regla del octeto para la última capa de la envoltura atómica).
Estos modelos, en sus aspectos cualitativos, llegan hasta nuestros días como un a primera visión
acerca del enlace químico. Pero la necesaria profundización llegó a partir de 1927 cuando se
introducen en el pensamiento químico las ideas de la mecánica cuántica.
En 1927, un año después de la publicación del artículo de Schrödinger en el cual fue propuesta la
ecuación de onda que lleva su nombre, el físico alemán W. Heitler (1905 – 1981) y F. London
(1900 – 1954) desarrollaron el cálculo mecánico cuántico de la molécula de dihidrógeno, que dio
una explicación cuantitativa del enlace químico. En esencia el cálculo vino a demostrar que
durante el acercamiento de dos átomos con electrones de spines opuestos ocurre un aumento de
la densidad de la nube electrónica en el espacio entre los núcleos, que se acompaña con una
disminución considerable de la energía del sistema. Surge el enlace con la formación así de un
sistema más estable.
Comenzaría a desarrollarse un nuevo sistema de categorías para explicar las características del
enlace químico. Algunos de los conceptos que emergen con un contenido cualitativamente
distinto son los de orbital atómico y orbital molecular que ahora designan regiones que con
determinada probabilidad se encuentra la nube de electrones; las nociones de energía de enlace
para indicar su fortaleza, radio o distancia internuclear promedio para señalar las posiciones
relativas de los núcleos, densidad electrónica relativa para denotar la existencia de los sitios
activos responsables de la reactividad, y orden de enlace para advertir la multiplicidad que
presentan los átomos al enlazarse.
A pesar de la fertilidad mostrada por el método de los enlaces valentes, sus presupuestos fueron
incapaces de dar explicación a determinados hechos experimentales como el paramagnetismo
mostrado por el dioxígeno. Más fructífero para la explicación y el cálculo del enlace covalente
resultó el método de orbitales moleculares elaborado en sus fundamentos por R. Millikan (1868
– 1953). Hay diversas variantes del método de orbitales moleculares. Mereció una especial
atención la propuesta de E. Hückel ( (1896 - 1980) para las moléculas orgánicas, el llamado
método de combinación lineal de los orbitales atómicos. Como resultado de la utilización de este
método se formaron tres conceptos de gran significado en la química orgánica moderna, el orden
de enlace, la densidad electrónica π y el índice de valencia libre.
El desarrollo de la capacidad predictiva de ambas teorías del enlace químico no sólo han
sustentado las propiedades de los nuevos materiales sintéticos sino que han orientado el diseño
de complicadas estructuras moleculares en el campo de los complejos metal-orgánicos y de los
polímeros biológicos abriendo paso a la compresión de los mecanismos, al nivel molecular, de
los procesos que definen la génesis hereditaria y la inmunidad biológica y abren paso a nuevas
conquistas de las Ciencias en el campo de la Biología Molecular y la Ingeniería Genética.
Casi desde estos primeros momentos comenzaron las tentativas por describir un modelo atómico.
William Thomsom (Lord Kelvin) ya en 1902 concebía la carga positiva distribuida
uniformemente por todo el átomo mientras los electrones en número que compensaba esta carga
se encuentran en el interior de esta nube positiva. Un año más tarde, J.J Thomsom concibe a los
electrones en movimiento dentro de la carga positiva distribuida en una esfera.
Luego de otros intentos para describir un modelo que explicara el espectro de rayas y de bandas
y el fenómeno de la radioactividad, aparece en 1911 la publicación del físico neozelandés Ernest
Rutherford (1872 – 1937) “La dispersión por parte de la materia, de las partículas alfa y beta, y la
estructura del átomo” en la que propone el modelo nuclear del átomo. Según Rutherford la carga
positiva y la masa del átomo se confinan en una porción muy reducida, 104 veces menor que las
dimensiones del átomo, mientras los electrones quedan alojados en una envoltura extranuclear
difusa. La carga positiva nuclear es igual a Ze, siendo e, la carga del electrón y Z
aproximadamente la mitad del peso atómico.
Rutherford fue más allá y en diciembre de 1913 expone la hipótesis de que la carga nuclear es
una constante fundamental que determina las propiedades químicas del átomo. Esta conjetura fue
plenamente confirmada por su discípulo H. Moseley (1887 – 1915), quien demuestra
experimentalmente la existencia en el átomo de una magnitud fundamental que se incrementa en
una unidad al pasar al elemento siguiente en la Tabla Periódica. Esto puede explicarse si se
admite que el número de orden del elemento en el sistema periódico, el número atómico, es igual
a la carga nuclear.
Durante este primer período la atención de la mayor parte de la vanguardia de los físicos teóricos
se concentraba en extender los razonamientos cuánticos iniciados por Planck; mientras, la
construcción de un modelo para el núcleo atómico era un problema relativamente relegado y
frente al cual se levantaban enormes obstáculos teóricos y prácticos.
Rutherford había sugerido desde sus primeras investigaciones que muy probablemente el núcleo
estaría constituido por las partículas alfa emitidas durante la desintegración radioactiva. Ya para
entonces el propio Rutherford había cuidadosamente comprobado que las partículas alfa
correspondían a núcleos del Helio, es decir, partículas de carga +2 y masa 4. Otra línea de
pensamiento conducía a suponer que los electrones (partículas beta) emitidos durante la
desintegración radioactiva eran lanzados desde el mismo núcleo.
Frederick Soddy (1877 –1956), uno de los primeros y más sobresalientes radioquímicos, premio
Nobel en 1921, al pretender ubicar el creciente número de productos de la desintegración
radioactiva en la Tabla Periódica colocó los elementos que mostraban propiedades químicas
idénticas en la misma posición aunque presentaran diferentes masas atómicas. Al hacerlo estaba
ignorando la ley de Mendeleev y modificando el propio concepto de elemento químico. Ahora
surgía una nueva categoría para los átomos, el concepto de isótopos (del griego iso: único, topo:
lugar). Poco después, el descubrimiento de Moseley apoyaría su decisión, al demostrar que la
propiedad fundamental determinante de las propiedades químicas y de la propia identidad de los
átomos era la carga nuclear.
Con la Primera Guerra Mundial se levantaron obstáculos para el progreso de los estudios
fundamentales recién iniciados, quedarían interrumpidos los intercambios científicos, detenidas
las publicaciones, el campo de acción de las investigaciones desplazado a la práctica de la
tecnología militar.
Pero en Berlín una pareja de investigadores, Lise Meitner (1879 – 1968) y Otto Hahn (1878 –
1968), una física y un químico, venían investigando sobre el aislamiento y la identificación de
radioelementos y de productos de la desintegración radioactiva. Ante el alistamiento de Hahn en
el ejército para llevar a cabo estudios vinculados con la naciente guerra química, Meitner
continúa las investigaciones y descubre en 1918 el protactinio.
En 1919, Rutherford, que encabeza a partir de este año el laboratorio Cavendish en Cambridge,
al estudiar el bombardeo con partículas alfa sobre átomos de nitrógeno, descubre la emisión de
una nueva partícula, positiva, y evidentemente responsable de la carga nuclear del átomo. La
existencia en el núcleo de partículas positivas y de los electrones emitidos como radiaciones
beta, llevó a este relevante investigador a concebir una partícula que constituyese una formación
neutral, un doblete comprendido como una unión estrecha de un protón y un electrón.
Durante más de 10 años Rutherford y su principal asistente James Chadwick (1891 – 1974)
intentaron en vano demostrar experimentalmente la existencia del neutrón.
Las señales alentadoras vendrían de París, del laboratorio de los Joliot. Jean Frederick (1900 –
1958) e Irene Joliot- Curie (1897 – 1956) reportaron en 1932 que al bombardear con partículas
alfa, provenientes de una fuente de polonio, átomos de berilio se producía una radiación de alto
poder de penetración que ellos asociaron a rayos γ. Pero Chadwick no compartió este supuesto y
procedió a verificar que estas partículas eran los escurridizos neutrones. Chadwick fue acreditado
para la Historia como el descubridor de los neutrones.
La nueva oportunidad que se les presentó dos años más tarde a los Joliot fue esta vez
convenientemente aprovechada. Ellos encontraron que al bombardear aluminio con partículas
alfa, la emisión de positrones continuaba después de retirar la fuente de plutonio, y además el
blanco continuaba emitiendo conforme a la ley exponencial de la descomposición de
radionúclidos. Se había descubierto la radioactividad artificial.
Inmediatamente después del descubrimiento del neutrón, W.Heinseberg propone el modelo del
núcleo del protón – neutrón. Conforme con este modelo los isótopos descubiertos por Soddy se
distinguen sólo por el número de neutrones presentes en el núcleo. Este modelo se verificó
minuciosamente y obtuvo una aprobación universal de la comunidad científica. Sin embargo
numerosas interrogantes quedaban en pie, entre otras flotaba la pregunta: ¿de dónde proceden los
electrones resultantes de la desintegración radiactiva?
Para responder a esta pregunta el eminente físico teórico suizo Wolfgang Pauli (1900 – 1978)
supuso, en el propio 1932, que durante la desintegración beta junto con los electrones se emite
otra partícula que acompaña la conversión del neutrón en un protón y un electrón y que porta la
energía correspondiente al defecto de masa observado según la ecuación relativista de Einstein.
Lo trascendente en la hipótesis de Pauli es que semejante partícula, necesaria para que el proceso
obedeciera la ley de conservación y transformación de la energía, no presentaba carga ni masa en
reposo.
Esta vez fueron 24 años, la espera necesaria para que la partícula postulada por Pauli y bautizada
por Enrico Fermi (1901 - 1954) con el nombre de neutrino, fuera observada mediante
experimentos indirectos conducidos de modo irrefutable por el físico norteamericano F. Reines
(1918 - ). Con este descubrimiento se respaldaba la teoría desarrollada por Fermi sobre la
desintegración beta y las llamadas fuerzas de interacción débil entre las partículas nucleares.
Pero antes de esta espectacular verificación de la teoría, aún en la memorable y triste década de
los 30, el propio Fermi y su grupo de la Universidad de Roma, al juntar las nociones del neutrón
y la radioactividad artificial, en el transcurso de unas semanas inició el camino hacia la fisión
nuclear, considerando por el contrario que se dirigía hacia el descubrimiento de nuevos
elementos más pesados.
En Berlín, un equipo de investigación compuesto por Otto Hahn, Fritz Strassmann y Lise
Meitner, pretendió verificar los estudios del grupo de Roma e inició el bombardeo de átomos de
uranio con neutrones, esperando poder descubrir nuevos elementos más pesados. En vez de esto,
a finales de 1938, Hahn y Strassmann (la Meitner había sido clandestinamente sacada de
Alemania ya que peligraba su integridad por su origen judío) descubren no un elemento más
pesado como resultado del bombardeo nuclear del uranio sino un elemento más ligero, llamado
bario. Sin poder darles una explicación, envían estos resultados inmediatamente a Meitner,
entonces en Estocolmo, donde ella y su sobrino, el físico Otto Frisch (1904 – 1979), investigaron
el misterio. Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o
un pequeño grupo de partículas como se suponía, se rompía en dos fragmentes ligeros, cuyas
masas, unidas, pesaban menos que el núcleo original del uranio. El defecto de masa, según la
ecuación de Einstein, podía transformarse en energía.
Dos años después, en la Universidad de Berkeley, California, un grupo de jóvenes científicos
demostraron que algunos átomos de uranio, en vez de dividirse, absorbían los neutrones y se
convertían en las sustancias que había predicho Fermi. Los investigadores de Berkeley, Edwin
McMillan (1907 – 1991) y P.H. Abelson (1940- ) realizaron experimentos en los que obtuvieron
un elemento que poseía un protón más que el uranio, de modo que su número atómico era 93. Se
le llamó neptunio, por el planeta Neptuno, más allá de Urano.
Luego un equipo dirigido por Glenn Seaborg (1912 – 1999), del propio Berkeley, descubrió que
los átomos de neptunio se deterioraban y se convertían en un elemento cuyo número atómico era
94. Este elemento fue llamado plutonio por el planeta Plutón. El primer isótopo descubierto fue
el plutonio 238. Un segundo isótopo, el plutonio 239, resultó ser tres veces más fisionable que el
uranio 235 (el material que finalmente se utilizó en la bomba de Hiroshima). En teoría, 300
gramos podían generar una carga explosiva equivalente a 20.000 toneladas de TNT.
En octubre de 1942, un equipo de científicos dirigido por Fermi empezó a construir una pila
atómica (uranio colocado entre ladrillos de grafito puro) bajo las gradas de un estadio en la
Universidad de Chicago. La investigación formaba parte del proyecto Manhattan para la
fabricación de la bomba atómica y pretendía demostrar que los neutrones liberados en la fisión
de un átomo de uranio podían “disparar” un mecanismo en cadena que generaría una enorme
cantidad de energía.
Nueve años después de creada la pila atómica de Fermi, y a seis años del holocausto de
Hiroshima y Nagasaki, científicos estadounidenses emplearon por primera vez la tecnología
nuclear para generar electricidad. En 1951, bajo la supervisión de la Comisión de Energía
Atómica se iniciaron las pruebas del funcionamiento de un reactor nuclear experimental
instalado en una central eléctrica construida por los Laboratorios Nacionales Argonne en Idaho.
El reactor experimental produjo energía suficiente para poner en funcionamiento su propio
sistema de puesta en marcha; como llegaría a ser común en todas las plantas de energía atómica,
el calor del núcleo haría hervir agua y el vapor impulsaría una turbina.
En 1954, los soviéticos abrieron la primera planta nuclear civil. Dos años después, los británicos
inauguraron la segunda planta industrial.
Pronto empezaron a funcionar centrales nucleares en todo el mundo pero las predicciones de un
futuro impulsado por energía atómica resultaron poco realistas. Las centrales nucleares, caras de
construir y de mantener, también resultan peligrosas por los residuos radiactivos y la posibilidad
de accidentes catastróficos. Contrario al supuesto de los especialistas sobre la confiabilidad de
los sistemas de seguridad de las Plantas Nucleares, varios accidentes ha conocido la humanidad a
causa del error humano. La catástrofe de Chernobil, en Ucrania, conmocionó por su devastador
impacto a toda la humanidad.
A partir de ahora uno de los grandes retos de la civilización contemporánea será emplear
racionalmente y orientar sobre una base ética las conquistas de las nuevas Ciencias que se
refunden e integran en medio de una revolución informática y de la Ingeniería Genética.
¿Seremos capaces de lograrlo? Tal vez una comprensión de la Historia, contribuya a proyectar
correctamente el rumbo de nuestra nave planetaria hacia el futuro.
Ver también
Historia de la Química/Unidad IV
Historia de la Química
Departamento de química
Categoría:
Química
Menú de navegación
No has accedido
Discusión
Contribuciones
Crear una cuenta
Acceder
Página
Discusión
Leer
Editar
Ver historial
Buscar
Página principal
Claustro Wikiversitario
Actualidad
Cambios recientes
Página aleatoria
Ayuda
Donaciones
Herramientas
Crear un libro
Descargar como PDF
Versión para imprimir
En otros idiomas
Añadir enlaces
Esta página se editó por última vez el 25 nov 2020 a las 06:08.
El texto está disponible bajo la Licencia Creative Commons Atribución-CompartirIgual
3.0; pueden aplicarse términos adicionales. Véase Términos de uso para más detalles.
Política de privacidad
Acerca de Wikiversidad
Limitación de responsabilidad
Versión para móviles
Desarrolladores
Estadísticas
Declaración de cookies