Está en la página 1de 124

¿QUÉ SABEMOS DE?

Las moléculas:
cuando la luz
te ayuda a vibrar
José Vicente García Ramos
Subido por:

Libros de Ingeniería Química y más

https://www.facebook.com/pages/Interfase-
IQ/146073555478947?ref=bookmarks

Si te gusta este libro y tienes la posibilidad,


cómpralo para apoyar al autor.
Las moléculas: cuando la luz
te ayuda a vibrar

José Vicente García Ramos


&ROHFFLyQ¢4XpVDEHPRVGH"

COMITÉ EDITORIAL CONSEJO ASESOR

PILAR TIGERAS SÁNCHEZ, DIRECTORA MATILDE BARÓN AYALA


PÍA PARAJA GARCÍA, SECRETARIA JOSÉ BORRELL ANDRÉS
CARLOS DUARTE QUESADA ELENA CASTRO MARTÍNEZ
BEATRIZ HERNÁNDEZ ARCEDIANO MIGUEL DELIBES DE CASTRO
RAFAEL MARTÍNEZ CÁCERES JOSÉ ELGUERO BERTOLINI
ALFONSO NAVAS SÁNCHEZ BERNARDO HERRADÓN GARCÍA
JOSÉ MANUEL PRIETO BERNABÉ PILAR HERRERO FERNÁNDEZ
MIGUEL ÁNGEL PUIG-SAMPER MULERO MANUEL DE LEÓN RODRÍGUEZ
JAVIER SENÉN GARCÍA EULALIA PÉREZ SEDEÑO
AMPARO QUEROL SIMÓN

CATÁLOGO GENERAL DE PUBLICACIONES OFICIALES


HTTP://PUBLICACIONESOFICIALES.BOE.ES

'LVHxRJUiÀFRGHFXELHUWD&DUORV'HO*LXGLFH
)RWRJUDItDGHFXELHUWD
‹ HYHU\WKLQJSRVVLEOHL6WRFN7KLQNVWRFN

© José Vicente García Ramos, 2014


‹ &6,&
‹ /RV/LEURVGHOD&DWDUDWD
 )XHQFDUUDO
 0DGULG
 7HO
 )D[
 ZZZFDWDUDWDRUJ

ISBN (CSIC):978-84-00-09792-9
eISBN (CSIC):978-84-00-09793-6
ISBN (CATARATA): 978-84-8319-896-4
NIPO: 723-14-017--9
eNIPO: 723-14-016-3
DEPÓSITO LEGAL: M-6.743-2014
IBIC: PDZ/PHM

ESTE LIBRO HA SIDO EDITADO PARA SER DISTRIBUIDO. LA INTENCIÓN DE


LOS EDITORES ES QUE SEA UTILIZADO LO MÁS AMPLIAMENTE POSIBLE,
QUE SEAN ADQUIRIDOS ORIGINALES PARA PERMITIR LA EDICIÓN DE OTROS
NUEVOS Y QUE, DE REPRODUCIR PARTES, SE HAGA CONSTAR EL TÍTULO
Y LA AUTORÍA.
ÌQGLFH

CAPÍTULO 1. Átomos y moléculas: por sus vibraciones


los conoceréis 5

CAPÍTULO 2. Cuando la luz te ayuda a vibrar 28

CAPÍTULO 3. Los espectros: una forma


de manifestarse en grupo 49

CAPÍTULO 4. Posándose sobre nanoestructuras 73

CAPÍTULO 5. ¿Una molécula soltera? 92

CAPÍTULO 6. Las moléculas en el día a día:


desde lo más pequeño (nano) hasta
lo más grande (el espacio) 105

BIBLIOGRAFÍA 117
&$3Ì78/2
ÉWRPRV\PROpFXODVSRUVXVYLEUDFLRQHV 
ORVFRQRFHUpLV

Ya en la Grecia clásica, cinco siglos antes de Cristo, De-


mócrito y Leucipo establecieron el concepto de átomo,
construyendo una verdadera teoría atómica. De hecho, la
palabra griega átomo se podría traducir como “indivisible”,
aunque luego resultó no serlo tanto. A pesar del desarrollo
de todos estos conceptos, la Edad Media supuso un paso
atrás en el estudio de la estructura de la materia, ya que co-
menzó a popularizarse la alquimia, pseudociencia que
no se superó hasta el siglo XVIII. Fue entonces cuando se
evidenció que, aunque la materia estaba compuesta por
partículas indivisibles muy pequeñas (los átomos), había
que distinguir entre un cuerpo simple, formado por un
solo tipo de átomos, al que llamaron elemento, y un cuer-
po compuesto. Para explicar la estructura de un cuerpo
compuesto se necesitaba introducir el concepto de molécu-
la, algo tan simple como un pequeño montón de átomos.
Dicho concepto se construyó a partir de la palabra latina
moles, que significa “grande”. En castellano, usamos el tér-
mino mole para referirnos a cualquier cosa que sea de gran

5
peso o volumen y su diminutivo molécula para incluir en la
misma palabra el concepto de voluminoso y su contrario,
algo pequeño. De todas formas, se trata de dos palabras
creadas para explicar algo que no se veía, solo se intuía.
Fue el italiano Avogadro (1776-1856) el que se en-
cargó de establecer que todos los cuerpos, incluso los que
están formados por un solo elemento, no son una acumu-
lación de átomos, sino de grupos de átomos, esto es, de
moléculas. Los gases, al tener sus moléculas en un estado
menos denso, permiten que se estudie su estructura con
mayor facilidad. El británico John Dalton (1766-1844) dio
un gran paso adelante con su teoría atómico-molecular y
fue llegando a conclusiones que siguen siendo aceptadas
hoy en día.
Una molécula no es una mezcla, sino algo mucho más
estable que no puede descomponerse en átomos por méto-
dos físicos, sino por medio de reacciones químicas. Muchas
de las propiedades de los cuerpos compuestos, como la
elasticidad o la fragilidad, pudieron explicarse gracias a
la teoría molecular, aunque el avance más decisivo fue el
descubrimiento del microscopio.
En conclusión, un átomo es la partícula más pequeña
de un elemento que tiene todas las propiedades de dicho
elemento. No es posible dividir un átomo manteniendo las
propiedades del propio elemento. Los átomos no se ven a
simple vista y son los ladrillos que construyen una sustan-
cia. Por ejemplo, los átomos del elemento oro no pueden
dividirse sin que pierdan las propiedades del oro.
Más adelante se descubrió que, en realidad, un átomo
está formado por una nube de electrones que giran frené-
ticamente alrededor de un núcleo de protones y neutrones.
Los electrones están cargados negativamente, mientras que,

6
en el núcleo, los neutrones no tienen carga alguna y los
protones están cargados positivamente. Para que un átomo
sea neutro y pueda existir en la naturaleza, tendrá que estar
formado por el mismo número de protones y de electro-
nes. Dicho número es lo que caracteriza cada elemento y
hace que un átomo sea de oro, sodio, hidrógeno o platino.
El número de protones característico de un átomo se llama
número atómico, y lo podríamos considerar como el DNI de
cada elemento químico.
Una molécula solo es un grupo de átomos pegados
a más átomos. De hecho, puede tener dos o dos mil. Los
átomos se unen unos a otros por medio de “cuerdas” de
electrones, que es lo que conocemos como enlaces químicos.
Imaginemos que un átomo de carbono se acerca a otro de
nitrógeno. Los electrones del carbono dan vueltas alrede-
dor de su núcleo, al igual que los del nitrógeno, formando
lo que, visto desde lejos, parecen dos esferas. De repente,
desaparece el espacio que los separa y vemos que uno de
los electrones del carbono más alejados del núcleo da una
vuelta alrededor del nitrógeno y lo cierra con un lazo que
lo acerca al carbono. Al mismo tiempo, uno de los electro-
nes del nitrógeno más alejados del núcleo envuelve al car-
bono. El resultado es que estos dos electrones comienzan a
girar alrededor de los dos átomos, los unen como lo haría
una cuerda y lo convierten en un enlace C-N, conocido
como enlace covalente.
Una de las características de estos enlaces es que son
elásticos, ya que si pudiéramos separar los átomos y sol-
tarlos de nuevo, dependiendo de la fuerza de la cuerda y
del peso de los átomos que cuelgan de ella, emitirían una
nota, como la cuerda de un piano que cuando se hace vi-
brar emite un si o un do, dependiendo de dónde se puntee.

7
Por lo tanto, cada combinación de átomos, cada enlace,
vibrará de una forma característica. Y si cada enlace emi-
te una nota, cada molécula emitirá varias notas combi-
nadas de forma única, convirtiendo a cada molécula en
un acorde, siguiendo con el símil musical. El conjunto
de vibraciones de una molécula es único y la identifica
unívocamente.

Las teorías atómicas: un poco de historia

El desarrollo de la teoría atómica le debe mucho al trabajo


previo de dos personajes: Antoine Lavoisier (1743-1794),
porque, aunque no llegó a concebir la composición de la
“materia” en términos de “átomos”, estableció las bases
para comenzar a pensar en “elementos”; y el ya menciona-
do John Dalton, al que se le atribuye la teoría atómica.
La mayor parte del trabajo de Lavoisier fue el de un
simple químico dedicado a estudiar la combustión. Estaba
convencido de que cuando una sustancia arde, es porque
se combina con algún componente del aire. Pensaba que
este componente era lo que unos años antes un coetáneo
suyo, Joseph Priestley (1733-1804), había llamado “aire
desflogistizado”. Lavoisier bautizó esta sustancia y la llamó
“oxígeno”. Demostró que, cuando el mercurio se calienta
en presencia de oxígeno y a una temperatura moderada,
se obtiene una sustancia roja que llamó “mercurio calci-
nado”. Cuando se aumenta la temperatura, esta sustan-
cia se descompone y forma de nuevo mercurio y oxígeno.
Estos experimentos también demostraron que la suma de
las masas del mercurio y el oxígeno que se combinaban era
exactamente igual a la masa del mercurio calcinado que se

8
formaba. En conclusión, que no había ninguna pérdida de
masa en la formación o en la descomposición del mercurio
calcinado. A partir de estos resultados, Lavoisier trabajó
con la hipótesis de que esto sería verdad para cualquier
“cambio químico”, lo que comprobó con posteriores ex-
perimentos. Hoy en día, este principio se conoce como la
ley de conservación de las masas.
A medida que continuaba con otros experimentos con
el oxígeno, Lavoisier se dio cuenta de que, a pesar de que
este se combinaba con muchas otras sustancias, nunca se
comportaba él mismo como una combinación de sustan-
cias. Fue capaz de descomponer el mercurio calcinado en
mercurio y oxígeno, pero no encontró el modo de descom-
poner el propio oxígeno en dos o más sustancias. Por ello,
sugirió que el oxígeno debía de ser un elemento, es decir,
una sustancia simple que no se podía descomponer por
métodos químicos.
En realidad, Lavoisier no fue el padre de la idea de
que los elementos eran las sustancias fundamentales de las
que se derivaban todas las demás, puesto que este con-
cepto ya lo había propuesto Empédocles en el siglo V a.C.,
el cual sugirió que toda la materia estaba formada por
combinaciones de tierra, aire, fuego y agua. Fue Aristóteles
quien posteriormente desarrolló y transmitió estas ideas,
que fueron aceptadas durante más de 2.000 años. Sin em-
bargo, Lavoisier construyó la primera tabla de los elemen-
tos con un gran número de sustancias que la química mo-
derna clasifica hoy en día como verdaderos elementos. Esa
tabla fue publicada aun sabiendo que algunas de las sus-
tancias que aparecían en ella podrían llegar a ser descom-
puestas en posteriores experimentos, demostrando así que
no eran elementos. Se piensa que uno de los objetivos de

9
Lavoisier era incitar a sus coetáneos para que se animaran
a realizar este tipo de experimentos. Como era de esperar,
pronto se demostró que las “sustancias térreas” que apa-
recen al final de la tabla eran combinaciones de ciertos
metales con el oxígeno. También es interesante constatar
que ni siquiera Lavoisier pudo escapar de la influencia
aristotélica, ya que el segundo elemento de su lista corres-
ponde al “fuego” de Aristóteles, al que llamó “calorique”
y que nosotros hoy llamaríamos “calor”. En la actualidad,
tanto el calor como la luz, los dos primeros elementos de
la tabla de Lavoisier, ya no se consideran elementos, sino
dos formas de energía.
No obstante, aunque la tabla de los elementos fue-
ra incompleta, y en algunos casos incluso incorrecta, su
trabajo significó un verdadero paso adelante. Al clasificar
algunas sustancias como elementos, estimuló nuevas in-
vestigaciones químicas, poniendo orden y estructura en un
campo que no los había tenido hasta entonces. Sus cole-
gas aceptaron sus ideas rápidamente y pasó a ser conocido
como el padre de la química.
Por su parte, John Dalton, que pertenecía a una gene-
ración más joven, fue un auténtico autodidacta. Nunca
contrajo matrimonio e, incluso siendo ya famoso, se ga-
naba la vida impartiendo unas pocas clases particulares.
Autor de muchas aportaciones a la ciencia, parece que
no fue consciente de que su teoría atómica era su contri-
bución más importante. Por ejemplo, en su New System
of Chemical Philosophy, publicado en 1808, solo le dedicó
a la teoría de los átomos las últimas siete páginas de un
total de 168.
Los postulados de la teoría atómica de Dalton se resu-
men en los siguientes cuatro puntos:

10
1. Toda la materia está compuesta por un gran número de par-
tículas muy pequeñas llamadas átomos.
2. Para un elemento dado, todos los átomos son idénticos en to-
dos los aspectos. En particular, todos los átomos de un mismo
elemento tienen la misma masa que es una constante, mien-
tras que los átomos de elementos diferentes tienen diferentes
masas.
3. Los átomos son las unidades de los cambios químicos. Las
reacciones químicas implican la combinación, separación o
reagrupamiento de átomos, pero dichos átomos ni se crean,
ni se destruyen, ni se dividen en partes o se convierten en
átomos de otro tipo.
4. Los átomos se combinan para formar moléculas en propor-
ciones fijas de números enteros y de bajo valor.

Aunque el primer postulado no supone ningún avan-


ce respecto de lo que había afirmado el filósofo griego
Demócrito 2.000 años antes, en el segundo podemos
ver el sello de un genio, ya que aquí Dalton une la idea
de átomo con la idea de elemento. En efecto, el criterio de
Lavoisier para definir un elemento era fundamentalmente
macroscópico y experimental, puesto que consideraba que
si una sustancia no podía ser descompuesta por métodos
químicos, sería probablemente un elemento. Por el con-
trario, Dalton define un elemento en términos teóricos y
microscópicos: un elemento es un elemento porque todos sus
átomos son iguales. Elementos diferentes tendrán diferentes
átomos y habrá tantos tipos diferentes de elementos como
tipos diferentes de átomos.
Pero a pesar de que los científicos del siglo XIX acep-
taron la idea de que los elementos están formados por áto-
mos, los conocimientos acerca de ellos eran muy escasos.

11
Sin embargo, el descubrimiento del electrón como cons-
tituyente de los átomos supuso un primer avance para
comprender la estructura atómica. Esta partícula fue des-
cubierta por el físico inglés Joseph John Thomson (1856-
1940), quien recibió el Premio Nobel de Física en 1906.
Los electrones tienen carga negativa, mientras que los
átomos son eléctricamente neutros. Cada átomo debe te-
ner, por tanto, la suficiente cantidad de carga positiva para
poder equilibrar la negativa de los electrones. Además, los
electrones son miles de veces más ligeros que los átomos, lo
cual sugiere que los constituyentes cargados positivamente
sean los que den lugar a casi toda la masa de los átomos.
Todo esto llevó a Thomson a proponer que los átomos son
esferas uniformes de materia cargada positivamente en la que
se encuentran embebidos los electrones. Este modelo atómico
es conocido como el pudin de pasas y pasaron trece años
hasta que se intentó realizar una prueba experimental de-
finitiva que lo apoyase.

FIGURA 1
Modelo atómico de Thomson

0DWHULDFDUJDGD
positivamente

(OHFWUyQ

12
La realidad es que los ensayos experimentales a lo que
llevaron fue a abandonar dicho modelo, sustituyéndolo por
un concepto de estructura atómica nada fácil de compren-
der con los conocimientos que se tenían hasta entonces de
la física clásica.
El método más directo para saber lo que hay dentro
de un pudin es meter un dedo dentro de él. Esto es lo que
hicieron Geiger y Marsden en 1911, bajo la sugerencia
de Ernest Rutherford (1871-1937), utilizando partículas
emitidas por un cuerpo radiactivo, conocidas como partí-
culas alfa y cargadas positivamente. En efecto, vieron que,
al bombardear con dichas partículas una lámina de oro,
muchas atravesaban la lámina de oro sin desviación, otras
se desviaban con ángulos notables e incluso otras rebota-
ban y no cruzaban la lámina. Para explicar estos resulta-
dos, Rutherford se vio obligado a describir el átomo como
compuesto de pequeños núcleos en los que queda concen-
trada la carga positiva y la mayor parte de la masa, quedan-
do los electrones a una cierta distancia exterior.

FIGURA 2
Modelo atómico de Rutherford

1~FOHRSRVLWLYR

+ (OHFWUyQ

13
Teniendo en cuenta que en el átomo hay espacios
vacíos, es fácil explicarse por qué muchas partículas alfa
atraviesan la lámina metálica sin sufrir desviación. Por el
contrario, cuando una de ellas llega a un núcleo, se en-
cuentra con un campo eléctrico intenso y lo más probable
es que sea desviada o incluso rebotada. Los electrones, por
ser tan ligeros, no tienen efecto apreciable sobre las partí-
culas alfa incidentes.
Al contrario que Thomson, que supuso que los elec-
trones estaban embebidos en la masa cargada positivamen-
te sin poder moverse, en el modelo atómico de Rutherford
los electrones no pueden estar inmóviles, puesto que no
existe nada que sea capaz de mantenerlos en su sitio frente
a la atracción de la fuerza electrostática del núcleo, con la
posibilidad de que existan órbitas estables parecidas a las
que forman los planetas alrededor del Sol.
Para explicar la estabilidad experimental de este mo-
delo de átomo solo hay que recurrir a la aplicación di-
recta de las leyes del movimiento de Newton, como en el
caso de los planetas, y a la ley electrostática de Coulomb
que rige las fuerzas entre cargas eléctricas. Ambas leyes
se consideran los pilares básicos de la física clásica. Sin
embargo, este modelo no está de acuerdo con otro de
sus pilares básicos, la teoría electromagnética, que dice
que toda carga eléctrica acelerada irradia energía en for-
ma de ondas electromagnéticas. Por lo tanto, en el caso
del átomo más sencillo, el átomo de hidrógeno, formado
por un solo protón y un electrón que sigue una trayec-
toria circular alrededor del primero, dicho electrón esta-
ría acelerado y perdería energía continuamente, yendo a
caer sobre el núcleo y formando una espiral que acabaría
así con la estabilidad del átomo.

14
FIGURA 3

–e
(OHFWUyQ

3URWyQ
+e

Esta contradicción nos dice una cosa: las leyes físicas


que rigen el mundo macroscópico no se cumplen en el mi-
croscópico del átomo. El motivo del fracaso de la física clá-
sica para dar una explicación de la estructura atómica está
en que se acerca a la naturaleza en función de conceptos
abstractos, tales como partículas “puras” y ondas “puras”.
Tanto las partículas como las ondas tienen muchas pro-
piedades en común, de tal forma que, como veremos más
adelante, muchas partículas, entre ellas el electrón, pueden
comportarse a la vez como partícula y como onda, aunque
este hecho no se perciba en el mundo macroscópico. En
conclusión, la validez de la física clásica disminuye cuando
disminuye la escala del fenómeno estudiado. Por lo tanto,
si se quiere comprender bien el átomo, es necesario tener
en cuenta el comportamiento corpuscular de las ondas y
el ondulatorio de las partículas. El físico danés Niels Bohr
(1885-1962), premio Nobel de Física en 1922, resolvió en
parte estas divergencias al proponer un nuevo modelo ató-
mico que combina ideas clásicas y modernas, ya que unió
la idea del átomo de Rutherford con las ideas de una nueva

15
rama de la ciencia: lo que se conoce hoy en día como me-
cánica cuántica. Así, en 1913 formuló una hipótesis sobre
la estructura atómica en la que estableció tres postulados:

s El electrón no puede girar en cualquier órbita, sino


únicamente en un cierto número de órbitas esta-
bles. En el modelo de Rutherford se aceptaba un
número infinito de órbitas.
s Cuando el electrón gira en estas órbitas no emite
energía.
s Cuando un átomo estable sufre una interacción, co-
mo puede ser el impacto de un electrón o el choque
con otro átomo, uno de sus electrones puede pasar
a otra órbita estable o ser arrancado del átomo.

FIGURA 4
Modelo del átomo de Bohr

rn = n2r1

n=4
Q 

n=2
n=1

r1 r4

r2 r

Para desarrollar su modelo, se centró en el átomo más


sencillo: el átomo de hidrógeno, el cual, según el modelo
atómico de Bohr, consta de un núcleo con un protón y de
un electrón que está girando en la primera órbita alrededor

16
del núcleo. Esta órbita es la de menor energía. Si se le comu-
nica energía a este electrón, saltará desde la primera órbita
hasta otra de mayor energía; pero cuando regrese a la prime-
ra órbita, emitirá energía en forma de radiación luminosa.
En este modelo y los siguientes hay que considerar
que la órbita más externa será la que tenga más energía y
que, por lo tanto, los electrones que se encuentren en ella
serán menos estables.

Elementos: nombres y símbolos

Cada elemento tiene un nombre que, en algunos casos, nos


resulta ya familiar: oro, plata, cobre, cloro, platino, carbo-
no, oxígeno, nitrógeno, etc. Pero ¿por qué se llaman así
los elementos químicos? Muchos de ellos se refieren a una
de sus propiedades. Por ejemplo, el nombre del oro en la-
tín (aurum) significa “principio brillante”; el del mercurio
(hydrargyrum) significa “plata líquida”. Esta práctica de
nombrar los elementos según alguna de sus propiedades
ha continuado a lo largo de los años. El cesio fue descu-
bierto en 1860 por el químico alemán Bunsen (el inventor
del mechero Bunsen); lo llamó así porque tiene la propie-
dad de darle un color azul a la llama y, en latín, caesius
significa “cielo azul”.
Sin embargo, hay otros elementos cuyos nombres ha-
cen referencia a una persona. El curio debe su nombre a
Marie Curie (1867-1934), quien hizo los primeros estu-
dios sobre la radiactividad, por los que recibió el Premio
Nobel de Física en 1903. También recibió el Premio Nobel
de Química en 1911 por su descubrimiento de los ele-
mentos polonio (llamado así en honor a Polonia, su país

17
de nacimiento) y radio (del latín radius, que significa
“rayo”).
Otros deben su nombre a lugares geográficos, como
es el caso del pueblecito llamado Ytterby, en Suecia, que
tiene cuatro elementos dedicados a él (terbio, itrio, erbio
e iterbio) por ser el lugar donde se encontró por primera
vez. Otro ejemplo es el californio, que, aunque no aparece
en la naturaleza, fue sintetizado por primera vez en 1950
en el Radiation Laboratory de la Universidad de Berkeley
(California) por un grupo de científicos liderado por Glenn
Seaborg, galardonado con el Premio Nobel de Química en
1951 por ser un pionero en la obtención de varios elemen-
tos desconocidos.
Cada elemento tiene un símbolo formado por una o
dos letras que lo identifican, de la misma forma que nues-
tro nombre y apellido nos identifica a nosotros. El símbolo
de un elemento representa un átomo de dicho elemento.
Hay 14 elementos cuyo símbolo es una letra que en gene-
ral coincide con la primera letra de su nombre, excepto en
el caso del potasio. El potasio se descubrió en 1807 y se
llamó así por la potasa, la sustancia de la que se aisló por
primera vez. Su símbolo (K) viene de kalium, que significa
“potasa” en latín. Casi todos los demás elementos tienen
un símbolo de dos letras, de las cuales la primera siempre
es mayúscula, y la segunda, minúscula.
Basándose en la hipótesis de que las propiedades de
los elementos dependen, de forma periódica, de sus ma-
sas atómicas, el científico ruso Dmitri Mendeléiev (1834-
1907) publicó en el año 1869 una tabla periódica en la
que situó todos los elementos conocidos en aquella época,
ordenándolos de tal forma que los que pertenecían a una
misma familia aparecían en la misma línea horizontal. Sin

18
embargo, el descubrimiento del helio le causó un gran pro-
blema, puesto que este nuevo elemento no tenía un lugar
adecuado para colocarse en la tabla. Aunque, en el fondo,
fue una brillante confirmación de la ley periódica, ya que
el helio, junto con los demás gases nobles descubiertos más
tarde, constituyeron un grupo. Además, Mendeléiev tam-
bién predijo la existencia de nuevos elementos con las ca-
racterísticas indicadas por el espacio que ocupan en la tabla.

El sistema periódico

Como ya hemos dicho, los primeros intentos de clasifi-


car los elementos químicos se basaron en la masa atómica
(suma de protones y neutrones del núcleo). Sin embargo,
cuando se identificó el número atómico de un elemento
con su número de protones, se puso de manifiesto que la
ordenación según el número atómico es más adecuada, ya
que se trata de una unidad fundamental.
Por ello, el sistema periódico actual se basa en la or-
denación de los elementos químicos según orden creciente
de números atómicos, ya que se ha demostrado que las
propiedades químicas, y algunas propiedades físicas, de-
penden de los electrones de la última capa de cada átomo.
Las columnas reciben el nombre de grupos, y en cada gru-
po todos los átomos tienen el mismo número de electrones
en la última capa, aunque cada vez con un nivel energético
mayor. Las filas reciben el nombre de periodos y, en ellos,
cada elemento tiene un número atómico que es una uni-
dad mayor que el de su izquierda.
Además cabe destacar que los grupos tienen nombre
propio. Estos son:

19
FIGURA 5
Tabla periódica de elementos
1 
2
1
4,0026
3HVRDWyPLFR
H He

1~PHURDWyPLFR 

H
 (OHFWURQHJDWLYLGDG
+,'5Ð*(12 +(/,2
1,-1
 
 0,126

6tPERORGHOHOHPHQWR 

 
4 
 10,811
6 12,0111  
8 
 
10 

Li Be B N F Ne
1,0  2,0   4,0

/,7,2
1
%(5,/,2
2
1RPEUHGHOHOHPHQWR +,'5Ð*(12
1,-1 1~PHURGHR[LGDFLyQ %252

&
&$5%212
2,±4
1,75Ð*(12
“
2
2;Ì*(12
-2
)/825
-1
1(Ð1
     -218,8  -248,6
   
3XQWRGHIXVLyQ     2,26  0,808  1,14 -188,2 1,11 -246 1,204

11  12 
  DHQVLGDGGHVyOLGRV  
14 28,086
 
16 
 
18
3XQWRGHHEXOOLFLyQ
Na Mg

 1,2  1,8 2,1  
/tTXLGRVJPOž&
62',2
1
0$*1(6,2
*DVHVJOž&$WP $O
$/80,1,2

6L
6,/,&,2
4
3
)Ð6)252
“
6
$=Ó)5(
±2,4,6
&O
&/252
“
$U $5*Ð1
 
2 660 1410 44,2 112,8 -101 
      2680  280 1,82 444,6     1,40

 
20 40,08
21 
22 
 
24 
 
26 
 
28 
 
 
 
 
 
 
 
 

K V &U Mn Fe &R Ni &X =Q Ga Ge $V 6H Br Kr


0,8 1,0   1,6 1,6  1,8 1,8 1,8  1,6 1,6 1,8 2,0 2,4 2,8

327$6,2
1
&D 6F
&$/&,2
2
(6&$1',2

7L
7,7$1,2

9$1$',2

&5202

0$1*$1(62

+,(552

&2%$/72

1,48(/

&2%5(
1,2
&,1&
2
*$/,2

*(50$1,2
4
$56e1,&2
“
6(/(1,2
-2,4,6
%5202
“
.5,37Ð1
   1668              
 0,862 1440                                 2,6

 
 
 
40 
41 
42 
 
44 
 
46 106,4
 
48 112,4
 114,82
 
 
 
 
 

Y =U 1E Mo 7F 5X Rh 3G $J &G
0,8 1,0  1,4 1,6 1,8  2,2 2,2 2,2    1,8  2,1 

5E 6U
58%,',2 (67521&,2 ,75,2 &,5&21,2 1,2%,2 02/,%'(12 7(&1(&,2 587(1,2 52',2 3$/$',2 3/$7$ &$'0,2
,Q
,1',2
6Q 6E 7H
(67$f2 $17,021,2 7(/85,2
,
<2'2
;H ;(1Ð1
1 2        2,4 1,2 2  2,4 “ -2,4,6 “ 2,4,6,8
    2420 2620 2140           
688   2,6  4,48      10,22   12,2  12,42   2210   8,64      6,62  6,24   -108,0 

 
 
 
 
 
 
 186,2
 
 
 
 
80 
81 
82 
 
84 210
 210
86 222

&V Ba La Hf W Re 2V $X Hg Bi Rn
  1,1     2,2 2,2 2,2 2,4  1,8 1,8  2,0 2,2

&(6,2
1
%$5,2
2
/$17$12

+$)1,2
4
7D
7$17$/,2

:2/)5$0,2

5(1,2

260,2
4,6,8
,U
,5,',2

3W
3/$7,12
2,4
252

0(5&85,2
7O
7$/,2

3E 3/202
2,4
%,60872

3R32/21,2
2,4
$W
$67$72
“
5$'21
1,-1
   2220       
1,2
      
  1640       16,6    21    22,64              -61,8

 
88 226
 
104 261
 262

Fr Ra $F .X Ha
  1,1

)5$1&,2 5$',2 $&7,1,2 .85&,$729,2 +$1,2


1 2  4 0
  


 140,12
 
60 144,24
61 
62 
 
64 
 
66 
 
68 
 
 
 

3U 1G 3P 6P (X *G 7E Dy Ho Er 7P <E /X
1,1 1,1 1,2 1,2 1,1 1,2 1,2 1,2 1,2 1,1 1,2

/$17É1,'26 &H &(5,2



35$6(2',0,2

1(2',0,2

3520(7,2

6$0$5,2

(8523,2

*$'2/,1,2

7(5%,2

',63526,2 +2/02

(5%,2

78/,2

<7(5%,2

/87(1&,2

  1024   826   
 1461   824 
            2800  2600  2600 8,8        

 
 
 
 
 242
 
 
 
 
 
100 
101 
102 


Np 3X $P &P %N


Es Fm 0G No Lr
     

$&7Ì1,'26 7K 3D725,2
4
3527$&7,1,2

8
85$1,2

1(3781,2 3/8721,2

$0(5,&,2

&85,2

%(5.(/,2

&I
&$/,)251,2

(,167(1,2 )(50,2 0(1'(/(9,2 12%(/,2 /$:5(1&,2
   
 640
        
s Grupo 1, con un solo electrón en la última capa: alcalinos.
s Grupo 2, con dos electrones en la última capa: alcalino-
térreos.
s Grupos 3-12, con dos electrones en la última capa y dis-
tinto número de electrones en la subcapa anterior: meta-
les de transición.
s Grupo 13, con tres electrones en la última capa: boroideos.
s Grupo 14, con cuatro electrones en la última capa: car-
bonoideos.
s Grupo 15, con cinco electrones en la última capa: nitro-
genoideos.
s Grupo 16, con seis electrones en la última capa: anfígenos.
s Grupo 17, con siete electrones en la última capa: haló-
genos.
s Grupo 18, con ocho electrones en la última capa: (capa
completa): gases nobles.

Hasta aquí la historia sobre los distintos modelos ató-


micos que se han postulado y que han ido conformando
la idea que hoy en día se tiene de lo que es un átomo. Pero
no podemos olvidarnos del objeto de este libro: las molé-
culas. Pasemos, entonces, a desarrollar los conocimientos
de física molecular, lo cual lleva implícito que estudiemos
los distintos tipos de enlaces químicos.

Un poco de física de las moléculas:


el enlace químico

¿Cuál es la naturaleza de las fuerzas que unen átomos entre


sí para formar las moléculas? Este problema es de capital
importancia tanto para los físicos como para los químicos,

21
ya que será la prueba definitiva de la teoría del átomo si les
da una respuesta satisfactoria. En principio hay dos tipos
de interacciones que son responsables del enlace químico:
la iónica (o heteropolar) y la covalente (u homopolar). En la
mayoría de las moléculas ninguna de las dos actúa exclu-
sivamente, sino que se establece una situación intermedia.
Veamos en primer lugar el origen y las propiedades
del enlace iónico. La configuración electrónica más estable
de un átomo es aquella en la que las capas de electrones
están completas. Los átomos que tienen capas externas sin
llenar tienden a ganar o perder electrones con el fin de ad-
quirir una configuración estable, transformándose entonces
en iones: negativos (si los gana) o positivos (si los pierde).
Los iones negativos también se llaman aniones, y los positi-
vos, cationes. La cantidad de energía necesaria para “arran-
car” un electrón al átomo de un elemento determinado es lo
que se conoce como energía de ionización de dicho elemento
y mide la firmeza con que el electrón más externo está unido
al átomo. Por ejemplo, los átomos de los elementos que apa-
recen en la primera (metales alcalinos) y segunda (metales
alcalinotérreos) columnas del sistema periódico tienen uno
o dos electrones en la capa más externa, respectivamente,
siendo relativamente fácil extraer uno o dos electrones de
cada uno de ellos, formando iones positivos con facilidad.
Al otro extremo del sistema periódico están los áto-
mos de los halógenos, que tienden a completar su capa
más externa mediante la aceptación de un electrón, lo que
daría lugar a un ión negativo. Este proceso libera una can-
tidad de energía que se conoce como afinidad electrónica.
Pues bien, un enlace iónico o heteropolar entre dos áto-
mos se produce cuando uno de ellos tiene una energía de
ionización baja y, por tanto, tiende a ser un ión positivo,

22
mientras que el otro tiene una afinidad electrónica elevada
con tendencia a transformarse en un ión negativo. El ejem-
plo más claro es el del sodio y el cloro. Cuando un ión so-
dio (Na+) y un ión cloruro (Cl-) se encuentran próximos y
libres para moverse, la fuerza de atracción entre ellos hace
que se unan. La condición para que resulte una molécula
estable de cloruro sódico (NaCl), conocida como sal co-
mún, es que la energía total del sistema de los dos iones sea
menor que la de los átomos de los elementos de partida.
De hecho, a efectos prácticos podemos considerar que el
electrón en exceso del ión Cl- ha sido cedido al ión Na+.
A modo de resumen, y con el fin de poder compren-
der mejor los enlaces iónicos, vamos a introducir el con-
cepto de “átomo feliz”. Podemos pensar que, al igual que
las personas, la mayoría de los átomos quieren ser felices.
La forma que tienen de serlo es conseguir que sus capas
de electrones estén llenas. Algunos átomos tienen dema-
siados electrones en su última capa (uno o dos de más),
por lo que les gusta deshacerse de parte de ellos. Hay otros
átomos, por el contrario, a los que les faltan muy pocos
electrones para completar su última capa. Son átomos que
buscan otros átomos que quieran soltar algún electrón y así
convertirse ambos en “átomos felices”.
Sin embargo, el enlace iónico es incapaz de explicar
el caso de moléculas diatómicas como el hidrógeno (H2) o
el cloro (Cl2), cuyos átomos constituyentes son idénticos.
Es necesario, entonces, recurrir a lo que se conoce como
enlace covalente. En este tipo de enlace lo que ocurre es
como si los electrones estuviesen compartidos entre los
átomos que componen la molécula. Al circular entre ellos,
los electrones están más tiempo entre los átomos que en la
parte exterior de la molécula, conduciendo a la aparición

23
de una fuerza de atracción electrostática que mantiene la
molécula unida.
El ejemplo más sencillo para ilustrar el enlace cova-
lente es el formado entre dos átomos de hidrógeno. Cada
átomo de hidrógeno tiene un solo electrón. Cuando dos
átomos de hidrógeno se aproximan, el núcleo de uno de
ellos atrae al electrón del otro; los dos orbitales se solapan
y se transforman en un solo orbital con dos electrones. Se
forma así la molécula de hidrógeno en la que cada átomo
tiene su última capa completa.

FIGURAA 6

H + H H2

Este nuevo orbital abarca todo el espacio alrededor de


los dos núcleos y, aunque los electrones pueden estar en
cualquier parte del mismo, se puede predecir que lo más
probable es que estén en el espacio entre los dos núcleos
y siendo atraídos por ambos. En la molécula resultante los
dos átomos tienen dos electrones y, por lo tanto, su capa
más externa completa. Los electrones compartidos forman
un enlace entre los dos átomos de hidrógeno liberando
energía, lo que demuestra que la molécula de hidrógeno es
más estable que los dos átomos separados.
En el caso de la molécula de hidrógeno se trata de dos
átomos iguales, por lo que se puede suponer que los elec-
trones que forman este enlace covalente están igualmente
compartidos por los dos átomos.

24
Pero, como era de esperar, la mayoría de los enlaces
químicos no se forman entre átomos iguales, sino entre áto-
mos de distintos elementos. Estos enlaces son ligeramente
diferentes de la molécula de hidrógeno. Vamos a considerar
el enlace entre el hidrógeno y el cloro. También aquí los dos
átomos necesitan un electrón para completar su última capa
y que el hidrógeno tenga dos electrones, y el cloro, ocho. Al
acercarse, sus orbitales se solapan y los dos átomos compar-
ten un par de electrones. Sin embargo, el enlace cloro-hidró-
geno difiere del hidrógeno-hidrógeno debido a que los elec-
trones no están igualmente compartidos por los dos átomos,
ya que el cloro los atrae con mayor fuerza, por lo que será
más fácil que se encuentren cerca de él. Este hecho hará que
el átomo de cloro presente un carácter ligeramente negativo,
y el de hidrógeno, ligeramente positivo, y diremos que se tra-
ta de un enlace covalente polar.
También podemos decir que este enlace es un dipo-
lo o que tiene un momento dipolar, ya que tiene una parte
positiva (el hidrógeno) y una negativa (el cloro). El átomo
más positivo suele señalarse con el símbolo δ+ y el más
negativo con el símbolo δ-. Sin embargo, el enlace entre los
dos átomos de hidrógeno es un enlace covalente no polar,
ya que no tiene parte positiva ni negativa.
Podemos encontrar tres tipos de enlaces covalen-
tes: sencillos, dobles y triples. Los enlaces sencillos son
los que resultan de compartir un solo par de electrones.
Generalmente, como hemos visto en la molécula de hidró-
geno, cada átomo que forma parte de un enlace contribuye
a él con un electrón. Pero puede ocurrir, como en el caso
de la reacción del amoniaco (NH3), con un ión hidrógeno
(H+) para formar el ión amonio (NH4+), que los dos elec-
trones vengan del mismo átomo:

25
+
H
H N H + H+ H N H
H H

Normalmente, se usa una línea para representar un


par de electrones, aunque en este texto usaremos líneas
para los pares de electrones compartidos y puntos para
los que no lo son (par libre). Por lo tanto, la reacción del
amonio se escribe:

H +

H N H + H+ H N H
H H

En la molécula de amoniaco, el nitrógeno comparte


un par de electrones con cada uno de los tres hidrógenos.
En cada enlace, un electrón viene del nitrógeno y otro del
hidrógeno, si bien a cada átomo de nitrógeno le queda aún
un par de electrones sin compartir. El ión hidrógeno no
tiene electrones, ya que perdió el único que tenía cuando
el átomo pasó a ión y ganó una carga positiva. Así, cuan-
do el ión hidrógeno se une a la molécula de amoniaco, los
dos electrones del enlace los aporta el nitrógeno. El enlace
en el que un átomo dona los dos electrones se llama enlace
covalente coordinado, que indica únicamente su proceso
de formación.
Hay que tener en cuenta que, una vez que se ha forma-
do el ión amonio, los cuatro enlaces nitrógeno-hidrógeno
son equivalentes y que el ión amonio en su totalidad lleva
una carga positiva, que se indica escribiendo la molécula
entre corchetes y con el superíndice +.

26
Además de los enlaces sencillos, hay enlaces dobles y
triples. Un doble enlace consiste en compartir cuatro elec-
trones entre dos átomos. Normalmente el enlace entre el
carbono y el oxígeno es un doble enlace, como ocurre en la
molécula de formaldehido, CH2O:
H
&2
H
Aquí el carbono forma enlaces sencillos con los hidró-
genos y un doble enlace con el oxígeno. En el doble enlace,
el carbono aporta dos electrones y los otros dos los aporta
el oxígeno, de tal forma que todos los átomos de la fórmula
del formaldehido cumplen la regla del octeto, ya que los
hidrógenos tienen dos electrones y el carbono y el oxígeno
ocho cada uno. No obstante, el oxígeno tiene dos pares de
electrones sin compartir (desapareados).
Finalmente, tenemos los triples enlaces, los cuales se
forman cuando dos átomos comparten seis electrones (tres
pares). Un buen ejemplo de molécula con un triple enlace
es la molécula de nitrógeno (N2), cuya estructura es:

N N
En este caso, cada nitrógeno aporta tres electrones al
enlace y se queda con un par sin compartir.
Ya hemos visto los fundamentos de los átomos, com-
ponentes esenciales de las moléculas. Estamos en condi-
ciones ahora de abordar cómo nos hablan ellas, qué pistas
nos dan para que sepamos que existen, dónde se encuen-
tran y cómo dotan de distintas propiedades a los materiales
naturales y sintéticos que usamos y forman parte de nues-
tro hábitat.

27
&$3Ì78/2
&XDQGRODOX]WHD\XGDDYLEUDU

La naturaleza de la luz

La ciencia avanza, la mayoría de las veces, a saltos. Se pro-


ponen teorías, y se discute sobre ellas con todo tipo de
suposiciones y experimentos, hasta que son superadas por
otras más perfectas, que sabemos que serán nuevamente
superadas. Es todo un sano ejercicio de búsqueda de la
verdad a través de verdades imperfectas que son continua-
mente probadas por personas que aportan su inteligencia
y esfuerzo, muchas veces de forma desinteresada. Esa es la
verdadera historia de los grandes descubrimientos, aunque
nos empeñemos en ponerles algunos pocos nombres pro-
pios. Como ejemplo, veamos la historia del descubrimien-
to de la naturaleza de la luz.
Pero ¿qué es exactamente la luz? Se atribuye a Eu-
clides, alrededor del año 300 a.C., el descubrimiento de las
leyes de la reflexión de la luz, aunque no fue hasta el siglo
XVII cuando, por una parte, el genial científico inglés Isaac
Newton (1642-1727) y, por otra, el matemático holandés
Cristian Huygens (1629-1695) desarrollaron dos teorías

28
contrapuestas sobre la naturaleza de la luz. Newton propu-
so una teoría corpuscular, mientras que Huygens suponía
que era un fenómeno ondulatorio.
Para Newton la luz estaba formada por un haz de par-
tículas microscópicas que denominó corpúsculos. La idea
no era mala. De hecho, los rayos de luz viajan velozmente
en línea recta como lo hacen los proyectiles, y cuando se
encuentran un objeto, se comportan de forma no muy di-
ferente a como lo hace una bala cuando rebota. Incluso lle-
gó a explicar el fenómeno de la refracción, ya que la luz se
refractaría, es decir, cambiaría de dirección al pasar de un
medio a otro por la diferencia de velocidad de transmisión
en los dos medios, como le ocurre a una pelota cuando se
hunde en un hipotético tarro gigante de mermelada.
No obstante, lo realmente difícil era explicar, desde
el punto de vista de los corpúsculos, otras propiedades de
la luz como la difracción y las interferencias, característi-
cas ambas de las ondas. De hecho, después de Newton, la
consideración de la luz como una onda comenzó a abrirse
camino, ya que parecía tener mucho en común con las on-
das del sonido en el aire o las olas del agua del mar o de
los lagos.
En realidad, la teoría más consistente era la que supo-
nía Huygens, pero el gran prestigio del que gozaba Newton
mantuvo la teoría ondulatoria arrinconada durante más de
un siglo, hasta que los experimentos de Thomas Young
(1773-1829) y Auguste Jean Fresnel (1788-1827) la co-
rroboraron ya en el siglo XIX. Esto ha sucedido en bas-
tantes ocasiones; las grandes figuras científicas consiguen
importantes avances, pero pueden actuar como rémoras
en nuevos descubrimientos. Aunque, en este caso, el tiem-
po y el desarrollo de la mecánica cuántica le devolvieron a

29
Newton parte de la razón: la luz es un fenómeno ondula-
torio, está formada por ondas electromagnéticas, pero a su
vez puede considerarse formada por pequeñas partículas
de luz (cuantos) llamadas fotones. De esta doble naturale-
za corpuscular y ondulatoria gozan todas las partículas y
ondas.
Años después apareció James C. Maxwell (1832-1879)
y demostró que tanto los campos eléctricos como los mag-
néticos podían describirse con ecuaciones de onda, por
lo que aseguró que la luz no era más que una combina-
ción de ondas de estos tipos de campos, dando por ce-
rrado el caso.
Pero esto no es verdad del todo. Tanto las ondas en el
agua como las ondas del sonido necesitan un material para
formarse. Los físicos de la época asumieron que había un
medio invisible y delgado, al que llamaron “éter luminífe-
ro”, que impregnaba el universo, por lo que consideraban
que las ondas luminosas eran oscilaciones dentro de esta
sustancia. Pero, en 1887, Albert Michelson (1852-1931) y
Edward Morley (1838-1923) montaron un experimento
muy cuidadoso para medir la velocidad de la luz suponien-
do que la Tierra se movía dentro de un éter que le permitía
orbitar en el espacio. Dicho experimento no llegó a buen
fin porque la hipótesis de partida era falsa, ya que no exis-
tía ningún éter. Sin embargo, hay que pensar que la cosa no
fue tan mal, pues existen algunas ondas que no necesitan un
medio para propagarse, como aseguró Einstein en su teo-
ría de la relatividad especial. En efecto, la velocidad de la
luz siempre se puede medir sea cual sea el marco de refe-
rencia que se elija, incluso en el vacío. De hecho, la veloci-
dad de la luz en el vacío, c, es una constante universal, lo
cual nos lleva a la conclusión de que la luz es una onda,

30
pero tan especial que no necesita un medio para propa-
garse.
Al mismo tiempo, durante esos mismos años, los cien-
tíficos comenzaban a estudiar el efecto fotoeléctrico que
consiste en que, cuando la luz incide sobre ciertos obje-
tos, estos liberan electrones. En principio, la teoría ondu-
latoria de la luz podía explicar muy bien este efecto, ya
que entre las características de las ondas está su capacidad
para transportar y transferir energía. Pero los problemas
comienzan cuando entramos en detalles. Si aumentamos
la intensidad de la luz, se emiten más electrones, pero no
cambia la energía de cada electrón. Por el contrario, si lo
que aumentamos es la energía de la luz utilizada, esto es,
utilizamos una luz más azul, la energía de cada electrón
liberado aumenta, y aunque la intensidad de dicha luz sea
baja, los electrones emitidos no tienen menos energía, lo
único que ocurre es que se van liberando más lentamente.
Estos resultados hicieron que Einstein pensara que la
teoría ondulatoria no era lo bastante acertada como para
describir la luz. Su propuesta fue que la luz está formada
por fotones, cada uno de ellos con una energía específica
que depende de la frecuencia de la luz. Los fotones chocan
con los electrones de un material y los expulsan mientras
les transfieren una energía igual a la energía del fotón me-
nos la energía necesaria para liberarlos del material.
Esta teoría explicaba perfectamente el efecto fotoeléc-
trico: una mayor intensidad de la luz significa más fotones,
no más energía por fotón, que liberan más electrones, pero
no con más energía por electrón. De hecho, Einstein fue
galardonado con el Premio Nobel de Física en 1921 por
su trabajo sobre el efecto fotoeléctrico, no por la teoría de
la relatividad.

31
Entonces, después de todo, ¿la teoría de los fotones
es la buena? Y, si es así, ¿qué pasa con el comportamiento
ondulatorio de la luz? La respuesta, quizá inesperada, es
que la teoría de los fotones todavía es errónea. A pesar de
la descripción de los fotones como partículas que arrancan
electrones de un material, los fotones no son partículas.
No tienen funciones de onda mecano-cuánticas ni tampo-
co tienen asignadas posiciones, ni siquiera en el cambiante
sentido mecano-cuántico que dice que, por ejemplo, un
protón tiene asignada en cada momento una posición.
Lo adecuado es decir que un fotón es un objeto me-
cano-cuántico que no es una onda ni una partícula. Eviden-
temente, esta conclusión no es del todo satisfactoria. Es mu-
cho más fácil explicar la naturaleza de la luz en términos
que nos resulten familiares, con experiencias cotidianas de
ondas y de partículas, pero, al hacerlo, perderemos muchas
de sus propiedades. A modo de resumen, podemos decir
que la consideración de la luz como una onda puede expli-
car en general sus propiedades macroscópicas, mientras que
los fotones como partículas componentes de la luz explican
muchas de sus propiedades microscópicas. Lo que no tene-
mos que olvidar, cuando oigamos hablar a alguien de la luz
como onda o como partícula, es que se trata de una aproxi-
mación. La naturaleza es mucho más sutil.

El espectro electromagnético

Cuando los científicos comprendieron que los rayos de luz po-


dían considerarse ondas electromagnéticas, similares a las on-
das de radio pero con longitudes de onda mucho más cortas,
establecieron lo que se conoce como espectro electromagnético.

32
FIGURA 7
Espectro electromagnético

Rayos Rayos 5D\RV; 8OWUD ,QIUDUURMR &DORU 5DGDU 5DGLR


FyVPLFRV gamma FRUWRVODUJRV YLROHWD RQGD
ODUJD

/RQJLWXG 1
c 10 M

c
c
[8 [8 —— MM &0
GHRQGD 10

(VSHFWURYLVLEOH

8OWUDYLROHWD 9LROHWD $]XO 9HUGH $PDULOOR 5RMR ,QIUDUURMR

c c c c


La única diferencia entre los distintos tipos de ra-
diaciones es la longitud de onda, λ, de cada una de ellas.
Aunque también se puede decir que se diferencian por la
frecuencia, ν, que es el número de ondas que pasan por un
punto cada segundo, a medida que la radiación avanza en
el espacio. Estos dos parámetros, que son los que caracte-
rizan una radiación determinada, están relacionados según
la ecuación:

c
λ= ——
ν

donde c es la velocidad de la luz, como ya hemos indicado


más arriba.
Desde hacía muchos siglos se consideraba que los
rayos de luz encerraban grandes y misteriosos poderes. El
interés por la radiación se redobló a principios del siglo XX
con el descubrimiento de la radio, los rayos X y la radioacti-
vidad. Todos estos descubrimientos hicieron que se ampliara
el espectro de las radiaciones a longitudes de onda mayores y
menores que las de la luz. Se puso a funcionar la radio, pero
sus dispositivos no funcionaban con longitudes de onda más
cortas. El método para amplificar la intensidad de la luz tuvo
sus orígenes en una idea de Einstein desarrollada en 1916.
Profundizando en la mecánica cuántica, Einstein predijo
el tipo de radiación que podría estimular a los átomos para
emitir más radiación de la misma longitud de onda. Pero los
ingenieros de la época tenían muy pocas nociones de cómo
manipular los átomos y durante décadas la idea fue solo una
curiosidad teórica sin ningún interés práctico.
No obstante, en los años treinta algunos de ellos es-
tuvieron a punto de crear un “rayo de la muerte” que

34
resultó ser inviable, aunque el esfuerzo los llevó a algo
mejor: el radar. Unos años más tarde, en 1940, durante
la Segunda Guerra Mundial, aparecieron unos ingeniosos
dispositivos que podían generar radiaciones con longitud
de onda del orden de los centímetros o incluso más cortas.
Evidentemente, se utilizaron enseguida para detectar avio-
nes enemigos.
En los años treinta los científicos ya hubieran podido
construir un láser; de hecho, disponían de las técnicas óp-
ticas adecuadas y de los suficientes conocimientos teóri-
cos, pero nadie fue capaz de poner las dos cosas juntas. El
impulso llegó alrededor de 1950 y de una forma inespe-
rada. Las ondas de radio con longitudes de onda cortas,
llamadas microondas, revelaron que podían hacer que un
grupo de átomos vibrara de forma precisa: esta técnica se
llamó espectroscopía de microondas. Entonces, desempol-
varon los viejos equipos de radar de la Segunda Guerra
Mundial y los pusieron a producir este tipo de radiación.
Así, muchos de los mejores físicos del mundo se detuvie-
ron a pensar sobre cómo estudiar sistemas de moléculas
sumergidas en un “baño” de radiación.
Entre ellos se encontraba Charles Townes (1915), de
la Universidad de Columbia en Nueva York, el cual había
estudiado en los años treinta la física de algunas moléculas
y durante la guerra había trabajado en los radares como
ingeniero electrónico. La Oficina de Investigación Naval
lo presionó a él y a otros físicos para que pusieran todos
sus conocimientos juntos con el fin de inventar la forma de
obtener haces potentes de radiación a cualquier longitud
de onda corta. En 1951 encontró la solución. Un deter-
minado tipo de moléculas en las condiciones adecuadas,
esto es, dentro de una cavidad resonante como las que se

35
usaban para generar ondas de radar, podían generar radia-
ción por sí mismas. Estaba aplicando los conocimientos de
un ingeniero a los sistemas atómico-moleculares de un físico.
Townes le pasó el problema a Herbert Zeiger (1925-2011),
becario postdoctoral, y a James P. Gordon (1928-2013), es-
tudiante de doctorado. En 1954, ambos tenían ya un apa-
rato funcionando, al que Townes llamó MASER (Microwave
Amplification by Stimulated Emission of Radiation).
Además, Townes había predicho una propiedad muy
importante y útil de la radiación emitida por ese aparato:
sería de una sola frecuencia y tan pura como la nota de un
diapasón. Y así fue. El alto grado de orden de dicha radia-
ción le daría al máser, y más tarde al láser, la oportunidad
de tener importantes usos prácticos. Aunque Townes, pre-
mio Nobel de Física en 1964, no fue el único que investigó
esta vía. Joseph Weber (1919-2000), de la Universidad de
Maryland, expresó ideas similares independientemente en
1952 y Robert H. Dicke (1916-1997), de Princeton, tra-
bajó en la misma dirección siguiendo un proceso diferente;
pero ninguno de ellos se puso a construir un aparato. Por
su parte, en Moscú, A. M. Prokhorov (1916-2002) y N. G.
Basov (1922-2001) también investigaron en la misma direc-
ción y construyeron un máser en 1955. Ambos compartie-
ron con Townes el Premio Nobel de Física en 1964.
Unos años más tarde, las investigaciones sobre el
máser se encaminaron al estudio de un método para pro-
ducir este tipo de radiación estimulada pero de luz visi-
ble. Surgía, así, en los años sesenta el denominado má-
ser óptico, el láser, término que deriva de las iniciales de
Light Amplification by Stimulated Emission of Radiation
(amplificación de la luz por la emisión estimulada de ra-
diación). En los comienzos, se consideró que el material

36
básico para la emisión estimulada de luz debía ser un gas;
posteriormente comenzó a experimentarse con cristales
sintéticos de rubí.

El fundamento del láser: la emisión estimulada

Para comprender con detalle cómo funcionan los láseres


hay que entender primero cómo se produce la emisión de
luz a nivel de los átomos. Como ya dijimos en el capítulo
anterior, el átomo está integrado por un núcleo, formado
por un conjunto de protones y neutrones, y por una serie
de electrones que se encuentran a determinada distancia,
alrededor del núcleo. Electrones, protones y neutrones son
las tres partículas básicas. Los electrones poseen una masa
muy pequeña y carga negativa. Por su parte, protones y
neutrones tienen aproximadamente la misma masa, pero
mientras que los primeros poseen carga eléctrica positiva,
los neutrones carecen de carga. Los electrones del átomo,
cuya energía depende de su distancia al núcleo, pueden
encontrarse en estado excitado —con una energía supe-
rior— o en un estado no excitado. En el estado excitado,
el electrón almacena una determinada proporción de ener-
gía. Pero los electrones no pueden poseer cualquier valor
de energía, sino solamente unos valores bien definidos que
se identifican como niveles, algo así como los peldaños de
una escalera. Ahora bien, un electrón puede pasar de un
nivel de energía a otro emitiendo o absorbiendo fotones
con una energía igual a la diferencia entre los dos niveles
de la transición. La energía de estos fotones, E, está rela-
cionada con la frecuencia, ν, que tienen como onda, según
la ecuación:

37
h’
___
E = hν = λ
donde h es una constante conocida como constante de
Plank, y evidentemente:

h’ = hc

Así pues, podemos redefinir el átomo como un núcleo


rodeado por electrones que se mueven con unas energías
bien definidas.
En virtud del llamado proceso de absorción estimu-
lada, cuando un fotón choca con un electrón no excitado
puede hacer que pase a un estado excitado. Habitualmente,
un electrón que resulta excitado, al cabo de un tiempo pasa
nuevamente al estado no excitado, emitiendo un fotón.
Este fenómeno, conocido como emisión espontánea, es el
que tiene lugar, por ejemplo, en el Sol o en las bombillas
y es el responsable de la mayor parte de la luz que vemos.
Ahora bien, un electrón excitado puede ser inducido a li-
berar su energía. Así, si un fotón pasa cerca de un electrón
excitado, este retorna al estado no excitado a través de la
emisión de un fotón de luz igual al fotón que pasó junto a
él inicialmente. Este proceso se conoce como emisión esti-
mulada y constituye el fundamento del láser.
El hecho de que la emisión estimulada produzca dos
fotones idénticos a partir de un fotón inicial es precisamen-
te lo que permite amplificar la luz y es también responsable
de que la luz generada por emisión estimulada sea coheren-
te, es decir que las ondas electromagnéticas que forman
el haz de luz marchen “al paso”. Pero, para que sea posi-
ble amplificar la luz por emisión estimulada, es necesario

38
además que en el medio activo haya un número mayor de
electrones en el nivel de energía superior que en el inferior;
esto es lo que se llama inversión de población.
La inversión de población es el “principio vital” de los
láseres y se consigue mediante el bombeo adecuado de cier-
tos materiales con niveles de energía electrónicos metaesta-
bles, es decir, con niveles de energía en los cuales los electro-
nes tardan un tiempo relativamente largo en desexcitarse
por emisión espontánea, lo cual favorece precisamente la
acumulación de electrones en el estado de energía superior.

Luz normal y luz láser

Las tres características que diferencian la luz de un láser de


la luz del Sol o de la generada por una bombilla son que, en
el caso del láser, se trata de un haz de luz monodireccional,
monocromático y coherente.
Los emisores de luz despiden millones de ondas, que
pueden tener idéntica dirección o poseer direcciones dis-
tintas. La bombilla es un emisor de luz multidireccional,
frente al láser, que es monodireccional. En cuanto al mo-
nocromatismo, el color de una luz está en función de su
frecuencia; si todas las ondas poseen la misma frecuencia,
también serán del mismo color. Los filamentos de las bom-
billas están formados por átomos y moléculas diferentes
y, por tanto, la energía absorbida y desprendida en forma
de fotones adopta valores diversos. Puesto que la frecuen-
cia del fotón está en relación con su energía, al variar la
energía varía la frecuencia emitida. La luz de una bombi-
lla tiene múltiples frecuencias, dependiendo del filamento
que se haya empleado en su fabricación. Por el contrario,

39
en un láser, la fuente de luz proviene de un gas o de un
sólido muy purificado. En ambos casos, los átomos tienen
idénticos niveles energéticos. Como resultado, los fotones
generados poseen idéntica energía y frecuencia.
Las ondas electromagnéticas son señales alternas, es
decir, cambian constantemente de valor. Esta variación tie-
ne forma de curva:

FIGURA 8

y
λ
X

La parte de la curva en que se encuentra la onda en un


momento concreto y en una posición dada se llama fase.
Dos ondas de idéntica dirección y frecuencia se encuen-
tran cada una, normalmente, en una fase distinta.

FIGURA 9

$ 2QGDVFRQODVPLVPDIDVH % 2QGDVFRQGLIHUHQWHIDVH

y1 y1

W 7LHPSR W 7LHPSR
y2 y2

W 7LHPSR W 7LHPSR
'HVSOD]DPLHQWR
'HVSOD]DPLHQWR

y y

W 7LHPSR W 7LHPSR
y1 + y 2 + y 
y1 + y 2 + y 

W 7LHPSR W 7LHPSR

40
En el caso de que una de ellas se situara en un máxi-
mo y otra en un mínimo, se anularían. Sin embargo, puede
suceder que ambas señales posean la misma fase y, por
consiguiente, los mismos valores, lo que tendría como re-
sultado una onda del doble de tamaño. Dado que en la luz
normal las ondas no están en fase, una parte elevada de su
energía se pierde, puesto que unas señales se anulan con
otras. Por el contrario, en el láser, todas las ondas poseen
la misma fase y la energía resultante es la máxima posible,
puesto que no se anula ninguna onda. Este es el sentido del
término coherente.
Así, podemos concluir que un láser es básicamente
una fuente de luz. Lo que diferencia a un láser de otras
fuentes de luz es el mecanismo físico por el que se produce
la emisión de luz, que se basa en la emisión estimulada,
frente a la emisión espontánea, que es la responsable de la
mayor parte de la luz que vemos. La emisión estimulada
es un mecanismo de emisión que confiere a la luz unas
propiedades muy especiales: alta potencia (y su capacidad
para ser amplificada), direccionalidad (emisión en forma
de “rayos”), frecuencia de emisión bien definida (color de
la luz), capacidad de emitirse en pulsos de muy corta du-
ración, y una propiedad llamada coherencia, que significa
que las ondas electromagnéticas que forman el haz de luz
tienen la misma fase.

Componentes de un láser

Un láser está formado por un núcleo, también llamado


medio activo, que suele tener forma alargada, donde se
generan los fotones. El núcleo puede ser una estructura

41
cristalina, por ejemplo rubí, o un tubo de vidrio que con-
tiene gases, por lo general dióxido de carbono o la mezcla
helio-neón. En cualquier caso, son materiales que poseen
electrones fácilmente excitables y que no emiten inme-
diatamente de forma espontánea, sino que pueden que-
dar excitados durante un tiempo mínimo. Es precisamen-
te este pequeño intervalo de tiempo el que se necesita
para que los electrones produzcan emisión estimulada,
no espontánea.
Junto al núcleo se halla el excitador, un elemento ca-
paz de provocar la excitación de los electrones del material
que se halla en el núcleo, a partir de una lámpara de des-
tellos —que provoca un flash semejante al de una cámara
fotográfica— o de dos electrodos que producen una des-
carga eléctrica de alta tensión.
El tercer componente del láser son dos espejos para-
lelos emplazados en los extremos del núcleo. Uno de ellos
es reflectante, mientras que el otro es semirreflectante, es
decir, permite el paso de una parte de la luz que le llega.
Cuando tiene lugar la excitación, una gran cantidad
de electrones pasan al estado excitado y, una gran mayoría,
permanece en dicha situación durante un determinado in-
tervalo de tiempo. No obstante, algunos realizan una emi-
sión espontánea, generando fotones que se desplazan en
todas las direcciones. Aunque en su mayoría se pierden por
los laterales donde no hay espejos, un pequeño número
rebota entre ellos y pasa por el interior del núcleo, que es
transparente. Al pasar por el núcleo, provocan la emisión
estimulada de nuevos fotones en la misma dirección. Estos
nuevos fotones rebotan también en los espejos, originando,
a su vez, la emisión de más fotones, y así sucesivamente.
Puesto que uno de los espejos es semirreflectante, algunos

42
fotones, en lugar de rebotar, escapan, formando una espe-
cie de chorro muy fino: es el rayo láser.
En resumen, cualquier láser contiene al menos tres
elementos fundamentales: un medio activo, un sistema de
bombeo y una cavidad resonante. El medio activo es el
material (sólido, líquido o gaseoso) que emite la luz. Para
que el medio activo emita luz hay que excitarlo de alguna
manera, del mismo modo que el filamento de una bombilla
necesita una corriente eléctrica que pase por él; en el caso
de un sistema láser se trata del sistema de bombeo, que
puede consistir en otro láser, una lámpara convencional o
una corriente o descarga eléctrica, dependiendo del tipo
de láser. Por su parte, el medio activo se coloca entre dos
espejos que forman una cavidad resonante donde la luz
rebota entre ellos y ayuda a la amplificación, como lo que
ocurre en la caja de resonancia de una guitarra que am-
plifica las ondas acústicas. Uno de los espejos es semirre-
flectante, por lo que parte de la luz amplificada sale de la
cavidad resonante en forma de haz.
Además de estos componentes básicos, un láser pue-
de tener otros dispositivos, tanto en la intracavidad, para
modificar o controlar las características de la luz emitida
(longitud de onda, pulsación, etc.), como externos a la ca-
vidad, para amplificar la intensidad de la luz (a través de
otro medio activo con su correspondiente bombeo) o mo-
dificar la duración de pulso, tasa de repetición, longitud de
onda, polarización, etc.
Son muchos los tipos de láseres diferentes que existen
y se pueden clasificar por su longitud de onda de emisión
(desde las microondas hasta los rayos X), por su poten-
cia (desde milivatios hasta petavatios [1015 vatios]), por
su régimen de emisión (en pulsados o continuos), por las

43
características de su medio activo (sólidos, líquidos o ga-
seosos) o por otras características; y cada uno de estos ti-
pos tiene unas utilidades muy diversas.

Aplicaciones de los láseres

Cuando se inventó en 1960, el láser no servía para nada.


De hecho, en aquellos tiempos algunos científicos se re-
ferían a él como “una solución en busca de problema”.
Entonces, ¿para qué lo inventaron? Para demostrar experi-
mentalmente que el mecanismo de amplificación de la luz
por emisión estimulada, predicho por Einstein en 1917 y
demostrado con microondas en 1954, podía extenderse a
la luz visible.
Hoy, sin embargo, la situación es muy diferente y el lá-
ser ha encontrado tantas aplicaciones que nos resulta impo-
sible enumerarlas aquí. De todos modos, para los científicos
el láser es sobre todo una herramienta de investigación.
Aunque en un principio también se dijera que el láser
era “un invento en busca de un empleo”, lo cierto es que,
en la actualidad, sus aplicaciones son múltiples. Dado que
un haz de rayos láser origina una línea recta de luz, es po-
sible utilizarla como guía en el tendido de tuberías, para
definir techos o paredes completamente planos en los tra-
bajos de construcción o para medir distancias, calculando
el tiempo que tarda la luz en ir y volver al objetivo que se
debe medir.
Como sabemos, el volumen de información que trans-
mite una onda electromagnética depende de su frecuencia;
en este sentido, la luz de un rayo láser resulta idónea para
la transmisión de señales.

44
Entre las aplicaciones más usadas del láser está la lec-
tura de discos compactos, la fabricación de circuitos inte-
grados y la lectura de códigos de barras. En el ámbito de la
medicina, la tecnología láser se aplica a los bisturís caute-
rizantes, ya que permite realizar cortes muy finos de gran
precisión, evitar cualquier riesgo de contagio y cauterizar
de manera inmediata, alejando el peligro de hemorragias.
Sin embargo, muchas de las aplicaciones del láser no
dependen tanto de su capacidad para generar un rayo de
luz como del hecho de que representan una concentración
extremadamente intensa de energía. Basándonos en esta
propiedad, podemos enumerar tres aplicaciones suma-
mente importantes en el terreno de la óptica. Una de ellas
son las telecomunicaciones mediante fibra óptica; en este
caso, las señales eléctricas que hasta hace poco tiempo se
desplazaban a través de conductores metálicos han sido
reemplazadas por pulsos ópticos que se transmiten a través
de fibra de vidrio del grosor de un cabello. Como potente
fuente de luz, el láser confiere a estas fibras una elevada
capacidad de transmisión.
La segunda aplicación óptica importante está en la
holografía, que es una técnica para crear imágenes tridi-
mensionales, inventada en 1947 por el ingeniero eléctrico
húngaro Dennis Gabor (1900-1979), quien obtuvo por
ello el Premio Nobel en 1971. Esta técnica se basa en la in-
terferencia entre dos rayos de luz. Uno de ellos es reflejado
por el objeto representado sobre una película fotográfica.
El otro incide directamente sobre la película como rayo
de referencia. Cuando la película se revela y se observa
la imagen con luz de la misma longitud de onda, surge
una representación tridimensional del objeto original.
Uno de los aspectos básicos del sistema, sin embargo, es la

45
necesidad de utilizar luz coherente, y cuando se inventó
solo se disponía de fuentes relativamente débiles de este
tipo de luz. La llegada del láser transformó la situación,
porque la generación de una poderosa fuente de luz co-
herente es su esencia. Con el tiempo, la holografía llegó
a hacerse muy familiar en una variedad de formas, como
en la marca de seguridad de las tarjetas de crédito y en
publicidad.
La tercera aplicación importante está en las impreso-
ras de los ordenadores, donde, controlando un haz láser, se
dibujan las palabras que se quieren imprimir.
También podemos destacar las aplicaciones que de-
penden de su capacidad para concentrar una gran cantidad
de energía sobre una superficie muy pequeña (alrededor de
un millón de vatios por centímetro cuadrado) durante un
periodo de tiempo extremadamente breve. Fruto de esta
capacidad son algunas de las más importantes aplicaciones
industriales de los láseres: la perforación, la soldadura y el
corte de distintos materiales.
Para perforar materiales se utilizan los láseres de
Nd-YAG (Itrio [en inglés Ytrium]-Aluminio-Granate), que
emiten pulsaciones muy cortas (de menos de una cien-
millonésima de segundo) en la región del infrarrojo cerca-
no. De esta forma, es posible perforar un orificio de peque-
ñísimo diámetro (desde 0,3 mm) con daños mínimos para
el material circundante. También es posible utilizar el láser
para el corte de precisión, pero para este fin se utilizan
láseres de gases (por ejemplo, de dióxido de carbono), que
generan haces continuos, esto es, no pulsados. Por ejem-
plo, un láser de CO2 de 500 vatios puede cortar una lámina
de acero de 1 mm de espesor a una velocidad de unos 10 cm
por segundo.

46
Además, puesto que un rayo láser es muy fino y prác-
ticamente no sufre divergencias, se puede usar para medir
largas distancias con gran precisión. La técnica (semejante a
la del radar) consiste en captar el rayo reflejado por el objeto
distante y medir el tiempo transcurrido desde el envío de la
señal hasta la recepción de su reflejo. Conociendo la veloci-
dad de la luz, resulta fácil calcular la distancia. En los años
setenta, este método se empleó para determinar con gran
precisión la distancia de la Luna, utilizando los reflectores
que habían instalado allí los astronautas norteamericanos.
Finalmente, se han empleado láseres hasta para temas
relacionados con el espionaje. En 1968 se descubrió que
un láser puede detectar perfectamente desde el exterior
hasta las vibraciones del cristal de las ventanas producidas
por las conversaciones en el interior de una casa.

La luz y las vibraciones de los átomos


y las moléculas

La primera pregunta que podríamos hacernos es: ¿cómo


es que la luz se transforma en calor, como cuando, por
ejemplo, se calienta una pared de ladrillo bajo la luz del
Sol? Sabemos que los electrones que hay en los átomos
de los materiales de la pared absorben luz, pero ¿cómo se
convierte la luz absorbida en energía térmica? También sa-
bemos que los átomos no dejan de vibrar debido a que
entran en resonancia con la energía solar, lo cual hace
que choquen entre sí y se calienten. Pero ¿de qué forma es
la luz la causante de la vibración de los átomos?
Ante todo, debemos recordar que son las moléculas
que forman los ladrillos las que absorben los fotones, no

47
los electrones. Los fotones son paquetes de energía elec-
tromagnética que no tienen masa. Cuando son absorbidos
por una molécula, dejan de existir y la energía cinética de
la molécula aumenta. Cuando la energía cinética promedio
de un gran número de moléculas aumenta, se detecta un
aumento de temperatura.
La energía cinética puede ser de tres tipos: de trans-
lación (el movimiento de la molécula de un lugar a otro),
de rotación a lo largo de uno o de todos los ejes de rota-
ción de la molécula y de vibración. En sólidos, como es el
caso del ladrillo, la mayor parte de la energía cinética de
sus moléculas es de vibración. El ladrillo, a su vez, emitirá
fotones térmicos (con longitudes de onda en el infrarrojo)
y nosotros sentiremos esta radiación con una sensación de
calor. Así es cómo se transforma la energía electromagné-
tica (luz) en calor.
Como veremos más adelante, las vibraciones de las
moléculas inducidas por la luz es el lenguaje que estas em-
plean para decirnos cómo se encuentran, esto es, su es-
tructura, los enlaces que las forman y su posición respecto
a las moléculas de su entorno.

48
&$3Ì78/2
/RVHVSHFWURVXQDIRUPDGHPDQLIHVWDUVH
HQJUXSR

Como ya hemos visto en los capítulos precedentes, nues-


tros ojos solo perciben una pequeña parte del amplio es-
pectro de la radiación electromagnética. Respecto a las ra-
diaciones de luz visible, las que están a continuación, con
una mayor energía, se llaman ultravioleta y las de menor
energía que las de la luz visible se conocen como infrarro-
jas. Las radiaciones más útiles para el análisis de la estruc-
tura de las moléculas están en la región infrarroja, aunque
no pegadas al espectro visible (infrarrojo cercano), sino en
un intervalo de longitudes de onda entre 2.500 y 16.000
nm (frecuencias entre 1,9 1013 y 1,2 1014 Hz).
La energía de los fotones asociados con esta parte
de la región infrarroja (de 1 a 15 kcal/mol) no es capaz de
excitar electrones, pero puede inducir a que vibren los gru-
pos de átomos unidos por enlaces covalentes de una molé-
cula determinada. Estos enlaces no son varas o palos rígi-
dos como acostumbramos a ver en los juegos de modelos
de moléculas; más bien los podríamos equiparar a muelles
que se pueden estirar o doblar. Es fácil, entonces, imaginar

49
que una molécula determinada, además de que sus grupos
de átomos describan rotaciones alrededor de los enlaces,
puede experimentar una amplia variedad de vibraciones
características de dicha molécula.
Por todo ello, en principio podemos afirmar que cual-
quier molécula con enlaces covalentes absorberá una can-
tidad de fotones, con frecuencias en la región infrarroja,
que se corresponden con la energía de sus vibraciones,
dando lugar a un espectro de absorción único para dicha
molécula, que es un fiel reflejo de su estructura.
Los espectros moleculares son la forma que tienen las
moléculas de hablarnos, de decirnos cómo son y cuál es
su estructura. Este lenguaje conforma una disciplina que
se conoce como espectroscopía o espectroscopia, puesto que
las dos palabras están aceptadas por la comunidad cientí-
fica que se expresa en español, y que no es más que el uso
de la absorción, emisión o esparcimiento (en inglés scatte-
ring) de la radiación electromagnética cuando interacciona
con átomos, moléculas o iones (atómicos o moleculares),
lo que nos permitirá estudiar su estructura y una serie de
procesos físicos relacionados.
La interacción de la radiación con la materia puede
provocar un cambio en la dirección de la radiación junto
con la inducción de transiciones entre los niveles de ener-
gía de los átomos y las moléculas que la componen. Una
transición desde un nivel bajo hasta uno más alto, acom-
pañada por una transferencia de energía a la molécula, se
llama absorción. Cuando la transición va de un nivel alto
a uno más bajo se llama emisión si la energía se transfiere
en forma de radiación, o transición no radiativa si no emite
ninguna radiación. Por el contrario, cuando hay un cam-
bio de dirección de la luz debido a su interacción con la

50
materia tenemos el fenómeno de esparcimiento o scattering,
que puede tener lugar con o sin transferencia de energía;
esto es, la radiación esparcida puede tener la misma longi-
tud de onda o cambiar ligeramente.

Absorción

Cuando una molécula (o un átomo) absorbe luz, o lo que


es lo mismo, se le inyecta energía, se “excita”, pasando a
un nivel con energía más alta. El tipo de excitación de-
pende de la longitud de onda, λ (o de la frecuencia, ν; no
olvidemos que λ= νt) de la luz. Además, hay que tener en
cuenta que la energía, E, está relacionada con la frecuencia
a través de la constante de Plank, h, según la ecuación:

E = hν

La luz ultravioleta o visible hace que los electrones


alcancen orbitales más altos, pero la luz infrarroja excita
únicamente las vibraciones de la molécula iluminada y las
microondas lo que excitan son las rotaciones de los enlaces
de dicha molécula.
Se conoce como espectro de absorción de una molécula
determinada, la representación gráfica de la absorción de
luz por parte de dicha molécula en función de la longitud
de onda. El espectro de una molécula depende de su es-
tructura, la cual da lugar a unos determinados niveles de
energía, por lo que son muy útiles para la identificación
de compuestos químicos.
La medida de la concentración de una determinada
especie molecular en una muestra que se está estudiando

51
se puede calcular teniendo en cuenta la ley de Lambert-
Beer.

/H\GH/DPEHUW%HHU

La ley de Lambert-Beer (también conocida simplemente


como ley de Beer) establece la relación lineal entre la absor-
bancia (magnitud que mide la cantidad de luz absorbida a
una longitud de onda determinada) y la concentración de
la especie que causa la absorción de la luz a una longitud
de onda determinada. Generalmente, se describe con la si-
guiente ecuación:

A(λ) = a(λ) · b · c

donde A es la medida de la absorbancia a una longitud de


onda determinada; a(λ), el coeficiente de absorción a dicha
longitud de onda; b, la longitud de la trayectoria de la luz
a través de la muestra; y c, la concentración de la sustancia
que se va a estudiar. Cuando la concentración se expre-
sa como concentración molar (M = moles/litro), la ley de
Lambert-Beer se escribe:

A=E·b·c

siendo ε el coeficiente de absorción molar a dicha longitud


de onda, cuyas unidades son: M-1cm-1.
Experimentalmente, se suele medir la transmitancia
(magnitud que mide la cantidad de luz transmitida a una
longitud de onda determinada) (T), definida como:

I
T= ——
λ I0

52
donde I es la intensidad de la luz después de pasar a
través de una muestra; e I0, la intensidad inicial. La ab-
sorbancia y la transmitancia están relacionadas por la
ecuación:

$ ²ORJ 7 ²ORJ ,, 0

Normalmente, en los espectrómetros actuales se pue-


den presentar los datos en transmitancia, expresada en
tanto por ciento de luz transmitida, y en absorbancia.

FIGURA 10

0XHVWUDGH
FRQFHQWUDFLyQc

I0 I

/RQJLWXGb

Por lo tanto, la concentración de una sustancia pue-


de calcularse midiendo la cantidad de luz que absorbe la
muestra y aplicando la ley de Lambert-Beer. Si no se co-
noce el coeficiente de absorción molar, se puede conocer
la concentración construyendo una curva de los valores
de las absorbancias frente a la concentración de distintas
disoluciones patrón preparadas para tal fin.
No obstante, la ley de Lambert-Beer tiene algunas li-
mitaciones, ya que el coeficiente de absorción de una sus-
tancia puede variar a concentraciones relativamente altas
(por encima de 0,01 M), la presencia de partículas que
pueden esparcir la luz, la radiación, que no suele ser mo-
nocromática a menos que se utilice un láser, etc.

53
Emisión

Una vez que los átomos o las moléculas se excitan y llegan


a alcanzar altos niveles de energía, pueden volver a niveles
más bajos y emitir una radiación llamada, según sus carac-
terísticas, simplemente emisión o luminiscencia. En el caso
de los átomos, si la fuente de excitación es la alta tempera-
tura, el fenómeno se llama emisión atómica o emisión óptica,
mientras que cuando los átomos son excitados con luz, la
emisión se llama fluorescencia atómica. Por el contrario, en
el caso de las moléculas, se llama fluorescencia o fosfores-
cencia dependiendo de las características de los niveles de
energía entre los que tiene lugar la emisión.
Aquí, también, la intensidad de la emisión de una sustan-
cia determinada es directamente proporcional a la concentra-
ción de la misma, cuando se encuentra a bajas concentracio-
nes, por lo que también es de gran utilidad para cuantificar
las moléculas de sustancias que emiten radiación.

‘Scattering’

Cuando una radiación electromagnética atraviesa un ob-


jeto, la mayor parte de la radiación continúa llevando su
dirección original, pero una pequeña fracción se esparce
en otras direcciones. El fenómeno se conoce como scatte-
ring y depende de la longitud de onda de la luz esparcida.
Si es de la misma longitud de onda que la luz incidente, se
llama scattering Rayleigh, mientras que si observamos un
desplazamiento de la longitud de onda lo denominaremos
scattering Raman. El desplazamiento de la longitud de onda
se debe a las diferencias de energía que corresponden a las

54
vibraciones moleculares, como ya hemos visto en los fenó-
menos de absorción de luz infrarroja.

Espectros y vibraciones moleculares: espectroscopía


de absorción infrarroja

Los espectros que resultan como fruto de las vibraciones de


las moléculas son de absorción o de scattering. Como ya hemos
señalado antes, las moléculas absorben luz infrarroja, dando
lugar, obviamente, a espectros de absorción infrarroja (IR), que
son complejos, esto es, con muchas bandas. Esta complejidad
hace que sean muy útiles para identificar sustancias.
A modo de ejemplo, presentamos el espectro IR de un
cálculo renal compuesto por oxalato y fosfato cálcicos. El
consiguiente análisis de un espectro nos puede indicar la
presencia de distintos grupos funcionales en la molécula
que estemos estudiando y decirnos si se trata de un alco-
hol, un ácido, cetona, etc.

FIGURA 11



40


7

20

10

       


1~PHURGHRQGDVFP²

55
Tradicionalmente, los espectros IR se presentan en
transmitancias (expresadas en tanto por ciento) en lo que se
refiere al eje de ordenadas, mientras que el eje de abscisas,
en lugar de estar en unidades de frecuencia, está en cm-1, ya
que son cifras mucho más manejables que los Hz. Un cm-1 es
el número de ciclos completos de una onda que caben en un
centímetro, mientras que la frecuencia en ciclos por segundo
o Hz es igual al número de ciclos completos de ondas que
caben en 3 1010 cm (que es la distancia que recorre la luz
en un segundo). Las unidades de longitudes de onda en esta
región son las micras, μm; 1μm = 10-6 m, por la misma razón.
Se pueden obtener espectros IR de muestras en cual-
quier estado (sólido, líquido y gaseoso). Normalmente, se
obtienen midiendo la luz que transmite la muestra, por lo
que se necesita que esta sea transparente a la radiación IR.
Así, los líquidos se preparan como películas delgadas entre
dos ventanas pulidas de cloruro sódico o bromuro potásico,
que son transparentes en esta región, mientras que el vidrio
absorbe totalmente la radiación. Si se usan disolventes en el
caso de moléculas solubles, hay que evitar que las bandas
de absorción del disolvente no interfieran demasiado con
las bandas de la sustancia que se vaya a estudiar. Los di-
solventes clorados como el tetracloruro de carbono (CCl4),
el cloroformo (CHCl3) y el tetracloroetileno (CH2Cl2) están
entre los que más se usan. Sin embargo, el agua absorbe
prácticamente toda la radiación infrarroja, lo cual es un in-
conveniente de esta técnica, al no poder medir disoluciones
acuosas, limitando en principio su uso para el estudio de
moléculas con actividad en medios biológicos, ya que suelen
actuar en un medio acuoso.
Otro método para obtener buenos espectros IR de só-
lidos es por medio de la incorporación de la sustancia a

56
una pastilla de bromuro potásico (KBr), que se obtiene
por dispersión de unos pocos miligramos de la muestra en
unos 300 mg de KBr molido y sometido a presión en un
molde adecuado.

Espectroscopía Raman

Tanto la espectroscopía Raman como la IR proporcionan


una gran cantidad de información complementaria sobre la
estructura molecular y la interacción de las moléculas entre
sí. La espectroscopía IR se desarrolló después de que el fí-
sico indio C. V. Raman descubriera en 1928 el proceso de
scattering inelástico, usando su propio ojo como detector, la
luz del Sol como fuente de energía y un telescopio como re-
ceptor. Por este descubrimiento se le otorgó el Premio Nobel
en 1930 y al nuevo fenómeno se le llamó efecto Raman. Muy
pronto se vio que la espectroscopía basada en este efecto era
una herramienta excepcional para estudiar las moléculas.
Diez años después de su descubrimiento ya habían apare-
cido más de 2.000 publicaciones con los espectros Raman
de más de 4.000 sustancias, incluidas moléculas que forma-
ban parte de sistemas biológicos. Los instrumentos que se
usaban en esos años empleaban un arco de mercurio como
fuente luminosa y placas fotográficas como detectores. Sin
embargo, el gran avance de la instrumentación infrarroja du-
rante la Segunda Guerra Mundial hizo que la espectroscopía
IR fuera un método mucho más rápido y fácil para estu-
diar la estructura molecular. Esto hizo que la espectroscopía
Raman se quedara al principio como una herramienta de
interés únicamente académico; pero la llegada de los láseres
como poderosas fuentes monocromáticas de luz supuso un

57
importante renacimiento de esta espectroscopía, que, junto
con otros avances instrumentales y mejoras en el manejo
de muestras durante los años sesenta y setenta, amplió su
uso a otros muchos sistemas moleculares y macromole-
culares.
Igual que en la espectroscopía IR, de un espectro Ra-
man podemos obtener datos que describen las vibraciones
moleculares, que no son sino pequeñas oscilaciones de los
átomos individuales de una molécula alrededor de sus posi-
ciones de equilibrio. Sin embargo, la forma de obtener esos
datos es bastante diferente en cada caso, ya que estos dos
tipos de espectroscopías se apoyan en procesos físicos di-
ferentes, como ya hemos dicho: scattering en el caso de la
Raman y absorción en el de la IR.
El efecto Raman es un fenómeno de scattering en el
cual hay un cambio en la frecuencia de la luz que esparce la
molécula. En principio, cuando un haz monocromático de
un láser con frecuencia ν0 interactúa con una molécula, el
componente eléctrico del campo electromagnético de la luz
ejerce una fuerza sobre todos los electrones de dicha molé-
cula y tiende a desplazarlos de sus posiciones de equilibrio
alrededor de los núcleos cargados positivamente. Este pro-
ceso induce un momento dipolar en la molécula, es decir, la
convierte en un dipolo, que vibra a la frecuencia del laser,
ν0. Como consecuencia de ello, la molécula emite una radia-
ción de frecuencia ν0, llamada radiación Rayleigh (scattering
elástico). La amplitud de la onda emitida es proporcional
a una magnitud característica de la molécula en cuestión,
conocida como polarizabilidad.
La polarizabilidad de una molécula depende de su ta-
maño, forma y orientación, y puede modificarse cuando
cambia alguno de estos parámetros. Pues bien, cuando

58
cambia la polarizabilidad de una molécula como con-
secuencia de su interacción con la luz que induce un
cambio en la forma de la molécula debido a las vibra-
ciones de los núcleos atómicos que la componen, da
como resultado lo que se llama scattering Raman. Por
cada vibración molecular que implique desplazamientos
de los núcleos y, por lo tanto, cambios en la polarizabi-
lidad, se observará un desplazamiento de la frecuencia
de la luz esparcida que corresponde a la frecuencia de
dicha vibración (scattering inelástico). Como resultado,
la luz que es esparcida por las moléculas no solo tendrá
la frecuencia de excitación del láser (ν0), sino también la
suma y la diferencia de las frecuencias de las vibraciones
moleculares (νR = ν0 ± νm). Los desplazamientos de fre-
cuencia (ν0 - νm) y (ν0 + νm) se llaman vibraciones Stokes y
anti-Stokes, respectivamente.
Para poder comprender mejor este proceso podemos
representarlo en términos de niveles de energía.

FIGURA 12

v’ = 2
(VWDGRHOHFWUyQLFR
v’ = 1
H[FLWDGR
v’ = 0

V0 V’0 V0 V0 – V’m V0 V0 + V’m

v’ = 2
v’ = 1 (VWDGRHOHFWUyQLFR
Vm v’ = 0 IXQGDPHQWDO
5D\OHLJK 6WRNHV DQWL6WRNHV ,5

Raman

59
Como podemos ver en la figura, los niveles de energía
que dan lugar a los espectros Raman (niveles vibraciona-
les) quedan muy por debajo del primer estado excitado
electrónico. Cuando una molécula es excitada por un láser
desde su nivel vibracional fundamental v = 0 hasta un nivel
vibracional v=1, emitirá fotones con frecuencia νR = ν0 - νm,
o sea, radiación Stokes. Por el contrario, cuando la molécu-
la inicialmente se encuentra en un nivel v = 1 y acaba en un
nivel con menos energía (v = 0), emitirá fotones anti-Stokes,
de frecuencia νR = ν0 + νm. Como a temperatura ambiente
la población de moléculas en el nivel v = 0 es mayor que la
del nivel v=1, las vibraciones Stokes serán más intensas que
las anti-Stokes. En general, cuando se habla de espectros
Raman, se registra y estudia únicamente la región Stokes.
Sin embargo, si la energía de la luz que incide sobre
una molécula es idéntica a la diferencia de energías entre
dos niveles vibracionales, por ejemplo ΔE = Ev=1 – Ev=0,
entonces la molécula puede absorber luz, y este tipo de
absorción tiene lugar en la región infrarroja, como ya he-
mos visto antes al hablar de la espectroscopía IR. Por lo
tanto, las frecuencias νR correspondientes a las bandas del
espectro Raman de una molécula determinada serán las
mismas que las del espectro IR de la misma molécula, pero
los procesos físicos que nos han llevado a obtener estos
espectros son radicalmente distintos, por lo que encontra-
remos cambios notables en la intensidad de los picos. En
muchos casos, hay vibraciones moleculares que dan una
señal Raman muy débil mientras que la señal IR es muy
intensa, y viceversa. Esto se debe a que la intensidad de las
distintas bandas depende de cómo cada vibración haga va-
riar el momento dipolar (espectro IR) y la polarizabilidad
(espectro Raman) de la molécula. En general, podemos

60
decir que las vibraciones que mantienen la simetría de la
molécula serán más intensas en Raman y las que rompen
dicha simetría lo serán en el espectro IR.
En conclusión, la combinación de ambas técnicas
espectroscópicas nos dará información complementa-
ria que nos llevará a poder identificar y caracterizar los
grupos atómicos y los enlaces específicos que componen
una molécula y su interacción con otros enlaces y grupos
cercanos.

Espectros de vibración y grupos moleculares:


moléculas poliatómicas

Como ya hemos dicho, una molécula formada por N áto-


mos se caracteriza por su espectro de absorción en la re-
gión IR y por su espectro Raman. En ambos casos, estos
espectros pueden interpretarse en términos de transiciones
dentro de un patrón de niveles de energía de vibración.
Cada uno de estos patrones de energía corresponde a cada
una de las 3N-6 (o 3N-5 si la molécula es lineal) vibra-
ciones características de la molécula en cuestión, también
llamadas vibraciones normales.
Por ejemplo, en el caso del vapor de agua, H2O, se
observan únicamente 3 3 - 6=3 bandas de absorción en
su espectro IR centradas a 1595, 3657 y 3756 cm-1 en su
espectro IR. Por el contrario, en el agua líquida, como
se ve en la figura 13, las dos vibraciones de mayor fre-
cuencia se solapan, dando lugar a una ancha banda en la
región de 3500 cm-1. Esta disminución de frecuencia se
debe a la interacción entre moléculas, cosa que no ocurre
cuando se registra el espectro del vapor.

61
FIGURA 13
Espectro IR del agua

100



80


7

60



40



      


cm²

De estas tres vibraciones, dos son simétricas (man-


tienen la simetría de la molécula) y una antisimétrica (no
mantiene la simetría). En el lenguaje de los espectrosco-
pistas se llaman “tensión simétrica”, “flexión simétrica” y
“tensión antisimétrica”, respectivamente.
Sin embargo, para las moléculas con un mayor nú-
mero de átomos, las 3N-6 vibraciones pueden llegar a ser
un número muy grande que dará lugar a espectros muy
complicados. No obstante, la presencia de simetría en una
molécula simplifica notablemente el estudio de sus modos
de vibración. Existe un teorema general, que no vamos a
demostrar aquí, según el cual cada una de las vibraciones
debe ser simétrica o antisimétrica respecto a cualquier ele-
mento de simetría (como lo son un plano de simetría o un
eje de simetría) de la molécula. Por ejemplo, para el agua,
se demuestra que las dos frecuencias más bajas correspon-
den a vibraciones simétricas, mientras que la frecuencia
más elevada corresponde a un modo de vibración antisi-
métrico.

62
FIGURA 14
Modos de vibración de la molécula de agua

FP² FP²
FP²

Esta es la razón por la que se han dibujado los diagra-


mas de la figura 14 para señalar qué átomos se mueven en
cada una de esas vibraciones. El diagrama se acepta como
una representación aproximada de los movimientos de vi-
bración únicamente y las flechas se trazan olvidándonos
de los movimientos de traslación y rotación que coexisten
siempre en la molécula. Estos diagramas, fáciles de dibujar,
representan la simetría de los modos reales de vibración.
El movimiento exacto de los átomos en un modo de vibra-
ción determinado depende, además, de sus masas y de lo
fuertes que sean los enlaces en la molécula, es decir, de la
constante de fuerza de cada enlace.
Por todo ello, es interesante estudiar la simetría de las
moléculas para poder predecir los espectros de vibración
a los que darán lugar y así poder asignar las bandas que
aparecen en ellos.
Una de las aplicaciones de mayor interés práctico es
que los espectros de vibración de una molécula complicada

63
sirven de huella digital para identificar la composición o
para indicar la presencia de ciertos grupos en la molécula.
Los enlaces similares o ciertos grupos de átomos dentro de
una molécula vibran muchas veces con frecuencias caracte-
rísticas. La aparición de una banda en una frecuencia que es
característica de un grupo determinado puede servir para
indicar la presencia de este grupo al estudiar el compuesto.
Por ejemplo, volviendo al caso de la molécula de agua,
vemos que las dos vibraciones de tensión de los grupos
OH aparecen en la región de 3500-3600 cm-1, por lo tanto,
la aparición de bandas en esa región nos indicará la posibi-
lidad de que un compuesto desconocido tenga grupos OH
en su estructura molecular.

Instrumentación

(VSHFWUyPHWURVGHDEVRUFLyQ,5

Los componentes de los instrumentos capaces de medir la


radiación IR absorbida por una muestra tienen en común
las fuentes de radiación y los detectores, pero, sin embar-
go, para conseguir separar las diferentes frecuencias del
espectro se emplean dos tipos de instrumentos basados
en procesos físicos diferentes, lo cual ha dado lugar a dos
grandes familias de espectrómetros que trabajan con luz
infrarroja: los espectrofotómetros dispersivos y los interfe-
rómetros que utilizan la transformada de Fourier.

)XHQWHVGHUDGLDFLyQLQIUDUURMD
En general, las fuentes utilizadas no son más que un só-
lido inerte (que no se descompone con la temperatura)

64
calentado con una resistencia eléctrica hasta llegar a una
temperatura del orden de 1.200-1.700 ºC. Cuando alcance
esa temperatura, el material emitirá radiación IR. Los más
conocidos son:

s El emisor de Nernst, que consiste en un cilindro de


óxidos de tierras raras con filamentos de platino
soldados en sus extremos. Al pasar la corriente eléc-
trica, el cilindro puede alcanzar los 2.000 ºC.
s El Globar, compuesto por una varilla de carburo de
silicio que se calienta eléctricamente hasta alcanzar
unos 1.300 ºC.
s Un filamento incandescente bien enrollado, hecho de
una aleación de níquel y cromo que se calienta eléc-
tricamente hasta cerca de los 1.000 ºC. Este filamen-
to produce intensidades más bajas de radiación que
el Globar y el Nernst, pero tiene una vida más larga.

Detectores
Existen en el mercado tres tipos de detectores de la radia-
ción infrarroja:

s Termopares: están formados por la unión de dos me-


tales distintos (por ejemplo, dos piezas de bismuto
soldadas a los dos bordes de una varilla de antimo-
nio) que produce un voltaje que es función de la
diferencia de temperatura entre uno de los extre-
mos, denominado “punto caliente” o unión caliente
o de medida, y el otro “punto frío” o unión fría o
de referencia.
s Detectores piroeléctricos: consisten en una oblea mo-
nocristalina de un material piroeléctrico como el

65
sulfato de triglicerina. Cuando se aplica un campo
eléctrico a cualquier material, aparece una polariza-
ción eléctrica. Sin embargo, en el caso de un material
piroeléctrico, cuando el campo eléctrico desaparece,
la polarización persiste. El grado de polarización de-
pende de la temperatura, por lo que si ponemos un
material piroeléctrico entre dos electrodos, a modo
de sándwich y lo calentamos con una radiación IR,
habrá un cambio en la respuesta eléctrica del mate-
rial que podremos medir con los electrodos. Este tipo
de detectores tienen una respuesta muy rápida y son
los más usados en los instrumentos de transformada
de Fourier que se describen más abajo.
s Detectores fotoeléctricos: el detector está formado por
una película de un material semiconductor (por ejem-
plo, la aleación mercurio teluro de cadmio) deposi-
tada sobre una superficie de vidrio y sellado todo el
conjunto al vacío. La absorción de radiación IR pro-
mueve los electrones no conductores del material a
un estado más energético y conductor, produciendo
un descenso de la resistencia eléctrica del semicon-
ductor. Estos detectores tienen una respuesta aún
más rápida que la de los detectores piroeléctricos.

(VSHFWURIRWyPHWURV,5GLVSHUVLYRV
Normalmente, se trata de instrumentos de doble haz.
Como se puede ver en la figura 15, se generan dos haces
luminosos iguales y paralelos que, tras atravesar todo el
sistema óptico de dispersión de la luz, llegan al detector.
El detector solo responde cuando la intensidad de los dos
haces no es la misma. En uno de los haces se coloca la
muestra, que, evidentemente, absorberá la radiación IR en

66
una cantidad diferente para cada frecuencia. El detector
irá midiendo la diferencia de energías correspondientes.
En este tipo de instrumentos se suelen usar redes de
difracción como elementos para dispersar la luz.

FIGURA 15
Esquema de un espectrofotómetro IR dispersivo
)XHQWH

0XHVWUD

Chopper

Detector
5HGGH
GLIUDFFLyQ

5HQGLMD

,QWHUIHUyPHWURV,5SRUWUDQVIRUPDGDGH)RXULHU
Cualquier tipo de onda, y particularmente las ondas lumi-
nosas, se pueden representar de dos maneras. Normalmente
se expresan en función de cómo avanza la onda con el
tiempo (dominio tiempo), pero también pueden represen-
tarse en función de la frecuencia de la onda (dominio fre-
cuencia), que es lo que llamamos espectro:

FIGURA 16

7LHPSR

)UHFXHQFLD

67
Los espectrofotómetros dispersivos operan en el domi-
nio de las frecuencias. Sin embargo, al medir en el dominio
del tiempo, se pueden obtener algunas ventajas. No obstante,
se necesita un ordenador para pasar de un dominio al otro.
Si quisiéramos registrar una onda luminosa en el do-
minio del tiempo, lo primero que se nos ocurre es dejar
que la radiación llegue a un detector y registrar su res-
puesta con el tiempo. Pero, en la práctica, no hay ningún
detector que pueda responder tan rápidamente, ya que la
radiación luminosa tiene una frecuencia mayor de 1014 Hz.
Es decir, ¡pasan 100 billones de ondas por segundo!
Para resolver este problema se utiliza un interferóme-
tro de Michelson, que modula la señal IR a una frecuencia
detectable. En realidad lo que hace es producir una nueva
señal a una frecuencia mucho más baja pero que contiene
la misma información que la señal IR original. La gráfica
de salida de un interferómetro se llama interferograma.

FIGURA 17
Esquema de un interferómetro de Michelson

(VSHMRHVWDFLRQDULR

6HSDUDGRU
GHKD]
)XHQWHGH
UDGLDFLyQ
(VSHMRPyYLO

3RVLFLyQGH
ODPXHVWUD

Detector

68
La radiación que sale de la fuente se separa en dos,
gracias a un separador de haz. La mitad de la radiación se
refleja e incide sobre un espejo fijo, llamado estacionario, y
luego vuelve sobre el separador. Esta radiación habrá reco-
rrido una distancia fija. La otra mitad de la radiación atra-
viesa el separador de haz y se refleja en un espejo móvil. En
este caso, la longitud recorrida por el haz es variable.
Los dos haces reflejados se vuelven a reunir en el
separador, donde producen interferencias. Es decir, para
una longitud de onda determinada, producirán una inter-
ferencia constructiva cuando la diferencia entre los cami-
nos recorridos por los dos haces sea un múltiplo exacto
de la longitud de onda. Por el contrario, si la diferencia
entre los caminos recorridos es la mitad de la longitud
de onda de la radiación, producirá una interferencia des-
tructiva. Si el espejo móvil se aleja del separador de haz a
una velocidad constante, la radiación que llegue al detec-
tor seguirá una secuencia regular de máximos y mínimos
a medida que se vayan alternando las interferencias cons-
tructivas y destructivas.
Sin embargo, el hecho real es que no tenemos una
fuente monocromática, sino todas las frecuencias que emi-
te dicha fuente, por lo que su interferograma será extrema-
damente complicado.
El espejo móvil tiene que moverse muy suavemente
y se ha de conocer su posición exacta en cada momen-
to. Para ello se usa un láser focalizado en un extremo
del espejo que, al ser luz monocromática, dará un inter-
ferograma sencillo con máximos y mínimos regulares
(sinusoidal). Cada máximo de dicho interferograma indi-
ca la posición del espejo móvil que coincide con la mitad de
la longitud de onda del láser. Esto hace que este sistema

69
de medida tenga una escala de frecuencias IR segura y
precisa.
En un instrumento FTIR, la muestra de la que que-
remos obtener su espectro IR se coloca entre la salida del
interferómetro y el detector. La muestra absorbe la radia-
ción de unas determinadas longitudes de onda relaciona-
das con su composición molecular, como ya hemos visto.
Por lo tanto, el interferograma que obtendremos contendrá
el espectro de la fuente de radiación menos el espectro de
la muestra. Para obtener el espectro de la muestra, se nece-
sitará, entonces, el interferograma de una referencia (que
puede ser el de la célula vacía o solo con disolvente en el
caso de las disoluciones).
Una vez que se ha obtenido el interferograma en cues-
tión, necesita someterse a un proceso matemático, cono-
cido como transformada de Fourier rápida (Fast Fourier
Transform), que nos pasará los datos del dominio tiempo
al dominio frecuencias (intensidad frente a número de on-
das) que todos conocemos como espectro IR.
Evidentemente, el detector usado en este tipo de equi-
pos tiene que ser de respuesta rápida, ya que los cambios
de intensidad son rápidos, puesto que el espejo también
se mueve rápidamente. Como los detectores térmicos ade-
cuados para los espectrofotómetros dispersivos son dema-
siado lentos, se suelen usar detectores piroeléctricos o con-
tadores de fotones enfriados con nitrógeno líquido.
Para conseguir espectros lo suficientemente buenos,
lo que se hace es obtener varios interferogramas de una
muestra y después promediarlos. Con el desarrollo de la
informática todo esto se puede hacer en un tiempo menor
del que utiliza un instrumento dispersivo en hacer un solo
barrido.

70
(VSHFWUyPHWURV5DPDQ
Los espectrómetros Raman, al igual que en el caso de los
IR, pueden ser dispersivos o interferómetros FT.
En la figura 18 se muestra el esquema de un espectróme-
tro Raman dispersivo con una geometría de 180º; actualmen-
te es la que más se usa, ya que se aprovecha la posibilidad de
recoger la luz esparcida por la muestra, que es donde está la
información del espectro Raman, a través de un microscopio.

FIGURA 18
Esquema de un espectrofotómetro Raman dispersivo
Detector
&&'

5HGHVGH
GLIUDFFLyQ
Láser

)LOWUR
(VSHMR
Macro 5HQGLMD
0XHVWUD DMXVWDEOH
(VSHMRV

6HSDUDGRU
GHKD] )LOWURGH
2EMHWLYR
microscopio Noch

Como detectores se usan cámaras CCD, que no son


más que cámaras de vídeo.
En lo que se refiere a los instrumentos FT-Raman,
el esquema es el mismo que en los espectrómetros FTIR,
basado en el interferómetro de Michelson que hemos des-
crito antes, pero usando un láser que emite en el infrarrojo
próximo (1.064 nm), generalmente de Nd-YAG, y un de-
tector de germanio enfriado con nitrógeno líquido.

71
Los instrumentos FT-Raman tienen la ventaja de
que, al operar en el infrarrojo próximo, no compiten con
la fluorescencia de la muestra, que suele ser un problema
cuando se trabaja con láseres de luz visible, pudiendo lle-
gar a enmascarar totalmente el espectro Raman. Sin em-
bargo, puesto que la intensidad de las bandas de un es-
pectro Raman es proporcional a la frecuencia de la luz de
excitación, estos espectros serían de muy baja calidad. No
obstante, la capacidad de obtener numerosos espectros en
poco tiempo y promediarlos hace que mejore la relación
señal ruido y, por lo tanto, la calidad del espectro.

72
&$3Ì78/2
3RViQGRVHVREUHQDQRHVWUXFWXUDV

Nanomateriales: un mundo realmente pequeño

En las dos últimas décadas, los nanomateriales han desper-


tado un enorme interés. Este tipo de materiales, caracteri-
zados por su tamaño extremadamente pequeño, tienen un
gran potencial en sus aplicaciones, desde la electrónica a
la biomedicina, pasando por una amplia colección de apli-
caciones industriales. Como consecuencia de las recientes
mejoras tecnológicas que permiten “ver” y manipular es-
tos materiales, su estudio ha despertado un espectacular
interés científico y económico.
Los nanomateriales pueden ser metales, cerámicas, po-
límeros o materiales compuestos (composites, en inglés). La
característica que los define es que sean operativos cuando
se encuentran en tamaños que van de 1-100 nanómetros
(nm). Un nanómetro es igual a la mil millonésima parte del
metro, o lo que es lo mismo, 1 metro es igual a mil millones
de nanómetros. El prefijo nano- viene del griego y significa
“enano” o “extremadamente pequeño”. Un nanómetro es

73
la longitud que ocupan entre tres y cinco átomos alineados
en fila india. Para que nos hagamos una idea, el diámetro
de un cabello humano es unos cinco órdenes de magnitud
mayor que una nanopartícula.
Sin embargo, el estudio de los nanomateriales no su-
pone únicamente un paso más en la miniaturización de las
cosas, sino un campo de trabajo completamente diferen-
te. El mundo “nano” se encuentra a medio camino entre
la escala atómica con los correspondientes fenómenos
cuánticos y la escala de los materiales de mayor tamaño.
A nivel de los nanomateriales, las leyes de la física atómica
pueden cambiar algunas de las propiedades del material, lo
que puede implicar cambios en el comportamiento del
material cuando se utiliza en el mundo cotidiano, esto es, a
mayor escala.
Aunque el interés mostrado por los nanomateriales es
relativamente reciente, el concepto apareció ya hace más
de 50 años. En efecto, en 1959, el físico estadounidense
Richard Feynman (1918-1988), premio Nobel de Física
en 1965, dio una charla en California, titulada “Hay mu-
cho sitio al fondo”, en la que comentó que no hay razones
físicas fundamentales para que no se pudieran fabricar y
manipular átomos individuales.
En realidad, el ser humano ha obtenido y ha usado
nanomateriales durante cientos de años. Por ejemplo, el
hermoso color rojo rubí de cierto tipo de vidrio se debe
a nanopartículas de oro atrapadas en la matriz vítrea. El
esmalte vidriado conocido como lustre, que se ha encon-
trado en cerámicas medievales, contiene nanopartículas
metálicas esféricas dispersadas de una forma determina-
da en el propio esmalte, lo que le confiere unas propieda-
des ópticas especiales. Las técnicas usadas para producir

74
estos materiales estaban protegidas y permanecían en se-
creto en aquellos años, pero incluso ahora no son del todo
conocidas.
El desarrollo de la nanotecnología se ha visto impul-
sado por las mejoras en la instrumentación, construyen-
do aparatos que nos permiten observar el “nanomundo”,
como la última generación de sofisticados microscopios
electrónicos y de efecto túnel. En 1990, unos científicos
de IBM consiguieron controlar la posición de átomos in-
dividuales de xenón (uno de los gases nobles) sobre una
superficie de níquel y escribir así el logotipo de la empre-
sa, usando un microscopio de efecto túnel, como demos-
tración del avance de la flamante y nueva tecnología que
habían desarrollado. A mediados de los años ochenta se
descubrió un nuevo tipo de material, unas esferas huecas
de carbono que recibieron el nombre de fullerenos en honor
del arquitecto Buckmunster Fuller, quien había diseñado
una bóveda geodésica con una geometría similar a la que
se encontró a nivel molecular en estos compuestos. Los
fullerenos se representan como C60, ya que se trata de 60
átomos de carbono enlazados que dan lugar a una molécu-
la con la forma de un balón de fútbol. Su descubrimiento
inspiró a los investigadores que llevaron a cabo la fabrica-
ción de nanofibras de carbono con diámetros inferiores a
100 nm. En 1991, el investigador japonés S. Ijima (1939),
de la firma NEC (Nippon Electric Company), publicó la
primera observación de nanotubos de carbono, que desde
entonces hasta la actualidad han sido fabricados por un
gran número de empresas para su uso comercial.
En definitiva, los nanomateriales que despiertan tan
grande interés en el mundo científico básico y en el campo
industrial son muchos y muy variados, pero ¿qué es lo que

75
hace que sean tan diferentes y tan fascinantes? Su extre-
madamente pequeño tamaño está en la misma escala que
el tamaño crítico de algunos fenómenos físicos. Por ejem-
plo, la anchura del principio de una grieta en un material
determinado puede estar entre 1 y 100 nm. La forma que
tiene de crecer dicha grieta en una pared suele ser distin-
ta de como lo hace en un nanomaterial, ya que, en este,
el tamaño de la grieta y de las partículas que la rodean
son comparables, y en la pared, no. Además, a este nivel
también son diferentes los procesos electrónicos, mag-
néticos, ópticos, químicos y biológicos fundamentales.
Parece lógico pensar que si las proteínas tienen un tama-
ño entre 10 y 1.000 nm y las paredes celulares entre 1 y
100 nm de ancho, su comportamiento frente a un nano-
material será bastante diferente del que experimentarán
frente a materiales macroscópicos. Todo esto hace que
las nanocápsulas y los nanodispositivos ofrezcan nuevas
posibilidades en temas tan diversos como el transporte y
la liberación de fármacos, la terapia genética y los diag-
nósticos médicos.
Las superficies y las interfaces también son impor-
tantes a la hora de explicar el comportamiento de los na-
nomateriales. En los materiales macroscópicos solo hay
un pequeño porcentaje de átomos que están en la super-
ficie o cerca de ella. Sin embargo, en los nanomateriales,
su pequeño tamaño hace que muchos átomos, quizá más
de la mitad en algunos casos, estén cerca de la super-
ficie. Este hecho hace que algunas de las propiedades
superficiales como los niveles de energía, la estructura
electrónica y la reactividad puedan ser muy diferentes
de las del interior, dando lugar a un material con nuevas
propiedades.

76
Entre los nanomateriales más usados se encuentran
los nanocomposites basados en pequeñas cantidades de na-
nopartículas dispersadas en una matriz polimérica. Se ha
visto que un material tan humilde como la arcilla, cuando
se añade en pequeñas cantidades (del orden del 2%) a una
matriz polimérica (resina de poliimida), aumenta su rigi-
dez un 100%. Pero las nanopartículas, además de mejorar
las propiedades mecánicas, también han demostrado que
mejoran la estabilidad térmica, permitiendo en algunos ca-
sos el uso de un material hasta 100 ºC por encima de su
temperatura de trabajo habitual. También se ha estudiado
la disminución de la inflamabilidad de materiales por la
presencia de nanopartículas de arcillas en matrices polimé-
ricas, cualidad de gran importancia para la seguridad en el
transporte de ciertas mercancías; este tipo de nanomate-
riales también se usan para componentes aeroespaciales,
electrónicos, etc.
Pero la investigación más importante se ha realizado
en el campo de los nanotubos de carbono, hace unos años,
y, más recientemente, de los grafenos. En efecto, durante
los últimos veinte años se han sintetizado nanopartículas
de carbono con diversas formas: bastones, fibras, tubos
con simple o doble pared, con los extremos abiertos o
cerrados y con formas rectas o espirales. Había muy bue-
nas razones para dedicar tanto esfuerzo a los nanotubos
de carbono, debido principalmente a sus especiales pro-
piedades, como una rigidez y una fortaleza mayores a las
de cualquier otro material, así como unas extraordinarias
propiedades electrónicas. Por ejemplo, se ha probado que
son térmicamente estables en el vacío por encima de los
2.800 ºC, que tienen una capacidad para transmitir la co-
rriente eléctrica más de mil veces mayor que los hilos de

77
cobre y que tienen una conductividad térmica que es el
doble de la del diamante, que es otro compuesto de carbo-
no. Pero, aunque se esperaba de ellos que llegaran a ser la
base de una nueva era de dispositivos electrónicos mucho
más pequeños y más potentes que los actuales, todas estas
expectativas han quedado un poco paralizadas por la apa-
rición de un nuevo tipo de material: el grafeno.

¿Qué es el grafeno?

El grafeno es un tipo de material bidimensional, esto es, en


forma de hojas, que fue descubierto por el grupo del pro-
fesor de origen ruso Andre Geim (1958) en la Universidad
de Mánchester (Reino Unido). Estas hojas están forma-
das por una red hexagonal de átomos de carbono unidos
por dobles enlaces, o por decirlo más técnicamente, del
tipo sp2, de la misma forma que lo hacen en el grafito, si
bien en este caso las hojas están apiladas. Estos materiales
bidimensionales presentan nuevas propiedades muy inte-
resantes y su descubrimiento ha dado un empuje a la in-
dustria del carbón.
Si el grafeno no es más que grafito en el que se ha con-
seguido separar las hojas que lo forman, ¿por qué no se ha
descubierto hasta hace unos pocos años? Sencillamente,
porque no hemos mirado bien. Había teorías que soste-
nían que no era posible la existencia del grafeno, pues se-
ría destruido por simples fluctuaciones térmicas, las cuales
llevarían a la fusión de las redes cristalinas de carbono. De
hecho, un gran número de investigadores intentaron sin
éxito obtener películas delgadas, con un espesor de orden
atómico, ya que eran inestables y tendían a separarse y a

78
formar grumos en lugar de hojas perfectas. En la vida co-
rriente, cualquiera que haya escrito con un lápiz ha for-
mado, con toda seguridad, láminas de grafeno. El grafito
de la mina del lápiz se separa en hojas cuando se restriega
sobre un papel y, con un poco de suerte, alguna de esas
hojas tendrá un espesor de una sola capa de átomos, esto
es, nuestro grafeno.

Nanopartículas metálicas y coloides

Un caso especial dentro del mundo de los nanomateriales


son las nanopartículas, caracterizadas por tener una alta
relación superficie/volumen, lo que les confiere unas pro-
piedades únicas y muy distintas a las clásicas del mismo
material. Dentro de las nanopartículas, las metálicas tie-
nen unas características concretas que, como veremos más
adelante, las hacen especialmente interesantes para poder
estudiar la estructura de las moléculas que se encuentran
cerca de ellas.
Si miramos hacia atrás, encontramos que la extrac-
ción de oro comenzó en Bulgaria, nada menos que 5.000
años antes de Cristo, y los egipcios ya obtenían 10 tone-
ladas por año cuando se construyó la maravillosa estatua
de Tutankamón (1300-1200 a.C.). Unos mil años des-
pués, en el siglo IV a.C., aparece el concepto “oro solu-
ble” en el propio Egipto y en China. Un clásico ejemplo
del uso del oro como partículas “nano” es la famosa copa
de Lycurgus que podemos ver en el British Museum de
Londres, con un estupendo color rojo, que proviene de las
nanopartículas de oro, cuando se ilumina desde dentro, y
azul verdoso si simplemente la exponemos a la luz del día.

79
Además del oro, se han utilizado otros metales como la
plata y el cobre en cerámicas de distintas épocas y loca-
lizaciones. Una de las primeras tecnologías de nanopar-
tículas metálicas que han llegado hasta nuestros días son
las vidrieras de las catedrales, ya que, según el tamaño de
la partícula que se dispersa en el vidrio, su color cambia
cuando se ilumina.
Además, hasta bien entrada la Edad Media, el oro
soluble (que hoy llamaríamos coloides de oro) tuvo una
gran reputación, pues reveló tener capacidad curativa para
enfermedades tales como los problemas cardiológicos y
venéreos, la disentería o la epilepsia. El primer tratado so-
bre oro coloidal, firmado por el filósofo y médico Francisci
Antonii, data de 1618, pero es en 1676 cuando encontra-
mos que el químico alemán Johann Kunckel (1625-1712)
dice: “el oro potable está formado por oro neutro en forma
de una disolución de color rosáceo que exhibe propiedades
curativas para varias enfermedades”, y añade: “el oro tiene
que estar presente en tal grado de miniatura que no sea
visible al ojo humano”. Años más tarde, en 1818, el quími-
co alemán Jeremias Benjamin Richter (1762-1807) sugirió
una explicación para las diferencias de color que mostra-
ban algunos preparados de oro potable: “[…] las disolu-
ciones de color rosa o púrpura contienen oro en su más
alto grado de subdivisión, mientras que las disoluciones
amarillas se obtienen cuando dichas partículas tan finas se
han agregado”.
En 1857, fue el propio Faraday quien publicó la receta
para la obtención de disoluciones de oro coloidal con un
rojo intenso, al reducir una disolución acuosa de cloroau-
rato (AuCl4- ) con fósforo en disulfuro de carbono (CS2).
Asimismo, investigó las propiedades ópticas de películas

80
delgadas obtenidas a partir de disoluciones coloidales y
observó cambios reversibles de su color por estiramiento o
compresión mecánica. A partir de aquí, Graham acuñó el
término “coloide”, del francés colle, que significa “cola” o
“pegamento”.
No obstante, y volviendo al tema que nos ocupa, que
no es otro que el conocimiento y reconocimiento de las
moléculas, lo que verdaderamente es interesante de las na-
nopartículas metálicas en este sentido son sus propieda-
des ópticas y la posibilidad de medirlas gracias al desa-
rrollo de una instrumentación adecuada, todo ello fruto
del esfuerzo de un gran número de investigadores y de
empresas durante los últimos años del siglo XX y princi-
pios del XXI.

La plasmónica

La plasmónica es una rama de la nanofotónica que se basa


en el estudio de los procesos de interacción entre la radia-
ción electromagnética (por ejemplo, la luz) y los electrones
de conducción en la superficie de un metal.
Los metales, además de reflejar la luz, tienen una pro-
piedad óptica menos conocida: bajo ciertas condiciones, la
luz puede viajar por las superficies metálicas sin alejarse de
ellas. Esta es una propiedad muy peculiar, ya que en con-
diciones normales la luz viaja por las tres dimensiones del
espacio y no puede confinarse con facilidad. En realidad,
esta “luz superficial” es una onda más complicada que la
luz normal, ya que no consiste solo en un campo electro-
magnético, sino que involucra también los electrones libres
presentes en los metales.

81
Los comportamientos que se observan como conse-
cuencia de dicha interacción pueden interpretarse en base
a la existencia de plasmones, que son oscilaciones colectivas
de los electrones presentes en un metal. Los plasmones po-
seen características relacionadas con el metal, su geometría
y sus dimensiones, la longitud de onda de iluminación y el
medio circundante.
Podríamos visualizar un plasmón como una onda su-
perficial que rueda por el mar de electrones de conducción
en un metal. Así como la energía de las ondas de luz se
presenta en unidades cuantificadas como partículas llama-
das fotones, también lo es la energía transportada de este
modo, y las llamamos plasmones.
Aunque sus bases ya se habían cimentado a princi-
pios del siglo XX con los trabajos teóricos del físico ale-
mán Arnold Sommerfeld (1868-1951) y las observaciones
experimentales del norteamericano Robert Williams Wood
(1868-1955), el avance en las técnicas de fabricación a es-
calas de 100 nm, los métodos de caracterización de alta
sensibilidad, el incremento sustancial en el poder de cálcu-
lo de los ordenadores actuales y su amplio potencial de apli-
caciones han motivado un aumento generalizado del inte-
rés por este tema.
La caracterización de estos plasmones puede utilizar-
se convenientemente para la determinación de tamaños
de nanopartículas de metales nobles menores que 10 nm,
tanto en estructuras esféricas simples como en estructuras
más complejas, como también para el diseño de sensores
plasmónicos de multicapas o de partícula aislada, de in-
terés tanto en procesos industriales (por ejemplo, células
solares) como biológicos a través de la detección de molé-
culas individuales, como veremos más adelante.

82
Espectroscopía Raman sobre nanoestructuras
metálicas: espectroscopía SERS

En 1974 aparece una publicación en la que se dan a cono-


cer unos resultados que indicaban un aumento inexplica-
ble de la intensidad del espectro Raman de la molécula de
piridina depositada sobre un electrodo de plata, altamente
rugoso. Tres años más tarde se publicaban investigaciones
más precisas del aumento de la intensidad de los espectros
Raman, de la piridina y otras moléculas, que confirmaron
el descubrimiento de un nuevo fenómeno físico, hoy cono-
cido como “scattering de Raman amplificado por la super-
ficie”. Su acrónimo en inglés es SERS (Surface-Enhanced
Raman Scattering), el mismo que se usa en castellano, ya
que, además de ser una abreviatura, se ha convertido en un
nombre propio.
Por lo tanto, podemos decir que el efecto SERS fue
descubierto casualmente por Martin Fleischmann en 1974
cuando intentaba registrar el espectro Raman de piridina
adsorbida sobre un electrodo de plata sometido a varios ci-
clos de oxidación-reducción. Lo que encontraron fue que
el espectro era inusualmente intenso. Hasta ese momento
la detección de la señal Raman de moléculas sobre super-
ficies necesitaba una muy buena puesta a punto del instru-
mento. El fenómeno Raman es tan débil que resulta muy
difícil registrar el espectro de las pocas moléculas situadas
sobre una superficie, lo que impedía, por ejemplo, que se
usara el Raman para el estudio rutinario de fenómenos
electroquímicos.
Se daba la circunstancia de que electrodos pulidos de
un metal no presentaban la propiedad de intensificar el
espectro Raman. Únicamente una superficie con un cierto

83
grado de rugosidad era capaz de producir intensos espec-
tros SERS.
Aunque en un primer momento se creyó que la inten-
sificación Raman se debía al incremento del área superfi-
cial producida por el tratamiento de oxidación-reducción,
muy pronto se pudo demostrar que este no podía ser el
único efecto presente, y que estaba actuando un fenómeno
nuevo y desconocido. Inmediatamente un gran número de
grupos de investigación comenzaron a realizar este tipo
de experiencias registrando el SERS de moléculas en in-
terfases sólido-líquido y sólido-gas principalmente, y em-
pezaron a conocerse sus características generales.
Una de ellas es la marcada dependencia de la inten-
sificación observada con la naturaleza del metal empleado
y su morfología superficial, la naturaleza de la molécula
objeto de estudio y un gran número de variables experi-
mentales como concentración, potencial de electrodo, etc.
El metal que produce los SERS más intensos es, con dife-
rencia, la plata; y, en menor medida, el cobre, el oro y los
metales alcalinos, aunque se han podido registrar espectros
SERS empleando todo tipo de metales con diferentes gra-
dos de intensificación. Por otro lado, el agua produce un
espectro SERS muy débil, una circunstancia afortunada,
ya que permite el registro rutinario de moléculas solubles
en ella sin que el disolvente interfiera de manera significa-
tiva. Otra de las características más llamativas del SERS es
que la intensificación no es uniforme sobre todas las líneas
del espectro Raman, sino que ciertas bandas se intensifi-
can más que otras.
Desde el principio se vislumbró el papel determinante
que desempeñan los plasmones localizados de superficie
(PLS), que pueden excitarse en metales como la plata, el

84
oro y el cobre (también en los metales alcalinos, aunque
en menor medida). Las propiedades dieléctricas de estos
permiten que sostengan PLS en la región visible del es-
pectro electromagnético, posibilitando así el aumento de
las intensidades de las bandas Raman de las moléculas ad-
sorbidas en la superficie y abriendo las puertas a múltiples
aplicaciones.
En 1997 se publicaron dos trabajos en los que hacien-
do uso de PLS se alcanzaba el límite de detección ana-
lítica, el espectro de una molécula individual, lo que situó al
SERS como la primera técnica capaz de obtener el espectro
vibracional de una sola molécula. La detección de una sola
molécula usando fluorescencia formaba ya parte del arse-
nal analítico y actualmente es una técnica muy utilizada,
obviamente, solo en el caso de moléculas fluorescentes.
En efecto, ya hace más de 30 años que se descubrió
la posibilidad de obtener un buen espectro Raman de una
monocapa de moléculas, siempre y cuando dichas molécu-
las se encontraran sobre superficies metálicas rugosas de
metales como el oro y la plata. Desde entonces, el campo
de la espectroscopía Raman mejorada sobre superficies,
también llamada espectroscopía SERS, ha crecido espec-
tacularmente, por lo que hoy se considera una potente he-
rramienta analítica para la detección sensible y selectiva
de moléculas adsorbidas sobre nanoestructuras de metales
nobles.
Sin embargo, el mecanismo de esta técnica ha supues-
to un gran esfuerzo de muchos grupos de investigación
desde que se obtuvieron los primeros resultados. El pri-
mer objetivo era simplemente explicar el aumento de in-
tensidad de los espectros Raman de estas moléculas, que
podía llegar a ser de hasta un millón de veces. Durante

85
esos años, dicho factor de intensificación (enhancement
factor), EFSERS = 106, se entendió como el producto de
dos contribuciones: a) un mecanismo de intensificación
electromagnético y b) un mecanismo de intensificación
químico. Estos dos mecanismos aparecen debido a que
las intensidades de las bandas de un espectro Raman de-
penden de la molécula de que se trate (a través de su
momento dipolar) y de la luz del láser que se utiliza para
obtener el espectro (caracterizada por su frecuencia y
por su intensidad a través del campo electromagnético
que genera).
En efecto, el momento dipolar inducido (μind) en una
molécula iluminada con una radiación caracterizada por
un campo electromagnético es proporcional a la intensi-
dad de dicho campo, E, siendo la constante de proporcio-
nalidad lo que se conoce como polarizabilidad, A, de dicha
molécula. De tal forma que:

μ ind = αE

Ahora bien, la luz con la misma frecuencia que la reso-


nancia de los plasmones superficiales de la superficie me-
tálica cerca de la cual se encuentra la molécula en cuestión,
puede excitar dichos plasmones y multiplicar el campo E
un factor, por ejemplo, de 104. Por lo tanto, tendremos un
espectro Raman cuatro órdenes de magnitud más intenso.
Por otro lado, al estar cerca del metal, la propia molécula
puede pasarle parte de su carga al metal, o viceversa, lo que
daría un espectro Raman del complejo metal-molécula 102
veces más intenso.
A pesar de esta espectacular intensificación, que hace
de la espectroscopía SERS una técnica varios órdenes de

86
magnitud más intensa que la espectroscopía Raman con-
vencional, hasta finales de los años noventa no se utilizó
de forma generalizada todo su potencial. De hecho, los
primeros sistemas metálicos que se usaron fueron poco
o nada reproducibles, pues se fabricaban superficies me-
tálicas rugosas obtenidas por métodos electroquímicos.
Pero los recientes avances en nanofabricación y el descu-
brimiento en 1997 de un espectro SERS de una molécu-
la individual (el límite de detección más pequeño) dieron
lugar a una explosión de nuevos estudios y la extensión
de la espectroscopía SERS, que de ser un interesante fe-
nómeno físico pasó a convertirse en una robusta y efecti-
va técnica analítica. Además, las nuevas técnicas de pre-
paración y modificación de superficies han permitido la
selectividad de las moléculas a analizar (analitos).

)XQGDPHQWRVGHODHVSHFWURVFRStD6(56

Cuando una onda electromagnética interactúa con una


superficie metálica, el campo electromagnético sobre
dicha superficie (campo cercano) es diferente de los
que se observan lejos de ella (campo lejano). Si la su-
perficie es rugosa, la onda puede excitar los plasmones
superficiales localizados sobre ella, dando lugar a una
amplificación del campo electromagnético cerca de la
misma. Si consideramos que una molécula determinada
está cerca de la superficie, el campo amplificado llega-
rá a ella como si de una radiación láser más intensa se
tratara, produciendo, como hemos visto anteriormente,
una radiación esparcida (scattering). Esta radiación, a
su vez, al estar cerca de la superficie, será amplifica-
da de nuevo, por lo que producirá un espectro Raman

87
mucho más intenso, o sea, lo que se conoce como es-
pectro SERS, ya que su intensificación se debe a la su-
perficie cercana a la molécula.

6RSRUWHV6(56FRORLGHV

Aunque los primeros experimentos SERS se hicieron sobre


electrodos metálicos rugosos, y a pesar de que son muchos
y muy variados los soportes SERS que se han utilizado a
lo largo de estos cuarenta años transcurridos desde que se
conoció el fenómeno, las nanopartículas que han dado los
mejores y más consistentes resultados han sido los coloides
metálicos.
Los coloides son sistemas intermedios entre las ver-
daderas disoluciones y las suspensiones groseras, integra-
dos por nanopartículas de un determinado material (fase
dispersa o dispersoide) que se encuentran suspendidas en
un medio de naturaleza diferente al de la partícula en sus-
pensión (medio de dispersión). Normalmente los sistemas
que más se adaptan a tal definición son partículas sólidas
suspendidas en gases, fluidos e, incluso, sólidos, aunque
también encontramos propiedades coloidales en macro-
moléculas o asociaciones supramacromoleculares en sus-
pensión. Lo que realmente caracteriza las suspensiones
coloidales es el tamaño de las partículas, que en el caso de
los coloides está comprendido entre los 200 μm y 1 μm,
aproximadamente. En realidad, los coloides son sistemas
muy frecuentes en la naturaleza. Piénsese, por ejemplo,
en las partículas de polvo suspendidas en el aire, en las
partículas suspendidas en aguas de ríos o mares, las rocas
o los materiales del suelo, muchos alimentos, el humo, las
nubes, las brumas, etc.

88
Como ya hemos dicho al principio de este capítulo,
los coloides metálicos se conocen desde hace mucho tiem-
po. En la Antigüedad se empleaban ya los de oro como
sustancias colorantes en la fabricación de vidrios. Desde
los tiempos de Faraday se conocen las especiales propie-
dades ópticas de “los metales finamente divididos”, como
él solía definir las suspensiones coloidales de metales. Estas
suspensiones poseían colores diferentes según el método
que se emplease en su preparación. El mecanismo preci-
so de dicha coloración fue propuesto por el físico alemán
Gustav Mie (1869-1957), quien mostró que los colores de
los coloides metálicos, considerados como suspensiones
de partículas esféricas, eran una consecuencia conjunta de
la absorción y el scattering de la luz.
En la preparación de sistemas coloidales con diferen-
tes aplicaciones, una cuestión de máxima importancia es
la posibilidad de controlar la forma y el tamaño de las
nanopartículas obtenidas, ya que las propiedades opto-
electrónicas que de ellas se derivan dependen de estos
dos parámetros. Las partículas coloidales en suspensión
tienen el problema de su gran inestabilidad. Son siste-
mas inestables que tienden a precipitar con el tiempo. A
la hora de preparar coloides metálicos, se debe prestar
especial atención a su estabilización mediante diferentes
medios.
Los coloides, en general, poseen unas propiedades
ópticas derivadas del tamaño de las partículas en suspen-
sión, como es la propiedad de dispersar la luz incidente
por sucesivas reflexiones y refracciones, un efecto que
se conoce como efecto Tyndall. Los coloides metálicos,
en particular, presentan unas propiedades ópticas espe-
cíficas de su naturaleza metálica. Sin embargo, pueden

89
diferir en muchos aspectos respecto a las de los metales,
entendidos como materiales compactos. En realidad, las
nanopartículas metálicas pueden ser consideradas como
un estado intermedio entre un simple átomo y un material
compacto.
Cuando las partículas metálicas son de pequeño tama-
ño, en relación con la longitud de onda de la luz utilizada
para obtener un espectro Raman, la absorción predomina
sobre la difusión; pero, para las partículas grandes, la difu-
sión determina en gran medida el color de la suspensión.
La energía de los plasmones depende de la naturaleza del
metal, así como de la morfología y tamaño de las partículas
implicadas.

&DUDFWHUL]DFLyQGHODVQDQRSDUWtFXODVPHWiOLFDV

La caracterización de las nanopartículas metálicas, entre


ellas las de los coloides, puede hacerse mediante métodos
espectroscópicos o microscópicos. Así, los espectros de
absorción en el visible o en el ultravioleta (UV) permiten
conocer la energía debida a los plasmones de las nanopar-
tículas metálicas, que están relacionados con el tamaño y la
morfología de las mismas. Los mecanismos de agregación
de coloides pueden también deducirse de los cambios que
se observen en los espectros de absorción una vez trans-
currida la agregación. Cuando tiene lugar la agregación,
la banda de absorción correspondiente a los plasmones de
partículas sin agregar (véase la figura 19) decrece, apare-
ciendo una nueva a una longitud de onda mayor, debida a
los plasmones de las partículas agregadas. La posición de
esta segunda banda está estrechamente relacionada con el
mecanismo de agregación.

90
FIGURA 19
Espectros de absorción UV-visible
de coloides de plata

&RORLGHVLQDJUHJDU

$JUHJDGRVJOREXODUHV
$EVRUEDQFLD

$JUHJDGRVOLQHDOHV

   


λ QP

Las nanopartículas metálicas también pueden carac-


terizarse mediante microscopía electrónica, que permite
un seguimiento de los procesos de agregación.
Los métodos más utilizados son los que se basan en
una reducción química de los iones metálicos correspon-
dientes. Sin embargo, también se han descrito otros méto-
dos como la fotorreducción y la ablación láser.

91
&$3Ì78/2
¢8QDPROpFXODVROWHUD"

En general, los físicos, los químicos, los biólogos, etc., cuan-


do hablan de moléculas piensan en moléculas individuales.
Sin embargo, cada uno de sus experimentos implica un
enorme número de ellas, formando un conjunto que po-
demos observar durante un largo periodo de tiempo. Pero
¿estamos seguros de que todas las moléculas de una mues-
tra se comportan exactamente de la misma forma? ¿Hasta
qué punto tiene sentido, entonces, el concepto “reacción
de la molécula A con la molécula B”? Hay casos en los que
la hipótesis de considerar que el sistema que estamos estu-
diando es homogéneo parece razonable; por ejemplo, una
molécula pequeña disuelta en un líquido a baja concentra-
ción. Pero, en otros casos, como puede ser la adsorción de
moléculas en un sólido poroso, es lógico pensar que una
misma molécula presente diferentes comportamientos, de
acuerdo al tamaño del poro, al microambiente que la ro-
dea, etc. No obstante, las propiedades que seamos capaces
de medir en nuestras muestras no son más que un prome-
dio de las de cada una de las moléculas individuales.

92
El estudio de moléculas individuales (single molecules,
en inglés), que solo ha sido posible desde hace pocos años,
elimina completamente el promediado de un conjunto,
siendo la forma más directa de controlar la homogeneidad
de nuestra hipótesis.
El sueño de ver y manipular moléculas individuales
nació hace un siglo, cuando su existencia comenzó a ser
ampliamente aceptada. Los físicos y los químicos comenza-
ban a ver las primeras imágenes de átomos y moléculas en el
microscopio electrónico de alta resolución que habían estado
esperando durante tantos años, a expensas de dañar rápida
e irreversiblemente las muestras, debido a la potente radia-
ción y a las altas energías necesarias para llegar a tener una
resolución atómica, esto es, poder distinguir los átomos de
una molécula. Hay que tener en cuenta que en microscopía
electrónica y en otras técnicas similares como la microsco-
pía óptica, las imágenes de una muestra se reconstruyen al
analizar las ondas o las partículas esparcidas por la misma.
Pero en los años ochenta hubo un cambio radical en
el punto de vista de los científicos con la aparición de la
microscopía por efecto túnel. Este microscopio consiste en
una afilada punta metálica que va barriendo muy de cerca
la superficie de una muestra conductora, mientras la co-
rriente eléctrica que se establece entre la punta y la super-
ficie (llamada efecto túnel) se mantiene constante. De esta
forma se pudieron obtener imágenes de la topografía de la
muestra, con una resolución espacial limitada esencialmen-
te por lo afilada que esté la punta. Muy pronto se comenzó
a aplicar la misma técnica a otro tipo de señales (fuerzas
magnéticas, señales ópticas, etc.) y se desarrolló una nueva
serie de microscopios que barrían con puntas metálicas.
La consecución de imágenes de moléculas individuales no

93
solo es un logro de la tecnología moderna, ya que supuso
además la superación de toda una barrera psicológica que
habría existido hasta entonces.
Teniendo en cuenta todo esto, uno de los métodos más
prácticos para detectar y estudiar una molécula individual
por medios ópticos es detectar la fluorescencia inducida al
iluminar con la luz de un láser una muestra consistente en
un pequeño volumen en el que únicamente una molécula
determinada pueda ser excitada por el láser en cuestión.
Al recoger la fluorescencia producida por el volumen de
muestra iluminado, observaremos una señal que necesa-
riamente se debe a una molécula individual. Este método
combina ideas que provienen en principio de la microsco-
pía óptica y de la electrónica, en las que únicamente se en-
vían y se recogen ondas luminosas en la muestra, aunque
también hay parte de la microscopía de efecto túnel, en la
cual se identifica la muestra localmente y a través de un
objeto pequeño, como la punta metálica afilada de la que
hemos hablado antes. Ahora es la propia molécula, en lu-
gar de una punta, la que hace de objeto identificador. Una
vez más, la espectroscopía óptica, en este caso concreto la
fluorescencia inducida por láser, aparece como uno de los
caminos más antiguos y baratos para estudiar la estructura
y dinámica molecular; su principal ventaja es que identifi-
ca una molécula “a distancia”, lo que la convierte en una
técnica relativamente no invasiva que permite estudios que
van más allá de las capas superficiales, puesto que las téc-
nicas microscópicas se restringen a la superficie. Además,
pueden obtenerse espectros en varias condiciones diferen-
tes (atmósfera ambiental, agua líquida, etc.).
Los primeros estudios ópticos fueron de átomos o io-
nes individuales en fase gaseosa y se realizaron en los años

94
ochenta. Sin embargo, la detección de moléculas indivi-
duales en medios condensados (no gaseosos) se desarrolló
más lentamente, debido principalmente a dos obstáculos.
En primer lugar, hay que tener en cuenta que la matriz del
entorno de la molécula (por ejemplo, el disolvente) suele
dar lugar a una señal que enmascara la señal de la propia
molécula, a menos que se limite severamente el volumen
iluminado. En segundo lugar, el número total de fotones
que una molécula individual puede emitir suele estar limi-
tado por la fotodecoloración de la muestra a temperatura
ambiente. Ya en 1976 se pudieron detectar macromolécu-
las biológicas marcadas con cientos de grupos químicos,
también conocidos como etiquetas, que tenían que ser
fluorescentes. Aunque ya se habían detectado moléculas
individuales disueltas en un líquido, el continuado progre-
so en el desarrollo de detectores y en la instrumentación
óptica llevó a Moerner y Kador a conseguir, en 1989, la
detección de una molécula individual en un sólido a baja
temperatura. Las buenas señales espectroscópicas obteni-
das y la posibilidad de estudiar una molécula individual
durante largos periodos de tiempo, que había sido impo-
sible conseguir en disolución debido a la difusión del di-
solvente y al flujo de la propia disolución, abrieron la vía a
muchos experimentos que años antes se habían realizado
únicamente para conjuntos de moléculas.

¿Por qué estudiar moléculas individuales?

La espectroscopía de moléculas individuales (Single-Mo-


lecule Spectroscopy: SMS) permite observar exactamente
una sola molécula de una sustancia oculta profundamente

95
en el interior de un sólido o un líquido, que en compara-
ción con los gases se conocen como fases condensadas.
El fundamento de esta técnica se basa en el uso de una
radiación óptica (luz) que sea sintonizable (que poda-
mos seleccionar su longitud de onda), típicamente un
láser, y representa el más alto nivel de sensibilidad que
se pueda alcanzar (~1,66  10-24 moles de la molécula
en cuestión).
Para obtener un espectro SMS se usa la luz del láser
para bombear una transición electrónica de la molécula
que sea resonante con la longitud de onda del láser y se
detecta la absorción de la luz, la emisión fluorescente o
la difusión Raman, dependiendo del tipo de espectro que
se quiera registrar (IR, fluorescencia o Raman), como
ya hemos visto en el capítulo 3. La nueva situación, sin
embargo, hace que se tenga que detectar una molécula
en presencia de billones o trillones de moléculas de disol-
vente o de otras moléculas presentes en el cristal, cuando
se trata de un sólido.
Pero ¿cuál es la nueva información que nos puede dar
el estudio de moléculas individuales? Evidentemente, las
medidas clásicas de conjuntos de moléculas presumible-
mente idénticas que nos da un valor promedio, que es lo
que conocemos como espectros, siguen siendo de gran in-
terés. Por el contrario, las medidas SMS eliminan el pro-
mediado y permiten obtener una distribución de espectros
según el número de moléculas individuales diferentes que
se encuentren en la muestra. Por supuesto que dicha dis-
tribución tiene más información que el espectro promedio.
Esto tiene una importancia mayor cuando el sistema que
se estudia es heterogéneo, como es el caso de muchos cris-
tales, polímeros y vidrios.

96
Afortunadamente, una molécula individual puede ser
una especie de “chivata” de su “nanoentorno”, es decir,
de la nube de grupos químicos funcionales, átomos, iones,
cargas electrostáticas, etc., que se encuentran cercanos a
ella. En el caso concreto de las biomoléculas, es muy fácil
que aparezcan muchos espectros diferentes si las distintas
moléculas individuales de una proteína u oligopéptido tie-
nen distintos estados de plegamiento, configuraciones di-
ferentes o incluso si se encuentran en diferentes etapas de
un ciclo enzimático.
Otra ventaja de la espectroscopía SMS es que no es
necesaria la sincronización de muchas moléculas indivi-
duales para que se comporten de la misma forma durante
un periodo de tiempo. Por ejemplo, un sistema enzimático,
que puede estar en varios estados catalíticos, necesita que
todas las moléculas estén en el mismo estado en el momen-
to que comienza la medida; pero si hacemos medidas de
moléculas individuales (SMS), cada una de ellas podrá es-
tar en un estado catalítico diferente en un momento dado,
por lo que se podrá estudiar la secuencia específica de los
cambios de estado catalítico que la enzima pueda sufrir,
como hidrólisis, enlaces con otras moléculas, etc. Si dispo-
nemos de instrumentos con detectores lo suficientemente
rápidos, es decir, con resolución temporal apropiada, hasta
podremos identificar directamente compuestos interme-
dios más o menos estables, mientras que, en las medidas
tradicionales, estos compuestos quedarán enmascarados
por las especies más pobladas.
En resumen, durante los últimos doce años la espec-
troscopía SMS se ha convertido en una herramienta óptica
fascinante que ha permitido observar procesos dinámicos
y estáticos de diversos tipos de moléculas, especialmente

97
biomoléculas, a nivel molecular individual. A todo ello ha
contribuido el desarrollo de una tecnología puntera que
ha sabido combinar detectores altamente sensibles con
algunas configuraciones microscópicas, como la micros-
copía confocal, la reflexión interna total y la microscopía
de campo cercano. Hoy en día, la técnica SMS se usa am-
pliamente en un gran número de aplicaciones tales como
la identificación de moléculas, los cambios estructurales
de una molécula individual durante un proceso dinámi-
co temporal, el seguimiento de una molécula individual en
una célula viva y la cinética de algunos cambios conforma-
cionales en biomoléculas cuando cambian las condiciones
fisiológicas.
Una de las propiedades intrínsecas más importantes
en la detección de moléculas individuales es lo que se co-
noce como sección eficaz óptica (optical cross-section) y
que no es más que un factor intrínseco que depende de las
características ópticas de cada molécula y nos da la medida
de la superficie que es capaz de “ver” para cada molécula
dicha técnica instrumental. Evidentemente, cuanto mayor
sea la sección eficaz, mejor se podrá detectar una molécula
individual determinada.
Por ejemplo, en el caso de las moléculas de colorantes,
la sección eficaz de fluorescencia es ~10-16 cm2 por molé-
cula, mientras que la sección eficaz de la técnica Raman es
~10-30 cm2 por molécula. Esto indica que hay una enorme
diferencia, ya que la fluorescencia es 1014 veces más efec-
tiva que la espectroscopía Raman, o lo que es lo mismo,
el número de fotones detectados en fluorescencia es 1014
veces mayor que en Raman, lo cual supone una gran des-
ventaja a la hora de usar la espectroscopía Raman para
detectar moléculas individuales.

98
Espectroscopía SERS de moléculas individuales
(SM-SERS)

Sin embargo, a pesar de su baja sección eficaz, la espec-


troscopía Raman sigue teniendo muchas ventajas y muy
significativas. En primer lugar, la detección de moléculas
individuales por Raman es capaz de identificar moléculas
desconocidas, ya que los modos vibracionales de un es-
pectro Raman conforman una verdadera huella digital de
la molécula en cuestión. Dicha identificación molecular no
se puede obtener de un espectro de fluorescencia, puesto
que solo da una ancha banda de emisión asociada con los
niveles electrónicos excitados de la molécula. En segundo
lugar, para obtener medidas SMS por fluorescencia se ne-
cesita que una molécula fluorescente (marcador) se enlace
covalentemente al sistema que se quiere estudiar. Por el con-
trario, las medidas SMS por Raman no necesitan ningún
marcador, convirtiéndola en una técnica espectroscópica no
invasiva. No obstante, la baja sección eficaz de la espectros-
copía Raman tiene que ser aumentada. Como ya vimos en
el capítulo anterior, una forma de aumentar la sensibilidad
de la técnica (y, por lo tanto, su sección eficaz) es obtenien-
do los espectros Raman en presencia de nanopartículas me-
tálicas, que es la base de la espectroscopía SERS. En este
caso, la baja intensidad de un espectro Raman normal (con
una sección eficaz de ~10-30 cm2 por molécula) aumenta
extraordinariamente en un intervalo que oscila entre 103 y
1014 veces. Este intervalo depende de varios factores como
el tamaño y la forma de las nanopartículas metálicas cerca-
nas a la molécula y al tipo de metal del que se trate.
Históricamente, en 1997 dos grupos independientes
fueron los pioneros en la obtención de espectros SERS de

99
muestras cuya concentración se aproximaba a las molé-
culas individuales. Se trata de la doctora Katryn Kneipp
en Alemania y de los doctores Nie y Emory en los Estados
Unidos. El grupo de Kneipp consiguió registrar el espec-
tro SERS de una molécula individual del colorante violeta
de genciana (crystal violet) con la ayuda de agregados de
plata coloidal de 100-150 nm de diámetro y con estruc-
tura fractal (del latín fractus, que significa “fracturado”;
se refiere a un objeto geométrico cuya estructura básica,
fragmentada o irregular, se repite a diferentes escalas).
La sección eficaz en este caso se estimó entre 10-17 y 10-16
cm2 por molécula, valor comparable al de la fluorescen-
cia. Por otro lado, Nie y Emory, ayudados por medidas
de polarización de la luz incidente, concluyeron que las
nanopartículas de plata sin agregar, pero con un tamaño
determinado, daban lugar a una enorme intensificación
de la señal Raman sin necesidad de presentar una estruc-
tura fractal. De hecho, consiguieron espectros SM-SERS
mucho más intensos que los obtenidos en medidas SMS
de fluorescencia.
Sin embargo, con el paso del tiempo estos resultados
han sido cuestionados por muchos grupos de investigación
que intentaron repetir en vano de forma independiente sus
experimentos. En la actualidad se considera que el factor
de intensificación que como mínimo se necesita para obte-
ner espectros SM-SERS ha de ser de 107.
En general, se acepta que para obtener el espectro
SERS de una molécula individual, esta tiene que encon-
trarse en un “punto caliente” (hot spot), que no es más que
el espacio que existe entre dos nanopartículas metálicas
que se encuentran muy cerca. Por ejemplo, el grupo del pro-
fesor sueco Mikael Käll registró en 1999 el espectro SERS

100
de una molécula individual de la proteína hemoglobina lo-
calizada entre dos nanopartículas de plata (dímero), cuya
única condición era que la orientación del dímero fuera
paralela a la polarización de la luz incidente del láser nece-
sario para obtener el espectro Raman. Evidentemente, el
esfuerzo de los investigadores en este tema ha estado diri-
gido a conseguir hot spots que sean altamente reproduci-
bles y muy estables.

3UHSDUDFLyQGHPXHVWUDVSDUDSRGHUKDFHU 
PHGLGDV606(56

Para obtener medidas SERS de moléculas individuales


nos tenemos que asegurar de que únicamente haya una
sola molécula en cada hot spot. Los métodos de prepara-
ción de muestras con este fin se pueden clasificar en tres
categorías:

a) Control de la concentración: es el método más con-


vencional para la detección de moléculas indivi-
duales. En general, para detectar SM por fluores-
cencia se usan disoluciones con una concentración
por debajo de nanomolar (10-9 moles por litro).
Sin embargo, este método resulta problemático
para medidas SM-SERS por dos razones. La pri-
mera es el inevitable control de la concentración
en esta técnica, ya que solo una parte de las mo-
léculas en disolución se unen a las nanopartículas
de metal. Además, como es prácticamente imposi-
ble estimar el número real de partículas metálicas
que forman parte del hot spot que sean eficientes,
la preparación de estas muestras se convierte en

101
algo muy ambiguo que depende de cada sistema
que se quiere medir.
b) Preparación de bi-analitos: este método, ideado por
el grupo del profesor Etchegoin en Australia, fue
el primero que se utilizó para superar la incerti-
dumbre en la cuantificación del número de molé-
culas localizadas en un mismo hot spot. En pocas
palabras, consiste en mezclar en la misma diso-
lución dos especies diferentes, que llamaremos
M1 y M2, cada una de las cuales con un espectro
SERS característico. Dependiendo de la zona que
observemos en el microscopio Raman, obtendre-
mos tres tipos diferentes de espectros SERS, que
corresponderán a los compuestos puros M1 y M2
y a una mezcla de ambos espectros, deduciendo
así en qué hot spot concreto tendremos una molé-
cula individual de uno de los compuestos objeto
de nuestro estudio. Realmente se trata de un cu-
rioso método de estrategia estadística.
c) Obtención de nanogaps: como ya hemos dicho más
arriba, se ha demostrado que los mayores factores
de intensificación en espectroscopía SERS (entre
1010 y 1011), que son los que dan lugar a medidas
SM-SERS, ocurren cuando tenemos discontinui-
dades en las nanopartículas metálicas de un tama-
ño de muy pocos nanómetros. Estas discontinui-
dades se llaman en inglés nanogaps, y los espectros
SERS que producen son conocidos como espectros
NERS (Nanogap-Enhanced Raman Scattering).
A la obtención de estos nanogaps contribuye tam-
bién la espectroscopía TERS, que consiste en la
obtención de espectros SERS con la ayuda de una

102
punta afilada y metalizada, de las que se usan
en microscopía de fuerzas atómicas (AFM), que
se acerca a una superficie metálica. También se
pueden obtener nanogaps sintetizando nanopar-
tículas mixtas de plata y de oro del tipo núcleo-
cáscara (core-shell) o formando puentes entre
nanopartículas por medio de moléculas lineales
que se anclan sobre las superficies de las nano-
partículas.

Perspectivas

La posibilidad de detectar una sola molécula individual


nos ha dado un nuevo punto de vista a la hora de observar
su comportamiento, tanto estático como dinámico, sin el
efecto promediador de las otras moléculas que la rodean.
Además, la espectroscopía SERS ha proporcionado una
información estructural mucho más rica de la que hasta
hace unos años se obtenía de los estudios de fluorescencia,
técnica incapaz de dilucidar una verdadera información
molecular.
En la actualidad, las medidas SM-SERS se aplican
ampliamente para la detección de biomoléculas de todo
tipo, como ADN, ARN, proteínas, para la obtención de
imágenes de células vivas e incluso para el diagnóstico de en-
fermedades, cuando al principio se consideraba que se tra-
taba de un método solo aplicable a investigaciones quími-
cas básicas.
Sin embargo, aún quedan unos cuantos retos que
nos llevan a profundizar en la técnica SM-SERS, princi-
palmente relacionados con la obtención reproducible de

103
hot spots que produzcan una amplificación suficiente de la
señal y una estrategia estadística adecuada que nos haga
discernir cuándo tenemos el verdadero espectro de una
molécula individual o, como se conoce en todo el mundo,
single molecule.

104
&$3Ì78/2
/DVPROpFXODVHQHOGtDDGtDGHVGH
ORPiVSHTXHxR QDQR KDVWDORPiV 
JUDQGH HOHVSDFLR 

Como hemos visto desde el comienzo de este libro, la es-


pectroscopía basada en la respuesta que dan las moléculas
con sus vibraciones al estímulo que supone su interacción
con la luz ha ido alcanzando cotas muy altas de sensibi-
lidad y de sofisticación hasta colocar a estas técnicas en
el centro de la instrumentación fundamental para detectar
todo tipo de moléculas.
Si bien la espectroscopía IR y la de fluorescencia son
técnicas que se han usado ampliamente desde hace muchos
años, tenemos la paradoja de la espectroscopía Raman, ya
que, a pesar de que su efecto se conoce desde los primeros
años del siglo XX, es ahora, casi cien años después, cuando
se está generalizando su uso, debido, evidentemente, al desa-
rrollo tecnológico que tanto ha apoyado a la ciencia básica.
La espectroscopía Raman es un campo que sigue en
expansión, principalmente por varias razones: a) el conti-
nuo refinamiento de la técnica SERS, que la ha convertido
en la sonda fotónica por excelencia usada para detectar mo-
léculas de todo tipo sobre superficies de nanoestructuras;

105
b) el propio progreso, que ha experimentado la fabricación
de unos nanomateriales y unas nanoestructuras cada vez
más sofisticados; c) la mejora en el diseño y control de lá-
seres ultrarrápidos; d) la eficacia del Raman para la obten-
ción de imágenes biomédicas y diagnóstico de enfermeda-
des; e) las notables mejoras en instrumentación Raman y
en la potencia de cálculo de los ordenadores actuales para
el análisis de datos espectrales; y f) las innumerables apli-
caciones fuera de los laboratorios de investigación que han
llevado a los instrumentos Raman a trabajar en los más
variados ambientes, que van desde la célula (transporte,
liberación y detección de fármacos) hasta el espacio (espa-
cio interestelar, meteoritos, misiones interplanetarias, etc.);
desde el medio marino (sondas para detectar moléculas
contaminantes) hasta las obras de arte (pigmentos sobre
hilos, sedas, lienzos), etc.
En conclusión, el efecto de la dispersión Raman, des-
cubierto por C. V. Raman en 1928, emerge hoy como una
de las técnicas más sensibles, delicadas e informativas, ca-
paz de interrogar a la materia a nivel molecular y en distin-
tos tipos de muestras y ambientes.

Avances recientes en el estudio de moléculas


por espectroscopía Raman

(VSHFWURVFRStD6(56

Los esfuerzos más recientes en espectroscopía SERS se


dirigen, por un lado, a conseguir una mejora en la reprodu-
cibilidad en la fabricación de soportes SERS, fundamen-
talmente nanopartículas metálicas, y, por otro, a que estos

106
soportes intensifiquen altamente la señal Raman, es decir,
lo que se conoce como factor de intensificación. A este
respecto, podemos citar la deposición de nanopartículas
de plata sobre alúmina o soportes plásticos que hagan más
estables y reproducibles los sistemas que se vayan a estudiar.
Otra posibilidad es hacer reaccionar las nanopartículas de
plata o de oro con ciertas moléculas orgánicas que sirvan
de puente para que las moléculas que se quieran estudiar por
espectroscopía SERS queden cerca de la superficie metálica
y puedan beneficiarse así de la intensificación del campo
electromagnético superficial, responsable del efecto SERS,
como ya hemos dicho más arriba. Este proceso se cono-
ce como funcionalización y permite ampliar el campo de las
moléculas susceptibles de ser detectadas por esta técnica.
Entre las múltiples aplicaciones de la espectroscopía
SERS podemos destacar algunas de las más recientes. Por
ejemplo, gracias a esta técnica se han podido detectar tra-
zas de melanina en alimentos. Esta molécula tiene un alto
contenido en nitrógeno, por lo que se utiliza fraudulenta-
mente para adulterar alimentos para humanos y mascotas,
ya que simulan tener un mayor contenido proteico, pero a
costa de hacerlo tóxico.

FIGURA 20
Molécula de melanina
NH2

N N

H2N N NH2

107
También ha sido importante la caracterización y el estu-
dio de la adsorción y de la reducción de derivados de la an-
traquinona, moléculas que se usan tanto en el proceso de la
fabricación del papel como en el de los principios activos de va-
rios tipos de fármacos (laxantes, antimalaria, antivirales, etc.).

FIGURA 21
Molécula de antraquinona
2

Desde el punto de vista de la investigación más básica


en bioquímica, se han estudiado también los aminoácidos,
que son los componentes de las proteínas, y los ribonu-
cleósidos, que lo son de los ácidos nucleicos. De estos úl-
timos, se ha llegado a detectar ADN a baja concentración,
utilizando nanopartículas de plata protegidas con alcohol
polivinílico. De hecho, se ha llegado a concentraciones a
niveles femtomolares (10-15 moles por litro).

FIGURA 22
Molécula de
2,4-denitrotolueno
&+

122

122

108
Los compuestos nitroaromáticos como el dinitroto-
lueno, de la familia de los explosivos, pero también un pre-
cursor del poliuretano, cuya espuma se usa en el relleno
de colchones y en los airbags de los automóviles, han sido
cuantificados por espectroscopía SERS.
Finalmente, la detección, sin tener que marcar con
sondas fluorescentes, en mezclas binarias de proteínas de
las familias de las mioglobinas y la lisozima es otra de las
aplicaciones más espectaculares de esta técnica.
Sin embargo, no podemos olvidarnos de la segunda
vida que el desarrollo de instrumentos TERS le ha dado
al SERS, puesto que es evidente que se ha avanzado mu-
cho, por ejemplo, en la comprensión de la estructura de
moléculas biológicas, aunque también se han obtenido así
imágenes de nanotubos de carbono con una resolución es-
pacial de aproximadamente 19 nm.

Biociencias

Una de las principales áreas de crecimiento de la espectros-


copía Raman continúan siendo sus aplicaciones al estudio de
moléculas biológicas y sistemas biomédicos de gran relevancia.
Así, se pueden encontrar en la literatura científica numerosos
ejemplos de estudios en los que el Raman ha sido determinan-
te. Sin la intención de ser exhaustivo, veamos algunos casos.
En primer lugar, se pueden mencionar las diferencias
en la estructura del colágeno, una proteína relacionada con
los niveles de mineralización de los huesos y con las dife-
rentes funciones en los que están implicados. De hecho,
por espectroscopía Raman se puede calcular la relación
entre el hueso y el colágeno y cómo afecta la alteración de
esta relación a las propiedades mecánicas del hueso.

109
También ha servido para la identificación de grupos
metilo (-CH3) en moléculas de ADN, lo que ayuda a la
comprensión de los procesos físicos y biomoleculares pre-
vios a la diagnosis del cáncer.
Una de las aplicaciones más recientes de la espectros-
copía vibracional ha sido la obtención de información so-
bre algunos componentes celulares en medios extremos en
la Tierra, con un evidente valor añadido en la astrobiología,
ya que se intenta estimar la presencia de dichas biomolécu-
las en medios hostiles de cualquier parte del universo.
Lo que sí ha supuesto un aumento de las aplicacio-
nes de la espectroscopía vibracional de un gran número
de moléculas ha sido la combinación de un espectróme-
tro, particularmente un espectrómetro Raman, con un
microscopio óptico, aprovechando el propio objetivo del
microscopio para hacer pasar por allí el haz luminoso
del láser de excitación, y aprovechando el mismo objetivo
para recoger el scattering producido por la preparación
que nos dará el espectro Raman con una resolución espa-
cial (esto es, la capacidad para distinguir dos puntos de
la citada preparación) del orden de las micras (1 micra o
μm = 10-6 m).
Pues bien, gracias a la microscopía Raman se ha ob-
tenido una gran cantidad de información molecular en
todo tipo de células, incluidos los virus y las bacterias, así
como de tejidos fisiológicos y patológicos que abrieron
esta técnica al campo de la biomedicina. En la actualidad,
la microscopía Raman se ha convertido, en algunos casos,
en instrumental de quirófano, ya que permite hacer biop-
sias in vivo, puesto que se trata de un método no invasivo
siempre que se manejen potencias del láser por debajo del
umbral adecuado para no dañar los tejidos.

110
Como consecuencia del uso de esta microscopía se
ha desarrollado todo un nuevo campo, conocido como
Raman imaging, en el que se puede llegar a hacer una ver-
dadera cartografía (mapping) de un área elegida de una
muestra en base a los espectros Raman en cada punto, lo
que nos dará la distribución de cada una de las moléculas
que componen la muestra en dicha área y, por lo tanto, una
imagen molecular microscópica de ella. Gracias al mapping
se han podido estudiar, por ejemplo, la organización y la
composición bioquímica de óvulos inmaduros en los pri-
meros estados embrionarios. También se ha aplicado al es-
tudio de células madre embrionarias de humanos, donde,
al normalizar los espectros Raman frente a un componente
de referencia, se puede estimar el espesor de la muestra en
colonias de células vivas. También se han obtenido imáge-
nes Raman de células vivas en suspensión.
En lo referente al estudio de material con interés bio-
médico, podemos destacar el uso combinado del Raman
mapping con la difracción de rayos X para cuantificar los
detalles estructurales de la interfase dentina-adhesivo, así
como la caracterización in vivo de tejido normal en diferen-
tes lugares anatómicos de la boca en humanos. Asimismo,
se han detectado, por microscopía Raman in situ, los te-
jidos normales y con carcinoma escamoso invasivo en la
lengua, con un 91% de seguridad.

1DQRPDWHULDOHV

Sobre las aplicaciones de la espectroscopía Raman a los


nanomateriales cabe destacar que es la técnica adecuada
para caracterizar nanotubos de carbono, pues por el sim-
ple análisis del espectro podemos saber si lo que tenemos

111
en la muestra son nanotubos de pared única o múltiple, así
como el carácter metálico o semiconductor de los mismos.
También se ha utilizado la espectroscopía Raman resonan-
te para caracterizar la interfase de compuestos formados
por nanotubos y polímeros orgánicos.
Evidentemente, la espectroscopía Raman también ha
sido de capital importancia en la caracterización del gra-
feno y sus derivados. Así, las imágenes Raman de mues-
tras de grafeno obtenidas por distintos métodos suponen
un verdadero control de calidad de las muestras, ya que
podemos observar a nivel molecular su regularidad y sus
defectos. Por ejemplo, muy recientemente se han obtenido
láminas de grafeno utilizando un método más novedoso,
como es la técnica del microchorro (microjet) de plasma.
Pues bien, los resultados de imagen Raman fueron los que
consagraron esta técnica como adecuada.

$UWH\DUTXHRORJtD

La aplicación de la espectroscopía IR y Raman al estudio


de obras de arte y arqueológicas se ha venido usando desde
hace tiempo para conocer los pigmentos y la composición
molecular de muchos de los materiales que las componen
y así poder hacer un diagnóstico previo a una posible res-
tauración, aunque como técnicas destructivas en mayor o
menor grado.
Sin embargo, con la aparición de los microscopios
Raman, especialmente los instrumentos portátiles, ha au-
mentado mucho su aplicación como técnica no destructiva
que puede usarse tanto en el laboratorio, en condiciones
controladas de las muestras, como in situ, permitiendo me-
didas espectrales de muestras sin tener que desplazarlas de

112
los museos y bibliotecas, o en los mismos yacimientos y
grutas si se trata de muestras de este tipo.
Sin querer ser exhaustivos, podemos citar que la mi-
croscopía Raman ha sido crucial en el estudio de pátinas y
depósitos formados en los plomos de las vidrieras artísticas
de catedrales, debidos a los efectos de la contaminación ur-
bana y a la lluvia ácida. Se ha podido llegar a la conclusión
de que pátinas de colores y apariencia similares pueden
dar espectros Raman distintos, lo cual permite clasificarlas
sin tener que destruirlas para su análisis.
Los estudios espectroscópicos también han permiti-
do caracterizar un modelo de vidrio de origen medieval y
compararlo con otras muestras artificialmente envejecidas,
así como localizar, en una muestra metálica, los productos
de corrosión.
Son muchos los trabajos realizados para identificar
tintas, lo cual permite datar, e incluso autentificar, una gran
cantidad de documentos de interés histórico y cultural.
En cuanto al estudio de frescos y pinturas en rocas
y paredes, podemos señalar que los análisis espectroscó-
picos vibracionales han permitido detectar fenómenos de
alteración cromática que hacen que los pigmentos actúen
como verdaderos marcadores temporales de las construc-
ciones en las que se encuentran. También se ha analizado
el impacto de la contaminación urbana sobre esculturas
metálicas modernas, como, por ejemplo, las de Eduardo
Chillida.
La espectroscopía Raman también ha sido utilizada
para diagnosticar el estado de conservación de las pinturas
que aparecen en excavaciones tan importantes como las de
Pompeya (Italia) o la potencial degradación por las partí-
culas aéreas de la Alhambra de Granada.

113
0XHVWUDVVyOLGDV

La facilidad para obtener un buen espectro Raman de una


muestra pequeña, sin ningún tipo de manipulación, ha he-
cho que se vuelva a utilizar para el estudio de monocrista-
les, difíciles de usar en espectroscopía IR y en los antiguos
espectrómetros Raman.
Lo más destacable en la aplicación de la microsco-
pía IR y Raman en el campo de los minerales quizá sea
el estudio de las propiedades vibracionales de inclusiones
submilimétricas, las cuales no tienen solo un interés cientí-
fico o industrial, sino también en el campo de la joyería y,
particularmente, de la gemología.
También hay que señalar la gran aportación de la es-
pectroscopía al estudio de moléculas que forman cadenas
lineales, ya sean de origen natural (como las sedas) o sinté-
tico (como los plásticos y polímeros en general).

$SOLFDFLRQHVIDUPDFpXWLFDVDOLPHQWDULDV\IRUHQVHV

A medida que aumenta el grado de sofisticación y la faci-


lidad para manejar los espectrómetros y microscopios IR
y Raman, también son cada vez más las aplicaciones de
estas técnicas. De hecho, se han convertido en técnicas im-
portantes, rápidas, directas y no destructivas en análisis de
fármacos, alimentos y en medicina forense.
Son tantos y tan numerosos los ejemplos en estos tres
campos que remito al lector a la bibliografía citada al final
del libro.

114
Espectros de meteoritos para estudiar la superficie
de asteroides primitivos

Como broche final de este capítulo dedicado a la detección


de moléculas por espectroscopía, podemos citar otro tipo
de aplicaciones.
Recientemente, un equipo internacional liderado por
investigadores del Consejo Superior de Investigaciones
Científicas (CSIC) ha obtenido espectros de reflectancia
de un grupo de meteoritos, llamados condritas carbonáceas,
que resultan de utilidad para caracterizar la superficie de
asteroides primitivos.
El estudio, que es el resultado de más de dos años de
investigaciones, aporta datos sobre materiales del sistema
solar que pueden ser aprovechados en futuras misiones de
exploración de pequeños asteroides, ya que el espectro
de reflectancia de estos meteoritos proporciona informa-
ción sobre la capacidad reflectiva de estos materiales frente
a la luz que reciben del Sol.
En el caso de los grupos de meteoritos primitivos ana-
lizados, los espectros ayudan a caracterizar los asteroides
de los que provienen, ricos en agua y materia orgánica.
Entre las condritas carbonáceas estudiadas en este trabajo
destacan algunas históricas y otras más recientes de meteo-
ritos recuperados en la Antártida. Son una clase de me-
teoritos íntimamente asociada con asteroides, y posible-
mente cometas, formados hace unos 4.565 millones de años
en las regiones más externas del sistema solar.
En su composición no solo se han encontrado dimi-
nutos agregados rocosos, sino también materia orgánica y
agua, que hacen que sean los materiales con la composi-
ción más cercana a la de nuestro Sol. Se pueden considerar

115
auténticas piedras Rosetta para la ciencia, ya que han pre-
servado en su interior los primeros componentes del sis-
tema solar.

Reflexión final

Podríamos decir que el desarrollo instrumental de las téc-


nicas espectroscópicas en los últimos diez años, que nos ha
posibilitado movernos con soltura en el mundo “nano”, y
la previsible introducción de nuevos materiales que per-
mitan desarrollar equipos mucho más sensibles, potentes
y versátiles todavía nos llevarán a poder estudiar cualquier
tipo de sistema desde un punto de vista molecular, hasta
ahora la única forma de avanzar con certeza por el camino
que nos lleva a conocer la naturaleza de todos los fenóme-
nos naturales o artificiales que suceden a nuestro alrede-
dor. Por fin, ahora, somos conscientes de estar inmersos en
un mundo auténticamente molecular.

116
%LEOLRJUDItD

ALDRICH, R. (1997): Laser Fundamentals, Robert Aldrich Naval Surface


Warfare Center [http://www.fas.org/man/dod-101/navy/docs/laser/fun-
damentals.htm].
AROCA, R. (2006): Surface-Enhanced Vibrational Spectroscopy, John Wiley &
Sons Ltd, Chichester, Reino Unido.
DOMINGO, C., ESCRIBANO, R. y GARCÍA-RAMOS, J. V. (eds.) (2003):
Nanoestructuras: Fabricación, caracterización y aplicaciones, Sociedad
Española de Óptica, Madrid.
FLORY, F., ESCOUBAS, L. y BERINC, G. (2011): “Optical Properties of
Nanostructured Materials: a Review”, Journal of Nanophotonics [http://
nanophotonics.spiedigitallibrary.org/article.aspx?articleid=1226099].
LEE, H. M., JIN, S. M., KIM, H. M. y SUH, Y. D. (2013): “Single-molecule
surface-enhanced Raman spectroscopy: a perspective on the current sta-
tus”, Physical Chemistry Chemical Physics, 15, pp. 5276-5287.
NAFIE, L. A. (2013): “Recent advances in linear and nonlinear Raman
Spectroscopy. Part VII”, Journal of Raman Spectroscopy, 44, pp. 1629-
1648.
ROSE, M. (ed.) (2010): “A History of the Laser: A Trip through the Light
Fantastic”, Photonics Spectra [http://www.photonics.com/Article.aspx?PI
D=5&VID=61&IID=464&Tag=Features&AID=42279].
SEVILLA, P. (ed.) (2010): Plasmónica: detección sobre nanoestructuras metáli-
cas, Sociedad Española de Óptica, Madrid.
STILES, P. L., DIERINGER, J. A., SHAH, N. C. y VAN DUYNE, R. P. (2008):
“Surface Enhanced Raman Spectroscopy”, Annual Reviews of Analytical
Chemistry, 1, pp. 601-626.

117
¿QUÉ SABEMOS DE?

Las moléculas:
cuando la luz Las moléculas modifican su
te ayuda a vibrar velocidad de vibración como
respuesta al estímulo que su-
pone su interacción con la luz. Este hecho ha favorecido
el desarrollo de la espectroscopía Raman, una técnica
cuya eficacia resulta fundamental, entre otras cosas, para
que se puedan caracterizar nanomateriales y nanoestruc-
turas cada vez más sofisticados o para obtener imáge-
nes biomédicas y diagnosticar enfermedades, además de
sus innumerables aplicaciones fuera de los laboratorios
de investigación, por ejemplo, en el análisis de los pig-
mentos que se encuentran en todo tipo de obras de arte.
Vivimos inmersos en un mundo auténticamente mole-
cular y este libro permitirá que el lector sea consciente de
hasta qué punto convive diariamente con las molécu-
las y de la utilidad de las técnicas espectroscópicas tan-
to en el campo de la ciencia como en cualquier otro cam-
po cultural.

ISBN: 978-84-00-09792-9

También podría gustarte