Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Las moléculas:
cuando la luz
te ayuda a vibrar
José Vicente García Ramos
Subido por:
https://www.facebook.com/pages/Interfase-
IQ/146073555478947?ref=bookmarks
'LVHxRJUiÀFRGHFXELHUWD&DUORV'HO*LXGLFH
)RWRJUDItDGHFXELHUWD
HYHU\WKLQJSRVVLEOHL6WRFN7KLQNVWRFN
ISBN (CSIC):978-84-00-09792-9
eISBN (CSIC):978-84-00-09793-6
ISBN (CATARATA): 978-84-8319-896-4
NIPO: 723-14-017--9
eNIPO: 723-14-016-3
DEPÓSITO LEGAL: M-6.743-2014
IBIC: PDZ/PHM
BIBLIOGRAFÍA 117
&$3Ì78/2
ÉWRPRV\PROpFXODVSRUVXVYLEUDFLRQHV
ORVFRQRFHUpLV
5
peso o volumen y su diminutivo molécula para incluir en la
misma palabra el concepto de voluminoso y su contrario,
algo pequeño. De todas formas, se trata de dos palabras
creadas para explicar algo que no se veía, solo se intuía.
Fue el italiano Avogadro (1776-1856) el que se en-
cargó de establecer que todos los cuerpos, incluso los que
están formados por un solo elemento, no son una acumu-
lación de átomos, sino de grupos de átomos, esto es, de
moléculas. Los gases, al tener sus moléculas en un estado
menos denso, permiten que se estudie su estructura con
mayor facilidad. El británico John Dalton (1766-1844) dio
un gran paso adelante con su teoría atómico-molecular y
fue llegando a conclusiones que siguen siendo aceptadas
hoy en día.
Una molécula no es una mezcla, sino algo mucho más
estable que no puede descomponerse en átomos por méto-
dos físicos, sino por medio de reacciones químicas. Muchas
de las propiedades de los cuerpos compuestos, como la
elasticidad o la fragilidad, pudieron explicarse gracias a
la teoría molecular, aunque el avance más decisivo fue el
descubrimiento del microscopio.
En conclusión, un átomo es la partícula más pequeña
de un elemento que tiene todas las propiedades de dicho
elemento. No es posible dividir un átomo manteniendo las
propiedades del propio elemento. Los átomos no se ven a
simple vista y son los ladrillos que construyen una sustan-
cia. Por ejemplo, los átomos del elemento oro no pueden
dividirse sin que pierdan las propiedades del oro.
Más adelante se descubrió que, en realidad, un átomo
está formado por una nube de electrones que giran frené-
ticamente alrededor de un núcleo de protones y neutrones.
Los electrones están cargados negativamente, mientras que,
6
en el núcleo, los neutrones no tienen carga alguna y los
protones están cargados positivamente. Para que un átomo
sea neutro y pueda existir en la naturaleza, tendrá que estar
formado por el mismo número de protones y de electro-
nes. Dicho número es lo que caracteriza cada elemento y
hace que un átomo sea de oro, sodio, hidrógeno o platino.
El número de protones característico de un átomo se llama
número atómico, y lo podríamos considerar como el DNI de
cada elemento químico.
Una molécula solo es un grupo de átomos pegados
a más átomos. De hecho, puede tener dos o dos mil. Los
átomos se unen unos a otros por medio de “cuerdas” de
electrones, que es lo que conocemos como enlaces químicos.
Imaginemos que un átomo de carbono se acerca a otro de
nitrógeno. Los electrones del carbono dan vueltas alrede-
dor de su núcleo, al igual que los del nitrógeno, formando
lo que, visto desde lejos, parecen dos esferas. De repente,
desaparece el espacio que los separa y vemos que uno de
los electrones del carbono más alejados del núcleo da una
vuelta alrededor del nitrógeno y lo cierra con un lazo que
lo acerca al carbono. Al mismo tiempo, uno de los electro-
nes del nitrógeno más alejados del núcleo envuelve al car-
bono. El resultado es que estos dos electrones comienzan a
girar alrededor de los dos átomos, los unen como lo haría
una cuerda y lo convierten en un enlace C-N, conocido
como enlace covalente.
Una de las características de estos enlaces es que son
elásticos, ya que si pudiéramos separar los átomos y sol-
tarlos de nuevo, dependiendo de la fuerza de la cuerda y
del peso de los átomos que cuelgan de ella, emitirían una
nota, como la cuerda de un piano que cuando se hace vi-
brar emite un si o un do, dependiendo de dónde se puntee.
7
Por lo tanto, cada combinación de átomos, cada enlace,
vibrará de una forma característica. Y si cada enlace emi-
te una nota, cada molécula emitirá varias notas combi-
nadas de forma única, convirtiendo a cada molécula en
un acorde, siguiendo con el símil musical. El conjunto
de vibraciones de una molécula es único y la identifica
unívocamente.
8
formaba. En conclusión, que no había ninguna pérdida de
masa en la formación o en la descomposición del mercurio
calcinado. A partir de estos resultados, Lavoisier trabajó
con la hipótesis de que esto sería verdad para cualquier
“cambio químico”, lo que comprobó con posteriores ex-
perimentos. Hoy en día, este principio se conoce como la
ley de conservación de las masas.
A medida que continuaba con otros experimentos con
el oxígeno, Lavoisier se dio cuenta de que, a pesar de que
este se combinaba con muchas otras sustancias, nunca se
comportaba él mismo como una combinación de sustan-
cias. Fue capaz de descomponer el mercurio calcinado en
mercurio y oxígeno, pero no encontró el modo de descom-
poner el propio oxígeno en dos o más sustancias. Por ello,
sugirió que el oxígeno debía de ser un elemento, es decir,
una sustancia simple que no se podía descomponer por
métodos químicos.
En realidad, Lavoisier no fue el padre de la idea de
que los elementos eran las sustancias fundamentales de las
que se derivaban todas las demás, puesto que este con-
cepto ya lo había propuesto Empédocles en el siglo V a.C.,
el cual sugirió que toda la materia estaba formada por
combinaciones de tierra, aire, fuego y agua. Fue Aristóteles
quien posteriormente desarrolló y transmitió estas ideas,
que fueron aceptadas durante más de 2.000 años. Sin em-
bargo, Lavoisier construyó la primera tabla de los elemen-
tos con un gran número de sustancias que la química mo-
derna clasifica hoy en día como verdaderos elementos. Esa
tabla fue publicada aun sabiendo que algunas de las sus-
tancias que aparecían en ella podrían llegar a ser descom-
puestas en posteriores experimentos, demostrando así que
no eran elementos. Se piensa que uno de los objetivos de
9
Lavoisier era incitar a sus coetáneos para que se animaran
a realizar este tipo de experimentos. Como era de esperar,
pronto se demostró que las “sustancias térreas” que apa-
recen al final de la tabla eran combinaciones de ciertos
metales con el oxígeno. También es interesante constatar
que ni siquiera Lavoisier pudo escapar de la influencia
aristotélica, ya que el segundo elemento de su lista corres-
ponde al “fuego” de Aristóteles, al que llamó “calorique”
y que nosotros hoy llamaríamos “calor”. En la actualidad,
tanto el calor como la luz, los dos primeros elementos de
la tabla de Lavoisier, ya no se consideran elementos, sino
dos formas de energía.
No obstante, aunque la tabla de los elementos fue-
ra incompleta, y en algunos casos incluso incorrecta, su
trabajo significó un verdadero paso adelante. Al clasificar
algunas sustancias como elementos, estimuló nuevas in-
vestigaciones químicas, poniendo orden y estructura en un
campo que no los había tenido hasta entonces. Sus cole-
gas aceptaron sus ideas rápidamente y pasó a ser conocido
como el padre de la química.
Por su parte, John Dalton, que pertenecía a una gene-
ración más joven, fue un auténtico autodidacta. Nunca
contrajo matrimonio e, incluso siendo ya famoso, se ga-
naba la vida impartiendo unas pocas clases particulares.
Autor de muchas aportaciones a la ciencia, parece que
no fue consciente de que su teoría atómica era su contri-
bución más importante. Por ejemplo, en su New System
of Chemical Philosophy, publicado en 1808, solo le dedicó
a la teoría de los átomos las últimas siete páginas de un
total de 168.
Los postulados de la teoría atómica de Dalton se resu-
men en los siguientes cuatro puntos:
10
1. Toda la materia está compuesta por un gran número de par-
tículas muy pequeñas llamadas átomos.
2. Para un elemento dado, todos los átomos son idénticos en to-
dos los aspectos. En particular, todos los átomos de un mismo
elemento tienen la misma masa que es una constante, mien-
tras que los átomos de elementos diferentes tienen diferentes
masas.
3. Los átomos son las unidades de los cambios químicos. Las
reacciones químicas implican la combinación, separación o
reagrupamiento de átomos, pero dichos átomos ni se crean,
ni se destruyen, ni se dividen en partes o se convierten en
átomos de otro tipo.
4. Los átomos se combinan para formar moléculas en propor-
ciones fijas de números enteros y de bajo valor.
11
Sin embargo, el descubrimiento del electrón como cons-
tituyente de los átomos supuso un primer avance para
comprender la estructura atómica. Esta partícula fue des-
cubierta por el físico inglés Joseph John Thomson (1856-
1940), quien recibió el Premio Nobel de Física en 1906.
Los electrones tienen carga negativa, mientras que los
átomos son eléctricamente neutros. Cada átomo debe te-
ner, por tanto, la suficiente cantidad de carga positiva para
poder equilibrar la negativa de los electrones. Además, los
electrones son miles de veces más ligeros que los átomos, lo
cual sugiere que los constituyentes cargados positivamente
sean los que den lugar a casi toda la masa de los átomos.
Todo esto llevó a Thomson a proponer que los átomos son
esferas uniformes de materia cargada positivamente en la que
se encuentran embebidos los electrones. Este modelo atómico
es conocido como el pudin de pasas y pasaron trece años
hasta que se intentó realizar una prueba experimental de-
finitiva que lo apoyase.
FIGURA 1
Modelo atómico de Thomson
0DWHULDFDUJDGD
positivamente
(OHFWUyQ
12
La realidad es que los ensayos experimentales a lo que
llevaron fue a abandonar dicho modelo, sustituyéndolo por
un concepto de estructura atómica nada fácil de compren-
der con los conocimientos que se tenían hasta entonces de
la física clásica.
El método más directo para saber lo que hay dentro
de un pudin es meter un dedo dentro de él. Esto es lo que
hicieron Geiger y Marsden en 1911, bajo la sugerencia
de Ernest Rutherford (1871-1937), utilizando partículas
emitidas por un cuerpo radiactivo, conocidas como partí-
culas alfa y cargadas positivamente. En efecto, vieron que,
al bombardear con dichas partículas una lámina de oro,
muchas atravesaban la lámina de oro sin desviación, otras
se desviaban con ángulos notables e incluso otras rebota-
ban y no cruzaban la lámina. Para explicar estos resulta-
dos, Rutherford se vio obligado a describir el átomo como
compuesto de pequeños núcleos en los que queda concen-
trada la carga positiva y la mayor parte de la masa, quedan-
do los electrones a una cierta distancia exterior.
FIGURA 2
Modelo atómico de Rutherford
1~FOHRSRVLWLYR
+ (OHFWUyQ
13
Teniendo en cuenta que en el átomo hay espacios
vacíos, es fácil explicarse por qué muchas partículas alfa
atraviesan la lámina metálica sin sufrir desviación. Por el
contrario, cuando una de ellas llega a un núcleo, se en-
cuentra con un campo eléctrico intenso y lo más probable
es que sea desviada o incluso rebotada. Los electrones, por
ser tan ligeros, no tienen efecto apreciable sobre las partí-
culas alfa incidentes.
Al contrario que Thomson, que supuso que los elec-
trones estaban embebidos en la masa cargada positivamen-
te sin poder moverse, en el modelo atómico de Rutherford
los electrones no pueden estar inmóviles, puesto que no
existe nada que sea capaz de mantenerlos en su sitio frente
a la atracción de la fuerza electrostática del núcleo, con la
posibilidad de que existan órbitas estables parecidas a las
que forman los planetas alrededor del Sol.
Para explicar la estabilidad experimental de este mo-
delo de átomo solo hay que recurrir a la aplicación di-
recta de las leyes del movimiento de Newton, como en el
caso de los planetas, y a la ley electrostática de Coulomb
que rige las fuerzas entre cargas eléctricas. Ambas leyes
se consideran los pilares básicos de la física clásica. Sin
embargo, este modelo no está de acuerdo con otro de
sus pilares básicos, la teoría electromagnética, que dice
que toda carga eléctrica acelerada irradia energía en for-
ma de ondas electromagnéticas. Por lo tanto, en el caso
del átomo más sencillo, el átomo de hidrógeno, formado
por un solo protón y un electrón que sigue una trayec-
toria circular alrededor del primero, dicho electrón esta-
ría acelerado y perdería energía continuamente, yendo a
caer sobre el núcleo y formando una espiral que acabaría
así con la estabilidad del átomo.
14
FIGURA 3
–e
(OHFWUyQ
3URWyQ
+e
15
rama de la ciencia: lo que se conoce hoy en día como me-
cánica cuántica. Así, en 1913 formuló una hipótesis sobre
la estructura atómica en la que estableció tres postulados:
FIGURA 4
Modelo del átomo de Bohr
rn = n2r1
n=4
Q
n=2
n=1
r1 r4
r2 r
16
del núcleo. Esta órbita es la de menor energía. Si se le comu-
nica energía a este electrón, saltará desde la primera órbita
hasta otra de mayor energía; pero cuando regrese a la prime-
ra órbita, emitirá energía en forma de radiación luminosa.
En este modelo y los siguientes hay que considerar
que la órbita más externa será la que tenga más energía y
que, por lo tanto, los electrones que se encuentren en ella
serán menos estables.
17
de nacimiento) y radio (del latín radius, que significa
“rayo”).
Otros deben su nombre a lugares geográficos, como
es el caso del pueblecito llamado Ytterby, en Suecia, que
tiene cuatro elementos dedicados a él (terbio, itrio, erbio
e iterbio) por ser el lugar donde se encontró por primera
vez. Otro ejemplo es el californio, que, aunque no aparece
en la naturaleza, fue sintetizado por primera vez en 1950
en el Radiation Laboratory de la Universidad de Berkeley
(California) por un grupo de científicos liderado por Glenn
Seaborg, galardonado con el Premio Nobel de Química en
1951 por ser un pionero en la obtención de varios elemen-
tos desconocidos.
Cada elemento tiene un símbolo formado por una o
dos letras que lo identifican, de la misma forma que nues-
tro nombre y apellido nos identifica a nosotros. El símbolo
de un elemento representa un átomo de dicho elemento.
Hay 14 elementos cuyo símbolo es una letra que en gene-
ral coincide con la primera letra de su nombre, excepto en
el caso del potasio. El potasio se descubrió en 1807 y se
llamó así por la potasa, la sustancia de la que se aisló por
primera vez. Su símbolo (K) viene de kalium, que significa
“potasa” en latín. Casi todos los demás elementos tienen
un símbolo de dos letras, de las cuales la primera siempre
es mayúscula, y la segunda, minúscula.
Basándose en la hipótesis de que las propiedades de
los elementos dependen, de forma periódica, de sus ma-
sas atómicas, el científico ruso Dmitri Mendeléiev (1834-
1907) publicó en el año 1869 una tabla periódica en la
que situó todos los elementos conocidos en aquella época,
ordenándolos de tal forma que los que pertenecían a una
misma familia aparecían en la misma línea horizontal. Sin
18
embargo, el descubrimiento del helio le causó un gran pro-
blema, puesto que este nuevo elemento no tenía un lugar
adecuado para colocarse en la tabla. Aunque, en el fondo,
fue una brillante confirmación de la ley periódica, ya que
el helio, junto con los demás gases nobles descubiertos más
tarde, constituyeron un grupo. Además, Mendeléiev tam-
bién predijo la existencia de nuevos elementos con las ca-
racterísticas indicadas por el espacio que ocupan en la tabla.
El sistema periódico
19
FIGURA 5
Tabla periódica de elementos
1
2
1
4,0026
3HVRDWyPLFR
H He
1~PHURDWyPLFR
H
(OHFWURQHJDWLYLGDG
+,'5Ð*(12 +(/,2
1,-1
0,126
6tPERORGHOHOHPHQWR
4
10,811
6 12,0111
8
10
Li Be B N F Ne
1,0 2,0 4,0
/,7,2
1
%(5,/,2
2
1RPEUHGHOHOHPHQWR +,'5Ð*(12
1,-1 1~PHURGHR[LGDFLyQ %252
&
&$5%212
2,±4
1,75Ð*(12
2
2;Ì*(12
-2
)/825
-1
1(Ð1
-218,8 -248,6
3XQWRGHIXVLyQ 2,26 0,808 1,14 -188,2 1,11 -246 1,204
11 12
DHQVLGDGGHVyOLGRV
14 28,086
16
18
3XQWRGHHEXOOLFLyQ
Na Mg
1,2 1,8 2,1
/tTXLGRVJPO&
62',2
1
0$*1(6,2
*DVHVJO&$WP $O
$/80,1,2
6L
6,/,&,2
4
3
)Ð6)252
6
$=Ó)5(
±2,4,6
&O
&/252
$U $5*Ð1
2 660 1410 44,2 112,8 -101
2680 280 1,82 444,6 1,40
20 40,08
21
22
24
26
28
327$6,2
1
&D 6F
&$/&,2
2
(6&$1',2
7L
7,7$1,2
9$1$',2
&5202
0$1*$1(62
+,(552
&2%$/72
1,48(/
&2%5(
1,2
&,1&
2
*$/,2
*(50$1,2
4
$56e1,&2
6(/(1,2
-2,4,6
%5202
.5,37Ð1
1668
0,862 1440 2,6
40
41
42
44
46 106,4
48 112,4
114,82
Y =U 1E Mo 7F 5X Rh 3G $J &G
0,8 1,0 1,4 1,6 1,8 2,2 2,2 2,2 1,8 2,1
5E 6U
58%,',2 (67521&,2 ,75,2 &,5&21,2 1,2%,2 02/,%'(12 7(&1(&,2 587(1,2 52',2 3$/$',2 3/$7$ &$'0,2
,Q
,1',2
6Q 6E 7H
(67$f2 $17,021,2 7(/85,2
,
<2'2
;H ;(1Ð1
1 2 2,4 1,2 2 2,4 -2,4,6 2,4,6,8
2420 2620 2140
688 2,6 4,48 10,22 12,2 12,42 2210 8,64 6,62 6,24 -108,0
186,2
80
81
82
84 210
210
86 222
&V Ba La Hf W Re 2V $X Hg Bi Rn
1,1 2,2 2,2 2,2 2,4 1,8 1,8 2,0 2,2
&(6,2
1
%$5,2
2
/$17$12
+$)1,2
4
7D
7$17$/,2
:2/)5$0,2
5(1,2
260,2
4,6,8
,U
,5,',2
3W
3/$7,12
2,4
252
0(5&85,2
7O
7$/,2
3E 3/202
2,4
%,60872
3R32/21,2
2,4
$W
$67$72
5$'21
1,-1
2220
1,2
1640 16,6 21 22,64 -61,8
88 226
104 261
262
Fr Ra $F .X Ha
1,1
140,12
60 144,24
61
62
64
66
68
3U 1G 3P 6P (X *G 7E Dy Ho Er 7P <E /X
1,1 1,1 1,2 1,2 1,1 1,2 1,2 1,2 1,2 1,1 1,2
242
100
101
102
Np 3X $P &P %N
Es Fm 0G No Lr
$&7Ì1,'26 7K 3D725,2
4
3527$&7,1,2
8
85$1,2
1(3781,2 3/8721,2
$0(5,&,2
&85,2
%(5.(/,2
&I
&$/,)251,2
(,167(1,2 )(50,2 0(1'(/(9,2 12%(/,2 /$:5(1&,2
640
s Grupo 1, con un solo electrón en la última capa: alcalinos.
s Grupo 2, con dos electrones en la última capa: alcalino-
térreos.
s Grupos 3-12, con dos electrones en la última capa y dis-
tinto número de electrones en la subcapa anterior: meta-
les de transición.
s Grupo 13, con tres electrones en la última capa: boroideos.
s Grupo 14, con cuatro electrones en la última capa: car-
bonoideos.
s Grupo 15, con cinco electrones en la última capa: nitro-
genoideos.
s Grupo 16, con seis electrones en la última capa: anfígenos.
s Grupo 17, con siete electrones en la última capa: haló-
genos.
s Grupo 18, con ocho electrones en la última capa: (capa
completa): gases nobles.
21
ya que será la prueba definitiva de la teoría del átomo si les
da una respuesta satisfactoria. En principio hay dos tipos
de interacciones que son responsables del enlace químico:
la iónica (o heteropolar) y la covalente (u homopolar). En la
mayoría de las moléculas ninguna de las dos actúa exclu-
sivamente, sino que se establece una situación intermedia.
Veamos en primer lugar el origen y las propiedades
del enlace iónico. La configuración electrónica más estable
de un átomo es aquella en la que las capas de electrones
están completas. Los átomos que tienen capas externas sin
llenar tienden a ganar o perder electrones con el fin de ad-
quirir una configuración estable, transformándose entonces
en iones: negativos (si los gana) o positivos (si los pierde).
Los iones negativos también se llaman aniones, y los positi-
vos, cationes. La cantidad de energía necesaria para “arran-
car” un electrón al átomo de un elemento determinado es lo
que se conoce como energía de ionización de dicho elemento
y mide la firmeza con que el electrón más externo está unido
al átomo. Por ejemplo, los átomos de los elementos que apa-
recen en la primera (metales alcalinos) y segunda (metales
alcalinotérreos) columnas del sistema periódico tienen uno
o dos electrones en la capa más externa, respectivamente,
siendo relativamente fácil extraer uno o dos electrones de
cada uno de ellos, formando iones positivos con facilidad.
Al otro extremo del sistema periódico están los áto-
mos de los halógenos, que tienden a completar su capa
más externa mediante la aceptación de un electrón, lo que
daría lugar a un ión negativo. Este proceso libera una can-
tidad de energía que se conoce como afinidad electrónica.
Pues bien, un enlace iónico o heteropolar entre dos áto-
mos se produce cuando uno de ellos tiene una energía de
ionización baja y, por tanto, tiende a ser un ión positivo,
22
mientras que el otro tiene una afinidad electrónica elevada
con tendencia a transformarse en un ión negativo. El ejem-
plo más claro es el del sodio y el cloro. Cuando un ión so-
dio (Na+) y un ión cloruro (Cl-) se encuentran próximos y
libres para moverse, la fuerza de atracción entre ellos hace
que se unan. La condición para que resulte una molécula
estable de cloruro sódico (NaCl), conocida como sal co-
mún, es que la energía total del sistema de los dos iones sea
menor que la de los átomos de los elementos de partida.
De hecho, a efectos prácticos podemos considerar que el
electrón en exceso del ión Cl- ha sido cedido al ión Na+.
A modo de resumen, y con el fin de poder compren-
der mejor los enlaces iónicos, vamos a introducir el con-
cepto de “átomo feliz”. Podemos pensar que, al igual que
las personas, la mayoría de los átomos quieren ser felices.
La forma que tienen de serlo es conseguir que sus capas
de electrones estén llenas. Algunos átomos tienen dema-
siados electrones en su última capa (uno o dos de más),
por lo que les gusta deshacerse de parte de ellos. Hay otros
átomos, por el contrario, a los que les faltan muy pocos
electrones para completar su última capa. Son átomos que
buscan otros átomos que quieran soltar algún electrón y así
convertirse ambos en “átomos felices”.
Sin embargo, el enlace iónico es incapaz de explicar
el caso de moléculas diatómicas como el hidrógeno (H2) o
el cloro (Cl2), cuyos átomos constituyentes son idénticos.
Es necesario, entonces, recurrir a lo que se conoce como
enlace covalente. En este tipo de enlace lo que ocurre es
como si los electrones estuviesen compartidos entre los
átomos que componen la molécula. Al circular entre ellos,
los electrones están más tiempo entre los átomos que en la
parte exterior de la molécula, conduciendo a la aparición
23
de una fuerza de atracción electrostática que mantiene la
molécula unida.
El ejemplo más sencillo para ilustrar el enlace cova-
lente es el formado entre dos átomos de hidrógeno. Cada
átomo de hidrógeno tiene un solo electrón. Cuando dos
átomos de hidrógeno se aproximan, el núcleo de uno de
ellos atrae al electrón del otro; los dos orbitales se solapan
y se transforman en un solo orbital con dos electrones. Se
forma así la molécula de hidrógeno en la que cada átomo
tiene su última capa completa.
FIGURAA 6
H + H H2
24
Pero, como era de esperar, la mayoría de los enlaces
químicos no se forman entre átomos iguales, sino entre áto-
mos de distintos elementos. Estos enlaces son ligeramente
diferentes de la molécula de hidrógeno. Vamos a considerar
el enlace entre el hidrógeno y el cloro. También aquí los dos
átomos necesitan un electrón para completar su última capa
y que el hidrógeno tenga dos electrones, y el cloro, ocho. Al
acercarse, sus orbitales se solapan y los dos átomos compar-
ten un par de electrones. Sin embargo, el enlace cloro-hidró-
geno difiere del hidrógeno-hidrógeno debido a que los elec-
trones no están igualmente compartidos por los dos átomos,
ya que el cloro los atrae con mayor fuerza, por lo que será
más fácil que se encuentren cerca de él. Este hecho hará que
el átomo de cloro presente un carácter ligeramente negativo,
y el de hidrógeno, ligeramente positivo, y diremos que se tra-
ta de un enlace covalente polar.
También podemos decir que este enlace es un dipo-
lo o que tiene un momento dipolar, ya que tiene una parte
positiva (el hidrógeno) y una negativa (el cloro). El átomo
más positivo suele señalarse con el símbolo δ+ y el más
negativo con el símbolo δ-. Sin embargo, el enlace entre los
dos átomos de hidrógeno es un enlace covalente no polar,
ya que no tiene parte positiva ni negativa.
Podemos encontrar tres tipos de enlaces covalen-
tes: sencillos, dobles y triples. Los enlaces sencillos son
los que resultan de compartir un solo par de electrones.
Generalmente, como hemos visto en la molécula de hidró-
geno, cada átomo que forma parte de un enlace contribuye
a él con un electrón. Pero puede ocurrir, como en el caso
de la reacción del amoniaco (NH3), con un ión hidrógeno
(H+) para formar el ión amonio (NH4+), que los dos elec-
trones vengan del mismo átomo:
25
+
H
H N H + H+ H N H
H H
H +
H N H + H+ H N H
H H
26
Además de los enlaces sencillos, hay enlaces dobles y
triples. Un doble enlace consiste en compartir cuatro elec-
trones entre dos átomos. Normalmente el enlace entre el
carbono y el oxígeno es un doble enlace, como ocurre en la
molécula de formaldehido, CH2O:
H
&2
H
Aquí el carbono forma enlaces sencillos con los hidró-
genos y un doble enlace con el oxígeno. En el doble enlace,
el carbono aporta dos electrones y los otros dos los aporta
el oxígeno, de tal forma que todos los átomos de la fórmula
del formaldehido cumplen la regla del octeto, ya que los
hidrógenos tienen dos electrones y el carbono y el oxígeno
ocho cada uno. No obstante, el oxígeno tiene dos pares de
electrones sin compartir (desapareados).
Finalmente, tenemos los triples enlaces, los cuales se
forman cuando dos átomos comparten seis electrones (tres
pares). Un buen ejemplo de molécula con un triple enlace
es la molécula de nitrógeno (N2), cuya estructura es:
N N
En este caso, cada nitrógeno aporta tres electrones al
enlace y se queda con un par sin compartir.
Ya hemos visto los fundamentos de los átomos, com-
ponentes esenciales de las moléculas. Estamos en condi-
ciones ahora de abordar cómo nos hablan ellas, qué pistas
nos dan para que sepamos que existen, dónde se encuen-
tran y cómo dotan de distintas propiedades a los materiales
naturales y sintéticos que usamos y forman parte de nues-
tro hábitat.
27
&$3Ì78/2
&XDQGRODOX]WHD\XGDDYLEUDU
La naturaleza de la luz
28
contrapuestas sobre la naturaleza de la luz. Newton propu-
so una teoría corpuscular, mientras que Huygens suponía
que era un fenómeno ondulatorio.
Para Newton la luz estaba formada por un haz de par-
tículas microscópicas que denominó corpúsculos. La idea
no era mala. De hecho, los rayos de luz viajan velozmente
en línea recta como lo hacen los proyectiles, y cuando se
encuentran un objeto, se comportan de forma no muy di-
ferente a como lo hace una bala cuando rebota. Incluso lle-
gó a explicar el fenómeno de la refracción, ya que la luz se
refractaría, es decir, cambiaría de dirección al pasar de un
medio a otro por la diferencia de velocidad de transmisión
en los dos medios, como le ocurre a una pelota cuando se
hunde en un hipotético tarro gigante de mermelada.
No obstante, lo realmente difícil era explicar, desde
el punto de vista de los corpúsculos, otras propiedades de
la luz como la difracción y las interferencias, característi-
cas ambas de las ondas. De hecho, después de Newton, la
consideración de la luz como una onda comenzó a abrirse
camino, ya que parecía tener mucho en común con las on-
das del sonido en el aire o las olas del agua del mar o de
los lagos.
En realidad, la teoría más consistente era la que supo-
nía Huygens, pero el gran prestigio del que gozaba Newton
mantuvo la teoría ondulatoria arrinconada durante más de
un siglo, hasta que los experimentos de Thomas Young
(1773-1829) y Auguste Jean Fresnel (1788-1827) la co-
rroboraron ya en el siglo XIX. Esto ha sucedido en bas-
tantes ocasiones; las grandes figuras científicas consiguen
importantes avances, pero pueden actuar como rémoras
en nuevos descubrimientos. Aunque, en este caso, el tiem-
po y el desarrollo de la mecánica cuántica le devolvieron a
29
Newton parte de la razón: la luz es un fenómeno ondula-
torio, está formada por ondas electromagnéticas, pero a su
vez puede considerarse formada por pequeñas partículas
de luz (cuantos) llamadas fotones. De esta doble naturale-
za corpuscular y ondulatoria gozan todas las partículas y
ondas.
Años después apareció James C. Maxwell (1832-1879)
y demostró que tanto los campos eléctricos como los mag-
néticos podían describirse con ecuaciones de onda, por
lo que aseguró que la luz no era más que una combina-
ción de ondas de estos tipos de campos, dando por ce-
rrado el caso.
Pero esto no es verdad del todo. Tanto las ondas en el
agua como las ondas del sonido necesitan un material para
formarse. Los físicos de la época asumieron que había un
medio invisible y delgado, al que llamaron “éter luminífe-
ro”, que impregnaba el universo, por lo que consideraban
que las ondas luminosas eran oscilaciones dentro de esta
sustancia. Pero, en 1887, Albert Michelson (1852-1931) y
Edward Morley (1838-1923) montaron un experimento
muy cuidadoso para medir la velocidad de la luz suponien-
do que la Tierra se movía dentro de un éter que le permitía
orbitar en el espacio. Dicho experimento no llegó a buen
fin porque la hipótesis de partida era falsa, ya que no exis-
tía ningún éter. Sin embargo, hay que pensar que la cosa no
fue tan mal, pues existen algunas ondas que no necesitan un
medio para propagarse, como aseguró Einstein en su teo-
ría de la relatividad especial. En efecto, la velocidad de la
luz siempre se puede medir sea cual sea el marco de refe-
rencia que se elija, incluso en el vacío. De hecho, la veloci-
dad de la luz en el vacío, c, es una constante universal, lo
cual nos lleva a la conclusión de que la luz es una onda,
30
pero tan especial que no necesita un medio para propa-
garse.
Al mismo tiempo, durante esos mismos años, los cien-
tíficos comenzaban a estudiar el efecto fotoeléctrico que
consiste en que, cuando la luz incide sobre ciertos obje-
tos, estos liberan electrones. En principio, la teoría ondu-
latoria de la luz podía explicar muy bien este efecto, ya
que entre las características de las ondas está su capacidad
para transportar y transferir energía. Pero los problemas
comienzan cuando entramos en detalles. Si aumentamos
la intensidad de la luz, se emiten más electrones, pero no
cambia la energía de cada electrón. Por el contrario, si lo
que aumentamos es la energía de la luz utilizada, esto es,
utilizamos una luz más azul, la energía de cada electrón
liberado aumenta, y aunque la intensidad de dicha luz sea
baja, los electrones emitidos no tienen menos energía, lo
único que ocurre es que se van liberando más lentamente.
Estos resultados hicieron que Einstein pensara que la
teoría ondulatoria no era lo bastante acertada como para
describir la luz. Su propuesta fue que la luz está formada
por fotones, cada uno de ellos con una energía específica
que depende de la frecuencia de la luz. Los fotones chocan
con los electrones de un material y los expulsan mientras
les transfieren una energía igual a la energía del fotón me-
nos la energía necesaria para liberarlos del material.
Esta teoría explicaba perfectamente el efecto fotoeléc-
trico: una mayor intensidad de la luz significa más fotones,
no más energía por fotón, que liberan más electrones, pero
no con más energía por electrón. De hecho, Einstein fue
galardonado con el Premio Nobel de Física en 1921 por
su trabajo sobre el efecto fotoeléctrico, no por la teoría de
la relatividad.
31
Entonces, después de todo, ¿la teoría de los fotones
es la buena? Y, si es así, ¿qué pasa con el comportamiento
ondulatorio de la luz? La respuesta, quizá inesperada, es
que la teoría de los fotones todavía es errónea. A pesar de
la descripción de los fotones como partículas que arrancan
electrones de un material, los fotones no son partículas.
No tienen funciones de onda mecano-cuánticas ni tampo-
co tienen asignadas posiciones, ni siquiera en el cambiante
sentido mecano-cuántico que dice que, por ejemplo, un
protón tiene asignada en cada momento una posición.
Lo adecuado es decir que un fotón es un objeto me-
cano-cuántico que no es una onda ni una partícula. Eviden-
temente, esta conclusión no es del todo satisfactoria. Es mu-
cho más fácil explicar la naturaleza de la luz en términos
que nos resulten familiares, con experiencias cotidianas de
ondas y de partículas, pero, al hacerlo, perderemos muchas
de sus propiedades. A modo de resumen, podemos decir
que la consideración de la luz como una onda puede expli-
car en general sus propiedades macroscópicas, mientras que
los fotones como partículas componentes de la luz explican
muchas de sus propiedades microscópicas. Lo que no tene-
mos que olvidar, cuando oigamos hablar a alguien de la luz
como onda o como partícula, es que se trata de una aproxi-
mación. La naturaleza es mucho más sutil.
El espectro electromagnético
32
FIGURA 7
Espectro electromagnético
/RQJLWXG 1
c 10 M
c
c
[8 [8 —— MM &0
GHRQGD 10
(VSHFWURYLVLEOH
c
λ= ——
ν
34
resultó ser inviable, aunque el esfuerzo los llevó a algo
mejor: el radar. Unos años más tarde, en 1940, durante
la Segunda Guerra Mundial, aparecieron unos ingeniosos
dispositivos que podían generar radiaciones con longitud
de onda del orden de los centímetros o incluso más cortas.
Evidentemente, se utilizaron enseguida para detectar avio-
nes enemigos.
En los años treinta los científicos ya hubieran podido
construir un láser; de hecho, disponían de las técnicas óp-
ticas adecuadas y de los suficientes conocimientos teóri-
cos, pero nadie fue capaz de poner las dos cosas juntas. El
impulso llegó alrededor de 1950 y de una forma inespe-
rada. Las ondas de radio con longitudes de onda cortas,
llamadas microondas, revelaron que podían hacer que un
grupo de átomos vibrara de forma precisa: esta técnica se
llamó espectroscopía de microondas. Entonces, desempol-
varon los viejos equipos de radar de la Segunda Guerra
Mundial y los pusieron a producir este tipo de radiación.
Así, muchos de los mejores físicos del mundo se detuvie-
ron a pensar sobre cómo estudiar sistemas de moléculas
sumergidas en un “baño” de radiación.
Entre ellos se encontraba Charles Townes (1915), de
la Universidad de Columbia en Nueva York, el cual había
estudiado en los años treinta la física de algunas moléculas
y durante la guerra había trabajado en los radares como
ingeniero electrónico. La Oficina de Investigación Naval
lo presionó a él y a otros físicos para que pusieran todos
sus conocimientos juntos con el fin de inventar la forma de
obtener haces potentes de radiación a cualquier longitud
de onda corta. En 1951 encontró la solución. Un deter-
minado tipo de moléculas en las condiciones adecuadas,
esto es, dentro de una cavidad resonante como las que se
35
usaban para generar ondas de radar, podían generar radia-
ción por sí mismas. Estaba aplicando los conocimientos de
un ingeniero a los sistemas atómico-moleculares de un físico.
Townes le pasó el problema a Herbert Zeiger (1925-2011),
becario postdoctoral, y a James P. Gordon (1928-2013), es-
tudiante de doctorado. En 1954, ambos tenían ya un apa-
rato funcionando, al que Townes llamó MASER (Microwave
Amplification by Stimulated Emission of Radiation).
Además, Townes había predicho una propiedad muy
importante y útil de la radiación emitida por ese aparato:
sería de una sola frecuencia y tan pura como la nota de un
diapasón. Y así fue. El alto grado de orden de dicha radia-
ción le daría al máser, y más tarde al láser, la oportunidad
de tener importantes usos prácticos. Aunque Townes, pre-
mio Nobel de Física en 1964, no fue el único que investigó
esta vía. Joseph Weber (1919-2000), de la Universidad de
Maryland, expresó ideas similares independientemente en
1952 y Robert H. Dicke (1916-1997), de Princeton, tra-
bajó en la misma dirección siguiendo un proceso diferente;
pero ninguno de ellos se puso a construir un aparato. Por
su parte, en Moscú, A. M. Prokhorov (1916-2002) y N. G.
Basov (1922-2001) también investigaron en la misma direc-
ción y construyeron un máser en 1955. Ambos compartie-
ron con Townes el Premio Nobel de Física en 1964.
Unos años más tarde, las investigaciones sobre el
máser se encaminaron al estudio de un método para pro-
ducir este tipo de radiación estimulada pero de luz visi-
ble. Surgía, así, en los años sesenta el denominado má-
ser óptico, el láser, término que deriva de las iniciales de
Light Amplification by Stimulated Emission of Radiation
(amplificación de la luz por la emisión estimulada de ra-
diación). En los comienzos, se consideró que el material
36
básico para la emisión estimulada de luz debía ser un gas;
posteriormente comenzó a experimentarse con cristales
sintéticos de rubí.
37
h’
___
E = hν = λ
donde h es una constante conocida como constante de
Plank, y evidentemente:
h’ = hc
38
además que en el medio activo haya un número mayor de
electrones en el nivel de energía superior que en el inferior;
esto es lo que se llama inversión de población.
La inversión de población es el “principio vital” de los
láseres y se consigue mediante el bombeo adecuado de cier-
tos materiales con niveles de energía electrónicos metaesta-
bles, es decir, con niveles de energía en los cuales los electro-
nes tardan un tiempo relativamente largo en desexcitarse
por emisión espontánea, lo cual favorece precisamente la
acumulación de electrones en el estado de energía superior.
39
en un láser, la fuente de luz proviene de un gas o de un
sólido muy purificado. En ambos casos, los átomos tienen
idénticos niveles energéticos. Como resultado, los fotones
generados poseen idéntica energía y frecuencia.
Las ondas electromagnéticas son señales alternas, es
decir, cambian constantemente de valor. Esta variación tie-
ne forma de curva:
FIGURA 8
y
λ
X
FIGURA 9
$2QGDVFRQODVPLVPDIDVH %2QGDVFRQGLIHUHQWHIDVH
y1 y1
W7LHPSR W7LHPSR
y2 y2
W7LHPSR W7LHPSR
'HVSOD]DPLHQWR
'HVSOD]DPLHQWR
y y
W7LHPSR W7LHPSR
y1 + y 2 + y
y1 + y 2 + y
W7LHPSR W7LHPSR
40
En el caso de que una de ellas se situara en un máxi-
mo y otra en un mínimo, se anularían. Sin embargo, puede
suceder que ambas señales posean la misma fase y, por
consiguiente, los mismos valores, lo que tendría como re-
sultado una onda del doble de tamaño. Dado que en la luz
normal las ondas no están en fase, una parte elevada de su
energía se pierde, puesto que unas señales se anulan con
otras. Por el contrario, en el láser, todas las ondas poseen
la misma fase y la energía resultante es la máxima posible,
puesto que no se anula ninguna onda. Este es el sentido del
término coherente.
Así, podemos concluir que un láser es básicamente
una fuente de luz. Lo que diferencia a un láser de otras
fuentes de luz es el mecanismo físico por el que se produce
la emisión de luz, que se basa en la emisión estimulada,
frente a la emisión espontánea, que es la responsable de la
mayor parte de la luz que vemos. La emisión estimulada
es un mecanismo de emisión que confiere a la luz unas
propiedades muy especiales: alta potencia (y su capacidad
para ser amplificada), direccionalidad (emisión en forma
de “rayos”), frecuencia de emisión bien definida (color de
la luz), capacidad de emitirse en pulsos de muy corta du-
ración, y una propiedad llamada coherencia, que significa
que las ondas electromagnéticas que forman el haz de luz
tienen la misma fase.
Componentes de un láser
41
cristalina, por ejemplo rubí, o un tubo de vidrio que con-
tiene gases, por lo general dióxido de carbono o la mezcla
helio-neón. En cualquier caso, son materiales que poseen
electrones fácilmente excitables y que no emiten inme-
diatamente de forma espontánea, sino que pueden que-
dar excitados durante un tiempo mínimo. Es precisamen-
te este pequeño intervalo de tiempo el que se necesita
para que los electrones produzcan emisión estimulada,
no espontánea.
Junto al núcleo se halla el excitador, un elemento ca-
paz de provocar la excitación de los electrones del material
que se halla en el núcleo, a partir de una lámpara de des-
tellos —que provoca un flash semejante al de una cámara
fotográfica— o de dos electrodos que producen una des-
carga eléctrica de alta tensión.
El tercer componente del láser son dos espejos para-
lelos emplazados en los extremos del núcleo. Uno de ellos
es reflectante, mientras que el otro es semirreflectante, es
decir, permite el paso de una parte de la luz que le llega.
Cuando tiene lugar la excitación, una gran cantidad
de electrones pasan al estado excitado y, una gran mayoría,
permanece en dicha situación durante un determinado in-
tervalo de tiempo. No obstante, algunos realizan una emi-
sión espontánea, generando fotones que se desplazan en
todas las direcciones. Aunque en su mayoría se pierden por
los laterales donde no hay espejos, un pequeño número
rebota entre ellos y pasa por el interior del núcleo, que es
transparente. Al pasar por el núcleo, provocan la emisión
estimulada de nuevos fotones en la misma dirección. Estos
nuevos fotones rebotan también en los espejos, originando,
a su vez, la emisión de más fotones, y así sucesivamente.
Puesto que uno de los espejos es semirreflectante, algunos
42
fotones, en lugar de rebotar, escapan, formando una espe-
cie de chorro muy fino: es el rayo láser.
En resumen, cualquier láser contiene al menos tres
elementos fundamentales: un medio activo, un sistema de
bombeo y una cavidad resonante. El medio activo es el
material (sólido, líquido o gaseoso) que emite la luz. Para
que el medio activo emita luz hay que excitarlo de alguna
manera, del mismo modo que el filamento de una bombilla
necesita una corriente eléctrica que pase por él; en el caso
de un sistema láser se trata del sistema de bombeo, que
puede consistir en otro láser, una lámpara convencional o
una corriente o descarga eléctrica, dependiendo del tipo
de láser. Por su parte, el medio activo se coloca entre dos
espejos que forman una cavidad resonante donde la luz
rebota entre ellos y ayuda a la amplificación, como lo que
ocurre en la caja de resonancia de una guitarra que am-
plifica las ondas acústicas. Uno de los espejos es semirre-
flectante, por lo que parte de la luz amplificada sale de la
cavidad resonante en forma de haz.
Además de estos componentes básicos, un láser pue-
de tener otros dispositivos, tanto en la intracavidad, para
modificar o controlar las características de la luz emitida
(longitud de onda, pulsación, etc.), como externos a la ca-
vidad, para amplificar la intensidad de la luz (a través de
otro medio activo con su correspondiente bombeo) o mo-
dificar la duración de pulso, tasa de repetición, longitud de
onda, polarización, etc.
Son muchos los tipos de láseres diferentes que existen
y se pueden clasificar por su longitud de onda de emisión
(desde las microondas hasta los rayos X), por su poten-
cia (desde milivatios hasta petavatios [1015 vatios]), por
su régimen de emisión (en pulsados o continuos), por las
43
características de su medio activo (sólidos, líquidos o ga-
seosos) o por otras características; y cada uno de estos ti-
pos tiene unas utilidades muy diversas.
44
Entre las aplicaciones más usadas del láser está la lec-
tura de discos compactos, la fabricación de circuitos inte-
grados y la lectura de códigos de barras. En el ámbito de la
medicina, la tecnología láser se aplica a los bisturís caute-
rizantes, ya que permite realizar cortes muy finos de gran
precisión, evitar cualquier riesgo de contagio y cauterizar
de manera inmediata, alejando el peligro de hemorragias.
Sin embargo, muchas de las aplicaciones del láser no
dependen tanto de su capacidad para generar un rayo de
luz como del hecho de que representan una concentración
extremadamente intensa de energía. Basándonos en esta
propiedad, podemos enumerar tres aplicaciones suma-
mente importantes en el terreno de la óptica. Una de ellas
son las telecomunicaciones mediante fibra óptica; en este
caso, las señales eléctricas que hasta hace poco tiempo se
desplazaban a través de conductores metálicos han sido
reemplazadas por pulsos ópticos que se transmiten a través
de fibra de vidrio del grosor de un cabello. Como potente
fuente de luz, el láser confiere a estas fibras una elevada
capacidad de transmisión.
La segunda aplicación óptica importante está en la
holografía, que es una técnica para crear imágenes tridi-
mensionales, inventada en 1947 por el ingeniero eléctrico
húngaro Dennis Gabor (1900-1979), quien obtuvo por
ello el Premio Nobel en 1971. Esta técnica se basa en la in-
terferencia entre dos rayos de luz. Uno de ellos es reflejado
por el objeto representado sobre una película fotográfica.
El otro incide directamente sobre la película como rayo
de referencia. Cuando la película se revela y se observa
la imagen con luz de la misma longitud de onda, surge
una representación tridimensional del objeto original.
Uno de los aspectos básicos del sistema, sin embargo, es la
45
necesidad de utilizar luz coherente, y cuando se inventó
solo se disponía de fuentes relativamente débiles de este
tipo de luz. La llegada del láser transformó la situación,
porque la generación de una poderosa fuente de luz co-
herente es su esencia. Con el tiempo, la holografía llegó
a hacerse muy familiar en una variedad de formas, como
en la marca de seguridad de las tarjetas de crédito y en
publicidad.
La tercera aplicación importante está en las impreso-
ras de los ordenadores, donde, controlando un haz láser, se
dibujan las palabras que se quieren imprimir.
También podemos destacar las aplicaciones que de-
penden de su capacidad para concentrar una gran cantidad
de energía sobre una superficie muy pequeña (alrededor de
un millón de vatios por centímetro cuadrado) durante un
periodo de tiempo extremadamente breve. Fruto de esta
capacidad son algunas de las más importantes aplicaciones
industriales de los láseres: la perforación, la soldadura y el
corte de distintos materiales.
Para perforar materiales se utilizan los láseres de
Nd-YAG (Itrio [en inglés Ytrium]-Aluminio-Granate), que
emiten pulsaciones muy cortas (de menos de una cien-
millonésima de segundo) en la región del infrarrojo cerca-
no. De esta forma, es posible perforar un orificio de peque-
ñísimo diámetro (desde 0,3 mm) con daños mínimos para
el material circundante. También es posible utilizar el láser
para el corte de precisión, pero para este fin se utilizan
láseres de gases (por ejemplo, de dióxido de carbono), que
generan haces continuos, esto es, no pulsados. Por ejem-
plo, un láser de CO2 de 500 vatios puede cortar una lámina
de acero de 1 mm de espesor a una velocidad de unos 10 cm
por segundo.
46
Además, puesto que un rayo láser es muy fino y prác-
ticamente no sufre divergencias, se puede usar para medir
largas distancias con gran precisión. La técnica (semejante a
la del radar) consiste en captar el rayo reflejado por el objeto
distante y medir el tiempo transcurrido desde el envío de la
señal hasta la recepción de su reflejo. Conociendo la veloci-
dad de la luz, resulta fácil calcular la distancia. En los años
setenta, este método se empleó para determinar con gran
precisión la distancia de la Luna, utilizando los reflectores
que habían instalado allí los astronautas norteamericanos.
Finalmente, se han empleado láseres hasta para temas
relacionados con el espionaje. En 1968 se descubrió que
un láser puede detectar perfectamente desde el exterior
hasta las vibraciones del cristal de las ventanas producidas
por las conversaciones en el interior de una casa.
47
los electrones. Los fotones son paquetes de energía elec-
tromagnética que no tienen masa. Cuando son absorbidos
por una molécula, dejan de existir y la energía cinética de
la molécula aumenta. Cuando la energía cinética promedio
de un gran número de moléculas aumenta, se detecta un
aumento de temperatura.
La energía cinética puede ser de tres tipos: de trans-
lación (el movimiento de la molécula de un lugar a otro),
de rotación a lo largo de uno o de todos los ejes de rota-
ción de la molécula y de vibración. En sólidos, como es el
caso del ladrillo, la mayor parte de la energía cinética de
sus moléculas es de vibración. El ladrillo, a su vez, emitirá
fotones térmicos (con longitudes de onda en el infrarrojo)
y nosotros sentiremos esta radiación con una sensación de
calor. Así es cómo se transforma la energía electromagné-
tica (luz) en calor.
Como veremos más adelante, las vibraciones de las
moléculas inducidas por la luz es el lenguaje que estas em-
plean para decirnos cómo se encuentran, esto es, su es-
tructura, los enlaces que las forman y su posición respecto
a las moléculas de su entorno.
48
&$3Ì78/2
/RVHVSHFWURVXQDIRUPDGHPDQLIHVWDUVH
HQJUXSR
49
que una molécula determinada, además de que sus grupos
de átomos describan rotaciones alrededor de los enlaces,
puede experimentar una amplia variedad de vibraciones
características de dicha molécula.
Por todo ello, en principio podemos afirmar que cual-
quier molécula con enlaces covalentes absorberá una can-
tidad de fotones, con frecuencias en la región infrarroja,
que se corresponden con la energía de sus vibraciones,
dando lugar a un espectro de absorción único para dicha
molécula, que es un fiel reflejo de su estructura.
Los espectros moleculares son la forma que tienen las
moléculas de hablarnos, de decirnos cómo son y cuál es
su estructura. Este lenguaje conforma una disciplina que
se conoce como espectroscopía o espectroscopia, puesto que
las dos palabras están aceptadas por la comunidad cientí-
fica que se expresa en español, y que no es más que el uso
de la absorción, emisión o esparcimiento (en inglés scatte-
ring) de la radiación electromagnética cuando interacciona
con átomos, moléculas o iones (atómicos o moleculares),
lo que nos permitirá estudiar su estructura y una serie de
procesos físicos relacionados.
La interacción de la radiación con la materia puede
provocar un cambio en la dirección de la radiación junto
con la inducción de transiciones entre los niveles de ener-
gía de los átomos y las moléculas que la componen. Una
transición desde un nivel bajo hasta uno más alto, acom-
pañada por una transferencia de energía a la molécula, se
llama absorción. Cuando la transición va de un nivel alto
a uno más bajo se llama emisión si la energía se transfiere
en forma de radiación, o transición no radiativa si no emite
ninguna radiación. Por el contrario, cuando hay un cam-
bio de dirección de la luz debido a su interacción con la
50
materia tenemos el fenómeno de esparcimiento o scattering,
que puede tener lugar con o sin transferencia de energía;
esto es, la radiación esparcida puede tener la misma longi-
tud de onda o cambiar ligeramente.
Absorción
E = hν
51
se puede calcular teniendo en cuenta la ley de Lambert-
Beer.
/H\GH/DPEHUW%HHU
A(λ) = a(λ) · b · c
A=E·b·c
I
T= ——
λ I0
52
donde I es la intensidad de la luz después de pasar a
través de una muestra; e I0, la intensidad inicial. La ab-
sorbancia y la transmitancia están relacionadas por la
ecuación:
FIGURA 10
0XHVWUDGH
FRQFHQWUDFLyQc
I0 I
/RQJLWXGb
53
Emisión
‘Scattering’
54
vibraciones moleculares, como ya hemos visto en los fenó-
menos de absorción de luz infrarroja.
FIGURA 11
40
7
20
10
55
Tradicionalmente, los espectros IR se presentan en
transmitancias (expresadas en tanto por ciento) en lo que se
refiere al eje de ordenadas, mientras que el eje de abscisas,
en lugar de estar en unidades de frecuencia, está en cm-1, ya
que son cifras mucho más manejables que los Hz. Un cm-1 es
el número de ciclos completos de una onda que caben en un
centímetro, mientras que la frecuencia en ciclos por segundo
o Hz es igual al número de ciclos completos de ondas que
caben en 3 1010 cm (que es la distancia que recorre la luz
en un segundo). Las unidades de longitudes de onda en esta
región son las micras, μm; 1μm = 10-6 m, por la misma razón.
Se pueden obtener espectros IR de muestras en cual-
quier estado (sólido, líquido y gaseoso). Normalmente, se
obtienen midiendo la luz que transmite la muestra, por lo
que se necesita que esta sea transparente a la radiación IR.
Así, los líquidos se preparan como películas delgadas entre
dos ventanas pulidas de cloruro sódico o bromuro potásico,
que son transparentes en esta región, mientras que el vidrio
absorbe totalmente la radiación. Si se usan disolventes en el
caso de moléculas solubles, hay que evitar que las bandas
de absorción del disolvente no interfieran demasiado con
las bandas de la sustancia que se vaya a estudiar. Los di-
solventes clorados como el tetracloruro de carbono (CCl4),
el cloroformo (CHCl3) y el tetracloroetileno (CH2Cl2) están
entre los que más se usan. Sin embargo, el agua absorbe
prácticamente toda la radiación infrarroja, lo cual es un in-
conveniente de esta técnica, al no poder medir disoluciones
acuosas, limitando en principio su uso para el estudio de
moléculas con actividad en medios biológicos, ya que suelen
actuar en un medio acuoso.
Otro método para obtener buenos espectros IR de só-
lidos es por medio de la incorporación de la sustancia a
56
una pastilla de bromuro potásico (KBr), que se obtiene
por dispersión de unos pocos miligramos de la muestra en
unos 300 mg de KBr molido y sometido a presión en un
molde adecuado.
Espectroscopía Raman
57
importante renacimiento de esta espectroscopía, que, junto
con otros avances instrumentales y mejoras en el manejo
de muestras durante los años sesenta y setenta, amplió su
uso a otros muchos sistemas moleculares y macromole-
culares.
Igual que en la espectroscopía IR, de un espectro Ra-
man podemos obtener datos que describen las vibraciones
moleculares, que no son sino pequeñas oscilaciones de los
átomos individuales de una molécula alrededor de sus posi-
ciones de equilibrio. Sin embargo, la forma de obtener esos
datos es bastante diferente en cada caso, ya que estos dos
tipos de espectroscopías se apoyan en procesos físicos di-
ferentes, como ya hemos dicho: scattering en el caso de la
Raman y absorción en el de la IR.
El efecto Raman es un fenómeno de scattering en el
cual hay un cambio en la frecuencia de la luz que esparce la
molécula. En principio, cuando un haz monocromático de
un láser con frecuencia ν0 interactúa con una molécula, el
componente eléctrico del campo electromagnético de la luz
ejerce una fuerza sobre todos los electrones de dicha molé-
cula y tiende a desplazarlos de sus posiciones de equilibrio
alrededor de los núcleos cargados positivamente. Este pro-
ceso induce un momento dipolar en la molécula, es decir, la
convierte en un dipolo, que vibra a la frecuencia del laser,
ν0. Como consecuencia de ello, la molécula emite una radia-
ción de frecuencia ν0, llamada radiación Rayleigh (scattering
elástico). La amplitud de la onda emitida es proporcional
a una magnitud característica de la molécula en cuestión,
conocida como polarizabilidad.
La polarizabilidad de una molécula depende de su ta-
maño, forma y orientación, y puede modificarse cuando
cambia alguno de estos parámetros. Pues bien, cuando
58
cambia la polarizabilidad de una molécula como con-
secuencia de su interacción con la luz que induce un
cambio en la forma de la molécula debido a las vibra-
ciones de los núcleos atómicos que la componen, da
como resultado lo que se llama scattering Raman. Por
cada vibración molecular que implique desplazamientos
de los núcleos y, por lo tanto, cambios en la polarizabi-
lidad, se observará un desplazamiento de la frecuencia
de la luz esparcida que corresponde a la frecuencia de
dicha vibración (scattering inelástico). Como resultado,
la luz que es esparcida por las moléculas no solo tendrá
la frecuencia de excitación del láser (ν0), sino también la
suma y la diferencia de las frecuencias de las vibraciones
moleculares (νR = ν0 ± νm). Los desplazamientos de fre-
cuencia (ν0 - νm) y (ν0 + νm) se llaman vibraciones Stokes y
anti-Stokes, respectivamente.
Para poder comprender mejor este proceso podemos
representarlo en términos de niveles de energía.
FIGURA 12
v’ = 2
(VWDGRHOHFWUyQLFR
v’ = 1
H[FLWDGR
v’ = 0
v’ = 2
v’ = 1 (VWDGRHOHFWUyQLFR
Vm v’ = 0 IXQGDPHQWDO
5D\OHLJK 6WRNHV DQWL6WRNHV ,5
Raman
59
Como podemos ver en la figura, los niveles de energía
que dan lugar a los espectros Raman (niveles vibraciona-
les) quedan muy por debajo del primer estado excitado
electrónico. Cuando una molécula es excitada por un láser
desde su nivel vibracional fundamental v = 0 hasta un nivel
vibracional v=1, emitirá fotones con frecuencia νR = ν0 - νm,
o sea, radiación Stokes. Por el contrario, cuando la molécu-
la inicialmente se encuentra en un nivel v = 1 y acaba en un
nivel con menos energía (v = 0), emitirá fotones anti-Stokes,
de frecuencia νR = ν0 + νm. Como a temperatura ambiente
la población de moléculas en el nivel v = 0 es mayor que la
del nivel v=1, las vibraciones Stokes serán más intensas que
las anti-Stokes. En general, cuando se habla de espectros
Raman, se registra y estudia únicamente la región Stokes.
Sin embargo, si la energía de la luz que incide sobre
una molécula es idéntica a la diferencia de energías entre
dos niveles vibracionales, por ejemplo ΔE = Ev=1 – Ev=0,
entonces la molécula puede absorber luz, y este tipo de
absorción tiene lugar en la región infrarroja, como ya he-
mos visto antes al hablar de la espectroscopía IR. Por lo
tanto, las frecuencias νR correspondientes a las bandas del
espectro Raman de una molécula determinada serán las
mismas que las del espectro IR de la misma molécula, pero
los procesos físicos que nos han llevado a obtener estos
espectros son radicalmente distintos, por lo que encontra-
remos cambios notables en la intensidad de los picos. En
muchos casos, hay vibraciones moleculares que dan una
señal Raman muy débil mientras que la señal IR es muy
intensa, y viceversa. Esto se debe a que la intensidad de las
distintas bandas depende de cómo cada vibración haga va-
riar el momento dipolar (espectro IR) y la polarizabilidad
(espectro Raman) de la molécula. En general, podemos
60
decir que las vibraciones que mantienen la simetría de la
molécula serán más intensas en Raman y las que rompen
dicha simetría lo serán en el espectro IR.
En conclusión, la combinación de ambas técnicas
espectroscópicas nos dará información complementa-
ria que nos llevará a poder identificar y caracterizar los
grupos atómicos y los enlaces específicos que componen
una molécula y su interacción con otros enlaces y grupos
cercanos.
61
FIGURA 13
Espectro IR del agua
100
80
7
60
40
62
FIGURA 14
Modos de vibración de la molécula de agua
FP² FP²
FP²
63
sirven de huella digital para identificar la composición o
para indicar la presencia de ciertos grupos en la molécula.
Los enlaces similares o ciertos grupos de átomos dentro de
una molécula vibran muchas veces con frecuencias caracte-
rísticas. La aparición de una banda en una frecuencia que es
característica de un grupo determinado puede servir para
indicar la presencia de este grupo al estudiar el compuesto.
Por ejemplo, volviendo al caso de la molécula de agua,
vemos que las dos vibraciones de tensión de los grupos
OH aparecen en la región de 3500-3600 cm-1, por lo tanto,
la aparición de bandas en esa región nos indicará la posibi-
lidad de que un compuesto desconocido tenga grupos OH
en su estructura molecular.
Instrumentación
(VSHFWUyPHWURVGHDEVRUFLyQ,5
)XHQWHVGHUDGLDFLyQLQIUDUURMD
En general, las fuentes utilizadas no son más que un só-
lido inerte (que no se descompone con la temperatura)
64
calentado con una resistencia eléctrica hasta llegar a una
temperatura del orden de 1.200-1.700 ºC. Cuando alcance
esa temperatura, el material emitirá radiación IR. Los más
conocidos son:
Detectores
Existen en el mercado tres tipos de detectores de la radia-
ción infrarroja:
65
sulfato de triglicerina. Cuando se aplica un campo
eléctrico a cualquier material, aparece una polariza-
ción eléctrica. Sin embargo, en el caso de un material
piroeléctrico, cuando el campo eléctrico desaparece,
la polarización persiste. El grado de polarización de-
pende de la temperatura, por lo que si ponemos un
material piroeléctrico entre dos electrodos, a modo
de sándwich y lo calentamos con una radiación IR,
habrá un cambio en la respuesta eléctrica del mate-
rial que podremos medir con los electrodos. Este tipo
de detectores tienen una respuesta muy rápida y son
los más usados en los instrumentos de transformada
de Fourier que se describen más abajo.
s Detectores fotoeléctricos: el detector está formado por
una película de un material semiconductor (por ejem-
plo, la aleación mercurio teluro de cadmio) deposi-
tada sobre una superficie de vidrio y sellado todo el
conjunto al vacío. La absorción de radiación IR pro-
mueve los electrones no conductores del material a
un estado más energético y conductor, produciendo
un descenso de la resistencia eléctrica del semicon-
ductor. Estos detectores tienen una respuesta aún
más rápida que la de los detectores piroeléctricos.
(VSHFWURIRWyPHWURV,5GLVSHUVLYRV
Normalmente, se trata de instrumentos de doble haz.
Como se puede ver en la figura 15, se generan dos haces
luminosos iguales y paralelos que, tras atravesar todo el
sistema óptico de dispersión de la luz, llegan al detector.
El detector solo responde cuando la intensidad de los dos
haces no es la misma. En uno de los haces se coloca la
muestra, que, evidentemente, absorberá la radiación IR en
66
una cantidad diferente para cada frecuencia. El detector
irá midiendo la diferencia de energías correspondientes.
En este tipo de instrumentos se suelen usar redes de
difracción como elementos para dispersar la luz.
FIGURA 15
Esquema de un espectrofotómetro IR dispersivo
)XHQWH
0XHVWUD
Chopper
Detector
5HGGH
GLIUDFFLyQ
5HQGLMD
,QWHUIHUyPHWURV,5SRUWUDQVIRUPDGDGH)RXULHU
Cualquier tipo de onda, y particularmente las ondas lumi-
nosas, se pueden representar de dos maneras. Normalmente
se expresan en función de cómo avanza la onda con el
tiempo (dominio tiempo), pero también pueden represen-
tarse en función de la frecuencia de la onda (dominio fre-
cuencia), que es lo que llamamos espectro:
FIGURA 16
7LHPSR
)UHFXHQFLD
67
Los espectrofotómetros dispersivos operan en el domi-
nio de las frecuencias. Sin embargo, al medir en el dominio
del tiempo, se pueden obtener algunas ventajas. No obstante,
se necesita un ordenador para pasar de un dominio al otro.
Si quisiéramos registrar una onda luminosa en el do-
minio del tiempo, lo primero que se nos ocurre es dejar
que la radiación llegue a un detector y registrar su res-
puesta con el tiempo. Pero, en la práctica, no hay ningún
detector que pueda responder tan rápidamente, ya que la
radiación luminosa tiene una frecuencia mayor de 1014 Hz.
Es decir, ¡pasan 100 billones de ondas por segundo!
Para resolver este problema se utiliza un interferóme-
tro de Michelson, que modula la señal IR a una frecuencia
detectable. En realidad lo que hace es producir una nueva
señal a una frecuencia mucho más baja pero que contiene
la misma información que la señal IR original. La gráfica
de salida de un interferómetro se llama interferograma.
FIGURA 17
Esquema de un interferómetro de Michelson
(VSHMRHVWDFLRQDULR
6HSDUDGRU
GHKD]
)XHQWHGH
UDGLDFLyQ
(VSHMRPyYLO
3RVLFLyQGH
ODPXHVWUD
Detector
68
La radiación que sale de la fuente se separa en dos,
gracias a un separador de haz. La mitad de la radiación se
refleja e incide sobre un espejo fijo, llamado estacionario, y
luego vuelve sobre el separador. Esta radiación habrá reco-
rrido una distancia fija. La otra mitad de la radiación atra-
viesa el separador de haz y se refleja en un espejo móvil. En
este caso, la longitud recorrida por el haz es variable.
Los dos haces reflejados se vuelven a reunir en el
separador, donde producen interferencias. Es decir, para
una longitud de onda determinada, producirán una inter-
ferencia constructiva cuando la diferencia entre los cami-
nos recorridos por los dos haces sea un múltiplo exacto
de la longitud de onda. Por el contrario, si la diferencia
entre los caminos recorridos es la mitad de la longitud
de onda de la radiación, producirá una interferencia des-
tructiva. Si el espejo móvil se aleja del separador de haz a
una velocidad constante, la radiación que llegue al detec-
tor seguirá una secuencia regular de máximos y mínimos
a medida que se vayan alternando las interferencias cons-
tructivas y destructivas.
Sin embargo, el hecho real es que no tenemos una
fuente monocromática, sino todas las frecuencias que emi-
te dicha fuente, por lo que su interferograma será extrema-
damente complicado.
El espejo móvil tiene que moverse muy suavemente
y se ha de conocer su posición exacta en cada momen-
to. Para ello se usa un láser focalizado en un extremo
del espejo que, al ser luz monocromática, dará un inter-
ferograma sencillo con máximos y mínimos regulares
(sinusoidal). Cada máximo de dicho interferograma indi-
ca la posición del espejo móvil que coincide con la mitad de
la longitud de onda del láser. Esto hace que este sistema
69
de medida tenga una escala de frecuencias IR segura y
precisa.
En un instrumento FTIR, la muestra de la que que-
remos obtener su espectro IR se coloca entre la salida del
interferómetro y el detector. La muestra absorbe la radia-
ción de unas determinadas longitudes de onda relaciona-
das con su composición molecular, como ya hemos visto.
Por lo tanto, el interferograma que obtendremos contendrá
el espectro de la fuente de radiación menos el espectro de
la muestra. Para obtener el espectro de la muestra, se nece-
sitará, entonces, el interferograma de una referencia (que
puede ser el de la célula vacía o solo con disolvente en el
caso de las disoluciones).
Una vez que se ha obtenido el interferograma en cues-
tión, necesita someterse a un proceso matemático, cono-
cido como transformada de Fourier rápida (Fast Fourier
Transform), que nos pasará los datos del dominio tiempo
al dominio frecuencias (intensidad frente a número de on-
das) que todos conocemos como espectro IR.
Evidentemente, el detector usado en este tipo de equi-
pos tiene que ser de respuesta rápida, ya que los cambios
de intensidad son rápidos, puesto que el espejo también
se mueve rápidamente. Como los detectores térmicos ade-
cuados para los espectrofotómetros dispersivos son dema-
siado lentos, se suelen usar detectores piroeléctricos o con-
tadores de fotones enfriados con nitrógeno líquido.
Para conseguir espectros lo suficientemente buenos,
lo que se hace es obtener varios interferogramas de una
muestra y después promediarlos. Con el desarrollo de la
informática todo esto se puede hacer en un tiempo menor
del que utiliza un instrumento dispersivo en hacer un solo
barrido.
70
(VSHFWUyPHWURV5DPDQ
Los espectrómetros Raman, al igual que en el caso de los
IR, pueden ser dispersivos o interferómetros FT.
En la figura 18 se muestra el esquema de un espectróme-
tro Raman dispersivo con una geometría de 180º; actualmen-
te es la que más se usa, ya que se aprovecha la posibilidad de
recoger la luz esparcida por la muestra, que es donde está la
información del espectro Raman, a través de un microscopio.
FIGURA 18
Esquema de un espectrofotómetro Raman dispersivo
Detector
&&'
5HGHVGH
GLIUDFFLyQ
Láser
)LOWUR
(VSHMR
Macro 5HQGLMD
0XHVWUD DMXVWDEOH
(VSHMRV
6HSDUDGRU
GHKD] )LOWURGH
2EMHWLYR
microscopio Noch
71
Los instrumentos FT-Raman tienen la ventaja de
que, al operar en el infrarrojo próximo, no compiten con
la fluorescencia de la muestra, que suele ser un problema
cuando se trabaja con láseres de luz visible, pudiendo lle-
gar a enmascarar totalmente el espectro Raman. Sin em-
bargo, puesto que la intensidad de las bandas de un es-
pectro Raman es proporcional a la frecuencia de la luz de
excitación, estos espectros serían de muy baja calidad. No
obstante, la capacidad de obtener numerosos espectros en
poco tiempo y promediarlos hace que mejore la relación
señal ruido y, por lo tanto, la calidad del espectro.
72
&$3Ì78/2
3RViQGRVHVREUHQDQRHVWUXFWXUDV
73
la longitud que ocupan entre tres y cinco átomos alineados
en fila india. Para que nos hagamos una idea, el diámetro
de un cabello humano es unos cinco órdenes de magnitud
mayor que una nanopartícula.
Sin embargo, el estudio de los nanomateriales no su-
pone únicamente un paso más en la miniaturización de las
cosas, sino un campo de trabajo completamente diferen-
te. El mundo “nano” se encuentra a medio camino entre
la escala atómica con los correspondientes fenómenos
cuánticos y la escala de los materiales de mayor tamaño.
A nivel de los nanomateriales, las leyes de la física atómica
pueden cambiar algunas de las propiedades del material, lo
que puede implicar cambios en el comportamiento del
material cuando se utiliza en el mundo cotidiano, esto es, a
mayor escala.
Aunque el interés mostrado por los nanomateriales es
relativamente reciente, el concepto apareció ya hace más
de 50 años. En efecto, en 1959, el físico estadounidense
Richard Feynman (1918-1988), premio Nobel de Física
en 1965, dio una charla en California, titulada “Hay mu-
cho sitio al fondo”, en la que comentó que no hay razones
físicas fundamentales para que no se pudieran fabricar y
manipular átomos individuales.
En realidad, el ser humano ha obtenido y ha usado
nanomateriales durante cientos de años. Por ejemplo, el
hermoso color rojo rubí de cierto tipo de vidrio se debe
a nanopartículas de oro atrapadas en la matriz vítrea. El
esmalte vidriado conocido como lustre, que se ha encon-
trado en cerámicas medievales, contiene nanopartículas
metálicas esféricas dispersadas de una forma determina-
da en el propio esmalte, lo que le confiere unas propieda-
des ópticas especiales. Las técnicas usadas para producir
74
estos materiales estaban protegidas y permanecían en se-
creto en aquellos años, pero incluso ahora no son del todo
conocidas.
El desarrollo de la nanotecnología se ha visto impul-
sado por las mejoras en la instrumentación, construyen-
do aparatos que nos permiten observar el “nanomundo”,
como la última generación de sofisticados microscopios
electrónicos y de efecto túnel. En 1990, unos científicos
de IBM consiguieron controlar la posición de átomos in-
dividuales de xenón (uno de los gases nobles) sobre una
superficie de níquel y escribir así el logotipo de la empre-
sa, usando un microscopio de efecto túnel, como demos-
tración del avance de la flamante y nueva tecnología que
habían desarrollado. A mediados de los años ochenta se
descubrió un nuevo tipo de material, unas esferas huecas
de carbono que recibieron el nombre de fullerenos en honor
del arquitecto Buckmunster Fuller, quien había diseñado
una bóveda geodésica con una geometría similar a la que
se encontró a nivel molecular en estos compuestos. Los
fullerenos se representan como C60, ya que se trata de 60
átomos de carbono enlazados que dan lugar a una molécu-
la con la forma de un balón de fútbol. Su descubrimiento
inspiró a los investigadores que llevaron a cabo la fabrica-
ción de nanofibras de carbono con diámetros inferiores a
100 nm. En 1991, el investigador japonés S. Ijima (1939),
de la firma NEC (Nippon Electric Company), publicó la
primera observación de nanotubos de carbono, que desde
entonces hasta la actualidad han sido fabricados por un
gran número de empresas para su uso comercial.
En definitiva, los nanomateriales que despiertan tan
grande interés en el mundo científico básico y en el campo
industrial son muchos y muy variados, pero ¿qué es lo que
75
hace que sean tan diferentes y tan fascinantes? Su extre-
madamente pequeño tamaño está en la misma escala que
el tamaño crítico de algunos fenómenos físicos. Por ejem-
plo, la anchura del principio de una grieta en un material
determinado puede estar entre 1 y 100 nm. La forma que
tiene de crecer dicha grieta en una pared suele ser distin-
ta de como lo hace en un nanomaterial, ya que, en este,
el tamaño de la grieta y de las partículas que la rodean
son comparables, y en la pared, no. Además, a este nivel
también son diferentes los procesos electrónicos, mag-
néticos, ópticos, químicos y biológicos fundamentales.
Parece lógico pensar que si las proteínas tienen un tama-
ño entre 10 y 1.000 nm y las paredes celulares entre 1 y
100 nm de ancho, su comportamiento frente a un nano-
material será bastante diferente del que experimentarán
frente a materiales macroscópicos. Todo esto hace que
las nanocápsulas y los nanodispositivos ofrezcan nuevas
posibilidades en temas tan diversos como el transporte y
la liberación de fármacos, la terapia genética y los diag-
nósticos médicos.
Las superficies y las interfaces también son impor-
tantes a la hora de explicar el comportamiento de los na-
nomateriales. En los materiales macroscópicos solo hay
un pequeño porcentaje de átomos que están en la super-
ficie o cerca de ella. Sin embargo, en los nanomateriales,
su pequeño tamaño hace que muchos átomos, quizá más
de la mitad en algunos casos, estén cerca de la super-
ficie. Este hecho hace que algunas de las propiedades
superficiales como los niveles de energía, la estructura
electrónica y la reactividad puedan ser muy diferentes
de las del interior, dando lugar a un material con nuevas
propiedades.
76
Entre los nanomateriales más usados se encuentran
los nanocomposites basados en pequeñas cantidades de na-
nopartículas dispersadas en una matriz polimérica. Se ha
visto que un material tan humilde como la arcilla, cuando
se añade en pequeñas cantidades (del orden del 2%) a una
matriz polimérica (resina de poliimida), aumenta su rigi-
dez un 100%. Pero las nanopartículas, además de mejorar
las propiedades mecánicas, también han demostrado que
mejoran la estabilidad térmica, permitiendo en algunos ca-
sos el uso de un material hasta 100 ºC por encima de su
temperatura de trabajo habitual. También se ha estudiado
la disminución de la inflamabilidad de materiales por la
presencia de nanopartículas de arcillas en matrices polimé-
ricas, cualidad de gran importancia para la seguridad en el
transporte de ciertas mercancías; este tipo de nanomate-
riales también se usan para componentes aeroespaciales,
electrónicos, etc.
Pero la investigación más importante se ha realizado
en el campo de los nanotubos de carbono, hace unos años,
y, más recientemente, de los grafenos. En efecto, durante
los últimos veinte años se han sintetizado nanopartículas
de carbono con diversas formas: bastones, fibras, tubos
con simple o doble pared, con los extremos abiertos o
cerrados y con formas rectas o espirales. Había muy bue-
nas razones para dedicar tanto esfuerzo a los nanotubos
de carbono, debido principalmente a sus especiales pro-
piedades, como una rigidez y una fortaleza mayores a las
de cualquier otro material, así como unas extraordinarias
propiedades electrónicas. Por ejemplo, se ha probado que
son térmicamente estables en el vacío por encima de los
2.800 ºC, que tienen una capacidad para transmitir la co-
rriente eléctrica más de mil veces mayor que los hilos de
77
cobre y que tienen una conductividad térmica que es el
doble de la del diamante, que es otro compuesto de carbo-
no. Pero, aunque se esperaba de ellos que llegaran a ser la
base de una nueva era de dispositivos electrónicos mucho
más pequeños y más potentes que los actuales, todas estas
expectativas han quedado un poco paralizadas por la apa-
rición de un nuevo tipo de material: el grafeno.
¿Qué es el grafeno?
78
formar grumos en lugar de hojas perfectas. En la vida co-
rriente, cualquiera que haya escrito con un lápiz ha for-
mado, con toda seguridad, láminas de grafeno. El grafito
de la mina del lápiz se separa en hojas cuando se restriega
sobre un papel y, con un poco de suerte, alguna de esas
hojas tendrá un espesor de una sola capa de átomos, esto
es, nuestro grafeno.
79
Además del oro, se han utilizado otros metales como la
plata y el cobre en cerámicas de distintas épocas y loca-
lizaciones. Una de las primeras tecnologías de nanopar-
tículas metálicas que han llegado hasta nuestros días son
las vidrieras de las catedrales, ya que, según el tamaño de
la partícula que se dispersa en el vidrio, su color cambia
cuando se ilumina.
Además, hasta bien entrada la Edad Media, el oro
soluble (que hoy llamaríamos coloides de oro) tuvo una
gran reputación, pues reveló tener capacidad curativa para
enfermedades tales como los problemas cardiológicos y
venéreos, la disentería o la epilepsia. El primer tratado so-
bre oro coloidal, firmado por el filósofo y médico Francisci
Antonii, data de 1618, pero es en 1676 cuando encontra-
mos que el químico alemán Johann Kunckel (1625-1712)
dice: “el oro potable está formado por oro neutro en forma
de una disolución de color rosáceo que exhibe propiedades
curativas para varias enfermedades”, y añade: “el oro tiene
que estar presente en tal grado de miniatura que no sea
visible al ojo humano”. Años más tarde, en 1818, el quími-
co alemán Jeremias Benjamin Richter (1762-1807) sugirió
una explicación para las diferencias de color que mostra-
ban algunos preparados de oro potable: “[…] las disolu-
ciones de color rosa o púrpura contienen oro en su más
alto grado de subdivisión, mientras que las disoluciones
amarillas se obtienen cuando dichas partículas tan finas se
han agregado”.
En 1857, fue el propio Faraday quien publicó la receta
para la obtención de disoluciones de oro coloidal con un
rojo intenso, al reducir una disolución acuosa de cloroau-
rato (AuCl4- ) con fósforo en disulfuro de carbono (CS2).
Asimismo, investigó las propiedades ópticas de películas
80
delgadas obtenidas a partir de disoluciones coloidales y
observó cambios reversibles de su color por estiramiento o
compresión mecánica. A partir de aquí, Graham acuñó el
término “coloide”, del francés colle, que significa “cola” o
“pegamento”.
No obstante, y volviendo al tema que nos ocupa, que
no es otro que el conocimiento y reconocimiento de las
moléculas, lo que verdaderamente es interesante de las na-
nopartículas metálicas en este sentido son sus propieda-
des ópticas y la posibilidad de medirlas gracias al desa-
rrollo de una instrumentación adecuada, todo ello fruto
del esfuerzo de un gran número de investigadores y de
empresas durante los últimos años del siglo XX y princi-
pios del XXI.
La plasmónica
81
Los comportamientos que se observan como conse-
cuencia de dicha interacción pueden interpretarse en base
a la existencia de plasmones, que son oscilaciones colectivas
de los electrones presentes en un metal. Los plasmones po-
seen características relacionadas con el metal, su geometría
y sus dimensiones, la longitud de onda de iluminación y el
medio circundante.
Podríamos visualizar un plasmón como una onda su-
perficial que rueda por el mar de electrones de conducción
en un metal. Así como la energía de las ondas de luz se
presenta en unidades cuantificadas como partículas llama-
das fotones, también lo es la energía transportada de este
modo, y las llamamos plasmones.
Aunque sus bases ya se habían cimentado a princi-
pios del siglo XX con los trabajos teóricos del físico ale-
mán Arnold Sommerfeld (1868-1951) y las observaciones
experimentales del norteamericano Robert Williams Wood
(1868-1955), el avance en las técnicas de fabricación a es-
calas de 100 nm, los métodos de caracterización de alta
sensibilidad, el incremento sustancial en el poder de cálcu-
lo de los ordenadores actuales y su amplio potencial de apli-
caciones han motivado un aumento generalizado del inte-
rés por este tema.
La caracterización de estos plasmones puede utilizar-
se convenientemente para la determinación de tamaños
de nanopartículas de metales nobles menores que 10 nm,
tanto en estructuras esféricas simples como en estructuras
más complejas, como también para el diseño de sensores
plasmónicos de multicapas o de partícula aislada, de in-
terés tanto en procesos industriales (por ejemplo, células
solares) como biológicos a través de la detección de molé-
culas individuales, como veremos más adelante.
82
Espectroscopía Raman sobre nanoestructuras
metálicas: espectroscopía SERS
83
grado de rugosidad era capaz de producir intensos espec-
tros SERS.
Aunque en un primer momento se creyó que la inten-
sificación Raman se debía al incremento del área superfi-
cial producida por el tratamiento de oxidación-reducción,
muy pronto se pudo demostrar que este no podía ser el
único efecto presente, y que estaba actuando un fenómeno
nuevo y desconocido. Inmediatamente un gran número de
grupos de investigación comenzaron a realizar este tipo
de experiencias registrando el SERS de moléculas en in-
terfases sólido-líquido y sólido-gas principalmente, y em-
pezaron a conocerse sus características generales.
Una de ellas es la marcada dependencia de la inten-
sificación observada con la naturaleza del metal empleado
y su morfología superficial, la naturaleza de la molécula
objeto de estudio y un gran número de variables experi-
mentales como concentración, potencial de electrodo, etc.
El metal que produce los SERS más intensos es, con dife-
rencia, la plata; y, en menor medida, el cobre, el oro y los
metales alcalinos, aunque se han podido registrar espectros
SERS empleando todo tipo de metales con diferentes gra-
dos de intensificación. Por otro lado, el agua produce un
espectro SERS muy débil, una circunstancia afortunada,
ya que permite el registro rutinario de moléculas solubles
en ella sin que el disolvente interfiera de manera significa-
tiva. Otra de las características más llamativas del SERS es
que la intensificación no es uniforme sobre todas las líneas
del espectro Raman, sino que ciertas bandas se intensifi-
can más que otras.
Desde el principio se vislumbró el papel determinante
que desempeñan los plasmones localizados de superficie
(PLS), que pueden excitarse en metales como la plata, el
84
oro y el cobre (también en los metales alcalinos, aunque
en menor medida). Las propiedades dieléctricas de estos
permiten que sostengan PLS en la región visible del es-
pectro electromagnético, posibilitando así el aumento de
las intensidades de las bandas Raman de las moléculas ad-
sorbidas en la superficie y abriendo las puertas a múltiples
aplicaciones.
En 1997 se publicaron dos trabajos en los que hacien-
do uso de PLS se alcanzaba el límite de detección ana-
lítica, el espectro de una molécula individual, lo que situó al
SERS como la primera técnica capaz de obtener el espectro
vibracional de una sola molécula. La detección de una sola
molécula usando fluorescencia formaba ya parte del arse-
nal analítico y actualmente es una técnica muy utilizada,
obviamente, solo en el caso de moléculas fluorescentes.
En efecto, ya hace más de 30 años que se descubrió
la posibilidad de obtener un buen espectro Raman de una
monocapa de moléculas, siempre y cuando dichas molécu-
las se encontraran sobre superficies metálicas rugosas de
metales como el oro y la plata. Desde entonces, el campo
de la espectroscopía Raman mejorada sobre superficies,
también llamada espectroscopía SERS, ha crecido espec-
tacularmente, por lo que hoy se considera una potente he-
rramienta analítica para la detección sensible y selectiva
de moléculas adsorbidas sobre nanoestructuras de metales
nobles.
Sin embargo, el mecanismo de esta técnica ha supues-
to un gran esfuerzo de muchos grupos de investigación
desde que se obtuvieron los primeros resultados. El pri-
mer objetivo era simplemente explicar el aumento de in-
tensidad de los espectros Raman de estas moléculas, que
podía llegar a ser de hasta un millón de veces. Durante
85
esos años, dicho factor de intensificación (enhancement
factor), EFSERS = 106, se entendió como el producto de
dos contribuciones: a) un mecanismo de intensificación
electromagnético y b) un mecanismo de intensificación
químico. Estos dos mecanismos aparecen debido a que
las intensidades de las bandas de un espectro Raman de-
penden de la molécula de que se trate (a través de su
momento dipolar) y de la luz del láser que se utiliza para
obtener el espectro (caracterizada por su frecuencia y
por su intensidad a través del campo electromagnético
que genera).
En efecto, el momento dipolar inducido (μind) en una
molécula iluminada con una radiación caracterizada por
un campo electromagnético es proporcional a la intensi-
dad de dicho campo, E, siendo la constante de proporcio-
nalidad lo que se conoce como polarizabilidad, A, de dicha
molécula. De tal forma que:
μ ind = αE
86
magnitud más intensa que la espectroscopía Raman con-
vencional, hasta finales de los años noventa no se utilizó
de forma generalizada todo su potencial. De hecho, los
primeros sistemas metálicos que se usaron fueron poco
o nada reproducibles, pues se fabricaban superficies me-
tálicas rugosas obtenidas por métodos electroquímicos.
Pero los recientes avances en nanofabricación y el descu-
brimiento en 1997 de un espectro SERS de una molécu-
la individual (el límite de detección más pequeño) dieron
lugar a una explosión de nuevos estudios y la extensión
de la espectroscopía SERS, que de ser un interesante fe-
nómeno físico pasó a convertirse en una robusta y efecti-
va técnica analítica. Además, las nuevas técnicas de pre-
paración y modificación de superficies han permitido la
selectividad de las moléculas a analizar (analitos).
)XQGDPHQWRVGHODHVSHFWURVFRStD6(56
87
mucho más intenso, o sea, lo que se conoce como es-
pectro SERS, ya que su intensificación se debe a la su-
perficie cercana a la molécula.
6RSRUWHV6(56FRORLGHV
88
Como ya hemos dicho al principio de este capítulo,
los coloides metálicos se conocen desde hace mucho tiem-
po. En la Antigüedad se empleaban ya los de oro como
sustancias colorantes en la fabricación de vidrios. Desde
los tiempos de Faraday se conocen las especiales propie-
dades ópticas de “los metales finamente divididos”, como
él solía definir las suspensiones coloidales de metales. Estas
suspensiones poseían colores diferentes según el método
que se emplease en su preparación. El mecanismo preci-
so de dicha coloración fue propuesto por el físico alemán
Gustav Mie (1869-1957), quien mostró que los colores de
los coloides metálicos, considerados como suspensiones
de partículas esféricas, eran una consecuencia conjunta de
la absorción y el scattering de la luz.
En la preparación de sistemas coloidales con diferen-
tes aplicaciones, una cuestión de máxima importancia es
la posibilidad de controlar la forma y el tamaño de las
nanopartículas obtenidas, ya que las propiedades opto-
electrónicas que de ellas se derivan dependen de estos
dos parámetros. Las partículas coloidales en suspensión
tienen el problema de su gran inestabilidad. Son siste-
mas inestables que tienden a precipitar con el tiempo. A
la hora de preparar coloides metálicos, se debe prestar
especial atención a su estabilización mediante diferentes
medios.
Los coloides, en general, poseen unas propiedades
ópticas derivadas del tamaño de las partículas en suspen-
sión, como es la propiedad de dispersar la luz incidente
por sucesivas reflexiones y refracciones, un efecto que
se conoce como efecto Tyndall. Los coloides metálicos,
en particular, presentan unas propiedades ópticas espe-
cíficas de su naturaleza metálica. Sin embargo, pueden
89
diferir en muchos aspectos respecto a las de los metales,
entendidos como materiales compactos. En realidad, las
nanopartículas metálicas pueden ser consideradas como
un estado intermedio entre un simple átomo y un material
compacto.
Cuando las partículas metálicas son de pequeño tama-
ño, en relación con la longitud de onda de la luz utilizada
para obtener un espectro Raman, la absorción predomina
sobre la difusión; pero, para las partículas grandes, la difu-
sión determina en gran medida el color de la suspensión.
La energía de los plasmones depende de la naturaleza del
metal, así como de la morfología y tamaño de las partículas
implicadas.
&DUDFWHUL]DFLyQGHODVQDQRSDUWtFXODVPHWiOLFDV
90
FIGURA 19
Espectros de absorción UV-visible
de coloides de plata
&RORLGHVLQDJUHJDU
$JUHJDGRVJOREXODUHV
$EVRUEDQFLD
$JUHJDGRVOLQHDOHV
91
&$3Ì78/2
¢8QDPROpFXODVROWHUD"
92
El estudio de moléculas individuales (single molecules,
en inglés), que solo ha sido posible desde hace pocos años,
elimina completamente el promediado de un conjunto,
siendo la forma más directa de controlar la homogeneidad
de nuestra hipótesis.
El sueño de ver y manipular moléculas individuales
nació hace un siglo, cuando su existencia comenzó a ser
ampliamente aceptada. Los físicos y los químicos comenza-
ban a ver las primeras imágenes de átomos y moléculas en el
microscopio electrónico de alta resolución que habían estado
esperando durante tantos años, a expensas de dañar rápida
e irreversiblemente las muestras, debido a la potente radia-
ción y a las altas energías necesarias para llegar a tener una
resolución atómica, esto es, poder distinguir los átomos de
una molécula. Hay que tener en cuenta que en microscopía
electrónica y en otras técnicas similares como la microsco-
pía óptica, las imágenes de una muestra se reconstruyen al
analizar las ondas o las partículas esparcidas por la misma.
Pero en los años ochenta hubo un cambio radical en
el punto de vista de los científicos con la aparición de la
microscopía por efecto túnel. Este microscopio consiste en
una afilada punta metálica que va barriendo muy de cerca
la superficie de una muestra conductora, mientras la co-
rriente eléctrica que se establece entre la punta y la super-
ficie (llamada efecto túnel) se mantiene constante. De esta
forma se pudieron obtener imágenes de la topografía de la
muestra, con una resolución espacial limitada esencialmen-
te por lo afilada que esté la punta. Muy pronto se comenzó
a aplicar la misma técnica a otro tipo de señales (fuerzas
magnéticas, señales ópticas, etc.) y se desarrolló una nueva
serie de microscopios que barrían con puntas metálicas.
La consecución de imágenes de moléculas individuales no
93
solo es un logro de la tecnología moderna, ya que supuso
además la superación de toda una barrera psicológica que
habría existido hasta entonces.
Teniendo en cuenta todo esto, uno de los métodos más
prácticos para detectar y estudiar una molécula individual
por medios ópticos es detectar la fluorescencia inducida al
iluminar con la luz de un láser una muestra consistente en
un pequeño volumen en el que únicamente una molécula
determinada pueda ser excitada por el láser en cuestión.
Al recoger la fluorescencia producida por el volumen de
muestra iluminado, observaremos una señal que necesa-
riamente se debe a una molécula individual. Este método
combina ideas que provienen en principio de la microsco-
pía óptica y de la electrónica, en las que únicamente se en-
vían y se recogen ondas luminosas en la muestra, aunque
también hay parte de la microscopía de efecto túnel, en la
cual se identifica la muestra localmente y a través de un
objeto pequeño, como la punta metálica afilada de la que
hemos hablado antes. Ahora es la propia molécula, en lu-
gar de una punta, la que hace de objeto identificador. Una
vez más, la espectroscopía óptica, en este caso concreto la
fluorescencia inducida por láser, aparece como uno de los
caminos más antiguos y baratos para estudiar la estructura
y dinámica molecular; su principal ventaja es que identifi-
ca una molécula “a distancia”, lo que la convierte en una
técnica relativamente no invasiva que permite estudios que
van más allá de las capas superficiales, puesto que las téc-
nicas microscópicas se restringen a la superficie. Además,
pueden obtenerse espectros en varias condiciones diferen-
tes (atmósfera ambiental, agua líquida, etc.).
Los primeros estudios ópticos fueron de átomos o io-
nes individuales en fase gaseosa y se realizaron en los años
94
ochenta. Sin embargo, la detección de moléculas indivi-
duales en medios condensados (no gaseosos) se desarrolló
más lentamente, debido principalmente a dos obstáculos.
En primer lugar, hay que tener en cuenta que la matriz del
entorno de la molécula (por ejemplo, el disolvente) suele
dar lugar a una señal que enmascara la señal de la propia
molécula, a menos que se limite severamente el volumen
iluminado. En segundo lugar, el número total de fotones
que una molécula individual puede emitir suele estar limi-
tado por la fotodecoloración de la muestra a temperatura
ambiente. Ya en 1976 se pudieron detectar macromolécu-
las biológicas marcadas con cientos de grupos químicos,
también conocidos como etiquetas, que tenían que ser
fluorescentes. Aunque ya se habían detectado moléculas
individuales disueltas en un líquido, el continuado progre-
so en el desarrollo de detectores y en la instrumentación
óptica llevó a Moerner y Kador a conseguir, en 1989, la
detección de una molécula individual en un sólido a baja
temperatura. Las buenas señales espectroscópicas obteni-
das y la posibilidad de estudiar una molécula individual
durante largos periodos de tiempo, que había sido impo-
sible conseguir en disolución debido a la difusión del di-
solvente y al flujo de la propia disolución, abrieron la vía a
muchos experimentos que años antes se habían realizado
únicamente para conjuntos de moléculas.
95
en el interior de un sólido o un líquido, que en compara-
ción con los gases se conocen como fases condensadas.
El fundamento de esta técnica se basa en el uso de una
radiación óptica (luz) que sea sintonizable (que poda-
mos seleccionar su longitud de onda), típicamente un
láser, y representa el más alto nivel de sensibilidad que
se pueda alcanzar (~1,66 10-24 moles de la molécula
en cuestión).
Para obtener un espectro SMS se usa la luz del láser
para bombear una transición electrónica de la molécula
que sea resonante con la longitud de onda del láser y se
detecta la absorción de la luz, la emisión fluorescente o
la difusión Raman, dependiendo del tipo de espectro que
se quiera registrar (IR, fluorescencia o Raman), como
ya hemos visto en el capítulo 3. La nueva situación, sin
embargo, hace que se tenga que detectar una molécula
en presencia de billones o trillones de moléculas de disol-
vente o de otras moléculas presentes en el cristal, cuando
se trata de un sólido.
Pero ¿cuál es la nueva información que nos puede dar
el estudio de moléculas individuales? Evidentemente, las
medidas clásicas de conjuntos de moléculas presumible-
mente idénticas que nos da un valor promedio, que es lo
que conocemos como espectros, siguen siendo de gran in-
terés. Por el contrario, las medidas SMS eliminan el pro-
mediado y permiten obtener una distribución de espectros
según el número de moléculas individuales diferentes que
se encuentren en la muestra. Por supuesto que dicha dis-
tribución tiene más información que el espectro promedio.
Esto tiene una importancia mayor cuando el sistema que
se estudia es heterogéneo, como es el caso de muchos cris-
tales, polímeros y vidrios.
96
Afortunadamente, una molécula individual puede ser
una especie de “chivata” de su “nanoentorno”, es decir,
de la nube de grupos químicos funcionales, átomos, iones,
cargas electrostáticas, etc., que se encuentran cercanos a
ella. En el caso concreto de las biomoléculas, es muy fácil
que aparezcan muchos espectros diferentes si las distintas
moléculas individuales de una proteína u oligopéptido tie-
nen distintos estados de plegamiento, configuraciones di-
ferentes o incluso si se encuentran en diferentes etapas de
un ciclo enzimático.
Otra ventaja de la espectroscopía SMS es que no es
necesaria la sincronización de muchas moléculas indivi-
duales para que se comporten de la misma forma durante
un periodo de tiempo. Por ejemplo, un sistema enzimático,
que puede estar en varios estados catalíticos, necesita que
todas las moléculas estén en el mismo estado en el momen-
to que comienza la medida; pero si hacemos medidas de
moléculas individuales (SMS), cada una de ellas podrá es-
tar en un estado catalítico diferente en un momento dado,
por lo que se podrá estudiar la secuencia específica de los
cambios de estado catalítico que la enzima pueda sufrir,
como hidrólisis, enlaces con otras moléculas, etc. Si dispo-
nemos de instrumentos con detectores lo suficientemente
rápidos, es decir, con resolución temporal apropiada, hasta
podremos identificar directamente compuestos interme-
dios más o menos estables, mientras que, en las medidas
tradicionales, estos compuestos quedarán enmascarados
por las especies más pobladas.
En resumen, durante los últimos doce años la espec-
troscopía SMS se ha convertido en una herramienta óptica
fascinante que ha permitido observar procesos dinámicos
y estáticos de diversos tipos de moléculas, especialmente
97
biomoléculas, a nivel molecular individual. A todo ello ha
contribuido el desarrollo de una tecnología puntera que
ha sabido combinar detectores altamente sensibles con
algunas configuraciones microscópicas, como la micros-
copía confocal, la reflexión interna total y la microscopía
de campo cercano. Hoy en día, la técnica SMS se usa am-
pliamente en un gran número de aplicaciones tales como
la identificación de moléculas, los cambios estructurales
de una molécula individual durante un proceso dinámi-
co temporal, el seguimiento de una molécula individual en
una célula viva y la cinética de algunos cambios conforma-
cionales en biomoléculas cuando cambian las condiciones
fisiológicas.
Una de las propiedades intrínsecas más importantes
en la detección de moléculas individuales es lo que se co-
noce como sección eficaz óptica (optical cross-section) y
que no es más que un factor intrínseco que depende de las
características ópticas de cada molécula y nos da la medida
de la superficie que es capaz de “ver” para cada molécula
dicha técnica instrumental. Evidentemente, cuanto mayor
sea la sección eficaz, mejor se podrá detectar una molécula
individual determinada.
Por ejemplo, en el caso de las moléculas de colorantes,
la sección eficaz de fluorescencia es ~10-16 cm2 por molé-
cula, mientras que la sección eficaz de la técnica Raman es
~10-30 cm2 por molécula. Esto indica que hay una enorme
diferencia, ya que la fluorescencia es 1014 veces más efec-
tiva que la espectroscopía Raman, o lo que es lo mismo,
el número de fotones detectados en fluorescencia es 1014
veces mayor que en Raman, lo cual supone una gran des-
ventaja a la hora de usar la espectroscopía Raman para
detectar moléculas individuales.
98
Espectroscopía SERS de moléculas individuales
(SM-SERS)
99
muestras cuya concentración se aproximaba a las molé-
culas individuales. Se trata de la doctora Katryn Kneipp
en Alemania y de los doctores Nie y Emory en los Estados
Unidos. El grupo de Kneipp consiguió registrar el espec-
tro SERS de una molécula individual del colorante violeta
de genciana (crystal violet) con la ayuda de agregados de
plata coloidal de 100-150 nm de diámetro y con estruc-
tura fractal (del latín fractus, que significa “fracturado”;
se refiere a un objeto geométrico cuya estructura básica,
fragmentada o irregular, se repite a diferentes escalas).
La sección eficaz en este caso se estimó entre 10-17 y 10-16
cm2 por molécula, valor comparable al de la fluorescen-
cia. Por otro lado, Nie y Emory, ayudados por medidas
de polarización de la luz incidente, concluyeron que las
nanopartículas de plata sin agregar, pero con un tamaño
determinado, daban lugar a una enorme intensificación
de la señal Raman sin necesidad de presentar una estruc-
tura fractal. De hecho, consiguieron espectros SM-SERS
mucho más intensos que los obtenidos en medidas SMS
de fluorescencia.
Sin embargo, con el paso del tiempo estos resultados
han sido cuestionados por muchos grupos de investigación
que intentaron repetir en vano de forma independiente sus
experimentos. En la actualidad se considera que el factor
de intensificación que como mínimo se necesita para obte-
ner espectros SM-SERS ha de ser de 107.
En general, se acepta que para obtener el espectro
SERS de una molécula individual, esta tiene que encon-
trarse en un “punto caliente” (hot spot), que no es más que
el espacio que existe entre dos nanopartículas metálicas
que se encuentran muy cerca. Por ejemplo, el grupo del pro-
fesor sueco Mikael Käll registró en 1999 el espectro SERS
100
de una molécula individual de la proteína hemoglobina lo-
calizada entre dos nanopartículas de plata (dímero), cuya
única condición era que la orientación del dímero fuera
paralela a la polarización de la luz incidente del láser nece-
sario para obtener el espectro Raman. Evidentemente, el
esfuerzo de los investigadores en este tema ha estado diri-
gido a conseguir hot spots que sean altamente reproduci-
bles y muy estables.
3UHSDUDFLyQGHPXHVWUDVSDUDSRGHUKDFHU
PHGLGDV606(56
101
algo muy ambiguo que depende de cada sistema
que se quiere medir.
b) Preparación de bi-analitos: este método, ideado por
el grupo del profesor Etchegoin en Australia, fue
el primero que se utilizó para superar la incerti-
dumbre en la cuantificación del número de molé-
culas localizadas en un mismo hot spot. En pocas
palabras, consiste en mezclar en la misma diso-
lución dos especies diferentes, que llamaremos
M1 y M2, cada una de las cuales con un espectro
SERS característico. Dependiendo de la zona que
observemos en el microscopio Raman, obtendre-
mos tres tipos diferentes de espectros SERS, que
corresponderán a los compuestos puros M1 y M2
y a una mezcla de ambos espectros, deduciendo
así en qué hot spot concreto tendremos una molé-
cula individual de uno de los compuestos objeto
de nuestro estudio. Realmente se trata de un cu-
rioso método de estrategia estadística.
c) Obtención de nanogaps: como ya hemos dicho más
arriba, se ha demostrado que los mayores factores
de intensificación en espectroscopía SERS (entre
1010 y 1011), que son los que dan lugar a medidas
SM-SERS, ocurren cuando tenemos discontinui-
dades en las nanopartículas metálicas de un tama-
ño de muy pocos nanómetros. Estas discontinui-
dades se llaman en inglés nanogaps, y los espectros
SERS que producen son conocidos como espectros
NERS (Nanogap-Enhanced Raman Scattering).
A la obtención de estos nanogaps contribuye tam-
bién la espectroscopía TERS, que consiste en la
obtención de espectros SERS con la ayuda de una
102
punta afilada y metalizada, de las que se usan
en microscopía de fuerzas atómicas (AFM), que
se acerca a una superficie metálica. También se
pueden obtener nanogaps sintetizando nanopar-
tículas mixtas de plata y de oro del tipo núcleo-
cáscara (core-shell) o formando puentes entre
nanopartículas por medio de moléculas lineales
que se anclan sobre las superficies de las nano-
partículas.
Perspectivas
103
hot spots que produzcan una amplificación suficiente de la
señal y una estrategia estadística adecuada que nos haga
discernir cuándo tenemos el verdadero espectro de una
molécula individual o, como se conoce en todo el mundo,
single molecule.
104
&$3Ì78/2
/DVPROpFXODVHQHOGtDDGtDGHVGH
ORPiVSHTXHxRQDQRKDVWDORPiV
JUDQGHHOHVSDFLR
105
b) el propio progreso, que ha experimentado la fabricación
de unos nanomateriales y unas nanoestructuras cada vez
más sofisticados; c) la mejora en el diseño y control de lá-
seres ultrarrápidos; d) la eficacia del Raman para la obten-
ción de imágenes biomédicas y diagnóstico de enfermeda-
des; e) las notables mejoras en instrumentación Raman y
en la potencia de cálculo de los ordenadores actuales para
el análisis de datos espectrales; y f) las innumerables apli-
caciones fuera de los laboratorios de investigación que han
llevado a los instrumentos Raman a trabajar en los más
variados ambientes, que van desde la célula (transporte,
liberación y detección de fármacos) hasta el espacio (espa-
cio interestelar, meteoritos, misiones interplanetarias, etc.);
desde el medio marino (sondas para detectar moléculas
contaminantes) hasta las obras de arte (pigmentos sobre
hilos, sedas, lienzos), etc.
En conclusión, el efecto de la dispersión Raman, des-
cubierto por C. V. Raman en 1928, emerge hoy como una
de las técnicas más sensibles, delicadas e informativas, ca-
paz de interrogar a la materia a nivel molecular y en distin-
tos tipos de muestras y ambientes.
(VSHFWURVFRStD6(56
106
soportes intensifiquen altamente la señal Raman, es decir,
lo que se conoce como factor de intensificación. A este
respecto, podemos citar la deposición de nanopartículas
de plata sobre alúmina o soportes plásticos que hagan más
estables y reproducibles los sistemas que se vayan a estudiar.
Otra posibilidad es hacer reaccionar las nanopartículas de
plata o de oro con ciertas moléculas orgánicas que sirvan
de puente para que las moléculas que se quieran estudiar por
espectroscopía SERS queden cerca de la superficie metálica
y puedan beneficiarse así de la intensificación del campo
electromagnético superficial, responsable del efecto SERS,
como ya hemos dicho más arriba. Este proceso se cono-
ce como funcionalización y permite ampliar el campo de las
moléculas susceptibles de ser detectadas por esta técnica.
Entre las múltiples aplicaciones de la espectroscopía
SERS podemos destacar algunas de las más recientes. Por
ejemplo, gracias a esta técnica se han podido detectar tra-
zas de melanina en alimentos. Esta molécula tiene un alto
contenido en nitrógeno, por lo que se utiliza fraudulenta-
mente para adulterar alimentos para humanos y mascotas,
ya que simulan tener un mayor contenido proteico, pero a
costa de hacerlo tóxico.
FIGURA 20
Molécula de melanina
NH2
N N
H2N N NH2
107
También ha sido importante la caracterización y el estu-
dio de la adsorción y de la reducción de derivados de la an-
traquinona, moléculas que se usan tanto en el proceso de la
fabricación del papel como en el de los principios activos de va-
rios tipos de fármacos (laxantes, antimalaria, antivirales, etc.).
FIGURA 21
Molécula de antraquinona
2
FIGURA 22
Molécula de
2,4-denitrotolueno
&+
122
122
108
Los compuestos nitroaromáticos como el dinitroto-
lueno, de la familia de los explosivos, pero también un pre-
cursor del poliuretano, cuya espuma se usa en el relleno
de colchones y en los airbags de los automóviles, han sido
cuantificados por espectroscopía SERS.
Finalmente, la detección, sin tener que marcar con
sondas fluorescentes, en mezclas binarias de proteínas de
las familias de las mioglobinas y la lisozima es otra de las
aplicaciones más espectaculares de esta técnica.
Sin embargo, no podemos olvidarnos de la segunda
vida que el desarrollo de instrumentos TERS le ha dado
al SERS, puesto que es evidente que se ha avanzado mu-
cho, por ejemplo, en la comprensión de la estructura de
moléculas biológicas, aunque también se han obtenido así
imágenes de nanotubos de carbono con una resolución es-
pacial de aproximadamente 19 nm.
Biociencias
109
También ha servido para la identificación de grupos
metilo (-CH3) en moléculas de ADN, lo que ayuda a la
comprensión de los procesos físicos y biomoleculares pre-
vios a la diagnosis del cáncer.
Una de las aplicaciones más recientes de la espectros-
copía vibracional ha sido la obtención de información so-
bre algunos componentes celulares en medios extremos en
la Tierra, con un evidente valor añadido en la astrobiología,
ya que se intenta estimar la presencia de dichas biomolécu-
las en medios hostiles de cualquier parte del universo.
Lo que sí ha supuesto un aumento de las aplicacio-
nes de la espectroscopía vibracional de un gran número
de moléculas ha sido la combinación de un espectróme-
tro, particularmente un espectrómetro Raman, con un
microscopio óptico, aprovechando el propio objetivo del
microscopio para hacer pasar por allí el haz luminoso
del láser de excitación, y aprovechando el mismo objetivo
para recoger el scattering producido por la preparación
que nos dará el espectro Raman con una resolución espa-
cial (esto es, la capacidad para distinguir dos puntos de
la citada preparación) del orden de las micras (1 micra o
μm = 10-6 m).
Pues bien, gracias a la microscopía Raman se ha ob-
tenido una gran cantidad de información molecular en
todo tipo de células, incluidos los virus y las bacterias, así
como de tejidos fisiológicos y patológicos que abrieron
esta técnica al campo de la biomedicina. En la actualidad,
la microscopía Raman se ha convertido, en algunos casos,
en instrumental de quirófano, ya que permite hacer biop-
sias in vivo, puesto que se trata de un método no invasivo
siempre que se manejen potencias del láser por debajo del
umbral adecuado para no dañar los tejidos.
110
Como consecuencia del uso de esta microscopía se
ha desarrollado todo un nuevo campo, conocido como
Raman imaging, en el que se puede llegar a hacer una ver-
dadera cartografía (mapping) de un área elegida de una
muestra en base a los espectros Raman en cada punto, lo
que nos dará la distribución de cada una de las moléculas
que componen la muestra en dicha área y, por lo tanto, una
imagen molecular microscópica de ella. Gracias al mapping
se han podido estudiar, por ejemplo, la organización y la
composición bioquímica de óvulos inmaduros en los pri-
meros estados embrionarios. También se ha aplicado al es-
tudio de células madre embrionarias de humanos, donde,
al normalizar los espectros Raman frente a un componente
de referencia, se puede estimar el espesor de la muestra en
colonias de células vivas. También se han obtenido imáge-
nes Raman de células vivas en suspensión.
En lo referente al estudio de material con interés bio-
médico, podemos destacar el uso combinado del Raman
mapping con la difracción de rayos X para cuantificar los
detalles estructurales de la interfase dentina-adhesivo, así
como la caracterización in vivo de tejido normal en diferen-
tes lugares anatómicos de la boca en humanos. Asimismo,
se han detectado, por microscopía Raman in situ, los te-
jidos normales y con carcinoma escamoso invasivo en la
lengua, con un 91% de seguridad.
1DQRPDWHULDOHV
111
en la muestra son nanotubos de pared única o múltiple, así
como el carácter metálico o semiconductor de los mismos.
También se ha utilizado la espectroscopía Raman resonan-
te para caracterizar la interfase de compuestos formados
por nanotubos y polímeros orgánicos.
Evidentemente, la espectroscopía Raman también ha
sido de capital importancia en la caracterización del gra-
feno y sus derivados. Así, las imágenes Raman de mues-
tras de grafeno obtenidas por distintos métodos suponen
un verdadero control de calidad de las muestras, ya que
podemos observar a nivel molecular su regularidad y sus
defectos. Por ejemplo, muy recientemente se han obtenido
láminas de grafeno utilizando un método más novedoso,
como es la técnica del microchorro (microjet) de plasma.
Pues bien, los resultados de imagen Raman fueron los que
consagraron esta técnica como adecuada.
$UWH\DUTXHRORJtD
112
los museos y bibliotecas, o en los mismos yacimientos y
grutas si se trata de muestras de este tipo.
Sin querer ser exhaustivos, podemos citar que la mi-
croscopía Raman ha sido crucial en el estudio de pátinas y
depósitos formados en los plomos de las vidrieras artísticas
de catedrales, debidos a los efectos de la contaminación ur-
bana y a la lluvia ácida. Se ha podido llegar a la conclusión
de que pátinas de colores y apariencia similares pueden
dar espectros Raman distintos, lo cual permite clasificarlas
sin tener que destruirlas para su análisis.
Los estudios espectroscópicos también han permiti-
do caracterizar un modelo de vidrio de origen medieval y
compararlo con otras muestras artificialmente envejecidas,
así como localizar, en una muestra metálica, los productos
de corrosión.
Son muchos los trabajos realizados para identificar
tintas, lo cual permite datar, e incluso autentificar, una gran
cantidad de documentos de interés histórico y cultural.
En cuanto al estudio de frescos y pinturas en rocas
y paredes, podemos señalar que los análisis espectroscó-
picos vibracionales han permitido detectar fenómenos de
alteración cromática que hacen que los pigmentos actúen
como verdaderos marcadores temporales de las construc-
ciones en las que se encuentran. También se ha analizado
el impacto de la contaminación urbana sobre esculturas
metálicas modernas, como, por ejemplo, las de Eduardo
Chillida.
La espectroscopía Raman también ha sido utilizada
para diagnosticar el estado de conservación de las pinturas
que aparecen en excavaciones tan importantes como las de
Pompeya (Italia) o la potencial degradación por las partí-
culas aéreas de la Alhambra de Granada.
113
0XHVWUDVVyOLGDV
$SOLFDFLRQHVIDUPDFpXWLFDVDOLPHQWDULDV\IRUHQVHV
114
Espectros de meteoritos para estudiar la superficie
de asteroides primitivos
115
auténticas piedras Rosetta para la ciencia, ya que han pre-
servado en su interior los primeros componentes del sis-
tema solar.
Reflexión final
116
%LEOLRJUDItD
117
¿QUÉ SABEMOS DE?
Las moléculas:
cuando la luz Las moléculas modifican su
te ayuda a vibrar velocidad de vibración como
respuesta al estímulo que su-
pone su interacción con la luz. Este hecho ha favorecido
el desarrollo de la espectroscopía Raman, una técnica
cuya eficacia resulta fundamental, entre otras cosas, para
que se puedan caracterizar nanomateriales y nanoestruc-
turas cada vez más sofisticados o para obtener imáge-
nes biomédicas y diagnosticar enfermedades, además de
sus innumerables aplicaciones fuera de los laboratorios
de investigación, por ejemplo, en el análisis de los pig-
mentos que se encuentran en todo tipo de obras de arte.
Vivimos inmersos en un mundo auténticamente mole-
cular y este libro permitirá que el lector sea consciente de
hasta qué punto convive diariamente con las molécu-
las y de la utilidad de las técnicas espectroscópicas tan-
to en el campo de la ciencia como en cualquier otro cam-
po cultural.
ISBN: 978-84-00-09792-9