Está en la página 1de 24

http://www.astrocosmo.cl/astrofis/astrofis-04_10.

htm
D esde que el Premio Nobel de Literatura de nacionalidad argentina José Echegaray
escribió, en 1905, "los rayos X tienen por nombre una modesta incógnita que todo el
mundo conoce", esa incógnita con el transcurso de los años ha venido siendo
despejada a través de nuevos estudios y descubrimientos. Cuando se llegó a la
conclusión que los rayos cósmicos son acelerados en escenarios astrofísicos donde se
liberan grandes cantidades de energía, de la cual toman sólo una pequeña porción y
el resto es emitido en forma de ondas electromagnéticas, la historia de la incógnita
empezó a variar. Se descubrió que dentro de esas ondas electromagnéticas se
encuentra la de los rayos X, que es una de la más energética y está estrechamente
ligada a la producción y propagación de los rayos cósmicos, por tanto, la
investigación de esta radiación se encuentra inmersa en el estudio de la radiación
cósmica, entendida ésta, como toda radiación de alta energía del espacio exterior
que no sólo llega a la Tierra si no, que también, a otros remotos lugares del universo.
En esta sección, intentaremos describir los mecanismos que generan los rayos X
cósmicos. Para ello, recordaremos primero cómo se producen los rayos X en los
laboratorios terrestres, para luego ubicar, en la descripción que haremos en esta
sección, esta radiación dentro del contexto electromagnético que ya estudiamos
cuando iniciamos este capítulo.
Cuando el físico alemán Willhelm Roentgen descubrió los rayos X en 1895, se
consideró que ese hallazgo se trataba de una nueva forma de radiación de naturaleza
misteriosa que podía traspasar una diversidad de materiales. Ahora sabemos que los
rayos X son, de alguna manera, una forma de luz, es decir, fotones. Se producen en
laboratorios o maquinas médicas cuando haces de electrones de altísima energía se
focalizan en un blanco, pero de manera natural son generados por gases con
altísimas temperaturas. Recordemos, que la luz emitida por un objeto caliente
depende de su temperatura. Por ejemplo, cuando un trozo de hierro es atizado en
una fragua de fuego y se calienta, primero emite calor, luego luz roja, seguido de
anaranjada y blanca. Ahora, si se pudiese elevar la temperatura en la fragua a
millones de grados, entonces ese hierro emitiría rayos X.

Ubiquémonos ahora en el espectro electromagnético. Sabemos que las vibraciones


eléctricas se propagan sin la necesidad de un medio material que las transporte –
contrariamente al caso del sonido o de las ondas superficiales en un estanque– ello
gracias a que ellas mismas generan un campo eléctrico. Ahora, estas vibraciones
eléctricas, como consecuencia de las leyes fundamentales del magnetismo,
producirán también un campo magnético oscilatorio el cual se propaga junto con el
campo eléctrico, produciéndose así una onda electromagnética. La luz que vemos
salir desde una ampolleta o bombilla, por ejemplo, es una onda electromagnética.
Pero al margen de la luz, también existen otros tipos de radiaciones
electromagnéticas, como son: las ondas de radio y televisión, las microondas, los
rayos ultravioleta e infrarrojos, los rayos X y los rayos gamma. Todas esas radiaciones
se propagan a una velocidad que es igual a la de la luz y constituyen el espectro
electromagnético, las cuales se diferencian, una de las otras, por su frecuencia o por
su longitud de onda.

1
Dentro de las ondas más largas y de menor frecuencia se encuentran las de radio y
televisión, cuyas longitudes de onda van desde unos cuantos metros a unos mil
kilómetros. Luego están las de microonda, que se hallan entre 1 y 0,001 m. Con
longitudes de onda más pequeñas, desde 10-3 hasta 7 × 10-7 m, se encuentran los
rayos infrarrojos. A continuación, sigue la onda que distinguimos como luz o región
visible del espectro, que va desde el rojo con 7 × 10 -7 m hasta el violeta con 4,5 × 10-
7
m. Desde esa región espectral visible, parten las ondas electromagnéticas de
frecuencias más altas, como son: los rayos ultravioletas que van desde 4 × 10 -6 a 5 ×
10-8 m; luego los rayos X con aproximadamente 10-8 hasta 10-11 m y, finalmente, los
rayos gamma que pueden llegar a tener longitudes de onda de hasta 10-13 m.
Ahora bien, el hecho de que la visión humana no capte a frecuencias mayores que la
del violeta ni menores que la del rojo no se debe a un azar de la naturaleza, ya que
de todas las radiaciones electromagnéticas que emite el Sol, la única parte que no es
absorbida por la atmósfera y llega hasta la superficie de la Tierra es la banda
comprendida justamente entre esas frecuencias. Sí, por ejemplo, nuestra atmósfera
no tuviese las condiciones de absorción que tiene y absorbiese, por ejemplo, la banda
visible y fuese transparente a la banda infrarroja, nuestros ojos tendrían que haber
evolucionado para contar con una visión sensible a la radiación infrarroja.
Otra cuestión que es importante tener en consideración para entender mejor lo que
queremos describir en esta sección es la dualidad onda partícula de la luz. Con el
desarrollo de la mecánica ondulatoria, se llega a la conclusión que la luz, y todo el
espectro electromagnético, es una «dualidad», o sea, onda y partícula al mismo
tiempo. Se trata de un concepto cuya aplicabilidad abarca a todos los objetos del
universo que sean considerados como subatómicos. En consecuencia, un electrón
puede ser asociado con una longitud de onda o una frecuencia que sea proporcional
a su energía, y una onda electromagnética puede ser considerada como un fotón o
cuanto de luz. El ejemplo más conocido es el llamado «efecto fotoeléctrico»
descubierto por Albert Einstein, donde un haz de luz es capaz de producir una
corriente eléctrica cuya intensidad es proporcional a la frecuencia de la luz incidente.
El efecto Compton es también otro fenómeno donde se manifiesta el carácter
corpuscular de la luz.
Los primeros Rayos X cósmicos fueron detectados por cohetes equipados con
detectores de radiación, los cuales al emerger sobre la atmósfera de la Tierra
constataron la existencia de estos rayos proviniendo desde la atmósfera externa del
Sol, la corona, cuya temperatura es de varios millones de grados. Después de ese
acontecimiento, una copiosa cantidad de rayos X extraterrestres

se fueron descubriendo lo que


estimuló la investigación
teórica para encontrar los
mecanismos generadores de
esta radiación. Para poder
hallar tales mecanismos, se
tuvo que partir tratando de
resolver uno de los problemas
centrales que impedía llegar a
puerto con una viable solución,

2
como era la conversión de
energía en la radiación
electromagnética de alta
frecuencia, pero al mismo
tiempo era necesario que el
procedimiento que se eligiese
satisficiese los espectros
observados y pudiese también
explicar las grandes
luminosidades detectadas que,
ya como vimos antes en
secciones precedentes, mucha
de las fuentes emisoras que se
han descubierto irradian, tan
solo en esta frecuencia, 1.000
veces más que el Sol en todo
el espectro electromagnético.
Para la consecución de lo
anterior, se podría haber
pensado en los conocidos
procesos de fusión nuclear en
los núcleos de estrellas
comunes, pero éstos no eran
ni son los más adecuados para
explicar las grandes
luminosidades observadas.
Uno de los primeros
mecanismos que se consideró
para abordar el problema fue
el de la radiación sincrotrónica,
la cual es producida al girar
partículas energéticas
alrededor de campos
magnéticos. Esta forma de
radiación se sabía que era la
responsable de parte de las
ondas de radio extraterrestre
detectada desde los años 50
del siglo XX. Se pensó en esa
posibilidad, dado el hecho de
que si existiese algún
escenario astrofísico dotado de
campos magnéticos lo
suficientemente intensos y
electrones de muy alta
energía, sería una potencial
generadora de rayos X.
También se estudiaron
modelos basados en el efecto
Compton inverso, a través del
cual electrones
ultrarrelativistas transfieren
parte de su energía cinética a
fotones provenientes de la luz
que emana de las estrellas al
colisionar con ello, lo que
genera fotones de rechazo de
alta energía. Se pensó en ello,
debido a que los electrones
podrían ser producidos, por
ejemplo, en remanentes de
supernovas.
Un modelo muchísimo más
novedoso y prometedor que
los anteriores fue el que
formuló el astrofísico italiano
Bruno Rossi en 1964. Su

3
mecanismo consistía en
producir una emisión causada
por el frenado brusco de
electrones que era generada
por los iones de un plasma
caliente en equilibrio térmico.
Al llevar el modelo a la
experimentación, se pudo
constatar que las emisiones
que se generaban por ese
mecanismo conllevaban
radiaciones con un espectro de
forma exponencial, como fue
comprobado por
investigadores de los
Laboratorios Livermore. Sin
embargo, a las temperaturas
del plasma, necesarias para la
emisión de rayos X, las
partículas de éste
comportarían muy grandes
energías cinéticas, lo que
hacía casi imposible poder

confinarlas, produciendo con


ello un rápido
desaparecimiento de la
radiación; por lo consiguiente,
era necesario imaginar como
desarrollar una forma para
poder retener a este plasma
caliente.
Durante varios años, los
científicos que habían
focalizado sus investigaciones
para desarrollar modelos que
explicaran las fuentes de rayos
X que se observaban fuera de
los espacios terrícolas, se
enfrentaban a un problema
casi insoslayable: la necesidad
de encontrar un mecanismo
que generara energías de una
manera muchísimo más
eficiente de cómo lo hacían las
reacciones nucleares
conocidas. Para sortear la

4
valla, se tuvieron que abocar a
diseñar y construir detectores
de rayos X que comportasen
sustanciales avances
tecnológicos, como asimismo,
centrarse en perfeccionar la
teoría existente sobre la última
etapa de la evolución estelar.
Desde el descubrimiento de la
primera fuente hasta el año
1970, los avances en nuevas
técnicas de detección de rayos
X extraterrestres fueron
significativos, los cuales se
manifestaban tanto en su
resolución espacial como en la
espectral. Esos avances,
trajeron como consecuencia
que entre los años 1962 y
1967, tan solo los laboratorios
de la marina norteamericana
descubriesen alrededor de 30
fuentes generadoras de rayos
X. Sin embargo, en los años
posteriores bajaron los índices
de descubrimientos de nuevas
fuentes, no sólo de los
laboratorios de la marina
estadounidense, sino que
también de todos los grupos
de investigación dedicados a la
astronomía de rayos X. Como
suele ocurrir cuando se intenta
escudriñar los cielos en
búsqueda de nuevos
descubrimientos, el problema
fundamental al cual se
enfrentaban, entonces, los
cazadores de rayos X
extraterrestres lo constituía la
atmósfera terrestre, pues todos
los experimentos que en esa
época se podían realizar se
hacían a bordo de cohetes que
tenían dificultad para enfocar
sus aparatos hacia ciertos
puntos y su tiempo de
observación era bastante
limitado. Esa dificultad se logró
soslayar en parte, con el
lanzamiento del primer satélite
de rayos X: el Uhuru, que
despegó el 12 de diciembre de
1970 desde la costa de Kenya.
El equipamiento instrumental
del satélite era avanzado pero
convencional. Contaba con un
par de contadores
proporcionales a los cuales se
les adaptaron colimadores de
imagen con el propósito de
incrementar la resolución
espacial; estos contadores
trabajaron con un dispositivo
anticoincidente con el objetivo
de discriminar las cuentas
producidas por rayos

5
cósmicos; además se le
empotró un pulsador
discriminador con el objeto de
reducir al máximo la influencia
de la radiación cósmica de
fondo.
Más de 300 objetos fueron
observados por el Uhuru; la
precisa localización de unos
100 de ellos posibilitó la
identificación de sus
contrapartes, tanto en óptica
como en radiofrecuencia.
Asimismo, el satélite observó
variaciones de corto y largo
periodo en la intensidad de las
fuentes. Lo anterior, tal vez fue
lo más relevante, ya que ello
coadyuvó a resolver el
problema central de construir
un modelo teórico que
explicase satisfactoriamente
las observaciones que se
habían efectuado hasta
entonces.
Allá por 1933, los astrofísicos
Fritz Zwicky y Walter Baade, e
independientemente, el físico
Lev Landau, postularon
teóricamente la existencia de
las estrellas de neutrones, que
serían la última etapa de la
evolución de estrellas mucho
más masivas que el Sol y que
ya hubiesen agotado el
combustible nuclear y que, por
efectos de la gravitación, se
contraerían de una forma
significativa hasta crear gases
en estado degenerado, debido
a que los efectos de la
cuantiosa contracción
afectaban significativamente a
los gases estelares. Se ha
sabido, que las estrellas de
neutrones tienen densidades
de hasta 3 × 1014 veces la del
Sol, encapsulada dentro de un
diámetro de tan sólo 10 km. La
postulación teórica fue usada
desde un principio como un
concepto para intentar explicar
las violentas explosiones de
estrellas denominadas
supernovas y llegó a
proponerse que estas estrellas
no era más que un estado de
transición entre una estrella
normal y una de neutrones.
Con el descubrimiento en 1967
de los púlsares se tuvo la
primera evidencia observable
de una estrella de neutrones.
En 1968, Thomas Gold de la
Universidad de Cornell,
propuso la primera explicación
factible de estos objetos y

6
predijo que los pulsos de la
emisión en radio deberían
estar presentes en otras
frecuencias también. No
transcurrió un año, cuando se
descubrió que la energía
emitida por los púlsares en
rayos X excedía, por mucho, la
contenida en otros rangos del
espectro electromagnético.
La sobre energía que emiten
los púlsares en rayos X, tiene
su explicación en el intenso
campo magnético que
comportan. En efecto,
señalamos que los púlsares
eran el producto de estrella
que se contrajeron por los
efectos de su gravedad
endógena y, como
consecuencia, el campo
magnético de esos astros
estelares también se
comprimió, alcanzando
intensidades de hasta 109
teslas, como se ha podido
comprobar en el caso del
púlsar de la nebulosa del
Cangrejo. Este gran campo
magnético constituye un
óptimo acelerador para los
electrones que son
continuamente expulsados
desde el interior de la estrella,
los cuales posteriormente
emitirán rayos X como
producto del mecanismo de
sincrotrón. Así, fue posible
explicar la misteriosa radiación
que provenía desde la
nebulosa del Cangrejo y,
también, de otros astros
cohabitantes del universo.
Con el Uhuru viajando por el
espacio fueron descubiertos
nuevos astros emisores de
grandes cantidades de rayos
X, mucho mayores que las que
se había considerado, lo cual
debilitaba la aplicación de la
teoría que describimos para
los púlsares; ello,
principalmente porque no se
observaba el incremento en el
periodo de rotación previsto en
el modelo, debido a la
constante pérdida de energía
de rotación de la estrella. Claro
está, que en esa teoría no se
habían considerado sistemas
binarios compuestos por una
estrella de neutrones y otra
«normal». Sistemas como
Centauro X-3, Hércules X-1 o
Cygnus X-1, los cuales están
constituidos por una estrella
gigante y una de electrones,

7
de las cuales estas últimas
«capturan» material hacia su
interior, ya sea porque el
tamaño de sus compañeras
excede el punto de equilibrio
gravitacional de los sistemas o
porque se expanden a través
de un viento estelar (análogo
al viento solar). Dada alguna
de esas condiciones, el
material que es atraído de su
compañera por la estrella de
neutrones, forma un disco de
acreción a su alrededor donde
va depositando su energía
potencial, adquiriendo con ello
grandes temperaturas lo que
hace que se provoquen
emisiones térmicas del tipo
bremsstmhlung. Esta idea
teórica fue rápidamente
asimilada y aceptada en
la década de los setenta
del siglo XX, marcando
así el término de la
búsqueda para encontrar
una explicación a un
problema que era
fundamental.

Ilustración de un disco de
acreción de una estrella de
neutrones
con
emisiones de rayos X.
Pese a toda la información que
hemos descrito en este
capítulo sobre los rayos X, una
deducción parece clara. La
incógnita X, los rayos X,
siguen ofreciendo muchos
aspecto intrigantes por
despejar.

8
Producción de rayos X
El primer tubo de rayos X fue el tubo de
Crookes, llamado así en honor a su
inventor, el químico y físico británico
William Crookes; se trata de una
ampolla de vidrio bajo vacío parcial con
dos electrodos. Cuando una corriente
eléctrica pasa por un tubo de Crookes,
el gas residual que contiene se ioniza, y
los iones positivos golpean el cátodo y
expulsan electrones del mismo. Estos
electrones, que forman un haz de rayos
catódicos, bombardean las paredes de
vidrio del tubo y producen rayos X.
Estos tubos sólo generan rayos X
blandos, de baja energía.
Un primer perfeccionamiento del tubo
de rayos X fue la introducción de un
cátodo curvo para concentrar el haz de
electrones sobre un blanco de metal
pesado, llamado anticátodo o ánodo.
Este tipo de tubos genera rayos más
duros, con menor longitud de onda y
mayor energía que los del tubo de
Crookes original; sin embargo, su
funcionamiento es errático porque la
producción de rayos X depende de la
presión del gas en el tubo.
La siguiente gran mejora la llevó a cabo
en 1913 el físico estadounidense
William David Coolidge. El tubo de
Coolidge tiene un vacío muy alto y
contiene un filamento calentado y un
blanco. Esencialmente, es un tubo de
vacío termoiónico en el que el cátodo
emite electrones al ser calentado por
una corriente auxiliar, y no al ser
golpeado por iones, como ocurría en los
anteriores tipos de tubos. Los
electrones emitidos por el cátodo
calentado se aceleran mediante la
aplicación de una alta tensión entre los
dos electrodos del tubo. Al aumentar la
tensión disminuye la longitud de onda
mínima de la radiación.
La mayoría de los tubos de rayos X que
se emplean en la actualidad son tubos
de Coolidge modificados. Los tubos
más grandes y potentes tienen
anticátodos refrigerados por agua para
impedir que se fundan por el
bombardeo de electrones. El tubo
antichoque, muy utilizado, es una
modificación del tubo de Coolidge, con
un mejor aislamiento de la carcasa
(mediante aceite) y cables de
alimentación conectados a tierra. Los
aparatos como el betatrón se emplean
para producir rayos X muy duros, de
longitud de onda menor que la de los
rayos gamma emitidos por elementos
naturalmente radiactivos

9
Cristalografía de rayos X

Estas páginas (*), nunca acabadas,


pretenden guiar al lector interesado
en el fascinante mundo de la
Cristalografía de Rayos X, una parte
del saber bien entroncada en la
Ciencia actual y gracias a la cual
hemos podido averiguar, a través del
esfuerzo de muchas personas y
durante muchos años, cómo son los
cristales, cómo son las moléculas,
las hormonas, los ácidos nucléicos,
los enzimas, las proteínas ..., a qué
se deben sus propiedades y cómo
podemos entender su
funcionamiento en una reacción
química, en un tubo de ensayo, o en
el interior de un ser vivo.

El descubrimiento de los rayos X


revolucionó el antiguo campo de la
Cristalografía, que hasta entonces
había estudiado la morfología de los
minerales. La interacción de los
rayos X con los cristales demostró
que los rayos X eran radiación
electromagnética de longitud de
onda del orden de 10-10 metros y que
la estructura interna de los cristales
era discreta y periódica, en redes
tridimensionales, con separaciones
de ese orden. Esto hizo que, ya
desde el siglo pasado, la
Cristalografía se convirtiera en un
aspecto básico de muchas ramas
científicas y en especial de la Física y
Química de la materia condensada.

Que lo disfrute!

(*) Estamos trabajando todavía para


completar estas páginas y poderlas
ofrecer al lector interesado. Como es
obvio, no estamos a salvo de errores, ni
de incoherencias, ni de omisiones.
Cualquier cosa que advierta en este
sentido, por favor, hágalo saber a
cualquiera de los autores: Félix
Hernandez Cano & Martín Martínez
Ripoll.

http://www.xtal.iqfr.csic.es/Cristalografia/
parte_06.html

10
Metodología experimental en
difracción de RX (monocristal)

Las técnicas usadas para medir los


ángulos y la intensidad de los haces
de difracción han evolucionado a lo
largo del tiempo. En el primer
experimento de difracción, Friedrich
y Knipping (1912) usaron una
película sensible a los rayos X, pero
incluso en el mismo año, Bragg usó
una cámara de ionización montada
sobre un brazo rotatorio que, en
general, determinaba con más
precisión los ángulos y las
intensidades de difracción. Sin
embargo, la película presenta la
ventaja de poder impresionar
muchos haces difractados a la vez.

Durante los primeros años de la


Cristalografía estructural (desde 1920
hasta 1970) se hizo uso extensivo de
los métodos fotográficos, y entre
ellos se deben destacar los métodos
de Laue, Weissenberg, precesión, y
oscilación.

Método de Laue

En sus primeros experimentos, Max


von Laue (Premio Nobel de Física en
1914) usó radiación contínua (con
todas las longitudes de onda
posibles) incidiendo sobre un cristal
estacionario. De este modo, el cristal
generaba un conjunto de haces que
representan la simetría interna del
cristal. En estas condiciones, y
teniendo en cuenta la ley de Bragg,
las constantes del experimento son
los espaciados d y la posición del
cristal respecto al haz incidente, y las
variables son la longitud de onda  y
el entero n:

n = 2 dhkl sen  nh,nk,nl

así que cada haz difractado


corresponderá al primer orden de
difracción (n=1) de una cierta
longitud de onda, al segundo orden
(n=2) de la longitud de onda mitad
(/2), al tercer orden n=3 de la
longitud de onda /3, etc. Por lo
tanto, el diagrama de Laue es
simplemente una proyección
estereográfica de los planos del
cristal.
1

11
Diagrama de Laue de un cristal

Hay dos geometrías diferentes,


dependiendo de la posición del
cristal respecto de la placa
fotográfica, transmisión o reflexión:

Método de Laue en modo transmisión Método de Laue en modo reflexión

Método de Weissenberg

El método de Weissenberg está


basado en la cámara del mismo
nombre, desarrollada por K.
Weissenberg (1924). Consta de un
cilindro metálico que contiene en su
interior una película fotográfica
sensible a los rayos X. El cristal se
monta sobre un eje coaxial con dicho
cilindro y se hace girar según el
modelo de Ewald, de tal modo que
los puntos recíprocos que
intersectan la superficie de la esfera

12
de Ewald son los responsables de
los haces de difracción. Estos haces
generan un ennegrecimiento
(mancha) sobre la película
fotográfica que cuando se extrae del
cilindro metálico tiene la apariencia
que se muestra más abajo.

uema de una cámara tipo Weissenberg, usada


os laboratorios de Cristalografía hasta

Cámara desarrollada por K. Weissenberg en 1924.

El tipo de diagramas Weissenberg


que se obtienen del modo descrito se
denominan de rotación o de
oscilación, dependiendo de que el
giro del cristal sea de 360º o parcial
(aprox. 20º), respectivamente.

Esquema que explica la producción de un diagrama de Weissenberg del tipo rotación-oscilación

El montaje del cristal debe ser tal que


su eje de giro coincida con un eje
directo de la celdilla elemental. De
ese modo, por definición de la red

13
recíproca, existirán planos
recíprocos perpendiculares a dicho
eje.

Es indudable que mediante este tipo


de diagramas se consigue
información sobre los períodos de
repetición de la red directa, ya que la
separación entre las líneas que
contienen las manchas de difracción
es proporcional a la distancia entre
planos recíprocos. Sin embargo,
cada plano recíproco (dos
dimensiones) queda sobre una línea
(una dimensión) de manchas de la
película, dando lugar a solapamiento
entre manchas.

Este problema quedó resuelto


cuando a las cámaras se les añadió
la libertad de traslación del cilindro,
en la dirección paralela a su eje,
acoplada al giro del cristal y
seleccionando mediante dos
cilindros internos el cono de
difracción que origina uno solo de
los planos recíprocos. De este modo,
un plano recíproco (dos
dimensiones) quedaría impresionado
en toda la superficie de la placa
fotográfica (dos dimensiones),
evitando con ello el posible
solapamiento entre manchas.

El aspecto de un diagrama de este


tipo, con la deformación geométrica
que se produce del plano recíproco,
se muestra en la figura de abajo. En
estas condiciones, y teniendo en
cuenta dicha deformación, es posible
medir aisladamente cada haz de
difracción, y seleccionando
adecuadamente la rendija se pueden
recoger todos los planos recíprocos
del cristal.

14
15
16
embargo, aquí es mucho más facil
observar los elementos de simetría
del espacio recíproco. La desventaja
del método de precesión es
consecuencia de que la película es
plana en lugar de cilíndrica, y el
ángulo sólido explorado es menor.

Este método se ha usado con éxito


durante muchos años, incluso para
el caso de las proteínas:

n de un cristal de lisozima en el

ular al diagrama. Debido a que

untos recíprocos es pequeña.

Diagrama de precesión de un compuesto orgánico sencillo, en el que se observa


simetría mm.Obsérvese que la separación entre los puntos recíprocos es mucho mayor
(menores ejes reticulares directos) que en el caso de las proteínas (mayores ejes
reticulares directos).

Método de oscilación

Originalmente, los métodos de


monocristal, con giro amplio de la
muestra, como los mencionados
anteriormente, se impusieron por su
facilidad de interpretación. Sin
embargo, cuando se llegó a
experimentar con redes directas
grandes, es decir, recíprocas
pequeñas, los tiempos de recogida
se disparaban y por lo tanto se
recurrió al método de oscilación con

17
ángulos pequeños, que permitía
recoger varios niveles recíprocos a la
vez sobre cada posición del cristal.
Repitiendo estos diagramas, a
distintas posiciones de partida del
cristal, se conseguían obtener
suficientes datos en un tiempo
razonable. La geometría de recogida
está descrita en las figuras que
vienen a continuación.

Hoy en día, con generadores de


ánodo rotatorio o sincrotrones, y
detectores de área (image plate o
CCD, ver más abajo), que aumentan
la intensidad de los máximos de
difracción y reducen los tiempos de
recogida con gran fiabilidad, se ha
impuesto este método para los
estudios de macromoléculas, en
particular de proteínas.

ma de la geometría de las condiciones de máximo de difracción en el método de oscilación. El cristal, y


to la red recíproca, están oscilando un pequeño ángulo alrededor de un eje perpendicular al plano de la
y que pasa por el centro. En la figura de la derecha, el área que pasa por condición de máximo de
ión está denotada por el área amarillenta, delimitada por la esfera de Ewald (de radio 2.sen 90
tremos de oscilación de la red, y la esfera de resolución máxima (de radio 2.sen
ar con la radiación empleada y con el detector que se haya usado.

18
19
quema y aspecto de un goniómetro de cuatro círculos con geometría
Euleriana.

La geometría alternativa a la
Euleriana es la denominada
geometría Kappa que no dispone de
un círculo cerrado equivalente al .
En su lugar, su función la cumplen
los llamados ejes y  , de tal modo
que con una combinación de ambos
se pueden obtener eulerianos en el
intervalo de -90 a +90º. La ventaja
principal de esta geometría es la
amplia accesiblidad al cristal. Los
ángulos y 2son idénticos al los
de la geometría euleriana:

Esquema y aspecto de un goniómetro de cuatro círculos con geometría Kappa.

Tanto en la geometría Euleriana


como Kappa, el sistema de detección
ampliamente usado durante muchos
años es el denominado "puntual", en
el sentido de que la detección de
cada haz difractado (reflexión) se
realiza de modo individual,
necesitando cambiar, de modo
automático y programado, los cuatro
valores angulares del goniómetro

20
para cada haz difractado. Los
tiempos de medida en estos equipos
suele ser del orden de 1 minuto por
reflexión.

Uno de los detectores más


ampliamente usados ha sido el
denominado detector de centelleo,
cuyo esquema de funcionamiento es
el siguiente:

Detectores de área

Como alternativa a los detectores


"puntuales", el desarrollo de la
tecnología electrónica ha dado lugar
a la aparición de los denominados
detectores de área, que permiten la
detección de muchos haces de
difracción simultáneamente,
ahorrando con ello tiempo en el
experimento. Esta tecnología es de
especial utilidad para el caso de las
proteínas y en general de cualquier
material que pueda deteriorarse
durante su exposición a los rayos X,
ya que la detección de cada una de
las imágenes que se recogen (con
varios cientos o miles de reflexiones)
se hace en un tiempo mínimo, del
orden de los segundos.

Uno de los detectores de área mas


comunmente usado se basa en los
denominados CCD's (del inglés
Charge Coupled Device) cuyo
esquema se muestra a continuación:

21
22
goniómetro relativamente
rudimentario, cuya única libertad de
giro corresponde a la del cristal
sobre su eje de montaje. El detector
propiamente dicho es una placa
circular de material sensible a los
rayos X que se interpreta, después
de la exposición, mediante un laser
capaz de digitalizar las intensidades.

Detalle de un detector del tipo Image Plate Scanner

La recogida de un espectro completo


consiste en la obtención de multitud
de imágenes como la que se muestra
más abajo, y que posteriormente son
analizadas para obtener la métrica,
simetría e intensidades del espacio
recíproco.

23
Aspecto de una de las imágenes de
difracción, del tipo oscilación, de una
proteína recogida en un Image Plate
Scanner. Durante la exposición de cada
una de estas imágenes (unos 10 minutos
con un generador de ánodo rotatorio, o
de varios segundos en una instalación de
sincrotrón) el cristal gira
aproximadamente 0.5º y la lectura de la
imagen dura unos 30 segundos.

Este podría ser también el aspecto de


una imagen de difracción recogida en un
detector de tipo CCD, aunque en este
caso probablemente la duración de la
exposición habría sido algo más corta.

Todos estos métodos permiten


obtener una colección de datos,
formados por tres índices de Miller y
una intensidad para cada uno de los
máximos de difracción medidos. Con
ello se consigue recoger la mayor
parte posible de la red recíproca,
ponderada con intensidades, es
decir, el espectro de difracción de un
monocristal de la muestra a estudiar.

Estos datos nos permitirán


reconstruir la arquitectura interior del
cristal, pero eso será objeto de otro
capítulo ...

24

También podría gustarte