Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Biofísica
La biofísica es un área interdisciplinar de la ciencia que estudia la organización, la dinámica y la función de los seres
vivos y sus partes desde una perspectiva fisicoquímica con el propósito de entender los principios fundamentales
que los gobiernan. Así, los biofísicos estudian la vida en todos sus niveles, desde átomos y moléculas, hasta células y
organismos, con el objetivo de conocer en profundidad cómo funcionan los sistemas biológicos y cuáles son las
bases moleculares que los sustentan.
Para ello, aplican las leyes y principios generales de la Físico-Química y las Matemáticas, utilizando herramientas
teóricas, computacionales y experimentales (técnicas fisicoquímicas).
Son técnicas que permiten estudiar la estructura, propiedades y funciones de biomoléculas, células y procesos
biológicos. Son empleadas por especialistas de tanto Biología Estructural como de Biología Celular:
Permiten entender macromoléculas biológicas, especialmente proteínas y ácidos nucleicos, adquieren sus
estructuras y como éstas determinan sus funciones (Biología Estructural).
Permiten evaluar cómo las alteraciones de dicha estructura afectan a las funciones bioquímicas y celulares
de estas macromoléculas.
Permiten identificar y caracterizar interacciones biológicas.
Proporcionan imágenes de células y estructuras e incluso de las moléculas individuales.
Permiten evaluar viabilidad celular, diferenciación celular, y procesos celulares específicos (Biología Celular).
2. La Radiación electromagnética
La luz se define clásicamente como el conjunto de radiaciones electromagnéticas cuya longitud de onda es capaz de
captar al ojo humano. Aunque técnicamente, todas las radiaciones electromagnéticas (ultravioleta, ondas de radio,
microondas), también son luz, solo que resultan invisibles a nuestros ojos (pues su longitud de onda queda fuera del
rango que podemos detectar con los ojos). No obstante, estas radiaciones electromagnéticas se pueden detectar
mediante instrumentos específicos.
La espectroscopía es el estudio del espectro electromagnético de cualquier objeto o compuesto, para obtener
mucha información acerca de sus propiedades fisicoquímicas y de su entorno, ya sea por la luz emitida o absorbida
por él. También se define como el estudio de la interacción entre la materia y la radiación electromagnética. El
efecto de la materia dependerá de la energía de la radiación, de modo que se puede obtener información estructural
de la materia a diferentes niveles, dependiendo del tipo de radiación empleada, por ejemplo:
Un cromóforo es cualquier grupo de átomos que absorbe luz, independientemente de que produzca color o no.
Todas las moléculas absorben luz en algún rango de longitud de onda determinado, pero a ciertas longitudes de
onda son ciertos grupos químicos los que dominan el espectro.
2.1 La naturaleza dual de la radiación electromagnética
Por otro lado, la radiación electromagnética se puede considerar también como un ‘’chorro’’ de partículas que
‘’viajan’’ dentro de la onda, y esas partículas son los fotones. Esta dualidad onda-corpúsculo hace queda cada fotón
tenga una energía proporcional a la frecuencia de la onda asociada:
3. El espectro electromagnético
Es el rango de todas las radiaciones electromagnéticas posibles, por tanto abarca radiaciones con una longitud de
onda muy grande (y frecuencia baja) o muy pequeña (frecuencia muy alta). Las radiaciones de longitud de onda
pequeña (y por tanto, alta frecuencia) son las más energéticas (por la fórmula E=h), por eso son peligrosas
(radiación X, Gamma, UV…), pueden causar mutaciones en el genoma.
En realidad, como vemos en la imagen, el visible constituye solo una pequeña parte del espectro (aquella región
detectada por el ojo humano).
Existen fuentes naturales que generan ondas de todas estas longitudas de onda (pensar por ejemplo en las estrellas),
pero también se han inventado aparatos, instrumentos que pueden generar estas radiaciones, por ejemplo: el ser
humano inventó la bombilla para generar luz visible, y los equipos de espectroscopía pueden emplear diferentes
‘’bombillas’’ que generen ondas de determinadas longitudes de onda.
3.1 Técnicas espetroscoópicas
Según la forma del analito en el momento en que sufre el proceso espectroscópico (ionización, vibración,
transición…) se emplean diferentes técnicas. Atendiendo a la imagen, podemos apreciar que un mismo tipo de
radiación electromagnética puede emplearse en técnicas diferentes (UV-Visible se emplea en la espectroscopía del
mismo nombre, en la dicroísmo circular y en la espectroscopía de fluorescencia UV-Vis). El paso limitante en la
creación de estas técnicas ha sido el generar las radiaciones de esas longitudes de onda tan dispares en un aparato
de forma segura, y también la detección y el análisis (obtención e interpretación) de los datos obtenidos con el
aparato.
4. Fuentes de radiación
Su misión es la generación de un haz de radiación con suficiente potencia de salida y estabilidad para que se detecte
y se mida con facilidad. Pueden ser:
Continuas: si emiten radiación que varía en su intensidad en un amplio rango de longitudes de onda (Δλ)
Discontinuas o de líneas: si emiten un número limitado de bandas de radiación, cada una de las cuales
abarca un rango limitado de longitudes de onda
Tema 2: Espectroscopía de absorción UV-VIS
1. Región Ultravioleta-Visible
La espectroscopia ultravioleta-visible o (UV-VIS) utiliza radiación electromagnética (luz) de las regiones visible,
ultravioleta cercana (UV) e infrarroja cercana (NIR) del espectro electromagnético (190nm y 780-800nm). La
radiación absorbida por las moléculas desde esta región del espectro provoca transiciones electrónicas que pueden
ser cuantificadas. Recuerda que el espectro es continuo, de modo que cada aparato puede trabajar en valores de
longitud de onda un poco diferentes (la Luz UV puede detectarse en 185/190/195 nm).
La luz visible es lo que conocemos como luz blanca, y es la que dan las
lámparas que utilizamos en el día a día. En realidad, no es luz blanca,
pues abarca radiaciones de longitudes de onda desde los 380 a los 800
nm, lo que ocurre es que a nuestro ojo llega el conjunto de todas ellas y
eso hace que la veamos blanca. Ya sabemos que si un haz de luz blanca
atraviesa un prisma óptico (con un índice de refracción diferente al del
aire), cada onda con una longitud de onda diferente se comporta I'll see you on the dark side of
distinto, refracta con un ángulo distinto, y así la luz blanca se separan the moon
en diferentes radiaciones, cada una con una longitud de onda en
concreto.
La luz UV abarca longitudes de onda desde 190-380 nm. Su nombre proviene de que su rango empieza desde
longitudes de onda más cortas de lo que los humanos identificamos como el color violeta, pero dicha luz o
longitud de onda, es invisible al ojo humano al estar por encima del espectro visible.
La materia absorbe luz, absorbe luz blanca de todos los colores menos la que refleja que es el color que vemos en la
materia. Por ejemplo: A gran escala, mi jersey azul absorbe luz blanca, o conjunto de radiaciones electromagnéticas
de todas las longitudes de onda (del visible), menos la radiación correspondiente al azul (longitud de onda 420-
440nm). A pequeña escala, en los espectrofotómetros, los detectores podrán captar cuanta radiación es absorbida
por las moléculas (ya veremos cómo lo hacen) para poder obtener información sobre ellas.
Sigamos a pequeña escala: cuando un átomo absorbe un fotón UV o un fotón de luz visible, la energía de ese fotón
puede excitar uno de los electrones del átomo de tal forma que alcance un nivel de energía mayor. Este movimiento
del electrón, de un menor nivel de energía a uno mayor, o de regreso de un nivel mayor de energía a uno menor, se
conoce como transición. Para que ocurra una transición, la energía del fotón absorbido debe ser mayor o igual que la
diferencia de energía entre los 2 niveles. Sin embargo, una vez que el electrón es excitado y alcanza un mayor nivel
de energía, está en una posición más inestable que en la que estaba cuando se hallaba relajado en su estado base.
Así, el electrón rápidamente caerá al estado de menor energía y, al hacerlo, emitirá un fotón con la misma energía
que la diferencia entre los niveles energéticos.
Obviamente, esto ocurre no solo en un átomo, sino en todos los que conforman una molécula. Normalmente, el
espectro de absorción de una molécula no es la suma de los espectros de los grupos que la constituyen, esto
genera:
Que se produzcan estos desplazamientos implica, como estamos viendo, que para producir una misma transición,
dependiendo del entorno y de la propia molécula necesitaré más o menos energía, y por tanto, longitudes de onda
diferentes para excitar a los electrones de una molécula, y esto es lo que nos puede dar información sobre ella,
sobre su entorno de la molécula, si está purificada, etc.
2. Espectroscopía UV/VIS
En un espectroscopio, la intensidad de la luz absorbida se mide por el porcentaje de luz incidente que atraviesa la
muestra.
La transmitancia no se puede relacionar con la concentración, pero la absorción sí, a través de la Ley de Beer-
Lambert, que dice que la absorción de esa luz es función del número de moléculas que absorben (es decir, de la
concentración de la sustancia) y de la capacidad de absorción de cada molécula (ε)
Donde:
Esta ley permite corregir la dependencia de la concentración y otros factores operacionales al comparar distintos
compuestos. La Abs es adimensional.
Consideraciones a tener en cuenta:
En sistemas biológicos, la concentración suele estar en micromolar o milimolar, asi que épsilon se puede dar
en esas unidades (a la menos uno y por cm-1, claro).
El coeficiente de extinción molar (ε) es un parámetro que no depende de nada, por eso sería la forma
correcta de dar un espectro.
Hay que tener cuidado con la cubeta a utilizar, pues hay materiales que en el UV absorben, por eso el
material de la cubeta es diferente en ese caso (cuarzo). En el visible se puede utilizar vidrio o plástico. Por
otro lado, las cubetas libres de radiales hidróxilo se emplean para UV/Vis/IR cercano.
Normalmente el espectro se toma en disoluciones diluidas (1 mg/ 100 ml solvente, aunque puede depender
del ε de la muestra). La Ley LB solo se cumple hasta valores de Abs=1 normalmente (en equipos muy buenos
se puede aceptar una Abs=2).
El espectro se toma normalmente como log(I0/I) vs. λ (nm). Sin embargo se convierte normalmente en Abs o
en ε frente a λ.
No son fiables ni valores de Abs muy bajos (< 0.1) ni muy altos (> 1.5-2).
3. Tipos de espectrofotómetros
Se compone de una lámpara de UV y otra de visible, y el haz generado se divide en dos con un juego de espejos. Se
requieren dos cubetas, una con la muestra y otra con la referencia (el blanco), de modo que la muestra siempre se
enfrenta a un cero., y así se obtienen simultáneamente la I0 y la I.
En los de haz simple se ilumina en primer lugar la cubeta de referencia antes y luego el valor se va restando
electrónicamente.
En ambos tipos de espectrofotómetro, el haz pasa por un filtro o monocromador para que la luz que pasa a la
muestra tenga una longitud de onda diferente cada vez (se va haciendo un barrido), por eso se tarde un poco en
obtener el espectro. Una reacción no se puede estudiar con este equipo (solo se podría hacer en longitudes de onda
fijas, sin barrido).
En este caso se ilumina la muestra con todas las longitudes de onda, y luego es la luz emergente la que se hace pasar
por el prisma, que las separa y finalmente hay un detector (regleta de diodos, un chip de silicio que contiene más de
mil fotodiodos), que colocados en el plano focal del monocromador pueden medir de forma simultánea múltiples
longitudes de onda. El chip contiene un condensador y un interruptor electrónico por cada diodo. Proporcionan
espectros que van variando a lo largo del tiempo, es decir, que permite medir la evolución con el tiempo en todo el
rango espectral.
3.4 Nanodrop
Permiten detectar concentraciones altas porque la l (longitud de cubeta) es muy pequeña (volúmenes muy
pequeños), se emplea para cuantificar DNA y RNA.
4. Estudio de proteínas
Las proteínas son unas de las biomoléculas de las que más información se puede obtener mediante técnicas
espectrofotométricas. Las proteínas y las enzimas son herramientas moleculares muy eficientes y sofisticadas que
emplean su conformación y el reconocimiento molecular (de otras proteínas o moléculas) para regular procesos
celulares. Recuerda: la estructura determina la función (y también la interacción).
Las proteínas y las enzimas son dianas muy interesantes en biotecnología, pues prácticamente todos los procesos
biológicos dependen de su actividad, y muchas enfermedades se producen porque las proteínas funcionan mal, ya
sea por mutaciones en su gen, por cambios en la estructura, mala interacción con otras…
Los cromóforos típicos de las proteínas (enlace peptídico y aa de las cadenas laterales) no absorben en el visible,
únicamente absorben luz por debajo de 300 nm. La absorción en la región del UV contiene información de la
composición de estas moléculas y de su estructura o conformación en solución.
La limitación la encontramos en los solventes biológicos empleados (tampones, agua…) Es necesario trabajar en un
solvente, normalmente una solución acuosa a pH cercano a 7 para simular las condiciones in vivo. Pero el agua
absorbe mucho por debajo de 170 nm e impone un rango de temperaturas de trabajo. Lo mismo ocurre con muchos
tampones y electrolitos biológicos, que absorben por debajo de 200 nm.
Recuerda que las proteínas son cadenas de momómeros, los aminoácidos, de modo que para comprender sus
espectros de UV debemos examinar varias contribuciones al espectro:
Ofrece más información, se trata de bandas que aparecen en torno de 230-300 nm (en teoría se supone que el
máximo de absorción está a 280 nm) Y en esa región los cromóforos que tenemos son las cadenas laterales de los aa
(Phe, Tyr y Trp), y las cistinas (Cys-Cys unidas por SS) también se encuentran en esta región (250 nm). Esta banda se
utiliza en la purificación de proteínas (se confirma que tenemos proteínas en una muestra cuando aparece esta
banda, por ejemplo, al hacer una HPLC unida a un detector que en realidad es un espectrofotómetro).
Según la proporción de aa aromáticos que tengamos, el máximo de absorción de las proteínas se irá desplazando. Y
con el entorno también observaremos cambios en el espectro. Como vemos en la tabla de abajo, el coeficiente de
extinción molar es mucho mayor para Trp que para Tyr y que para Phe:
De este modo, el cromóforo fundamental que va a determinar el espectro de absorción de una proteína será el Trp
(a menos que la proteína no tenga este aa). Y recuerda: el entorno de cada Trp también desplazará el espectro
(recuerda los efectos hiper e hipocrómicos y los desplazamientos hipso y batocrómico), es decir, que el espectro de
absorción no es la suma de los espectros de los componentes . En definitiva, que por estas cosas se consigue que el
espectro de cada proteína sea diferente (y así podemos identificarlas).
Muchas moléculas unidas a la proteína de forma transitoria o permanente van a modificar el espectro en la zona del
visible, como metales o coenzimas (ambos cofactores). Por supuesto el espectro de cada cofactor va a ser diferente
en solución que en el interior de una proteína (por estar más o menos expuestos al solvente), y esta información se
puede emplear para detectar interacciones e incluso afinidades de las mismas. Ejemplos:
Si se cambia un átomo del FMN por un cloro (en uno de los tres anillos), el espectro también cambia, pero de
la misma manera (hacia abajo y hacia la derecha si estamos en una flavoproteína como la flavodoxina).
Las flavinas son centros redox más complejos porque al poder intercambiar 2 electrones presentan
diferentes estados de oxidación (pueden intercambiar los e- de uno en uno o los dos a la vez). Libres en
disolución los intercambian de 2 en 2 pero en un entorno proteico los saltos de e- se pueden separar y por
tanto los pueden ceder de uno en uno, de modo que las flavinas presentarán un estado radicalario llamado
semiquinonas en esos casos. Si el e- de la semiquinona va acompañado de un protón hablaremos de
semiquinona sin carga (neutral), y si no hay protón y solo hay un electrón hablaremos de semiquinona
aniónica. En resumen, que van aumentando los estados de oxidación en función de la protonación de la
flvina (lo cual depende del entorno proteico). Veamos los espectros para cada caso:
Los nucleótidos absorben sólo en el UV, no en el visible y los cromóforos que absorben en realidad son las bases
púricas y primidínicas. Prácticamente todas ellas tienen una absorción en torno a 260 nm, debido a su carácter
aromático, a pH=7. Aunque, como siempre, el espectro de un ácido nucleico siempre va a ser diferente al de una
única base en solución.
Recuerda, podemos saber cuando estamos purificando una proteína si hay contaminación con ácidos nucleicos
viendo si en la gráfica aparecen dos bandas a 260 y 280 nm en lugar de una única banda a 280 nm (característica de
proteínas). También se puede tener el objetivo contrario, y en ese caso se emplea la siguiente razón de pureza para
detectar si una disolución de ácido nucleico está contaminada con proteínas:
El efecto hipocrómico es muy notable en ácidos nucleicos. La absorbancia de un mol de ADN es un 35-40 % menor al
valor calculado de la absorbancia de las bases que lo componen (piénsalo, las bases estaban ocultas en el interior de
la estructura de doble hélice).
Pero además, también destaca el efecto hipercrómico cuando se desanturaliza la doble hélice de DNA. Cuando se
aplica calor la doble hebra de DNA se va desnaturalizando, se exponen las bases nitrogenadas y aumenta la
absorción. Con esto podemos saber si tenemos el DNA en hebra sencilla o doble, o calcular la Tm (Temperatura de
fusión, la temperatura a la que se ha desnaturalizado la mitad de las moléculas de DNA). Estos experimentos de
desnaturalización también pueden dar información sobre el contenido en bases del DNA (%GC, pues a mayor
contenido en GC aumentará la estabilidad térmica del DNA y tardará más en desnaturalizarse y tendrá una Tm
mayor). Se ha visto que los genomas más grandes presentan mayor estabilidad térmica. Estos experimentos también
permiten conocer por ejemplo temperaturas para hibridar cebadores, o analizar cinéticas de reasociación de las
hebras de DNA cuando baja la temperatura.
En definitiva, que estas técnicas permiten evaluar la estabilidad, pureza o composición de los ácidos nucleicos.
Son el CoenzimaA, el fosfato de piridoxal, NADPH y NADH, carotenos, riboflavinas…. Tal y como veíamos con los
grupos hemo, la molécula de NADH también tiene dos espectros que difieren según si la molécula está oxidada o
reducida.
Tema 3: Espectroscopia de dicroísmo circular
1. Utilidad
La espectroscopía de Dicroísmo Circular (DC) permite estudiar la conformación de las proteínas, por ejemplo, si no
sabemos si una proteína de estudio está plegada o no. Permiten hacer una caracterización conformacional y
dinámica:
Observar, analizar y cuantificar pequeños cambios en la estructura secundaria o terciaria (por ejemplo,
debido a mutaciones), en interacciones y/o cambios de solvente debido a las actuaciones sobre las
biomoléculas sin necesidad de determinar la estructura tridimensional de las mismas.
Cuantificar el contenido de estructura secundaria (en teoría).
Determinación de pureza y estabilidad (controles de calidad).
En realidad, para determinar todo esto se utilizan una variedad de técnicas entre las que el dicroísmo circular es
particularmente útil, pese a ser más cara.
2. Fundamento
Por su parte, si luz circularmente polarizada hacia la derecha y hacia la izquierda están en fase, su sumatorio da luz
polarizada en el plano. Si no están en fase, obtendremos luz elípticamente polarizada. (La luz polarizada en un
plano es la suma de luz polarizada circularmente a derecha e izquierda)
Así, en DC lo que se hace es iluminar la muestra con luz circularmente polarizada a dcha. e izda. en fase. Si la
muestra no absorbe, veremos el haz de luz polarizada en el plano. Si la muestra absorbe, la luz se convierte en luz
elípticamente polarizada. Algo que también ocurriría si las dos ondas del principio no estaban en fase. Si absorbe,
también disminuye la intensidad.
La emisión de luz elípticamente polarizada no ocurre en todas las muestras, solo en aquellas que tengan moléculas
que sean capaces de absorber de forma diferencial la luz circularmente polarizada a dcha e izda. Se dice que cuando
la luz polarizada en un plano atraviesa una muestra ópticamente activa, sus componentes de luz circularmente
polarizada suelen ser absorbidos en distinta cantidad
Pista para examen: para saber si una molécula se puede estudiar con DC, debe absorber en el UV (sólo en UV) y ser
una molécula ópticamente activa.
En la figura podemos ver lo
que pasa cuando haces de luz
circularmente polarizada hacia
la derecha y hacia la izquierda
atraviesan una muestra (de lo
que sea), vemos que como
consecuencia de la absorción
lo que se emite es luz
elípticamente polarizada. En la
parte de debajo de la figura
podemos ver cómo se
diferencian un haz de luz
polarizada y un haz de luz
elípticamente polarizada.
Un aparato empleado en espectroscopía DC mide o da el dato del ángulo ϴ o elipticidad, cuyo valor depende de lo
que nos alejemos del circulo inicial conforme se va formando la elipse.
Si los aparatos miden ese ángulo es porque la técnica se basa en otra llamada dispersión óptica rotatoria (que en
este caso se emplea para medir diferentes Índices de refracción). En el caso de la dispersión óptica rotatoria cuando
la luz atraviesa la muestra se pueden comprimir más las ondas en la luz circularmente polarizada en una dirección
que en la otra (aquí la luz no se absorbe, solo cambia su dirección al atravesar la muestra) y eso hace que el plano del
haz de luz polarizada se incline o desvíe. Los aparatos de dispersión óptica rotatoria medían el ángulo de cambio, y
por eso ahora los aparatos de DC miden el ángulo ϴ (vamos, que se hace por razones históricas).
Las moléculas que absorben son aquellas ópticamente activas, que son aquellas que no disponen de un plano de
simetría o centro de inversión, y que además no son superponibles con su imagen especular (es decir, los
enantiómeros). La mayor parte de las moléculas sintetizadas por los organismos vivos son ópticamente activas (por
ejemplo, recuerda: los L-aminoácidos predominan sobre D-)
En los polímeros (proteínas o ácidos nucleicos), que también presentan comportamiento rotatorio, lo que ocurre es:
Entonces, cuando un haz de luz polarizada atraviesa una especie ópticamente activa, ésta absorbe de manera
diferencial la luz polarizada circularmente a izda y a dcha. La diferencia entre Aderecha y Aizquierda es la señal de
dicroísmo circular. CD mide la capacidad de moléculas ópticamente activas de absorber diferencialmente la luz
polarizada circularmente a izda y dcha (lo repito porque parece importante). Obviamente, para que haya
absorbancias diferentes necesitamos coeficientes de extinción molar diferentes.
Por convenio, siempre es la diferencia de Aizquierda - Aderecha. Si l y c son iguales, podemos hablar de Δε. El aparato va a
dar datos de elipticidad, recuerda, no de absorbancia, de modo que hay que saber la relación entre ambas.
En los espectros de DC tendremos bandas positivas o negativas (novedad, si Adcha > Aizda)
Ahora trabajamos con Δε, por tanto serán valores mucho más pequeños que los valores de ε empleados en
absorción en UV-VIS.
No obstante, también hay que trabajar en muestras diluidas (para no saturar el fotomultiplicador).
Algunas bandas que veíamos intensas en absorción UV-Vis son ahora débiles en DC y viceversa.
3. Dicrógrafo
Es el aparato con el que se realizan las mediciones, es como un espectrofotómetro pero con una lámpara muy
potente (pro tanto muy caro). La lámpara tiene que estar en ausencia de oxígeno y requiere consumo de nitrógeno
(trabajar bajo atmosfera de nitrógeno). Se requieren cubetas de cuarzo (por trabajar en el UV) y las que se emplean
son cubetas con una longitud de paso mucho menor que 1. Los tampones también tienen absorción en DC de modo
que hay que trabajar con tampones muy diluidos.
Preparación de la muestra: Se debe trabajar con concentraciones pequeñas de proteína (porque pueden
absorber mucho y si nos pasamos se satura el fotomultiplicador y la medición deja de ser fiable), y deben
emplearse tampones de baja Fuerza Iónica. En el UV lejano además molestan algunas sales de los tampones
así como el oxígeno (es necesario degasear), hay que utilizar tampones específicos en concentraciones bajar
(Tris, percloratos o boratos), KF en lugar de NaCl y no se puede emplear imidazol. Hay que evitar otros
posibles aditivos y tener la proteína lo más pura posible (tendremos que eliminar también las proteínas no
plegadas, los péptidos o las partículas contaminantes previamente por filtrado).
Condiciones de medida: Hay que asegurar la buena estabilidad del espectropolarímetro y la ausencia de
oxígeno en el equipo para mantener la estabilidad de la lámpara (mediante purga con nitrógeno). La
temperatura también tiene que ser controlada.
4. Principales cromóforos en proteínas
Los cromóforos potenciales son los mismos que teníamos en Abs UV-VIS (enlace
peptídico, cadenas laterales de los aa aromáticos y los grupos prostéticos y coenzimas).
De este modo, las estructuras secundarias formadas por enlaces peptídicos son asimétricas y tienen espectros de DC
característico en la región UV lejano. Serán diferentes espectros para las alfa-hélices que para las hojas-beta, por
ejemplo. En cuanto a los giros, como los ángulos φ y ψ son muy variados, los espectros también lo serán.
Aunque en la figura superior se comience el barrido a 190 nm, entre 190 y 210 nm absorben muchas sustancias
(sales, tampones), de modo que los espectros suelen darse desde a partir de los 210 nm. Características de cada
estructura secundaria:
Hélice alfa: Banda negativa a 222 nm, otra negativa-postiiva a 208 nm y en 190 también (positiva)
Hoja beta: Banda negativa a 215-218 nm y banda positiva antes, a 196-198 nm.
Giros o regiones desordenadas: Banda positiva a 212 nm y negativa ants, a 195 nm (al revés que hoja beta)
El espectro DC de una proteína nativa va a depender de la cantidad de proteína 1qe se encuentre en alfa hélice, hoja
beta, etc (es decir, que depende de la fracción de sus componentes de estructura secundaria).
Los cambios en las conformaciones de péptidos y proteínas debidos a calentamiento, a cambio de solvente u otra
variación pueden seguirse fácilmente por DC. Veamos un par de ejemplos de estudio de estabilidad conformacional
y control de calidad:
Otra aplicación de esto estaría en el ajuste al contenido de estructura secundaria, pero usar esta técnica en el UV
lejano para esto no es muy fiable para algunas proteínas. Se hizo una primera aproximación que consideraba la
combinación lineal de los espectros de DC de cada una de las estructuras secundarias presentes en la proteína para
detectar el % de contenido en esas estructuras secundarias en la proteína (ver fórmulas abajo). Muchos programas
informáticos siguen esta primera aproximación, y la información es muy confiable para proteínas con elevado
porcentaje en alfa hélices (comparable a la fiabilidad de la información obtenida por difracción por RX o RMN). Los
algoritmos de estos programas se basan en bases de datos de espectros de proteínas.
Limitaciones:
Por eso se han diseñado otros métodos para esto (SVD, Singular value decomposition, o Variable selection, un
método estadístico).
4.2 CD en el UV-cercano: cadenas laterales de aminoácidos aromáticos y sulfuros
Algunos aa aromáticos libres en disolución no generan espectros de DC, pero si en proteínas, de modo que el DC de
los cromóforos en proteínas puede indicar interacciones con las moléculas en la vecindad inmediata. En este caso el
Trp también domina pero tiene que estar oculto (enterrado) para que haya espectro de CD, por eso esta parte del
espectro DC da información de estructura terciaria (hasta ahora obteníamos información de estructura secundaria).
Este fenómeno es lo que se llama CD inducido: Si una molécula simétrica que absorbe se disuelve en un solvente
quiral (entorno asimétrico), se observa CD en la región de absorción del soluto no quiral.
Es el caso de las cadenas laterales de los aminoácidos aromáticos y los puentes disulfuros
al formar parte de la estructura tridimensional (terciaria) de la proteína. Un criterio muy
sensible al estado nativo de la proteína.
En la gráfica de la derecha se aprecia bien: a pH 7 los Trp sufren CD inducido y dan señal en
CD UV cercano, mientra que a pH ácido o desnaturalización con urea, la cadena
polipeptídica se despliega, los Trp quedan accesibles al solvente y NO dan señal en el CD
UV-cercano.
AL igual que CD en el UV lejano, esta espectroscopía se puede emplear para estudiar estabilidad conformacional y
control de calidad (por ejemplo, para comprobar que dos lotes de producción distintos de un anticuerpo monoclonal
son iguales, que es lo que se busca).
Muchas proteínas contienen o interaccionan con cofactores o coenzimas que son cromóforos y presentan CD
inducido, como los grupos hemo (hemoglobina, mioglobina, citocromos), retinol (rodopsina), centros sulfoférricos
(ferredoxina), metales, flavinas, nucleótidos, etc... L a espectroscopía en CD visible da información sobre la
interacción metal-proteína, coenzima-proteína, cofactor-proteína, etc.
Fijarse en que en CD se analizan UV y visible por separado, en Absorción UV/VIS lo analizábamos a la vez.
Los ácidos nucleicos también presentan espectro de DC. Tendremos diferentes espectros de DC en función del
estado del DNA (nativo, desnaturalizado…) y todos ellos serán diferentes al de la mera suma de los dNTPs
correspondientes.
Recuerda además que el DNA presenta varias estructuras secundarias de doble hélice: A, B y C (o Z). Cada una de
ellas tendrá también un espectro característico (pues en cada una las bases nitrogenadas están más o menos
expuestas).
5.1 Aplicaciones de Espectroscopía DC
Verificar el correcto apareamiento de bases (por ej. de una hebra modificada con su hebra complementaria).
Cambios en estructura secundaria con temperatura, agentes desnaturalizantes (por ej. cálculo de Tm).
Estudiar isomerizaciones conformacionales (helix-coil, B-A, B-Z)
6. Ventajas de la espectroscopía DC
7. Inconvenientes de la espectroscopía DC
La absorbancia del solvente interfiere en la región de UV. Hay que trabajar con tampones muy diluidos y que
no absorban a < 200 nm.
Medidas sujetas a errores experimentales. Se trabaja en concentraciones muy pequeñas, de modo que es
fácil cometer errores
La determinación de los porcentajes de elementos de estructura secundaria no es realista en muchos casos.
Poca información de estructura terciaria o cuaternaria. Más como Control de Calidad
Tema 4: Espectroscopia de Infrarrojo
1. Absorción de infrarrojos
Cada átomo tiene tres grados de libertad relacionados con su movimiento (translación). Cuando se forma una
molécula esos grados de libertad se mantienen, así, la molécula tiene tres grados de libertad traslacional, y si no es
lineal, tendrá tres grados de libertad rotacional.
Los restantes grados de libertad para una molécula no lineal de n atomos son 3n-6 o 3n-5 si la molécula es lineal, y
son modos vibracionales del estado fundamental (se quitan los grados de libertad rotacional y traslacional). Estas
vibraciones son grados internos de libertad, y se expresan en término de las coordenadas del centro de masas.
Modos de vibración de los enlaces: Hay diferentes modos normales de vibración en las moléculas, cada uno lleva
asociado un movimiento característico de los átomos. Los principales son:
Deformaciones de enlace.
Ángulos de valencia.
Ángulos diedros.
Deformaciones fuera del plano.
Estos modos presentan ligeras diferencias en energía y eran lo que hacía que en los espectros de abs UV/Vis
apareciesen bandas en lugar de picos.
Las energías de estas transiciones vibracionales se encuentran en la región del IR del espectro electromagnético, es
decir, que cunado una molécula absorbe IR lo que hace es pasar de un estado vibracional a otro. Estas transiciones
entre modos vibracionales se estudian no solo por espectroscopia IR sino también por espectroscopia RAMAN . En el
primer caso (el que nos atañe) se emplea radiación electromagnética cuya longitud de onda está comprendida entre
los 800-400.000 nm (rango muy amplio). Es la técnica de Espectroscopia de Absorción empleada principalmente en
la elucidación de estructuras moleculares (de moléculas pequeñas).
Ojo cuidao: Aquí no estamos excitando electrones, sino más bien la distancia entre 2 átomos o el ángulo formado
entre los átomos que forman una molécula.
Los espectros se miden en %T (oAbs) vs frecuencia. Las frecuencias van desde 5000 cm-1 (2000 nm) a 200 cm-1
(50000 nm, vemos que cada frecuencia tiene su longitud de onda asociada). Sigue la ley de Beer-Lambert y reglas
similares a UV-Vis.
Cada absorción observable en el espectro corresponde a una vibración determinada de algún enlace dentro
de la molécula. Los picos observados indican la presencia de determinados grupos funcionales. Como una
molécula va a tener muchos enlaces, estos pueden sufrir muchas transiciones vibracionales, y por tanto, cada
molécula va a tener un espectro característico.
Ejemplo: la molécula de formaldehído (4 átomos) presenta un espectro de IR sencillo con 6 modos normales de
vibración, cada uno de ellos se da a una frecuencia características del espectro, lo cual permite identificar los grupos
funcionales que hay presentes en la molécula y cómo están unidos unos con otros (de modo que podemos
identificar la molécula). En definitiva, que lo que ha de quedar claro es que el efecto sobre la materia orgánica de la
radiación IR es producir deformaciones de los enlaces de la sustancia. La absorción de estas radiaciones de baja
energía produce excitaciones los niveles vibracionales y rotacionales de los grupos de átomos que componen la
molécula, permitiendo la identificación de los grupos funcionales.
Aunque una macromolécula que contiene un gran número de átomos va a tener un gran número de vibraciones,
normalmente la espectroscopia de IR se simplifica porque los grupos químicos muestran bandas de vibración
características. Y como ocurría en otras espectroscopias, normalmente el espectro de un polímero no es la suma de
los espectros de los monómeros, ya que pueden existir bandas de combinación y de diferencia, resultado de dos a
más vibraciones que son excitadas simultáneamente. También pueden acoplarse distintos grupos (puentes de
hidrógeno).
El siguiente esquema muestra qué regiones vibracionales se recogen en un espectro de infrarrojo, vemos que
tenemos frecuencias de estiramiento (azul) y de torsión (verde). Consideraciones a tener en cuenta:
Las frecuencias de estiramiento son más altas que las correspondientes de torsión (es más fácil doblar un
enlace que estirarlo o comprimirlo).
Los enlaces a átomos de H tienen mayores frecuencias de estiramiento que los de átomos más pesados.
Los enlaces triples tienen mayores frecuencias de estiramiento que los dobles y estos que los sencillos.
La complejidad del espectro en la región 1450 -600 cm-1 hace difícil la asignación de todas las bandas. Sin
embargo, esta región se denomina región de huella dactilar ya que presenta señales únicas para cada
compuesto.
La región huella dactilar puede ser útil para un fármaco (molécula pequeña) o para detectar productos catalizados
por una enzima, por ejemplo, recuerda, los biotecnólogos no siempre trabajan con macromoléculas.
IR presenta como problema que las muestras biológicas se presentan en solventes acuosos cuyas moléculas de agua
van a dar mucha señal en la región en torno a los 3300-3600 cm-1, por eso se prefieren solventes orgánicos o hacer
el espectro en sólido (pastilla del compuesto en sólido), aunque eso se hace más en Química Analítica que en
Biotecnología o Bioquímica.
2. Inconvenientes de la IR (menos usada que la espectroscopia de absorción UV-Vis)
Las bandas IR son menos intensas porque los coeficientes de extinción son mucho menores y por tanto se
requieren utilizar concentraciones mayores.
El agua absorbe intensamente en muchas regiones de interés biológico, de modo que se debería usar agua
deuterada (D2O) o muestras desecadas en película.
La intensidad de una banda vibracional depende de la magnitud del dipolo inducido, este dipolo transitorio
tiene un término electrónico y otro vibracional. Además, la dirección del dipolo inducido depende del tipo de
vibración.
El sistema de detección de los instrumentos es menos sensitivo.
3. Instrumentación para IR
Normalmente se mide FTIR, es decir, infrarrojo pero con transformada de Fourier. Lo que se hace es medir a todas
las frecuencias (lo cual da mayor rapidez a la técnica) y luego se hace una segunda transformada de Fourier para
obtener el espectro. Así se mejora la relación señal/ruido, ya que la luz no debe pasar por un monocromador, como
sí ocurría en casos anteriores.
Para hacer esto, los espectros han de pasar necesariamente por un ordenador, lo que facilita el análisis y el manejo
espectral.
4. IR de proteínas
El cromóforo más importante va a ser el enlace peptídico, que se repite a lo largo de la estructura. El espectro es
complicado ya que los enlaces peptídicos están en distintos entornos y los puentes de hidrógeno de las amidas
formados cuando se generan las estructuras secundarias producen importantes desplazamientos de las
correspondientes bandas vibracionales (hay muchos modos normales de vibración del grupo amida).
La simetría de las estructuras secundarias (hélice α y hoja β), produce bandas considerablemente manejables que
ofrecen información sobre la conformación de estructura secundaria en que se encuentra el enlace peptídico.
Las principales bandas de absorción del enlace peptídico se deben a los siguientes modos vibracionales:
Según la información de la tabla de abajo, podemos utilizar la vibración del estiramiento N-H para diferenciar
proteínas desnaturalizadas (sin puentes de hidrógeno) y no desnaturalizadas (puentes de hidrógeno intactos, se
forman estructuras secundarias). Pero si lo que queremos saber es si nuestra proteína tiene hélices alfa u hojas beta,
deberíamos observar la frecuencia de vibración del enlace C=O (valores diferentes para una hélice alfa que para una
hoja beta).
Nota: En proteínas el IR también puede darse en Abs, pero siempre se va a enfrentar con frecuencia, no con λ.
Acabamos de decir que es la que da más información sobre el contenido en estructura secundaria.
Para una estructura rica en hélices alfa, tendremos algo parecido a la banda roja, con un máximo en torno a
una frecuencia de 1650 cm-1.
Para una lámina beta pueden aparecer dos hombros (en azul) con máximos de absorción en torno a 1620 y
1690 cm-1.
Una región desordenada puede tener un máximo en torno a los 1670 cm-1.
Pero claro, a veces puede aparecernos una única banda experimental amida I pero que no da suficiente información.
En ese caso se puede hacer una deconvolución espectral mediante un sistema informático para calcular % de hélice
alfa y hoja beta que tenemos en nuestra proteína, pero no se suele poder deconvolucionar con buenos resultados la
gran mayoría de ocasiones, lo cual implica que no todas las hojas beta y hélices alfa son iguales (diferirán con el
entorno, la proteína, etc).
La fluorescencia es un proceso de emisión en el cual especies que han sido excitadas por la absorción de radiación
electromagnética se relajan al estado fundamental, liberando su exceso de energía en forma de fotones.
De nuevo estamos excitando orbitales moleculares (como en UV/VIS, pero no como en IR). Todas las moléculas
absorben pero no todas emiten fluorescencia, solo aquellas que eliminan energía y regresan al estado fundamental
mediante la emisión de fotones. Se excita en el UV (entonces, una molécula que absorba en el UV puede ser, o no,
fluorescente, condición necesaria pero no suficiente).
La fluorescencia tiene una alta sensibilidad inherente, con frecuencia de 1-3 órdenes de magnitud mayor que en la
espectroscopia de absorción. Que sea tan sensible quiere decir que con poca muestra tendremos una señal
importante, pero claro, no todas las moléculas son fluorescentes, es decir, es una técnica sensible pero con
limitaciones.
Fluoróforo: Grupo que presenta fluorescencia. No todos los cromóforos son fluoróforos.
Desplazamiento de Stokes: La distancia entre el valor máximo de absorbancia y el valor máximo de emisión. Como
hemos dicho antes, la longitud de onda de emisión siempre es mayor que la de excitación. En algunas moléculas, los
espectros de absorción y de emisión de fluorescencia se solapan.
Rendimiento cuántico de fluorescencia: Relación entre el número de fotones emitidos y el número total de fotones
absorbidos. De su valor depende que una molécula sea fluorescente o no. Este parámetro indica cómo de
fluorescente es una muestra.
Uno de los problemas de la fluorescencia es que es menos general que la absorción UV/Vis debido al número
relativamente limitado de sistemas químicos que se pueden hacer fluorescer, ya que la fluorescencia compite con
otras formas de desexcitación. Esta competencia entre la emisión fluorescente y otras formas de desexcitación no
radiactivas (en lugar de liberarse un fotón, la energía se emplea para otra cosa, como una reacción fotoquímica,
energía cinética, calor, etc) es lo que decide si una molécula es fluorescente. Todos esos procesos compiten y al
final solo gana aquel que ocurra antes (el que sea más rápido).
Los procesos de retorno al estado fundamental que entran en competencia son la conversión interna, el cruce entre
sistemas y la fluorescencia. En caso de que tengamos cruce entre sistemas podemos pasar de tener fluorescencia a
fosforescencia (en fosforescencia se retiene durante mucho más tiempo la capacidad de emitir fotones que en
fluorescencia). Recapitulando:
Estamos viendo que el que una molécula sea fluorescente o no va a depender del tiempo en que ocurren todos los
procesos que compiten: la relajación vibracional es el proceso que más rápido ocurre después de la absorción, y eso
hace que el electrón excitado se vaya al nivel vibracional de menor E del estado excitado. Luego podemos tener
fluorescencia, conversión interna, fluorescencia o fosforescencia por el cruce entre sistemas.
Las etapas de absorción y de emisión son extremadamente rápidas, tanto que los núcleos no llegan a moverse
(principio de Franck-Condon). La absorción sólo proporcionaba información del entorno inmediato a la molécula que
absorbe, pero el espectro de fluorescencia porporciona información de un entorno más amplio, por eso es de
interés.
Notas: La relajación vibracional por lo general es mucho más rápida que la fluorescencia, entonces la
molécula se relaja completamente y (en general) sólo vemos la emisión desde el estado S1. La escala de tiempo de
fluorescencia es la misma que la escala de tiempo de movimientos moleculares.
El Rendimiento Cuántico se define como la relación entre la intensidad de fluorescencia emitida por la muestra y la
Intensidad de radiación electromagnética que ha absorbido. Es la relación entre el número de fotos emitidos y el
número total de fotones absorbidos. En una situación ideal, el rendimiento cuántico de una molécula fluorescente
debería ser 1.
En definitiva, que una molécula será fluorescente o no, dependiendo de los valores relativos de las constantes
cinéticas de los procesos implicados. Las constantes pueden variar su valor dependiendo del entorno del fluoróforo
(el tampón), y la temperatura, un factor muy importante aquí en emisión (en abs UV-Vis no lo era). Si la
Temperatura es porque las constantes son constantes cinéticas, que como ya sabes, dependen de la Temperatura.
2. Decaimiento de la fluorescencia
La fluorescencia no es un fenómeno permanente, sino que decae con el tiempo si la molécula no se vuelve a excitar.
El tiempo de vida media y el de vida natural se relacionan por el rendimiento cuántico de fluorescencia:
3. Espectros
La altura, es decir, la intensidad, va a depender del coeficiente de extinción molar (a mayor valor de coeficiente de
extinción molar, más intensidad de fluorescencia??).
Nota: si en una molécula hay dos cromóforos, uno puede emitir fluorescencia y el otro no, por eso pueden aparecer
dos picos en el espectro de absorción pero solo uno en el de emisión. Por eso a veces los espectros de absorción y
emisión no son imágenes especulares.
En este caso se representa la fluorescencia frente a la longitud de onda de excitación, no la longitud de onda de
emisión.
Como pasaba en emisión, si una molécula posee un único fluoróforo el espectro de excitación coincide con el de
absorción, ya que el rendimiento cuántico no depende de la longitud de onda de la radiación absorbida.
El espectro de excitación de una molécula se consigue fijando una longitud de onda de emisión concreta y luego se
hace un barrido de longitudes de onda de excitación. Por eso en los aparatos que den estos espectros necesitaremos
dos monocromadores, uno a la entrada y otro a la salida.
3.3 El espectrofluorímetro
Parecido a un espectrofotómetro, solo que para evitar captar y medir la luz de la lámpara y solo medir la emisión de
fluorescencia, dentro del aparato el detector está en un ángulo de 90 grados respecto de la fuente de iluminación.
En este caso, las cubetas NO TIENEN LADOS BISELADOS, sino que han de tener todos los lados transparentes. Resto
de componentes:
Fuente de luz: es una lámpara de Xe, Hg-Xe, Diodo (Laser, LED), Hg…
Monocromadores
Detector (tubo fotomultiplicador)
Muestra: hay que tener en cuenta la geometría de iluminación de la muestra. La medida de la intensidad de
fluorescencia es relativa a la geometría del equipo.
Con la disposición de los elementos de un espectrofluorímetro, aparecen ya los primeros problemas de la técnica:
una muestra fluorescente emite fluorescencia en todas direcciones, pero el detector no está en todas las
direcciones, solo a 90°, de modo que no se puede medir la intensidad de fluorescencia real de nuestra muestra.
Entonces, debido a las características del fenómeno de fluorescencia y a la forma en que se mide se pueden definir
tres tipos de intensidad de emisión: real, observada y corregida.
Filtro externo: La luz emitida pasa solo por parte de la muestra, teniendo en cuenta que parte de los espectros de
emisión y absorción se solapan, parte de los fotones emitidos pueden ser de nuevo absorbidos por la propia
muestra, todo esto hace que la intensidad real de fluorescencia sea imposible de cuantificar.
Para evitar estos fenómenos en la medida de lo posible, hay que diluir la muestra (pero no pasa nada por diluir
porque la técnica es sensible, con poca muestra obtendremos señal), así como aumentar la intensidad de la lámpara
para provocar el máximo de excitación.
Intensidad de fluorescencia corregida, IF(C)λ se introduce una corrección de estos efectos y hace referencia a cada
longitud de onda de emisión.
No confundir con decaimiento. En muestras biológicas el fluoróforo está normalmente en disolución y puede
interaccionar con otras moléculas, y como consecuencia de esta interacción se puede producir una pérdida de
emisión fluorescente en un proceso conocido como Quenching, un proceso de desexcitatción no radiactiva
provocado por una molécula ajena al fluoróforo, que recibe el nombre de desactivador o quenche.
Puede utilizarse para estudiar efectos de determinadas moléculas sobre el fluoróforo de interés. Exsiten dos tipos de
desactivación, la dinámica y la estática.
4.1 Desactivación dinámica
Consecuencia de la colisión entre las moléculas de desactivador y el fluoróforo. Si este se encuentra en el estado
excitado, pasa al fundamental sin emitir radiación, al disiparse la energía en forma de energía cinética de la molécula
del desactivador.
No todas las moléculas biológicas son fluorescentes, las que lo son se consideran que tienen fluorescencia intrínseca,
natural, propia de un sistema (no se puede controlar su rendimiento cuántico). Por otro lado, nosotros podemos
introducir agentes fluoróforos con buenos rendimientos cuánticos y que hacen que un sistema que antes no tenía
fluorescencia ahora sí lo tenga. Es lo que se conoce como fluorescencia extrínseca (se agrega a la muestra un
fluoróforo externo, una sonda fluorescente, que se pueden unir a las moléculas de estudio de forma covalente o no
covalente)
En proteínas, la fluorescencia intrínseca se debe a la de los aa aromáticos (Trp) y poco más. Sí es cierto que
existen proteínas fluorescentes como la GFP y sus derivados, que son fluorescentes per se pero son
excepciones. Lo que ocurre normalmente es que proteínas no fluorescentes pueden tener cofactores que sí
lo sean. Pero lo normal es que tengamos que marcarlas con sondas fluorescentes (FITC, DNS).
Los ácidos nucleicos no tienen fluorescencia intrínseca, de modo que se agregan sondas fluorescentes
catiónicas (EtBr, DAPI).
Las membranas tampoco son fluorescentes. Se agregan sondas liposolubles con baja fluorescencia en agua
(DPH, ANS) o fosfolípidos marcados.
Esas biomoléculas de pequeño tamaño que sí son fluorescentes y que pueden funcionar como cofactores
son: NAD(P)H, FAD, FMN, Piridoxal fosfato (PLP), clorofilas….
Nota: La espectroscopía de emisión se podría utilizar para hacer análisis de componentes (por deconvolución del
espectro de una proteína teniendo el espectro individual de cada componentes, y luego haciendo determinadas
correciones).
Recuerda: son muchos los factores que modifican los espectros de absorción y también los de emisión. En el interior
de una proteína el entorno de estos aa cambia y eso influye (efecto de plegamiento) en fluorescencia intrínseca.
En el caso de una proteína que no tenga Trp, el máximo de emisión estará en torno a 307 nm, (por las Tyr), pero
también se puede desplazar. Ejemplo: espectros de Tyr libre, y Tyr unida a calmodulina con y sin calcio (tu querido
complejo Ca2+/Calmodulina).
Los factores que disminuyen el rendimiento cuántico de la fluorescencia de la Tyr en proteínas son:
El enlace peptídico.
La transferencia de la excitación a residuos de Trp (Trp ‘’desactivaría’’ a Tyr)
Los grupos carboxilo y amino de otros aa pueden también actuar como desactivadores.
Recuerda: Grupos prostéticos, coenzimas y cofactores presentarán dos espectros de emisión distintos en función de
su estado redox. Algunos pueden incluso no emitir en determinados estados redox (NADH emite, pero NAD+ no, por
ejemplo, ambos absorben). Esto permitiría estudiar el seguimiento de reacciones redox.
Ejercicio: Aquí tenemos el espectro de emisión de la flavodoxina de Anabaena cuyo cofactor es el FMN, no
fluorescente en el UV, si no en el visible.
Fotoestabilidad
Alto rendimiento cuántico
Coeficiente de extinción alto
Pocas fluctuaciones en intensidad
Absorción y emisión en el visible.
Pequeño tamaño.
Ser más estables a variaciones en el entorno.
En proteínas se pueden unir de forma covalente o no a las mismas, siendo la unión covalente una unión específica,
mientras que la no covalente no es específica. Ejemplos:
Unión covalente: las yodacetamidas pueden unirse formando enlaces covalentes con las Cys. Si una proteína
no tiene Cys en una determinada posición pero aun así queremos añadir esta sonda, pues hacemos una
proteína mutante (mutagénesis dirigida).
Unión no covalente: se produce un cambio en la emisión por un cambio del entorno, por ejemplo, el
fluoróforo ANS no ofrece fluorescencia hasta que no se mezcla con una disolución de albúmina humana.
Ejemplos: Fluoresceína y rodaminas que absorben y emiten en el visible, el dansilo (sensible a la polaridad del
entorno, fluorescencia polarizada) y los compuestos de B (BODIPY) que absorben y emiten en el visible. Otro ejemplo
es el de la Tioflavina (ThT), un marcador fluorescente de agregados amiloides de proteínas (en enfermedades
neurodegenerativas). En disolución su rendimiento cuántico es pequeño y el coeficiente de extinción molar también
pero cuando se internaliza entre las fibras amiloides aumenta su absorción a 450 nm y eso implica un aumento de
fluorescencia (a 482 nm). Así se pueden detectar estas fibras amiloides.
Los ácidos nucleicos no tienen fluorescencia intrínseca, pero se pueden n intercalar entres sus bases moléculas
fluorescentes llamadas agentes intercalantes para detectarlos, por ejemplo Bromuro de Etidio o Naranja de Acridina.
También se pueden modificar las bases para que sean fluorescentes.
8. Aplicaciones de la fluorescencia
Es una proteína que emite fluorescencia en el visible (luz en la zona verde del visible) por formación espontánea del
fluoróforo al plegarse. Cuando esta proteína se pliega la proteína se produce una desprotonación y una
deshidrogenación (¿) en el interior de su estructura y las cadenas laterales de los aa quedan orientadas en la
dirección correcta para que ocurra esa reacción y se genera ese compuesto fluorescente que emite en el visible. La
presentan algunos animales y amebas.
La GFP fue clonada e introducida en el gusano transparente C. elegans en 1988, iniciando así la era de la GFP como
marcador celular y de organismo: iluminando el organismo con la longitud de onda adecuada se observa
fluorescencia allá donde se encuentre la GFP, sirve por tanto para hacer estudios in vivo.
Son muy versátiles y se utilizan en diversos campos, como la microbiología, la ingeniería genética, la fisiología y la
ingeniería ambiental. Permiten ver procesos antes invisibles, como puede ser el desarrollo de neuronas o cómo se
diseminan las células cancerosas, o el desarrollo de la enfermedad de Alzheimer, el crecimiento de bacterias
patógenas, o la proliferación del virus del SIDA, entre otros.
Ejemplos:
En este caso empleamos luz polarizada en un plano para excitar la muestra. En solución, el fluoróforo puede estar
en cualquier orientación debido a su dipolo (si no hay un campo eléctrico o magnético, los dipolos no están
orientados). De este modo, al emplear luz polarizada, sólo se podrán excitar aquellas moléculas cuyo dipolo se
encuentre en el mismo plano de polarización que la luz que incide, esas serán las únicas moléculas que absorberán
y que por tanto emitirán radiación electromagnética.
En el tiempo entre que las moléculas absorben y emiten, se pueden mover, pero si una molécula es grande no se va
a mover mucho, de modo que el detector recogerá luz polarizada. Pero lo normal es que en una disolución de
muestra las moléculas difundan, se muevan y roten, de modo que cuando emiten fluorescencia los dipolos pueden
estar orientados de forma totalmente distinta a cuando la molécula absorbió, de modo que veremos mucha menos
intensidad de fluorescencia, en un haz de luz no polarizada, entonces, cuando la luz emitida por un fluoróforo posee
diferentes intensidades en diferentes ejes de polarización hablamos de Anisotropía.
La polarización de fluorescencia proporciona información sobre la forma y tamaño de las macromoléculas o sobre la
rigidez de varios entornos moleculares. Se emplea para estudiar los cambios conformaciones en macromoléculas,
asociaciones proteína-proteína, fluidez de membranas….
También tenemos anisotropía en fenómenos de FRET (que básicamente es excitar un cromóforo pero para recoger
luego la emisión de otro).
La polarización puede calcularse con una fórmula matemática que relaciona la intensidad paralela y la perpendicular,
y la anisotropía también (es r(t)). Se calcula así porque el aparato mide precisamente sólo la intensidad, bien en el
mismo plano de polarización que la luz incidente (que disminuirá si las moléculas han rotado) y la intensidad en el
plano perpendicular (que aumentará cuanto mayor haya sido el movimiento de las moléculas). Todo esto se mide en
el tiempo en que se desarrolla el experimento. Esta técnica permite por tanto analizar lo rápido o lento que se
mueve una determinada molécula (lo cual depende de la temperatura, la viscosidad del medio y del tamaño de la
propia molécula). Ejemplo: una molécula que puede formar tanto mono como tetrámeros, el monómero se moverá
más rápido que el tetrámero, así que podemos ver si la proteína se ha oligomerizado o se ha desnaturalizado.
Nota: De los dos parámetros, el que se utiliza es en realidad la anisotropía. Las intensidades son siempre relativas
(ninguna de las dos, ni la del plano paralelo ni la dle perpendicular es real, recuerda).
10.1 Aplicaciones
Se define fotoblanqueamiento como a la pérdida de capacidad para producir fluorescencia de una molécula debido
a la destrucción fotoquímica de los fluoróforos cuando la molécula es expuesta a una luz de excitación demasiado
potente. Se emplea una luz tan potente que el fluoróforo se acaba estropeando, se desactiva o se convierte en una
molécula no fluorescente. Lo que ocurrirá normalmente, no obstante, es que los fluoróforos que estén en otra
región (por ejemplo, en una célula analizada) podrán acudir a la zona blanqueada y por eso se recupera la emisión
(que será menos intensa).
11.1 Aplicaciones
Empela un microscopio de fluorescencia normal pero que permite estudiar sólo un plano de la célula. La muestra se
ilumina de forma secuencial en un elemento de volumen cada vez. Se pueden iluminar zonas hasta 250 nm y 500 nm
de profundidad. En un microscopio de fluorescencia común se emite y se capta toda la fluorescencia de golpe, y en
el confocal se seleccionan las capas del espécimen que se excitan, por lo que la imagen es más nítida (tímida ha
dicho jajajajaajjajaj) porque solo estudiamos un plano. Entonces, las características son:
Con las técnicas vistas hasta ahora lo que veíamos era el espectro de equilibrio en las condiciones de estudio,
información de la proteína en un estado fijo. Era algo estático, como si hubiésemos hecho una fotografía. Pero en
muchos procesos biológicos lo que interesa es ver el tiempo en que tarda en alcanzarse dicho equilibrio, es decir, la
cinética de los procesos.
En los procesos biológicos es muy importante conocer la velocidad a la que sucede ese proceso y también saber si
hay que pasar por intermediarios hasta llegar al producto final. En los estudios de estado estacionario, solo podemos
estudiar la proteína plegada y la desplegada, no proporcionan información del intermediario.
Si la cinética es adecuada significa que el metabolismo funciona correctamente. Queremos conocer la cinética de
procesos como las interacciones proteína-proteína, la unión de un ligando, la transferencia de electrones, FRET, el
plegamiento de proteínas, reacciones enzimáticas o reacciones químicas
La mayoría de estas reacciones ocurren a velocidades tan rápidas que no se pueden detectar con los aparatos
convencionales. Como los equilibrios se establecen en cuestión de mili o femtosegundos, se necesitan técnicas
adecuadas que permitan medir a tiempos mucho más cortos. Queremos identificar constantes individuales, las
especies que intervienen (intermediarios) y cuál es la velocidad de cada uno de estos procesos en los que se generan
y desaparecen. Para ello se emplean los métodos de estado pre-estacionario, para estudiar los procesos que tienen
lugar antes de que se alcanza el equilibrio.
Las constantes k1 y k2 están normalmente en escalas de milisegundos por lo que no se pueden medir con una técnica
espectroscópica normal.
En el estado estacionario la mayoría de enzimas parecen seguir una cinética que recibe el nombre de Michaelis-
Menten (MM). El mecanismo propuesto por MM es el que sigue:
En Michaelis-Menten, tenemos como parámetros a conocer la Km y la kcat (y a partir de ésta última se puede conocer
Vmax, recuerda, si la concentración de enzima es constante). Pero estas constantes dependen de todos los procesos
que ocurren en el mecanismo, son constantes macroscópicas que podrían no informar de todas las etapas del
proceso. Por eso se necesitan las cinéticas de estado pre-estacionario, para conocer la totalidad de las etapas.
La Vmax viene determinada por la cantidad de enzima total y por la habilidad química de la misma, lo que se refleja
en su constante catalítica (kcat) o número de recambio, que da idea del número máximo de moléculas de sustrato
transformadas por sitio activo por unidad de tiempo (velocidad a la cual la enzima transforma el sustrato en valores
de pH y T adecuados).
Por otro lado, la Km se define como la concentración de sustrato a la cual se alcanza la mitad de la velocidad máxima.
Se podría definir como la constante de disociación (KD) del complejo ES.Recuerda que la Km da una medida de la
afinidad, PERO no siempre es lo mismo que la KD. Sólo KD se aproxima a Km si k2 es mucho menor que k-1 (demostrar).
Hay dos posibilidades. Pero ambos se basan en la posibilidad de que cada especie intermedia tenga un cambio en el
espectro respecto de la proteína inicial:
O somos capaces de diseñar sistemas que tecnológicamente permitan medir la reacción desde el tiempo
cero en que empieza la reacción (desde que se añaden los reactivos, desde t=0).
O se tiene todo en la cubeta del equipo que se va a usar y se altera algo muy rápidamente de modo que ese
algo sea lo que inicie la reacción. Por ejemplo, tenemos todo mezclado en la cubeta y con un pulso de laser
excitamos una molécula y eso hace que se inicie la reacción. Puede hacerse con un láser que cambie el pH,
que cambie la temperatura o que excite alguna molécula.
Los métodos más empleados son Mezcla Rápida con flujo detenido (stopped-fow, rapid mixing), fotólisis por pulso
de láser, cambio brusco de pH o T (pH-Jumping, T-Jumping). Y los métodos de detección más habituales acoplados a
estos sistema son los que hemos ido viendo: espectrómetros UV-Vis, Fluorescencia y CD.
Se basa en una cubeta dentro del equipo con un reservorio de muestra muy pequeño
(120-140 microlitros, lo cual minimiza la cantidad de muestra a utilizar) y un haz de luz
que atraviesa la muestra. Posteriormente hay un detector que conecta con la cámara de
observación (sistemas de detección de CD, Fluorescencia o Absorción, normalmente
estos dos últimos).
El sistema tiene dos jeringas que vienen desde fuera y en ellas es donde cargamos un
sustrato diferente en cada una. Luego, un sistema (neumático a compresión) pulsa los
dos pistones de las jeringas simultáneamente para que llegue la misma cantidad o
volumen de cada uno de las jeringas a la cubeta, y en el momento en que llegan a la
cámara se mezclan los componentes y empieza el experimento. No obstante, como la
mezcla puede generar turbulencias y ruido los resultados, éstos solo son
fiables a partir de un milisegundo
El aparato proporciona el cambio de la señal espectroscopia con el tiempo (muy corto). Necesitamos por tanto que
la reacción ocurra en ese periodo de tiempo. Y recuerda: podemos considerar que el cambio es real después del
milisegundo (por aquello de la mezcla). Se obtienen graficas exponenciales, que se pueden ajustar a ecuaciones
exponenciales.
En la ecuación, Y es la absorción a una determinada longitud de onda, es igual a la absorción inicial más la amplitud
por e elevado a la kobs por el tiempo. An es amplitud del proceso (variación de absorbancia, fluorescencia o
elipticidad) que se relaciona con ese proceso y kobs es la constante de velocidad de la transformación entre especies
en las condiciones de ensayo, permite saber la velocidad del proceso.
Identificar el proceso es muy complicado. En el ejemplo, A es la mezcla de sustratos y B la mezcla de productos (no
sabemos que hay dentro). Es lo único que podemos decir con esta información. Podemos hacer un ajuste
monoexponencial y evaluar los residuals. Los residuals son la diferencia entre los datos experimentales y la línea
teórica de mi ajuste (los que deberían haber salido). Para que el ajuste fuera bueno tendría que estar la línea de
datos experimentales prácticamente en cero lo cual no sucede mucho. En el ejemplo vemos que no es así, así que
pasamos a proponer un mecanismo diferente, en el que en lugar de dos especies participan tres (una será el
intermediario), y vemos que el ajuste es mejor. Si continuásemos haciendo el ajuste a una exponencial triple sería
probablemente mejor pero siempre hay que quedarse con el más simple que sea más bueno.
Se puede medir cualquier cambio espectroscópico (CD, absorbancia, fluorescencia). También puede ocurrir que a
diferentes longitudes de onda se produzcan cambios diferentes (lo cual podría dificultar los análisis). Según lo que se
vaya a medir, unas técnicas serán mejores que otras (pensar: para reacciones redox en anaerobiosis podemos
trabajar en el UV-Vis, para ver unión ligando-prot, espectros absorción diferencial, para analizar un cambio de
estructura secundaria usaríamos CD, etc).
Nota: Los programas hacen los ajustes no lineales iterando, dando valores teóricos a los parámetros hasta encontrar
la ecuación que más se ajusta a los datos experimentales. Hay que tener cuidado con los datos que salgan , deben
ser razonables, porque puede haber más de un resultado matemático posible.
De la misma forma se pueden estudiar los procesos de despegamiento y calcular las velocidades de estos procesos.
Nota: A veces los procesos reversos y directos no siguen el mismo mecanismo (por ejemplo: reducción y oxidación
de flavinas).
Podemos suponer que la especie A sea el complejo Proteína-Fumarato (recuerda, las mediciones empiezan justo
cuando mezclamos los sustratos, puede que la formación del complejo sea tan rápida que no podamos detectarla). B
posiblemente sea un intermediario y C será la proteína una vez ha liberado el producto. La etapa limitante del
proceso es la segunda, la transformación de B en C, es la etapa lenta.
3.2 Ejemplo: Organización molecular del dímero AIF:NAD(H) humano
El grupo hizo un mutante de esta proteína para que no fuera estable. Crearon una mutante triple que dimerizaba
cuando era reducida por NADH, y en la que se estabilizaba mucho menos complejo de transferencia de carga (lo
cual implica importancia de esos residuos en el papel de señalizador redox de la célula). El cambio en los residuos de
aminoácidos hace que haya menos apilamiento entre la flavina y el coenzima. Vieron que había una relación ente el
complejo de transferencia de carga y la no estabilización del mutante.
Este estudio tenía un problema: casi todo ocurría en el tiempo muerto y no se observaba. ¿Qué podemos hacer?
Bajar la T ya que hablamos de constantes cinéticas relacionadas con la T. Al bajar la T éstas también bajan y sirve
para comparar. Con eso estudiaron otras proteínas con mutaciones y han complementado con estudios estructurales
experimentales y computacionales han sido capaces de determinar el mecanismo del enzima. La combinación de
diferentes técnicas biofísicas computacionales y experimentales les permitió describir que la tirosina es esencial para
que tenga lugar el funcionamiento del enzima de forma eficaz: ayuda a que los anillos se coloquen correctamente. Se
han podido simular estructuralmente ya que se conocen los complejos de transferencia de carga.
La transferencia de electrones entre estas dos proteínas son espectros muy parecidos: si las mezclas. Cuando una
proteína interacciona con otra su espectro puede cambiar.
Nota: Para saber si una proteína ha formado el dímero podría hacerse electroforesis nativa, cromatografía de
exclusión molecular, anisotropía de fluorescencia, resolver la estructura cristalográfica, microscopia de fuerzas
atómicas, termoforesis, etc.
Al analizar el mutante Y303S se observó que la reacción casi solo va en una dirección
y genera gran cantidad de complejo de transferencia de carga. Se propuso que el
residuo de serina en 303 es tan pequeño que el NADPH se queda encerrado dentro,
sin salir de la cavidad, lo que permitiría que la reacción solo se diese en un dirección.
Pero en el caso del WT Y303, se forma un complejo óptimo para la transferencia de
hidruro.
Notas: es interesante estudiar los estados de transición porque son dianas terapéuticas interesantes, pero claro, no
se tienen sus estructuras cristalográficas, por eso se hacen necesarias estas técnicas. Todo se puede complicar
mucho más (pensar en estados semiquinonas); ¿Verdaderamente estamos interpretando bien los espectros para dar
los procesos del mecanismo reales?
5. Unión de flavinas al sitio RFK de la FAD sintetasa
La FAD sintetasa se ha resuelto en dos conformaciones, abierta y cerrada. Querían estudiar el mecanismo de unión
de los ligandos, ver la cinética de su incorporación. Como la flavina es fluorescentes se empleó la fluorescencia para
el análisis (ventaja: alta sensiblidad de la técnica, recuerda, así hace falta menos proteína y el espectro cambia
bastante cuando el ligando está unido respecto a cuándo no lo está).
Además, se vio que hacía falta un segundo sustrato, el ATP, para que RF se
uniera a la FAD Sintetasa. Hicieron todas las mezclas posibles, siempre en
presencia de magnesio y vieron que lo que faltaba para producir ese
aumento de la fluorescencia era ATP.
Determinaron que la Kobs1 era la constante de unión de la flavina a la proteína y la segunda constante correspondía
al cierre de la cavidad, que solo se produce cuando hay ATP (el otro sustrato, el ATP es el que desencadena el cierre
de la cavidad).
Al repetir los ensayos con la enzima de Streptococcus neumomie, el comportamiento era distinto. Había diferentes
velocidades y amplitudes en los espectros, los mecanismos de reacción debían ser por tanto diferentes (vieron que
lo que ocurría es que en ocasiones había inhibición por sustrato, se regulan de forma diferente).
La FAD Sintetasa del principio procedía de Corynebacterium y presentaba inhibición por sustrato, mientras que la de
Streptococcus no (Recuerda por qué es interesante el fenómeno de inhibición pro sustrato. En este caso es porque
estas FAD son las que se encargan de sintetizar el FMN de toda la célula). La de Corynebacterium además sufre un
cambio conformacional y la de Streptococcus no lo necesita.
Importancia de este descubrimiento: dos proteínas parecidas de especies diferentes pero con tantas diferencias en
su mecanismo permitirán describrir inhibidores que sólo afecten a la FAD sintetasa que nos interese (la de
Streptococcus).
En el Protein Data Bank están todas las estructuras de proteínas descritas hasta la fecha depositadas (145.700
aprox). Son estructuras de proteínas aisladas, o interaccionando con ligandos, DNA, carbohidratos (algunas por tanto
serán redundantes). Aproximadamente un 90 % de las estructuras depositadas en el PDB se han obtenido a partir de
cristalografía por difracción de rayos X (las otras dos técnicas de obtención de estructuras son la RMN y la
microscopía electrónica).
Las estructuras secundarias y terciarias de las marcomoléculas contienen información clave para determinar sus
funciones y estudiar procesos dinámicos. Por el tipo de plegamiento que presenta una proteína cristalizada podemos
dilucidar su función (comparando con otras proteínas de estructura de plegamiento similar y de función conocida).
La determinación de estructuras de proteínas resulta vital para estudiar el sitio activo. Es imprescindible conocer el
sitio activo tanto en 3D como en 2D para poder hacer estudios y modificaciones, desde el punto de vista atómico.
La determinación de estructuras de biomoléculas se realiza, como ya hemos dicho, con Rayos X (Cristalografía de
rayos X), RMN (Resonancia Magnética Nuclear, permite resolver estructuras en solución, ayudará por tanto a hacer
estudios dinámicos) y la Microscopía electrónica (que servirá para estudiar la estructura de complejos grandes). Las
estructuras así obtenidas se depositan en el Protein Data Bank y a cada una se le asigna un código PDB. Se pueden
descargar desde allí
2. Cristalografía de rayos X
En realidad la cristalografía de rayos X es una forma de microscopía de alta resolución (resolución atómica, entre 1-2
Å), que permite visualizar la estructura de proteínas por tanto a nivel atómico. Mejora nuestro entendimiento de la
función de las proteínas, de su interacción con otras, de su inhibición con drogas, etc. Es una técnica disponible en
muchos laboratorios y que abarca un rango amplio de tamaños moleculares.
El tamaño molecular que abarca esta técnica es muy amplia: podemos analizar proteínas, virus, ácidos nucleicos,
complejos nucleoproteicos y complejos proteína-proteína. En definitiva, todo aquello que se pueda cristalizar.
1. Preparación de la proteína: pura y a homogeneidad (pura y todas las moléculas con el mismo plegamiento).
2. Crecimiento de cristales: para que a partir de una disolución acuosa de proteína se obtenga la estructura
cristalina.
3. Recogida de datos: los cristales se introducen en un aparato (dicrógrafo) y se someten a Rayos X, se generan
una serie de puntos como consecuencia de la radiación que pasan a un detector.
4. Determinación de las fases: A partir de los datos se calcula y genera un mapa de densidad electrónica que se
debe correlacionar con la secuencia de aminoácidos de la proteína
5. Construcción del modelo y refinado: se enfrenta el modelo generado a los diagramas de Ramachandran y a
otras especificaciones para que podamos decir que es un modelo real de la estructura 3D de la proteína.
2.2 Radiación X
La luz visible utilizada en microscopía tiene una λ= 300 nm, y permite ver células individuales y orgánulos.
En la microscopía electrónica, la λ empleada es de 10 nm, podemos ver arquitectura celular, la forma de las
células o de sus componentes, y la forma de moléculas grandes de proteína.
Los rayos X tienen una longitud de onda menor o igual a 0,1 nm o 1 Å, son por tanto radiaciones mucho más
energéticas, pero permiten estudiar el detalle atómico de la proteína.
El físico alemán Wilhelm Conrad Röntgen descubrió los rayos X en 1895, determinó que os rayos creaban una
radiación muy penetrante, pero invisible, que atravesaba grandes espesores de papel o de metales poco densos e
incluso realizó la primera radiografía humana, usando la mano de su mujer. Como desconocía la radiación con la que
estaba trabajando, lo llamó ‘Radiación X’
Poco después, Max von Loue demostró que la radiación X era una radiación con naturaleza ondulatoria, y vio que los
cristales que eran irradiados con ella generaban patrones de difracción característicos (le dieron el Premio Nobel de
Física en 1914).
Posteriormente padre e hijo Braggs vieron que esos patrones se podrían relacionar con la estructura interna de los
cristales. Les dieron el premio Nobel de Física un año después, en 1915.
Como toda radiación electromagnética, la radiación X tiene una componente eléctrica y otra magnética, con una λ
en torno a 1 Å. Los rayos X son los segundos rayos más energéticos (después de los gamma), y esta radiación cubre
un rango del espectro ligeramente amplio, desde 0,5 a 5 Å.
Según su longitud de onda y su energética (frecuencia) tenemos rayos X blandos y rayos X duros (λ menor,
frecuencia mayor, muy interesantes, pero no se consiguen en dicrógrafos, se requieren sincotrones, aceleradores de
partículas).
Difractómetro:
Los rayos generados pasan por un monocromador para seleccionar la λ concreta con la que se quiera irradiar la
muestra. El aparato cuenta también con unas ventanas de Berilio que absorben cierta cantidad de radiación (para
disminuir la peligrosidad), estas ventanas se convierten en material altamente radiactivo (por eso hay que tener
mucho cuidado cuando se desmantelan instalaciones que cuenten con estos equipos.
Todo el aparato está reforzado con Pb (plomo, que absorbe radiación X).
Los electrones frenados como consecuencia del choque con el anticátodo no solo producen rayos X (al generar
transiciones electrónicas en los átomos) sino que además también van a producir una disipación de energía en el
frenado en forma de calor, por lo que se deben emplear o bien ánodos giratorios (de modo que no serán siempre
bombardeados en el mismo sitio) o bien circuitos de refrigeración con agua.
Cuando un electrón choca con los átomos de metal del anticátodo, pueden pasar dos cosas:
El electrón impacta cerca del núcleo, pero interacciona de algún modo con los electrones de la corteza y es
frenado, emitiendo un fotón con una λ igual o menor que la que tenía el electrón que ha impactado. Es lo
que se conoce como radiación de frenado o de Brehmstrahlung.
El electrón al impactar no es frenado, sino que a su paso desplaza a un electrón de un nivel energético bajo,
al desplazarlo se genera un hueco en esa capa para que un electrón de un nivel superior descienda
(transición electrónica). En esa caída se emite un fotón que tendrá una λ característica para cada átomo. Es
por tanto la radiación característica (producción de rayos X característicos de un metal).
Hacemos incidir nuestra radiación X en un cristal que se define como un material sólido que presenta un orden
interno de las partículas que lo componen (no es un sólido al uso). Lo que nosotros llamamos vidrio no es crital en
realidad, sino que es algo amorfo.
Después de identificar los puntos de la red, podemos unir unos puntos con
otros para crear una figura (en la imagen, un cuadrilátero) a la que
llamaremos celda unidad. La celda unidad se define de tal forma que sea la
mínima parte de la estructura tal que al repetirse en las 2 o 3 dimensiones
describa toda la composición del cristal (al repetirla por traslación
obtenemos el cristal). Pueden ser de dos tipos:
Veamos un ejemplo:
Como se elige aquella red que trasladada en el espacio describa mejor la estructura, en el ejemplo de arriba
cogeríamos la red centrada de la derecha (remarcada en morado).
Un objeto finito presenta diferentes elementos de simetría. Si volvemos al ejemplo de la pared de ladrillos, un
ladrillo sería un motivo que contaría con 2 elementos de simetría puntual (dos planos de simetría perpendiculares,
tal que si diésemos la vuelta a ese objeto sobre esos planos obtendríamos la misma figura, el mismo objeto). Se
define un grupo puntual de simetría como el conjunto de elementos de simetría de un objeto finito, que pasan por
un punto y que definen la simetría total del objeto.
De todos los grupos puntuales de simetría, solo hay 32 que sean compatibles con la repetición por traslación (es
decir, que repetidos a lo largo y ancho de las 2 dimensiones del espacio o las tres dimensiones permiten definir la
estructura completa del cristal), son lo que se denominan clases cristalinas.
Con 4 tipos de celdilla unidad y 7 sistemas cristalinos, se pueden generar hasta 14 redes de traslación compatibles
con las clases cristalinas, es decir, 14 arreglos infinitos de puntos discretos con un ordenamiento y orientación, que
parece exactamente la misma, desde cualquier punto de observación (14 maneras de organizar esas celdillas unidad
de forma repetitiva en el espacio para que generen la estructura completa del cristal). Son las Redes de Bravais (se
prnuncia Bravé, en francés).
Entonces, recapitulando:
Tenemos 32 clases cristalinas, esto es, 32 grupos puntuales de simetría compatibles con la repetición por
traslación.
Tenemos 14 redes de Bravais: 14 redes de traslación compatibles con esas 32 clases cristalinas.
De manera general, existen unas 230 maneras diferentes en las que un cuerpo puede repetirse en el espacio (230
grupos espaciales), pero en proteínas el número se reduce a 65, debido a que en ellas muchos elementos o grupos
de simetría se eliminan (por ejemplo, debido a la estructura helicoidal de muchas de ellas).
Entonces, si aplicamos estas nociones básicas a redes cristalinas de proteínas, podemos decir que los cristales
contienen unidades repetidas llamadas CELDILLA UNIDAD, siendo una celdilla unidad la pieza básica de
construcción del cristal que contiene al menos una molécula de proteína.
En la imagen podemos ver como en una celda unidad (en blanco) Celda unidad
cómo 6 moléculas de proteína se ordenan para formar una unidad
asimétrica (o motivo). Para generar esa unidad asimétrica, las Proteína
moléculas siguen el sistema cristalino P61 (se juntan 6 motivos y se
tuercen de una determinada manera para ordenarse en el espacio Unidad
así). asimétrica
Los cristales de proteína contienen grandes canales de solvente, lo más normal es que el contenido en solvente de
un cristal sea del 40-60 %. Esto es interesante porque tales cantidades de solvente facilitan el mantenimiento de la
estructura y aseguran en cierta medida que la proteína está en un entorno parecido al fisiológico.
Este hecho se puede emplear en la llamada técnica de Soacking, que consiste en sumergir el cristal de la proteína en
una solvente nuevo en el que hay un ligando para ver si interacciona con algún sitio de la molécula, es una manera
de obtener estructuras de complejos Prot-Ligando.
En difracción de rayos X es necesario trabajar en un espacio nuevo llamado espacio recíproco. En ese espacio
tendremos una red recíproca respecto a la red directa. La red recíproca se compone de puntos recíprocos de una
red, que se generan de la siguiente manera:
4. Difracción de rayos X
Recuerda: dos ondas desfasadas se anulan, pero dos ondas en fase se suman y se amplifican. En difracción con rayos
X buscamos que los rayos X emitidos estén en fase, para lograr esa amplificación.
Cuando los rayos X inciden sobre un cristal, los electrones de los átomos de todo el cristal se transforman en
emisores de radiación X. Los rayos emitidos por esos electrones en determinadas direccionan se combinan y
refuerzan (amplifican), y para que esto ocurra es necesario que los átomos en los que están estos electrones se
encuentren perfectamente ordenados en el espacio. Así, la difracción solo ocurrirá en estructuras ordenadas, por
eso es necesario cristalizar las proteínas, para obtener ese tipo de estructuras tan concreto.
Para que haya dispersión cooperativa o difracción es necesario que se cumpla la Ley de Bragg. Una ley que se
cumple tanto aquí como en la reflexión de la luz.
Viene a decir que cuando la luz incidente y la dispersada guarden un ángulo ϴ característico tal que su seno por 2
veces la distancia d que separa a los planos paralelos (2dsinϴ) sea múltiplo de la λ incidente, las ondas emitidas
(dispersadas) estarán en fase, se amplificarán y tendremos difracción.
Por otro lado, en tres dimensiones es necesario definir la esfera de Ewald, que tiene en planos virtuales de Bragg en
el interior. Cuando el haz difractado pasa por el punto P en la superficie de la esfera, que es un punto recíprico (de
los calculados como hemos dicho anteriormente), se cumplirá la ley de Bragg y tendremos difracción de rayos X.
Es importante ir girando el cristal para favorecer que se cumpla la Ley de Bragg y haya difracción.
Para el montaje de cristales, éstos se cargan en un loop o capilar muy fino, que se monta en una cabeza
goniométrica que hará girar la muestra durante el experimento. Los cristales van en una solución concreta que lleva
además cierta cantidad de anticongelante.
Para la exposición a los rayos X, se emplean fuentes de rayos X diferentes, las de sincrotrón necesitarán fuentes de
alta resolución y brillo, y otros de menor resolución (generadores de rayos X) en los laboratorios.
El tamaño típico de un cristal para la recogida de datos debe ser de unos 0.3 x 0.3 x
0.1 mm, estos cristales son bombardeados con rayos X que son dispersados desde los
planos de la red cristalina. Los rayos X dispersados en fase (difractados) llegan a un
detector donde producen un patrón de difracción característico. La simetría del
patrón indicará que la muestra es simétrica también (el cristal). Este patrón es el que
luego se utiliza para generar los mapas de densidad electrónica.
5. Resolución estructural
Hay que tomar unas 1000 imágenes de patrones de difracción. En el espacio recíproco
tenemos unos pequeños spots (puntos) que permiten identificar con un software la celdilla unidad recíproca. Esa
celda guarda simetría recíproca y dará los datos de factores de estructura: módulos y fases. Esos datos se trasladan
con una transformada de Fourier para obtener la densidad electrónica, y con ello, obtener la estructura a nivel
atómico de nuestra proteína.
El factor de estructura depende del tipo y situación de los átomos en la celdilla unidad. El factor de estructura
completa, F, para una reflexión, incluye la fase, que no se puede medir directamente, y que debe ser estimada.
Para determinar la fase podemos emplear métodos directos para moléculas pequeñas, pero en proteínas trabajamos
con macromoléculas de muchísimos átomos, por lo que se requieren otros métodos:
Método de reemplazamiento isomorfo (MIR/SIR): se cambia algún átomo de la macromolécula por otro
que disperse la radiación de una forma muy característica (pe: proteínas que incorporan Se en sus residuos:
Selenio-metionina)
Método de dispersión anómala (MAD/SAD): se añaden metales que hacen que la red cristalina o bien se
destruya o bien los incorpore en los huecos de solvente, de modo que esos metales difractarán de una
determinada manera y permitirán estimar las fases.
Método de reemplazamiento molecular.
Conocidos los módulos y las fases, podemos proceder a calcular el primer mapa de densidad electrónica mediante
una primera transformada de Fourier, será nuestro primer modelo de densidad electrónica. En este modelo se
habrán asignado unas coordenadas X,Y,Z para cada átomo y con ellos podemos calcular un nuevo factor de
estructura. De nuevo, tomamos ese factor de estructura, junto con las fases observadas y volvemos a hacer una
segunda transformada de Fourier para obtener el segundo mapa de densidad electrónica, que será probablemente
mejor que el primero y así sucesivamente.
5.3 Refinamiento
El refinamiento es el proceso de convergencia entre el modelo estructural y las observaciones experimentales. Para
moléculas pequeñas podemos emplear la optimización por mínimos cuadrados. Pero para moléculas más grandes
como proteínas utilizamos:
Refinamiento de cuerpo rígido: consiste en rotar y trasladar ligeramente la estructura para que encaje con el
mapa de densidad electrónica.
Recocido simulado (Simulated Anneling).
Método de máxima probabilidad: búsqueda del modelo estructural más probable que se relacione con los
datos experimentales.
Método de Gradiente conjugado.
Durante el refinamiento, los programas informáticos empleados tienen en cuenta todas las restricciones
geométricas durante el refinamiento (longitudes y ángulos de enlace, contactos de Van der Waals, ángulos de
torsión permitidos…así disminuyen las incógnitas, porque aquí, en determinación de estructuras de proteínas, son
mucho más numerosas las incógnitas que los datos experimentales).
En el ajuste final del modelo estructural, la fiabilidad se calcula con los factores R.
Factor R: Desacuerdo entre los valores experimentales y los calculados. Debe ser lo más bajo posible.
Factor Rfree: Da idea de la validez del refinamiento del modelo estructural. Se calcula dejando un pequeño %
de datos sin refinar. Siempre será mayor que R.
Datos sobre el experimento de difracción que nos condujo al modelo: longitud de onda de los rayos X y el
patrón de difracción obtenido (la intensidad e índices hkl de los miles, o hasta cientos de miles de las ondas
dispersadas por el cristal).
Dimensiones de la celdilla elemental (calculadas a partir de la celdilla recíproca)
Simetría del cristal (también deducida de la simetría del espacio recíproco), y….
Un conjunto de datos que expresan la posición de cada átomo en la estructura, su estado de vibración
térmica y, en su caso el denominado factor de ocupación (o de población)
Todo eso se ve en el documento o archivo pdb: un documento de texto en el que aparece toda esa información.
Recuerda: los hidrógenos solo tienen un electrón y dispersan poco, por eso no se ven sus coordenadas (en sincrotrón
sí se verían). Aparecen, como ya hemos dicho, el factor de población (da idea de que en todas las moléculas del
cristal ese átomo está en esas mismas coordenadas, normalmente en los átomos de las cadenas laterales se
duplicaría la línea de coordenadas y en lugar de haber un 1 para ese factor habría un 0.5, o lo que sea o.2-0.8 etc) y
el factor térmico (estado vibracional de los átomos, a mayor valor de este factor, más movimiento en torno a la
posición de equilibrio).
6. Cristalización de proteínas
Las proteínas necesitan ser cristalizadas para determinar sus estructuras por difracción de rayos X porque la
dispersión de los rayos X de una sola molécula es demasiado débil para ser medida (incluso en sincrotrón).
Un cristal comprende un gran número de moléculas en la misma orientación, y las ondas dispersadas por él se
suman en fase y aumentan así la señal a un nivel que puede medirse. PERO la cristalización es a menudo el paso
limitante en la resolución de estructuras, especialmente las de las proteínas de membrana (son igualmente difíciles
de aislar de las membranas también, se emplean detergentes).
Los llamados diagramas de fase relacionan la
concentración de proteína con la de un agente
precipitante y permiten establecer las condiciones a
partir de las cuales se puede formar un cristal o un
agregado o precipitado amorfo de nuestra proteína. Hay
que llevar la concentración a niveles de zona labil-
nucleación: en esa zona se tiene un número discreto de
proteínas que forman los llamados núcleos a partir de los
cuales crecerán los cristales (región metaestable) hasta
que se llega a la línea de saturación (ahí ya el cristal deja
de crecer).
En las macromoléculas la cristalización es mucho más complicada debido a su mayor complejidad, labilidad y
propiedades dinámicas (por eso se trabaja en soluciones de agua, motivo por el cual siempre encontraremos
también en los mapas de densidad electrónica moléculas de agua), son muy sensibles al entorno y en el proceso
pueden sufrir desnaturalización y degradación, por eso se emplean técnicas más suaves y restrictivas.
Los cristales en realidad son muy frágiles (recuerda la presencia de canales aprox un 40-60% de la estructura son
huecos, canales).
Batch.
Diálisis.
Difusión libre en la interfase.
Difusión de vapor.
Se emplean agentes precipitantes que retirarán agua de la solución de proteínas, de modo que éstas se quedarán
sin su capa de solvatación y se unirán entre ellas para no perder las interacciones electrostáticas. Se emplea como
agente precipitante todo aquello que disminuya la solubilidad de las moléculas:
PEG: Polietilenglicol (también se pueden emplear otros polímeros). Los polímeros no distorsionan la fuerza
iónica del medio al no ser especies cargadas (¿?), pero en la gota ocupan mucho sitio, y eso hace que las
proteínas se concentren localmente en un punto de la gota, y así cristalizan. Se emplean por ejemplo para
precipitar complejos (si se altera la fuerza iónica muchos complejos se disocian).
Sales: sulfato de amonio se emplea mucho, el cloruro de sodio también se usa. El problema es que las sales
también cristalizaran durante el proceso. Para distinguir entre un cristal de proteína y otro de sal, cogemos
el cristal con el loop de carga y apretamos, si el cristal difunde o se escapa era de proteína, y si se rompe era
sal. Pero como esto es un método destructivo de comprobación, lo que se hace es llevar el cristal al
difractrómetro y a ver qué sale.
Alcoholes: sobre todo para precipitar ácidos nucleicos (recuerda que se empleaban en las etapas finales de
la extracción de los mismos): isopropanol o metilpentanediol (MPD).
El proceso se deja desarrollar durante varios días en varias condiciones (4 o 18 grados). Se suelen hacer con placas
formadas por cuatro receptáculos que permiten probar cuatro condiciones diferentes (con/sin ligando, diferentes
concentraciones de proteína, etc), pero todos ellos a la misma temperatura. Se cierran con celofán transparente
para luego poder visualizar bien los cristales.
Así, al observar las gotas al microscopio o a la lupa, tenemos que ver cristales, tridimensionales o bidimensionales
(hay algunos que crecen solo en 2 dimensiones, se conocen como agujas). No debemos ver agregados amorfos. A
veces los agregados o precipitados amorfos se redisuelven para generar cristales (por aquello de que ΔG es menor).
Lo importante es que los cristales sean reproducibles. Si no lo son, se procede a hacer siembra.
Para resolver complejos. Esta técnica toma fotografías de las moléculas en solución sin necesidad de cristalizarlas. Se
genera una monocapa de moléculas, se sumergen en un baño de etanol (así se alcanzan temperaturas criogénicas y
se evita la generación de artefactos), y se analizan con un microscopio electrónico. Éste da una fotografía de la
molécula en diferentes posiciones (aquellas en las que se quedaron congeladas), luego se cogen todas aquellas
fotografías de la proteína que quedaron en una misma orientación y se genera una estructura para esa orientación.
Se repite esto muchas veces (se requieren ordenadores con procesadores muy potentes) y al final se obtiene un
modelo.