Está en la página 1de 92

Técnicas

instrumentales I

TEORÍA DE BIOQUÍMICA
YAIZA HORNA GONZÁLEZ, 1º BIOTECNOLOGÍA
Tema 1: técnicas instrumentales
como ciencia.
1.1) Técnicas instrumentales.
Una ciencia es un conjunto de conocimientos metódica y sistemáticamente agrupados
en una serie de preceptos lógicos o leyes, que tienen como objeto conocer, cambiar o
predecir todo lo que nos rodea (medio externo), así como lo que sucede en nuestro
interior (medio interno).

Toda ciencia tiene:


 Objetivo: lo que pretende (inicio confuso).
 Contenidos: cuerpo de doctrina (inicio escaso).
 Método: técnica de análisis que caracteriza cada ciencia.

Muchos de los métodos son comunes a diferentes disciplinas se ha precisado la


aparición de una nueva ciencia que las aglutine, organice y permita clasificarlas.

Las técnicas instrumentales son un conjunto de procedimientos que tienen como


objeto determinar una magnitud o propiedad de un sistema, siempre por medio de un
aparato.

 Objetivo: valorar algo.


 Contenidos: conjunto de protocolos.
 Método: instrumento.

1.2) Evolución de las técnicas instrumentales.

Métodos clásicos.

En la época temprana de la química la mayoría de los análisis se ejecutaban


separando los componentes mediante precipitación, extracción o destilación.

Analitos: en química analítica, componente (elemento, compuesto o ion) de interés


analítico de una muestra. Son especies químicas cuya presencia o concentración se
desea conocer, es decir, se puede determinar su cantidad y concentración en un
proceso de medición química.

Una vez que tenemos los analitos separados por métodos clásicos podemos hacer
diferentes tipos de análisis:
 Análisis cualitativos: los componentes separados se trataban con reactivos que
originaban productos que se podían identificar por su color, por sus temperaturas
de ebullición o de fusión, sus solubilidades en una serie de disolventes, sus olores,
sus actividades ópticas o por sus índices de refracción. Saber si está.
 Análisis cuantitativos: la cantidad de analito se determinaba mediante mediciones
gravimétricas (masa del analito) o volumétricas (volumen o la masa de un reactivo
estándar necesario para reaccionar por completo con el analito). Saber cuánto hay.
Métodos instrumentales.

A principios del siglo XX, los científicos empezaron a explotar fenómenos distintos de
los usados en los métodos clásicos (métodos químicos) para resolver problemas
analíticos.
La medición de propiedades físicas del analito empezó a usarse en el análisis
cuantitativo: conductividad, potencial de electrodo, absorción de la luz o emisión de la
luz, relación masa/carga y fluorescencia.

Aparecen técnicas muy efectivas para la separación de componentes de mezclas


complejas antes de su determinación cualitativa o cuantitativa que sustituyen a la
destilación, la extracción y la precipitación: técnicas cromatográficas (HPLC) y técnicas
electroforéticas (electroforesis de ADN).

Estos métodos más recuentes para separar y determinar especies químicas se


conocen como métodos instrumentales de análisis.

1.3) Instrumentos.
Un instrumento para análisis convierte la información acerca de las características
físicas o químicas de un analito en datos que puede manipular e interpretar el ser
humano.

Instrumento analítico se puede considerar como un dispositivo de comunicación entre


el sistema motivo de estudio y el investigador.

La información deseada del analito se obtiene proporcionando un estímulo que


proviene de una forma de energía: electromagnética, eléctrica, mecánica y/o nuclear.

EJEMPLO:
Un espectro de masas se obtiene por conversión de los componentes de una
muestra en iones gaseosos que se mueven rápidamente y se separan en función
de su relación masa-carga.
1.4) Proceso analítico.
Conjunto de operaciones que se inicia con el planteamiento de un problema analítico y
finalizan con la obtención de unos resultados que satisfacen las exigencias del
problema planteado.

Las operaciones incluyen: toma de muestra, medida y tratamiento.

Conceptos del proceso analítico.

 Muestra: porción representativa del material u objeto de estudio, que normalmente


no está constituida por elementos o compuestos químicos puros, sino por una
mezcla de diversos componentes.
 Analito: componente de interés, presente en la muestra del que se desea obtener
algún tipo de información: presencia concentración, estado, etc.
 Matriz: conjunto de los restante componentes de la muestra, distintos del analito.
 Interferencias o interferentes: sustancias distintas del analito que puedan
introducir un error sistemático en el resultado.

 Análisis: proceso físico o químico por el cual se obtiene información acerca de los
constituyentes de una muestra o de la muestra por sí misma.
 Determinación: realización de las operaciones necesarias durante el proceso de
análisis para obtener información sobre la identidad, la cantidad o las propiedades
del analito o analitos de interés.
La realización de esta determinación requiere de la medida de una o varias de las
propiedades físicas o químicas de los analitos.
 Medida: evaluación cuantitativa de una propiedad física o química de un
determinado analito.
 Técnica analítica: principio físico o químico que puede ser utilizado para analizar
una muestra, u obtener información sobre el analito.
 Método: aplicación concreta de una técnica analítica para el análisis de una
muestra definida y la obtención de una información determinada. Incluye todas las
operaciones implicadas hasta la obtención del resultado final.
 Procedimiento: conjunto de directrices escritas que explican cómo aplicar un
método a una muestra en particular. Más concreto que el método. El usuario posee
conocimientos previos de la metodología y no proporciona un detalle exhaustivo.
 Protocolo: contiene detalles específicos que no recoge el procedimiento, y que
deben seguirse sin excepción si se pretende que los resultados analíticos sean
aceptados para un propósito particular.

Propiedades de los métodos analíticos.

Los métodos analíticos presentan un conjunto de propiedades o parámetros de


calidad, que permiten decidir sobre su idoneidad a la hora de aplicarlo a un problema
analítico determinado.
 Exactitud: grado de concordancia entre el valor obtenido en la medida y el valor
que se considera eral. Depende de la presencia tanto de errores sistemáticos como
aleatorios.
 Sesgo: diferencia entre la medida de un conjunto de medidas repetidas y el valor
que se considera real.
 Representatividad: es la propiedad de un método de análisis de ofrecer un
resultado coherente con el problema analítico planteado. Se consigue en gran
medida mediante un muestreo adecuado (incluyendo las etapas de transporte,
almacenamiento y adecuación de la muestra).
 Precisión: es el grado de concordancia entre los resultados de una serie de
medidas repetidas. Depende de la magnitud de los errores aleatorios. Se puede
medir en condiciones de mínima variabilidad (repetibilidad) o en condiciones de
mayor variabilidad (reproducibilidad).
 Sensibilidad: es la capacidad de un método analítico de diferenciar
concentraciones de analito muy parecidas.
Sensibilidad se asocia con la capacidad del método de detectar o cuantificar.
 Límite de detección (LD): es la concentración más baja del analito en una
muestra que un método de análisis puede distinguir de una muestra de
concentración nula. Cualitativo.
 Límite de cuantificación (LC): concentración más baja de analito que un
método puede cuantificar con un nivel aceptable de exactitud y precisión. Por
debajo no es posible cuantificar fiablemente, sólo presencia de analito.
Cuantitativo.

En los métodos instrumentales se identifica con la pendiente de la recta de


calibrado que se obtiene al representar la señal analítica frente a la
concentración de analito.
 Intervalo lineal: intervalo de concentración de analito en el que la sensibilidad es
aproximadamente constante.
El límite inferior es el LC y el límite superior es la concentración de analito que no
se separa en más de un 3% de la lineal.

 Selectividad: es la capacidad del método de proporcionar la señal analítica del


analito de interés sin que ésta se vea afectada por otros compuestos presentes.
La selectividad extrema se denomina especificidad: ninguna sustancia interfiere y la
señal analítica se debe exclusivamente al analito.
 Robustez: capacidad de resistir pequeños cambios en las condiciones de
operación sin que su funcionamiento se vea alterado.
Evaluar la robustez se trata de identificar aquellas variables con un efecto crítico
sobre su exactitud, precisión, selectividad, etc. Serán variables que habrá que
controlar más durante la aplicación rutinaria del método, como son: pH, fuerza
iónica, concentración de algunos reactivos, etc.
 Rapidez, coste, y otros (economía de la empresa): incrementar al máximo los
niveles de producción de un producto, abaratando el coste unitario por la
producción de dicho producto, es decir, producir más a menor coste por unidad
producida.
Calibración de métodos instrumental es.

Una parte muy importante de todos los procedimientos analíticos es la calibración y


estandarización del proceso.
La calibración determina la relación entre la respuesta analítica y la concentración del
analito.
Debe ser proporcional la respuesta a la cantidad de analito presente.
Casi todos los métodos analíticos requieren algún tipo de calibración.
Los métodos gravimétricos y algunos métodos coulombimétricos están entre los pocos
métodos absolutos que no se basan en la calibración de acuerdo con normas
químicas.
1) Comparación con estándares:
 Comparación directa: comparación de una propiedad del analito con estándares o
patrones tales que la propiedad que se esta probando concuerde de manera muy
cercana con la del estándar.

 Titulaciones: el analito reacciona con un reactivo estandarizado, el titulante, en


una reacción de estequiometría conocida. Por lo regular, la cantidad de titulante
varía hasta que se alcanza la equivalencia química, según lo indica el cambio del
color del indicador químico o el cambio en una respuesta del instrumento.

2) Calibración de un estándar externo:


Un estándar o patrón externo se prepara por separado de la muestra.
Los estándares externos se usan para calibrar instrumentos y procedimientos cuando
no hay efectos de interferencia de la matriz de componentes sobre la disolución del
analito.
Se prepara una seri de tales estándares externos que contienen el analito en
concentraciones conocidas.
La calibración se consigue al obtener la señal de respuesta (absorbancia, altura del
pico, área del pico) en función de la concentración conocida del analito.
3) Método del patrón interno:
Un estándar interno se añade a la muestra.
Un patrón interno es una sustancia que se añade en cantidad constante a todas las
muestras, blancos.
4) Métodos de adición estándar (cebado):
Estos métodos son particularmente útiles para analizar muestras complejas en las
cuales la posibilidad de que se presenten efectos de matriz es importante o existe
poca cantidad de muestra. Normalmente es uno de los analitos que buscamos de
concentración conocida.

Verificación y validación.

Verificación:
Es la acción de comprobar que lo que decimos que estamos haciendo lo estamos
haciendo.
Validación:
Esto es lo que confirma que lo que estamos haciendo se está haciendo bien y se
consigue el objetivo pretendido.

Buenas prácticas de laboratorio (BPL/GMP).

ENAC: único organismo dotado de potestad pública para otorgar acreditaciones.


Acreditación: herramienta establecida a escala internacional para generar confianza
sobre la correcta ejecución de un determinado tipo de actividades denominadas
Actividades de Evaluación de la Conformidad y que incluyen ensayo, calibración,
inspección, certificación o verificación entre otras.
En general, cualquier actividad que tenga por objeto evaluar si un producto, servicio,
sistema, instalación, etc. es conforme con ciertos requisitos puede estar sujeta a
acreditación.
Dichos requisitos pueden estar establecidos por ley y tener por tanto carácter
reglamentario o estar especificados en normas, especificaciones u otros documentos
de carácter voluntario.

BPL/GMP: es un conjunto de reglas, de procedimientos operacionales y prácticas


establecidas y promulgadas por determinados organismos que se consideran de
obligado cumplimiento para asegurar la calidad e integridad de los datos producidos
en determinados tipos de investigaciones o estudios.
Esto surge debido a que en los años 1969 y 1975 las agencias reguladoras se
enfrentaron con grandes discrepancias en los datos dirigidos a ellas, obtenidos en
distintos laboratorios.
Había casos de laboratorios que no operaban con protocolos y la información sólo
estaba en forma oral, en general los informes eran incompletos y no contaban con
documentos de procedimientos estandarizados.
Las BPL abarcan todos los eslabones de un estudio o investigación.
Principales aspectos que abarcan las BPL son:
1. Facilidades adecuadas: desde el punto de vista del trabajo, para que éste pueda
ser realizado por los trabajadores en forma segura y apropiada.
2. Personal cualificado: es importante contar con personal cualificado. Esto es una
decisión de manejo basada en el trabajo de calidad.
3. Equipamientos mantenidos y calibrados: emplear equipos mantenidos y
calibrados de manera apropiada. Además, disponer de los registros de los
mantenimientos.
4. Procedimientos Estándares de Operación (SOPs): procedimientos operacionales
estándares escritos. Es importante esta práctica, tanto para las operaciones de
muestreo como en las del procedimiento analítico, porque es una manera de
asegurar que la muestra está en condiciones para el análisis.

Mantenimiento equipos.

 Mantenimiento correctivo: conjunto de tareas destinadas a corregir los defectos


que se van presentando en los distintos equipos y que son comunicados por los
usuarios.
 Mantenimiento de emergencia: ocurre después de una avería total del equipo que
exija un mantenimiento urgente, mientras que el correctivo se realiza en un
momento en que un daño físico o alteración en el funcionamiento normal del equipo
es evidente.
 Mantenimiento preventivo: es el mantenimiento que tiene por misión mantener un
nivel de servicio determinado en los equipos, programando las intervenciones de
sus puntos vulnerables en el momento más oportuno.
 Mantenimiento predictivo: persigue conocer e informar permanentemente del
estado y operatividad mediante el conocimiento de los valores de determinadas
variables representativas de tal estado y operatividad. Para ello es necesario
identificar variables físicas cuya variación es indicativa de problemas que están
apareciendo.
 Mantenimiento cero horas (overhaul): conjunto de tareas cuyo objetivo es revisar
los equipos a intervalos programados bien antes de que aparezca ningún fallo o
bien cuando la fiabilidad del equipo ha disminuido apreciablemente. Consiste en
dejar el equipo a cero horas de funcionamiento como si el equipo fuera nuevo. Se
sustituyen o se reparan todos los elementos sometidos a desgaste.
 Mantenimiento en uso: es el mantenimiento básico de un equipo realizado por los
usuarios del mismo, son en una serie de tareas elementales y no es necesario una
gran formación, solo entrenamiento breve.
Tema 2: tipos de técnicas
instrumentales.
2.1) Criterios de elección de la técnica instrumental.
En la actualidad existe una gran variedad de métodos de análisis químico basados en
las técnicas instrumentales. No todos son igualmente aplicables a un problema
concreto, ya que sus características deben adaptarse a los requerimientos que se le
solicitan; es decir, debe ser apto para el fin previsto.
Para elegir adecuadamente se debe tener en cuenta, en primer lugar, la definición
clara y precisa del problema analítico que se desea resolver:
a) Tipo de información requerida: ¿cualitativa, cuantitativa, estructural? No todas las
técnicas pueden ofrecer al mismo tiempo cualquier tipo de información.
b) Si se trata de información cuantitativa: ¿se requiere conocer la composición global o
la concentración de una especie en particular? Algunas técnicas permiten el análisis
simultáneo de varios componentes.
c) Nivel de concentración de los analitos en la muestra: ¿macrocomponentes,
microcomponentes o trazas? Esta cuestión condiciona la sensibilidad e incluso la
amplitud del intervalo de trabajo.
d) Disponibilidad de la muestra: ¿de qué cantidad se dispone? Este factor puede
condicionar la elección del método si se trata de una técnica destructiva.
e) Otros factores relativos a la muestra que se deben tener en cuenta: estado físico,
estabilidad, homogeneidad, etc. No todos los métodos don aplicables a cualquier
tipo de muestra.
f) Complejidad de la matriz, posible existencia de interferencias. Esta cuestión
determina el grado de selectividad exigible al método de análisis.
g) Número de muestras que se van a analizar. Esta cuestión remite a consideraciones
económicas y de tiempo: si el número es muy elevado se deben tener en cuenta
aquellos métodos que consuman el menor tiempo por muestra posible, aún a costa
de invertir más tiempo en el desarrollo, puesta a punto y calibración del método; si
son pocas es más adecuado un método sencillo, que implique más tiempo por
muestra, pero poco o ningún trabajo previo.
h) Grado de exactitud y precisión requeridas.
i) Coste económico asumible.
j) Requisitos legales o normativos que puedan exigir la utilización de métodos
oficiales o normalizados.
k) Tiempo disponible para la obtención de resultados.
l) Todos estos requerimientos, que definen el problema analítico, deben ser
contrastados con los parámetros de calidad de los métodos analíticos disponibles.
La utilización de un método con unas prestaciones superiores a las necesarias para
satisfacer los requisitos del problema analítico implica generalmente un coste
excesivo. Por otro lado, la aplicación de un método con prestaciones menores a las
necesarias conduce a una deficiente resolución del problema analítico.

2.2) Clasificación de las técnicas instrumentales.

Clasificación de las técnicas analíticas.

La mayoría de las técnicas instrumentales quedan en una de las tres áreas principales:
espectroscopía, electroquímica y cromatografía.
Aunque también existen otras técnicas importantes, como la espectrometría de masas
o el análisis térmico, que no se ajustan convenientemente a estas clasificaciones.
Las técnicas analíticas están basadas en interacciones de materia y energía.
Aprovecha la interacción de la materia con alguna forma de energía y se utiliza un
instrumento más o menos complejo para cuantificar el valor de alguna propiedad física
o fisicoquímica del sistema objeto de análisis, la cual es dependiente de la
concentración de analito de interés.
Esta medida de la propiedad física o fisicoquímica se denomina señal analítica.
Tipos de técnicas instrumentales a estudiar: ópticas (espectroscópicas y no
espectroscópicas), electroquímicas, magnéticas, térmicas, radioquímicas y
técnicas de separación.

Clasificación de los métodos analíticos.


Tema 3: técnicas ópticas.
3.1) Historia de las técnicas ópticas.
Los fundamentos de la espectroscopía hunden sus raíces en el siglo XVII, cuando
Isaac Newton observó como la luz blanca del Sol era descompuesta al atravesar un
prisma dando lugar a los colores del espectro visible. Newton postuló asimismo que
los cuerpos opacos, al ser iluminados, reflejan toda o parte de la luz incidente dando
lugar así al color con el que se perciben.
A principios del siglo XIX el óptico alemán Joseph Fraunhofer estudió el espectro solar
identificando unas 600 líneas oscuras comprobando que eran inherentes a la fuente de
luz, el Sol. Estudió asimismo el espectro de otras estrellas descubriendo que la
distribución de las líneas oscuras no era la misma en todos los casos. También
descubrió que el espectro de la luz proveniente de la luna y otros planetas del sistema
solar solo tenían el mismo patrón que la luz del Sol, demostrando así que se trata de
luz solar reflejada en estos cuerpos celestes.
Casi medio siglo después dos científicos alemanes gracias al empleo de
espectroscopio, ideado por ellos mismos y en el que jugaba un papel fundamental el
mechero inventado por Bunsen, explicaron el origen de las líneas de Fraunhofer: estas
correspondían a la absorción selectiva de la luz por parte de los elementos presentes
en la atmósfera solar, constituyendo así una especie de “huella dactilar”
correspondiente a la composición química de la atmósfera del Sol.
El espectroscopio les permitió a los alemanes descubrir dos nuevos elementos: el
rubidio y el cesio, cuyos nombres hacen precisamente referencia al color de sus líneas
espectrales características. Esta nueva técnica se aplicó en el descubrimiento de
nuevos elementos en los años posteriores, incluyendo el helio, que fue observado en
el Sol antes que en nuestro propio planeta.

3.2) Técnicas ópticas.

Técnicas ópticas no espectroscópicas.

La señal estímulo consisten en una radiación electromagnética (luz visible, radiación


UV, rayos X, electrones, etc.) que interacciona con la muestra mediante fenómenos de
tipo óptico (reflexión/refracción, difracción, polarización, dispersión de la luz)
generando así una señal analítica constituida por l radiación electromagnética tras su
interacción con los componentes de la muestra.
Este tipo de fenómenos está relacionado con la naturaleza ondulatoria de la luz.
 Difracción de rayos X.
 Turbidimetría y nefelometría.

Técnicas ópticas espectroscópicas.

La señal estímulo es una radiación electromagnética, pero la interacción con la materia


se basa en la naturaleza corpuscular de esta radiación, que se considera ahora
compuesta por un haz de partículas denominadas fotones.
Esta interacción da lugar a transiciones entra diferentes niveles de energía de las
especies involucradas, midiéndose la cantidad de radiación emitida o absorbida por las
mismas cuando tienen lugar dichas transiciones.
 Espectroscopía de absorción molecular UV-visible.
 Espectroscopía infrarroja.
 Espectroscopía de luminiscencia.
3.3) Propiedades de la radiación electromagnética.
Las propiedades de la radiación electromagnética se describen por medio de un
modelo ondulatorio sinusoidal clásico, que incorpora características como la longitud
de onda, la frecuencia, la velocidad o la amplitud.
En contraste con otros fenómenos ondulatorios, como el sonido, la radiación
electromagnética no requiere de medio de soporte para su transmisión y, por tanto,
pasa con facilidad por el vacío.
La radiación electromagnética es una forma de energía radiante constituida por un
campo eléctrico y un campo magnético combinados que oscilan en forma de onda
transversal y que se transmite a una velocidad de +/- 300.000km/s en el espacio.
La radiación electromagnética se puede describir mediante los parámetros
característicos de una onda:
 Amplitud (A): es el valor de la elongación máxima de la onda.
 Periodo (T): es el tiempo que dura una oscilación completa de la onda.
 Longitud de onda (λ): es la distancia entre dos puntos consecutivos de la onda
que estén en fase, es decir, que presenten el mismo valor de la magnitud que
oscila.
 Frecuencia (f): es el número de veces que una onda oscila por una unidad de
tiempo, es una propiedad constante de la radiación, independiente del medio de
propagación.
 Número de onda (1/ λ): es el número de veces que vibra una onda en una unidad
de longitud. Se utiliza para caracterizar la radiación electromagnética en ciertas
espectroscopías en lugar de la frecuencia o la longitud de onda.
 Velocidad de propagación de la onda: λ/T o λf.
 Potencia (P): energía del haz que alcanza un área determinada por segundo.
La velocidad y la longitud de onda, a diferencia de la frecuencia, dependen del medio
en el que se transmite la radiación electromagnética.
En cualquier medio que contenga materia, la propagación de la radiación se reduce
por la interacción entra campo electromagnético de la radiación y los electrones unidos
en la materia.
La frecuencia radiante es invariable y es mantenida fija por fuente, la longitud de onda
debe disminuir a medida que la radiación pasa del vacío a otro medio.

3.4) Espectro electromagnético.

El espectro electromagnético abarca una enorme gama de longitudes de onda,


frecuencias y, por tanto, energías.
La porción del espectro visible para el ojo humano es pequeña comparada con otras
regiones espectrales.
La naturaleza ondulatoria de la radiación electromagnética ofrece una explicación
adecuada de diversos fenómenos, como la reflexión, la refracción, la difracción, la
dispersión o la polarización de la luz, que son la base sobre la que se fundamentan las
técnicas de análisis ópticas no espectroscópicas.
El modelo ondulatorio no explica satisfactoriamente los fenómenos relacionados con la
absorción y emisión de energía radiante por parte de la materia; estos fenómenos se
explican mejor en el ámbito de modelo corpuscular en el que la radiación se comporta
como un flujo de partículas o corpúsculos, denominados fotones o cuantos.
La energía de un fotón es proporcional a la frecuencia de la radiación.
Estos puntos de vista duales de la radiación como partículas y como ondas no son
mutuamente excluyentes, sino más bien complementarios. La dualidad onda-partícula
se aplica al comportamiento de las corrientes de electrones, protones y otras
partículas elementales, y es la mecánica ondulatoria la encargada de darle una
explicación racional.
La interacción de la radiación electromagnética con la materia implica diferentes tipos
de transiciones entre los estados correspondientes a los diversos niveles energéticos
de las especies químicas involucradas.

Para una molécula su energía es la suma de la contribución de varios componentes:


 Energía traslacional: asociada al movimiento de traslación de un cuerpo.
 Energía nuclear: mantiene unidas las partículas que constituyen el núcleo de los
átomos y sólo se libera en caso de las reacciones nucleares de fusión o fisión.
 Energía electrónica: asociada a los diferentes estados electrónicos de una
determinada especie química, definidos por el movimiento de los electrones, con
carga negativa, alrededor del núcleo, con carga eléctrica positiva.
 Energía vibracional: asociada al movimiento de oscilación de los átomos que
forman una molécula, con respecto a su posición de equilibrio.
 Energía rotacional: asociada a los estados de rotación que puede adoptar una
molécula.
Las tres últimas dan origen a las técnicas espectroscópicas de análisis.
Los niveles vibracional y rotacional no existen en el caso de átomos o iones
monoatómicos.

Para cada uno de los niveles energéticos, los átomos, iones o moléculas que
constituyen la materia sólo pueden adoptar determinados estados, caracterizados por
cantidades discretas de energía.
En ausencia de estímulo las especies químicas que constituyen la materia se
encuentran predominantemente en su estado energético más bajo, denominado
estado fundamental o basal.
La aplicación de determinados estímulos (energía térmica, radiación electromagnética,
reacción química) puede producir la absorción de energía por parte de las especies
químicas presentes en la muestra. Si ésta coincide exactamente con la energía
necesaria para llevar a la especie química en cuestión desde el estado fundamental
hasta alguno de los niveles energéticos superiores se promueve una transición a un
estado de mayor energía (estado excitado).

Después de un periodo de tiempo muy breve (unos pocos nanosegundos) la especie


excitada se relaja a su estado original devolviendo energía al medio que le rodea. Esta
relajación se produce mediante diferentes procesos:
 Disiparse en forma de energía térmica mediante colisiones entre las diferentes
partículas (moléculas, átomos o iones).
 Emitida en forma de radiación electromagnética, constituida por fotones con una
energía igual a la de la transición entre el estado energético excitado de partida y
otro de menor energía.
a) Transiciones rotacionales: infrarrojo lejano y de las microondas.
b) Transiciones vibracionales/rotacionales: región de infrarrojo.
c) Transiciones electrónicas/vibracionales/rotacionales: región UV y visible del
espectro.
d) Relajación vibracional: sin emisión de radicación, disipándose finalmente en
forma de calor.
e) Desactivación sin emisión de radiación: en forma de calor.
f) Fenómenos de fotoluminiscencia: fluorescencia y fosforescencia.

3.5) Difracción de rayos X.

Rayos X.

Radiación electromagnética de longitud de onda corta que se produce cuando se


desaceleran los electrones de alta energía o por transiciones de electrones que están
en los orbitales internos de los átomos.
Los valores de las longitudes de onda de los rayos X están entre aproximadamente
10-5Angstroms a 100Angstroms. La espectroscopía de rayos X ordinaria se limita a la
región de 0.1Angstroms a 25Angstroms.
Para fines analíticos, los rayos X se obtienen de cuatro maneras:
 Por el bombardeo de un blanco metálico con un haz de electrones de elevada
energía.
 Por exposición de una sustancia a un haz primario de rayos X con el objetivo de
generar un haz secundario de fluorescencia de rayos X.
 Al usar una fuente radiactiva cuyo proceso de desintegración produce una emisión
de rayos X.
 A partir de una fuente de radiación sincrotrón (aceleración de partículas que
permiten estudiar la materia y sus propiedades).
Las tres primeras son las más comunes.
La difracción de rayos X está basada en las interferencias ópticas que se producen
cuando una radiación monocromática atraviesa un material.
Los rayos X tienen longitudes de onda de Angstroms, del mismo orden que las
distancias interatómicas de los componentes de las redes cristalinas.
Al ser irradiados sobre la muestra a analizar, los rayos X se difractan con ángulos que
dependen de las distancias interatómicas.

La placa fotográfica se impresiona no sólo en su centro, como consecuencia del paso


del haz incidente de rayos X, sino también en determinadas zonas alejadas del centro
de la misma. Esto se debe a la difracción, por la cual, los haces de rayos X interfieren
entre sí al pasar por las rendijas que dejan los átomos en el interior de los cristales,
llegando a desviarse del haz central.

Desde su descubrimiento en 1912 por Van Laue, la difracción de rayos X ha


proporcionado una abundancia de información importante a la ciencia y la industria.
La difracción de rayos X es un método de alta tecnología no destructivo para el
análisis de una amplia gama de materiales, incluso fluidos, metales, minerales,
polímeros, catalizadores, plásticos, productos farmacéuticos, recubrimientos de capa
fina, cerámicas y semiconductores.

Aplicaciones.

 Distribución y separación de los átomos en los materiales cristalinos.


 Propiedades físicas de los metales, de los materiales poliméricos y de otros sólidos.
 Estructuras de productos naturales complejos (esteroides, vitaminas, antibióticos).
 Identificación cualitativa de compuestos cristalinos.
 Determinación del plomo en gasolinas o la de azufre y halógenos en hidrocarburos.

3.6) Turbidimetría y nefelometría.


La mayor parte de la luz que se ve no proviene directamente de su fuente, sino que ha
sido dispersada. El color azul del cielo o el blanco de las nubes son fenómenos ópticos
producidos por la dispersión.
El efecto de dispersión por la atmósfera, que contiene una cierta cantidad de
humedad, así como partículas de polvo y ceniza, es más notable en la luz violeta y
azul (longitudes de onda menores) que en el resto del espectro. Por ello, aunque la luz
solar es blanca, el sol aparece amarillento cuando se mira de frente (porque ha
perdido una parte de su componente azul); en cambio la luz dispersada por la
atmósfera, que ilumina el cielo, es esencialmente azul. Al acercarse el sol al horizonte,
la luz que nos llega tiene que atravesar una capa más gruesa de atmósfera por lo que
la dispersión aumenta; la mayor parte de la luz violeta, azul y verde es desviada, de
manera que solo nos llegan los colores comprendidos entre el amarillo y el rojo. A esto
se debe el color de los ocasos.
La dispersión producida por partículas más grandes es más irregular y afecta a todos
los colores por igual. Por eso, cuando hay vapor de agua o partículas de polvo en la
atmósfera, el cielo pierde su color azul y adquiere una apariencia blanquecina y difusa.
Como estos componentes adicionales de la atmósfera, además de dispersas absorben
una mayor fracción de la luz, el cielo se oscurece, se ve gris.

Las técnicas no espectrocópicas son aquellas en las que no hay intercambio de


energía, sino que se basan en una interacción entre la radiación electromagnética y la
materia que da como resultado cambios en la dirección o en las propiedades físicas de
dicha radiación.
Esta radiación dispersada, si es de la misma longitud de onda que la fuente primaria
se denomina dispersión elástica, y es la base de las técnicas analíticas turbidimetría y
nefelometría.
Son técnicas analíticas basadas en la dispersión de la radiación por partículas en
suspensión en el seno de una disolución, cuyo objetico es la determinación de la
turbidez o de la concentración de partículas dispersantes en la disolución.
Cuando la dispersión es lo suficientemente grande como para originar una disminución
apreciable en la intensidad de la radiación incidente, se puede medir el rayo
transmitido en el mismo sentido que el incidente. Esta configuración analítica da lugar
a la turbidimetría. El modo de operar es similar al espectrofométrico y puede medirse
con un espectrofotómetro UV/visible.

Si se trabaja con una suspensión muy diluida, la relación entre la intensidad de


radiación transmitida y la incidente será muy cercana a la unidad, por lo que la
medición hecha como en el caso anterior estará sometida a mucha incertidumbre. La
intensidad de radiación se debe medir entonces con un cierto ángulo con respecto al
haz incidente (15 y 90º). Esta configuración da lugar a la nefelometría. Técnica de
mayor sensibilidad respecto a la turbidimetría.

Determinación de la concentración mediante turbidimetría.

En turbidimetría se mide la transmitancia (T), que es cociente entre la intensidad de la


fuente de radiación transmitida por la muestra (IT) y la intensidad de la radiación de la
fuente transmitida por un blanco (I0).
La T es proporcional a la concentración de las partículas dispersantes, C, mediante
una relación similar a la ley de Lambert-Beer donde b es la longitud del camino óptico
y k una constante que depende de varios factores, como el tamaño y la forma de las
partículas y la longitud de onda de la fuente de radiación.
La concentración se expresa como masa por unidad de volumen.
La relación exacta entre la transmitancia y la concentración se establece mediante una
curva de calibración que se prepara usando un conjunto de patrones de concentración
conocida.
Un blanco de análisis simplemente es una muestra que no contiene el analito de
interés, o un análisis sin la muestra, es decir, realizar todos los pasos del
procedimiento sólo con los reactivos.

CURVA DE CALIBRACIÓN O CALIBRACIÓN.


La determinación de la señal analítica de patrones de calibración de concentración
conocida y la representación gráfica de los pares de valores concentración/señal
analítica para obtener la curva de calibrado.
Estos patrones se preparan de forma independiente a la muestra de ensayo, por lo
que reciben el nombre de patrones externos, en contraste con otros métodos en los
que el patrón se añade a la muestra.
El parámetro estadístico r2, denominado coeficiente de correlación, da idea de la
bondad del ajuste. En las rectas de calibrado es habitual encontrar valores de r2 del
orden de 0,99 y mayores.

Determinación de la concentración mediante nefelometría.

En nefelometría, la relación entre la intensidad de radiación dispersada (IS) y la


concentración de las partículas dispersantes (C) se expresa como:

Donde kS es una constante empírica del sistema e I0 es la intensidad de la fuente de la


radiación incidente. El valor de kS se obtiene como en el caso de la turbidimetría,
preparando una serie de patrones y obteniendo la ecuación de la recta.

Instrumentación.

A) FUENTE DE RADIACIÓN:
Como fuente de radiación se utilizan lámparas de filamento de wolframio, diodos
fotoemisores e incluso, en nefelometría, donde es importante que la fuente sea de
gran potencia radiante, se emplean tubos láser, con mezcla de helio-neón o helio-
cadmio.
B) SELECTOR DE LA LONGITUD DE ONDA:
En nefelometría al ser la radiación incidente de igual longitud de onda que la
detectada, solo es necesario un sistema monocromador, aunque la mayoría de los
aparatos tienen dos.
En ambas técnicas, pero sobre todo en turbidimetría (donde la radiación incidente se
transmite a lo largo de la muestra), hay que evitar la absorción de la radiación. La
longitud de onda debe seleccionarse adecuadamente para que la absorción del medio
se reduzca al mínimo.
Como selectores de longitud se onda se utilizan filtros o monocromadores.
MONOCROMADORES:
Los monocromadores descomponen una radiación policromática, dispersando las
diferentes longitudes de onda que la forman; a partir de esta dispersión se puede
seleccionar una radiación monocromática de longitud de onda deseada.
Estos dispositivos permiten variar de forma continua la longitud de onda de la
radiación que incide sobre la muestra, realizando así un barrido del espectro.

Constan de:
 Rendija de entrada.
 Lente o espejo colimador: que produce un haz de radiación paralelo.
 Elemento dispersor:
 Prisma que actúa por refracción.
 Red que da lugar a la difracción de la radiación incidente produciendo en ambos
casos la dispersión de la radiación en las longitudes de onda que la componen.
Las redes de difracción ofrecen mejores prestaciones que los prismas y cada vez
son más empleados en la actualidad.
 Lente o espejo de enfoque: dirige y enfoca la radiación sobre el siguiente
elemento.
 Rendija de salida: aísla la longitud de onda deseada.
La dispersión o difracción sólo es controlable si la luz está colimada, es decir, si todos
los rayos de luz son paralelos, o prácticamente.
Una fuente, como el sol, que está muy lejos, proporciona luz colimada.
La fuente de luz en un equipo está cerca y un sistema óptico en el monocromador
convierte la luz divergente de la fuente en luz colimada.
C) CELDAS PARA LA MUESTRA:
Las celdas para la muestra pueden tener diferentes formas y tamaños. Generalmente
son prismáticas o cilíndricas y suelen ser de vidrio, con tapón roscado. Habitualmente
llevan una línea indicando hasta dónde deben llenarse.
D) DETECTOR:
Muchos aparatos pueden usarse indistintamente para medidas turbidimétricas y
nefelométricas, por lo que viene equipados con dos detectores, una en línea con la
fuente de radiación para medir la luz transmitida y otro situado en un ángulo
determinado, para captar la radiación dispersada. Los detectores suelen ser tubos
fotomultiplicadores.
FOTOMULTIPLICADOR:
Es un dispositivo que permite detectar luz con alta sensibilidad. Consta básicamente
de un elemento (fotocátodo) en donde, por efecto fotoeléctrico, se produce un electrón
(fotoelectrón) que es acelerado hacia una serie de electrodos (dinodos) debido al
campo eléctrico creado por una tensión suministrada externamente.
Este fotoelectrón inicial va siendo multiplicado en las distintas etapas a su paso por los
dinodos obteniéndose en el último de ellos (ánodo) una corriente apreciable que sobre
una resistencia de carga adecuada puede formar un impulso de tensión detectable.
El efecto fotoeléctrico es la expulsión o emisión de electrones de los átomos de un
metal cuando sobre él incide una luz (radiación electromagnética), liberándolos de
la atracción de su átomo.

Aplicación.

Tanto la turbidimetría como la nefelometría se utilizan para medir concentraciones


entre 10-4 y 10-9 mol/L, pero este límite aún puede ser más bajo para la nefelometría,
llegando a detectar concentraciones cercanas a 10-12 mol/L.
Ambas técnicas tienen una gran variedad de aplicaciones. Fundamentalmente se
utilizan para medidas de turbidez para el control de calidad de aguas y de sus
tratamientos de depuración de bebidas comerciales y en el control y monitorización de
procesos de separación y filtrado a nivel industrial.
Para expresar los resultados de turbidez, las unidades actualmente utilizadas son:
 Unidad Nefelométrica de la Turbidez (NTU).
 Unidad de Turbidez de la Formazia (FTU).
Ambas equivalentes.

3.7) Componentes de los instrumentos ópticos.


Los métodos espectroscópicos ópticos (naturaleza corpuscular de esta radiación) se
apoyan en seis fenómenos: absorción, fluorescencia, fosforescencia, dispersión,
emisión y quimioluminiscencia.
Los instrumentos que miden cada uno de ellos difieren un poco en su configuración,
pero la mayor parte de sus componentes básicos son muy similares.
Las propiedades que se requieren de estos componentes son las mismas si se aplican
a las partes UV, visible o infrarroja del espectro.

Los instrumentos espectroscópicos típicos están compuestos por cinco componentes:


 Una fuente estable de energía.
 Un dispositivo que aísla una región restringida del espectro para efectuar las
mediciones (selector).
 Un recipiente transparente donde se coloca la muestra.
 Un detector de radiación que convierte la energía radiante en una señal eléctrica
útil.
 Una unidad que procesa las señales y presenta los resultados mediante un
transductor en la escala de: un medidor, una pantalla de ordenador, un medidor
digital u otro dispositivo de registro (procesador).
Fuentes de energía.

FUENTES CONTINUAS:
Emiten radiación en un amplio rango de longitud de onda de la misma potencia o
intensidad.
Este tipo de fuentes se usa ampliamente en la espectroscopía de absorción y de
fluorescencia.
 En el caso de la región UV, la fuente más común es la lámpara de deuterio.
 Las lámparas de arco de alta presión llenas de gas, que puede ser argón, xenón o
mercurio, se usan cuando se requiere una fuente muy intensa.
 En el caso de la región visible del espectro normalmente se utiliza la lámpara con
filamento de tungsteno.
 Las fuentes comunes infrarrojas son sólidos inertes calientes a de 1500 a 2000K,
una temperatura a la cual la salida máxima radiante ocurre de 1.5 a 1.9µm.
FUENTES DISCONTINUAS O DE LÍNEAS:
Emiten un número determinado de bandas de radiación, un intervalo determinado de
longitudes de onda. Las fuentes que emiten unas cuantas líneas discretas también
tienen gran aceptación en la espectroscopía de absorción atómica, la espectroscopía
de fluorescencia atómica y molecular y la espectroscopía Raman (en la refractometría
y la polarimetría también se usan fuentes de líneas).
 Las conocidas lámparas de mercurio y de sodio proporcionan unas cuantas líneas
nítidas en las regiones UV y visible, y se usan en varios instrumentos
espectroscópicos.
 Las lámparas de cátodo hueco y las de descarga sin electrodo son las fuentes de
líneas más importantes para los métodos de absorción atómica y de fluorescencia.
FUENTES LÁSER (LIGHT AMPLIFICATION BY STIMULATED EMISSION OF
RADIATION):
Los rayos láser producen haces de radiación especialmente estrechos, de sólo unas
cuantas centésimas de micrómetro, pero muy intensos. Genera un haz de radiación
altamente monocromática con ancho de banda de 0.01nm o menos y con coherencia
notable.
Los láseres son utilizados como fuentes debido a que tienen una gran intensidad, una
pequeña anchura de banda y una naturaleza coherente en sus señales de salida.
Los rayos láser se han convertido en fuentes importantes que se usan en las regiones
UV, visible e IP del espectro.

3.8) Absorción molecular UV-visible.


Los colores que percibe el ojo humano corresponden al conjunto de radiaciones
electromagnéticas con longitudes de onda de 380 a 780nm que se denominan luz
visible o simplemente luz. Cuando la luz visible incide sobre la materia puede ser
absorbida selectivamente en función de su composición. La luz no absorbida puede
ser transmitida a través de la materia o bien reflejada por su superficie, en función de
su grado de transparencia.
La absorción de todas las longitudes de onda de la luz visible origina el color negro,
mientras que un cuerpo opaco que refleje todas las longitudes de onda se percibe de
color blanco; los colore surgen entonces como el resultado de la impresión que las
longitudes de onda no absorbidas producen en la retina.
El color no es por tanto una propiedad inherente de la materia, sino que depende de la
iluminación que recibe, y de otros factores individuales y subjetivos.
Fundamento.

Esta técnica se basa en la absorción, por parte del analito, de radiación


electromagnética de la región UV y visible del espectro.
La radiación UV corresponde a las longitudes de onda desde 10 a 380nm
aproximadamente.
En la espectrometría UV se hace uso únicamente de la región denominada UV
próximo, de 180 a 380nm, ya que la radiación UV entre 10 y 180nm (UV lejano) es
absorbida por el oxígeno del aire, por lo que se hace necesario llevar a cabo las
medidas en ausencia de este gas, lo que resulta en un mayor grado de complejidad
instrumental.
Por otro lado la región visible del espectro se extiende desde los 380 a los 780nm.
La energía asociada a la radiación UV-visible es de la magnitud suficiente como para
ser absorbida en transiciones entre niveles energéticos. La energía absorbida se
disipa posteriormente en forma de calor.

La absorbancia se define de la siguiente forma:

Es decir, a medida que la energía se transfiere desde la radiación electromagnética a


la materia se produce una disminución de la transmitancia (T) y un aumento de la
absorbancia (A).
Ley de Lambert-Beer:
En el caso de que se considere una radiación monocromática se verifica que la
absorbancia es directamente proporcional a la concentración de la especie
responsable de la absorción.
Esta relación se conoce como ley de Lambert-Beer y se representa
matemáticamente con la ecuación: A=ε*c*I.
 ε representa la absorbancia específica o absortividad de la especie que
absorbe. Depende de la naturaleza del cromóforo y de las condiciones
experimentales (disolvente, temperatura, pH…). Estos valores se pueden
encontrar tabulados para muchas sustancias químicas.
 I es el paso óptico: longitud atravesada por la radiación electromagnética a
través del medio absorbente. Lo más común 1cm.
 c es la concentración de la especie absorbente (o del cromóforo).

DENSIDAD ÓPTICA:
Es la absorbancia por unidad de longitud que recorre a luz al atravesar la sustancia
para una longitud de onda dada.
Donde L corresponde al espesor de la muestra.

Instrumentación.

Los espectrofotómetros UV-visible vienen equipados con dos lámparas:


 Una que emite en la región UV (lámpara de hidrógeno/deuterio habitualmente).
 Otra para trabajar en la región visible (de wolframio o wolframio-halógeno).
El instrumento selecciona automáticamente la lámpara adecuada al cambiar de la
región UV a la visible (aproximadamente a 350nm).
Actualmente se están incorporando como fuentes de radiación en la región visible los
diodos emisores de luz (LED). Pueden combinarse LED de diferentes colores para
conseguir un espectro de emisión prácticamente continuo, o bien emplear LED de luz
blanca. Tienen una vida útil más larga que las lámparas de wolframio.

 Aunque el paso óptico más habitual es de 10mm, se pueden encontrar cubetas con
pasos ópticos desde 1 hasta 100 mm, para muestras que presentan muy altas o
muy bajas absorbancias específicas respectivamente.
 Con objeto de disminuir costes, es habitual encontrar cubetas con dos caras
paralelas perfectamente pulidas y transparentes, para alinear con la fuente de
radiación y el detector, y las otras dos traslúcidas o rayadas, que son por las que se
debe sujetar la cubeta.
 Si algún componente de la muestra de análisis es muy volátil, la evaporación puede
provocar cambios en la absorbancia, o bien afectar a algún componente del
instrumento, por lo que se recomienda en estos casos la utilización de cubetas con
tapones.
 Las microcubetas permiten el análisis de pequeñas cantidades de muestra. En este
caso hay que asegurarse de que coincida el haz de radiación incidente con el
compartimento donde se contiene la muestra.
 Las celdas de flujo permiten bien el análisis continuo de un efluente, o bien se
utilizadas en un proceso automatizado que incluye el llenado, el vaciado y la
limpieza de la celda por medio de un módulo robotizado.
 Existen celdas para muestras gaseosas, con forma cilíndrica y entrada y salida para
la muestra, y la posibilidad de varios pasos ópticos.
DENOMINACIONES:
 Espectroscopio: instrumento óptico para la evaluación visual de espectros en la
región visible.
 Espectrógrafo: incorpora algún tipo de sensor para obtener la imagen del
espectro, por ejemplo mediante una emulsión fotográfica o más modernamente con
sensores que proporcionan una imagen digital.
 Fotómetro: aunque es un término desaconsejado por la IUPAC, se suele designar
con él a los instrumentos sencillos, dotados de filtros para la selección de la longitud
de onda y un fototubo como detector. Suelen ser robustos, económicos y de fácil
manejo.
 Colorímetro: aunque tradicionalmente se ha designado así a instrumentos muy
simples en los que el detector era el ojo humano, hace referencia en la práctica a
un fotómetro de absorción que trabaja en la región visible del espectro.
 Espectrómetro: instrumento con uno o varios detectores que permiten la medida
de la intensidad de la radiación electromagnética incidente, proporcionando así una
medida cuantitativa. Según la IUPAC un espectrómetro secuencial mide la
intensidad de varias bandas espectrales secuencialmente, mientras que un
espectrómetro simultáneo proporciona al mismo tiempo la medida correspondiente
a una región espectral (mediante el empleo, por ejemplo, de detectores de
fotodiodos en serie).
 Espectrofotómetro: aunque tampoco se aconseja su uso por la IUPAC, se utiliza
ampliamente para designar al instrumento más sofisticado que el fotómetro, dotado
de monocromador para la selección de la longitud de onda, así como sistemas de
detección de mayor sensibilidad. En la práctica esta denominación es la que se
suele aplicar a los espectrómetros que trabajan en las regiones UV, visible e IR.
Aplicación.

La espectroscopía de absorción molecular UV-visible es posiblemente la técnica


espectroscópica más empleada.
Presenta un amplio campo de aplicación para la determinación cuantitativa de gran
número de especies químicas.
Esta técnica es aplicable fundamentalmente amuestras en disolución.
También es posible su aplicación a muestras gaseosas e incluso a muestras sólidas
(fibras, películas, sólidos pulverulentos o de superficie rugosa).
La selectividad de esta técnica es en general alta, basándose en la elección de una
longitud de onda en la que únicamente absorba el analito, de forma que o interfieran
otros componentes de la muestra, no siendo necesario en muchos casos realizar
separaciones previas.
Los límites de detección que presenta esta técnica son relativamente bajos (entre 10-4
y 10-5M).

3.9) Espectroscopía infrarroja.

Fundamento.

La espectroscopía infrarroja (IR) se basa en la absorción por parte de la materia de la


radiación electromagnética de la región correspondiente a longitudes de onda de entre
780nm (donde se limita con la región visible) y 1mm.
Los fotones de la radiación IR son menos energéticos que los correspondientes a la
región visible.

La absorción de radiación IR se ve condicionada por la existencia de enlaces químicos


covalentes que puedan oscilar con respecto a una posición de equilibrio, es decir,
únicamente absorberán radiación IR especies moleculares, a excepción de moléculas
diatómicas homonucleares que no lo hacen.
Cada grupo funcional absorberá a una o varias longitudes de onda características,
correspondientes cada una de ellas a un modo de vibración diferente.
Cada enlace absorberá a una frecuencia determinada, danto lugar a un espectro
característico.
Según la fortaleza de los enlaces y la masa de los átomos implicados será necesaria
más o menos energía para que se produzca la absorción de la radiación.
Por ello, el espectro IR se convierte en una característica específica del compuesto
estudiado.

En un espectro infrarrojo se representa la transmitancia en lugar de la absorbancia en


el eje de ordenadas, por lo que las bandas tienen sentido descendente, mientras que
en el eje de abscisas aparece el número de onda (número de veces que vibra una
onda en una unidad de distancia).
Cada molécula o grupo funcional puede mostrar varias bandas de absorción, con lo
que un espectro puede aportar mucha información de tipo cualitativo y estructural.
El espectro IR se divide en tres regiones: IR cerca, medio y lejano. Cada uno se aplica
a diferentes problemas analíticos.

Instrumentos.

Existen diferentes tipos de instrumentos de absorción IR, presentando cada uno de


ellos una configuración distinta, lo que condiciona sus prestaciones y las aplicaciones
a las que van dirigidos.
Tipos de instrumentos:
 Espectrofotómetros dispersivos (con monocromador de red).
 Espectrómetros de transformada de Fourier (con interferómetro).
 Fotómetros no dispersivos (equipados con un filtro o un gas absorbente).
ESPECTROFOTÓMETROS DISPERSIVOS:
Los monocromadores se sitúan tras la muestra para sí evitar que llegue al detector la
radiación IR que pueda emitir la muestra.
Estos monocromadores (redes de filtración) se utilizan para dispersar la radiación y
medir secuencialmente la absorbancia o transmitancia de cada longitud de onda.
Suelen ser de haz doble para medir separadamente la radiación que atraviesa la
muestra y la procedente de una celda de referencia.
Los detectores de IR son menos sensibles que los empleados en UV-vis por lo que
para realizar un espectro aceptable de precisión es necesario realizar varios barridos y
promediar los resultados obtenidos. Análisis sean lentos.
Estos instrumentos se aplican únicamente en IR cercano, aunque prácticamente han
sido sustituidos por los instrumentos no dispersivos basados en las transformadas de
Fourier.

ESPECTROFOTÓMETROS DE TRANSFORMADAS DE FOURIER (FT):


Se aplica mediante instrumentos no dispersivos que detectan y miden todas las
longitudes de onda simultáneamente.
Los equipos FTIR:
 Más rápidos, cómodos y precisos que los dispersivos.
 Mayor velocidad y sensibilidad.
 Mayor relación señal/ruido y exactitud en la calibración de las longitudes de onda.
 Diseño mecánico sencillo.
 Eliminan las interferencias debidas a la radiación dispersada, así como a la emitida
por la muestra.
 La ausencia de monocromador ha abaratado los costes de los instrumentos FTIR
haciéndolos ya prácticamente equivalentes a los instrumentos dispersivos.
INSTRUMENTOS NO DISPERSIVOS DE FILTRO:
Sencillos y robustos que suelen emplear filtros para seleccionar la longitud de onda de
interés.
Son instrumentos baratos, resistentes y fáciles de mantener que se diseñan en
muchas ocasiones como equipos portátiles. Se aplican habitualmente al análisis
cuantitativo de gases.

Aplicaciones.

Se puede aplicar a muestras en estado sólido, líquido o gaseoso. Cualquier


compuesto que presente enlaces covalentes absorbe radiación IR, a excepción de las
moléculas diatómicas homonucleares.
El campo de aplicación es muy amplio. Es una técnica relativamente económica,
rápida y sencilla.
Como limitaciones cabe destacar la dificultar que presenta el análisis de mezclas
complejas, así como el de muestras constituidas por disoluciones acuosas o con un
alto contenido de humedad, debido a que la molécula de agua absorbe radiación IR,
con lo que presenta bandas que pueden interferir con las del analito.
Existe dificultad en la preparación y manipulación de las muestras, sobre todo de
líquidos y sólidos, debido a que no hay disolventes que sean transparentes en toda la
región IR.
Los alcoholes presentan problemas similares. Algunos de los disolventes más
utilizados son, entre otros, ciclohexano, dioxano, disulfuro de carbono, tetracloruro de
carbono y tetracloroetileno.
ANÁLISIS CUALITATIVO:
La espectroscopía de IR para análisis cualitativo resulta de gran interés en ámbitos
como la industria alimentaria y farmacéutica. Se aplica por ejemplo para la
identificación de materias primas permitiendo la posibilidad de dar una conformidad
rápida y acelerando así el inicio del proceso de producción. Las bibliotecas espectrales
posibilitan incluso la discriminación entre distintos proveedores del mismo producto.
Un análisis rápido de un espectro de absorción de IR permite poner de manifiesto la
presencia de impurezas o trazas de determinados compuestos tanto en las materias
primas como en el producto final de un proceso productivo. Así, por ejemplo, en la
industria alimentaria permite distinguir la presencia de grasas trans frente a las cis.
En la industria de los plásticos el análisis por IR permite identificar polímeros y
aditivos, interacciones entre los distintos componentes, conformación, grado de
cristalinidad, etc.
ANÁLISIS CUANTITATIVO:
La espectroscopía de absorción en la región de IR cercano presenta, a diferencia de la
situación que se da en el IR medio, menos aptitud para el análisis cualitativo y en
cambio resulta especialmente útil para el análisis cuantitativo, ofreciendo incluso una
exactitud y precisión comparable a la espectroscopía de absorción UV-vis. Se trata
además de una técnica no destructiva, rápida, robusta y que no precisa el empleo de
reactivos químicos.
La espectroscopía NIR presenta un desarrollo creciente en los últimos años por su
aplicación en la de determinación de agua, proteínas y aminoácidos, grasas, y una
gran variedad de especies químicas orgánicas como alcoholes, ácidos, ésteres,
cetonas, etc. Estos análisis son de especial interés en ámbitos como la industria
petroquímica, farmacéutica o agroalimentaria.
En este último ámbito se puede aplicar, por ejemplo, para la determinación de
azúcares en fruta, miel, jugos, melazas, etc. sustituyendo a los métodos tradicionales
(refractometría, polarimetría).

3.10) Espectroscopía de luminiscencia.

Fundamento.

Luminiscencia el proceso de emisión de la radiación por parte de una especie química


como consecuencia de la desactivación de la misma desde un estado energético
excitado. En función de cómo se consigue esta excitación previa a la emisión de
luminiscencia se pueden distinguir varios fenómenos:
FOTOLUMINISCENCIA:
La excitación se consigue mediante la absorción de radiación electromagnética. Las
transiciones energéticas involucradas tienen lugar en el nivel electrónico, con lo que se
puede dar tanto en átomos como en moléculas. Es un proceso de emisión de luz cuyo
origen no radica exclusivamente en las altas temperaturas sino que, por el contrario,
es una forma de “luz fría”.
 Fluorescencia (ropa de seguridad: es rápido).
 Fosforescencia (agujas reloj: es lento).
QUIMIOLUMINISCENCIA:
Una reacción química da lugar a un producto en un estado electrónico excitado que se
desactiva emitiendo radiación electromagnética.

Aplicación fluorescencia.

Las aplicaciones más importantes de la fluorescencia se encuentran en el ámbito de la


química orgánica, y más concretamente en el análisis de:
 Productos alimentarios y farmacéuticos.
 Productos naturales y muestras clínicas: aminoácidos y proteínas.
 Productos orgánicos con actividad farmacológica o toxicológica, muestras
bioquímicas, vitaminas, hidrocarburos aromáticos policíclicos, etc.
La proteína verde fluorescente (o GFP: Green Fluorescent Proteína) es una proteína
producida por la medusa Aequorea victoria que emite fluorescencia en la zona verde
del espectro visible.
El gen que codifica esta proteína ha sido clonado y se utiliza habitualmente en biología
molecular como marcador.
Los descubrimientos relacionados a la GFP merecieron el Premio Nobel de Química
en 2008, en conjunto a los tres investigadores que participaron escalonadamente en
dilucidar la estructura y función de la proteína.
El `primero descubrió y estudió las propiedades de GFP, el segundo usando técnicas
de biología molecular logró introducir el gen que codificaba para GFP en el ADN del
gusano transparente Caenorhabditis elegans, e inició la era de GFP como marcador
de procesos en células y organismos.

Aplicación quimioluminiscencia.

El fenómeno por el cual las reacciones quimioluminiscentes se producen en el interior


de los seres vivos se conoce con el nombre de bioluminscencia, que está producida en
este caso por reacciones enzimáticas específicas. Se da en insectos (luciérnagas),
bacterias, hongos, y es especialmente frecuente en especies marinas que viven en
fondos abisales (peces, medusas, crustáceos, etc.).
Se han encontrado importantes aplicaciones prácticas de este fenómeno en el ámbito
de la bioquímica clínica, ya que se ha conseguido mediante ingeniería genética
identificar el gen responsable de este fenómeno en especies bioluminiscentes,
logrando que se exprese en cualquier tejido, disponiendo así de un sistema marcador
de gran utilidad para el estudio de enfermedades como el Alzheimer, el Parkinson o
algunos tipos de cáncer.
Otro ámbito de aplicación es el control de la contaminación medioambiental: algunas
bacterias bioluminiscentes se emplean como indicadores de la calidad del agua ya que
la presencia de ciertos compuestos contaminantes afecta a la intensidad de la
luminiscencia que estas bacterias emiten.
Tema 4: técnicas electroquímicas.
4.1) Técnicas electroquímicas.
En este grupo de técnicas la muestra se hace formar parte de un circuito eléctrico y se
mide la variación de alguno de los parámetros eléctricos básicos del mismo:
 Diferencia de potencial: potenciometría.
 Resistencia: conductimetría.
 Intensidad eléctrica: voltamperometría.
cuyo valor es función de la cantidad o concentración de analito presente.

En otros casos se utiliza una corriente eléctrica para producir la transformación del
analito mediante un proceso de oxidación o reducción, pudiéndose medir bien la
cantidad de analito en la muestra directamente por pesada (electrogravimetría) o bien
la cantidad de electricidad necesaria para llevar a cabo la reacción (coulombimetría).

4.2) Potenciometría.

Fundamento.

Una reacción de oxidación-reducción o redox es aquella en la que se transfieren


electrones de un reactivo a otro.
Si se hacen circular los electrones procedentes de una reacción redox a través de un
circuito eléctrico, se puede obtener información sobre dicha reacción y sus
componentes al medir la corriente y el potencial del circuito.

La potenciometría consiste básicamente en una medida del potencial, que va a estar


directamente relacionada con la concentración de la especie que se vaya a
determinar.
La potenciometría se basa en la aplicación de la ley de Nernst, según la cual el
potencial de un electrodo varía con la concentración de una o más de las especies
presentes en la disolución con la que está en contacto, por lo que a partir de la medida
del potencial se puede obtener la concentración de una determinada sustancia.

Instrumento.

El equipo necesario para llevar a cabo una potenciometría se compone de un


electrodo de referencia, un electrodo indicador, un puente salino y un dispositivo para
medir el potencial (potenciómetro).
Electrodo de referencia:
Semicelda que proporciona la misma medida de potencial que se conoce con exactitud
y que es independiente de la naturaleza de la disolución en que se introduzca, y del
sentido en que tenga lugar la reacción.
Genera por tanto un potencial constante y reproducible. Su función es completar el
circuido de medida permitiendo el contacto eléctrico entre el electrodo indicador, la
disolución y el dispositivo de lectura, de modo que las cuatro partes formen un circuito
eléctrico.
El electrodo de referencia debe cumplir los siguientes requisitos:
 Potencial conocido con exactitud.
 Potencial constante e independiente de la composición de la disolución del analito.
 Resistente, fácil de usar, reversible y reproducible.
 Insensible a la composición de la solución a estudiar.
Los electrodos de referencia están constituidos por un conducto metálico en contacto
con una sal poco soluble del metal del que están formados, y una disolución de
composición constante y alta concentración.
Electrodo indicador:
Está sumergido en una solución de analito que genera un potencial que varía con la
actividad del analito, de forma rápida y reproducible.
Hay dos tipos fundamentales de electrodos indicadores para medidas
potenciométricas: metálicos y de membrana (electrodos selectivos de iones).
Las mediciones de pH se hacen comparando las lecturas de potencial eléctrico que
proporciona una muestra con las lecturas correspondientes a patrones de pH
perfectamente definido (disoluciones tampón).
Cuando un electrodo sensor de pH entra en contacto con una muestra, se desarrolla
un potencial a través de la superficie de la membrana sensible que varía con el pH.
El electrodo de referencia aporta un segundo potencial invariable para comparar los
cambios del potencial de la membrana sensible de manera cuantitativa.
Puente salino:
Evita que los componentes de la solución de analito se mezclen con los del electrodo
de referencia. Tiene la finalidad de separar la solución interna del electrodo de
referencia, de la solución externa o solución de la muestra.
La función del puente salino es la de aislar los contenidos de las dos partes de la celda
mientras se mantiene el contacto eléctrico entre ellas (paso corriente).
Potenciómetro:
Sirve como dispositivo de lectura y calcula la diferencia de potencial entre el electrodo
de referencia y el electrodo indicador en milivoltios.
Los milivoltios se convierten en unidades de pH y se muestran en la pantalla del
potenciómetro.
Amplifica la señal eléctrica que producen los electrodos ya que esta es muy débil.

Aplicaciones.

Generalmente la muestra que va a ser analizada por potenciometría debe estar en


disolución, aunque hay algunas aplicaciones para muestras en estado sólido y
gaseoso. Para la mayoría de las determinaciones, se necesitan concentraciones de
analito mayores a 10-6 M.
Para poder determinar una sustancia por técnicas potenciométricas, ésta o alguno de
sus complejos debe ser electroactiva dentro del rango de trabajo. Cumpliendo este
requisito, y disponiendo del electrodo adecuado, las aplicaciones de la técnica son
muy variadas, desde medidas de pH y determinaciones cuantitativas de muchos iones
inorgánicos y orgánicos hasta determinaciones de constantes y velocidades de
reacción.
SENSORES POTENCIOMÉTRICOS:
 Estado sólido: estos electrodos cuentan con una superficie sólida sensible hecha
de haluros de plata comprimidos, o un material sólido cristalino que es lo que le
dará una larga vida. Se usan para determinar bromuro, ioduro, cobre (II), cianuro,
iones de plata y plomo.
 Estado líquido: estos electrodos son de membrana líquida donde su superficie
sensible está constituida de un polímero homogéneo, polímero que contiene un
intercambiador iónico orgánico para un determinado ion. Se usan para mediciones
de nitratos, potasio y calcio.
 Estado gaseoso: están formados por electrodos combinados para detectar gases
que se encuentran disueltos. El gas que se encuentra disuelto en la muestra se
esparce dentro de la membrana y hace que cambie el pH. Este cambio es
directamente proporcional al gas disuelto en la muestra.
POTENCIOMETRÍA DIRECTA:
Consiste en la medida directa del potencial de una disolución.
Medida de pH: potencial de hidrógeno, se determina la concentración de
hidrogeniones en una disolución.
Determinación de la concentración de una especia: electrodo específico y diluciones
conocidas.
VALORACIONES POTENCIOMÉTRICAS:
Una valoración es la determinación cuantitativa de un analito mediante su reacción con
una sustancia de concentración conocida (agente valorante).
Una valoración potenciométrica consiste en la medida del potencial de la disolución de
la muestra problema según se va añadiendo el agente valorante desde una bureta.
El punto final de la valoración se detecta cuando ocurre un cambio de potencial
relativamente grande tras la adición de una pequeña cantidad de valorante.
BIOSENSORES:
Dispositivos utilizados para determinar la cantidad de una sustancia (analito) presente
en un medio dado. Están constituidos por dos componentes acoplados en un mismo
elemento material (sonda o electrodo):
 Bioreceptor: una o más encimas puras o formando parte de materiales de origen
biológico tales como anticuerpos, células, microorganismos. La sustancia a
determinar (analito) reacciona químicamente al ser puesta en contacto con el
bioreceptor.
 Transductor: convierte el evento generado por la enzima y el analito en una señal
eléctrica u óptica medible debido al cambio de alguna propiedad durante la reacción
química entre el analito y el bioreceptor.
4.3) Conductimetría.

Fundamento.

La conductimetría se basa en la medida de la conductividad eléctrica que presenta una


disolución.
Las disoluciones, al incorporarse como un elemento conductor a un circuito eléctrico,
obedecen a la ley de Ohm (la unidad de potencial es el voltio, que es la fuerza
electromotriz necesaria para que pase un amperio a través de una resistencia de un
ohmnio): cuando entre dos puntos de un conductor se aplica una diferencia de
potencial, se establece entre ellos una corriente eléctrica cuya intensidad será
directamente proporcional a la diferencia de potencial aplicada, e inversamente
proporcional a la resistencia del conductor.

Es decir, cuanto mayor sea la carga eléctrica/iónica de nuestra muestra, más


intensidad detectaremos entre los dos puntos de diferencia de potencial (electrodos), a
una resistencia constante.

La conductividad eléctrica es un fenómeno de transporte en el cual la carga eléctrica


(en forma de electrones o iones) se mueve a través de un sistema.
En el caso de los conductores metálicos la conducción de la electricidad se debe al
movimiento de los electrones, en el caso de las disoluciones de electrolitos la corriente
eléctrica se debe a la migración de los iones bajo la influencia de un gradiente de
potencial.
En ausencia de campo eléctrico estos iones se mueven de manera azarosa, de forma
que la distancia efectiva promedio recorrida por el conjunto de los mismos es nula.
Sin embargo, cuando la disolución se somete a un campo eléctrico, los iones se
moverán en uno u otro sentido, en función de su carga.
La velocidad a la que se mueven los iones en el seno de la disolución depende de los
siguientes factores:
 Movilidad de los iones: que está definida por su carga y tamaño. Una mayor carga
y un menor tamaño dan lugar a mayor velocidad de migración.
 Viscosidad de la disolución: una mayor viscosidad incide en menor velocidad de
migración.
 Gradiente de potencial: a medida que aumenta el potencial eléctrico al que es
sometida la disolución, los iones se mueven con mayor velocidad.
En esta técnica analítica se mide la conductancia, o sea, la capacidad de la disolución
de conducir la corriente eléctrica, y es la magnitud inversa de la resistencia.
La conductancia se representa por la letra G y su unidad en el sistema internacional es
el siemens (s), equivalente a la inversa de un ohmio: 1S = 1Ω-1.
La conductancia será el resultado de la contribución de todos los componentes de la
disolución con carga eléctrica, es decir, los aniones y cationes presentes, ya sean
analitos o interferentes. Y su valor vendrá dado por: la naturaleza del elemento
conductor, la disolución y sus dimensiones, en este caso el volumen de disolución
delimitado por los electrodos, y denominado celda de conductividad, a través de la
cual se establece el paso de corriente eléctrica.
La conductividad es la magnitud inversa de la resistividad, y corresponde a la
conductancia de una disolución contenida en 1 cm-3. La conductancia depende
exclusivamente de la capacidad intrínseca de la disolución de conducir la corriente
eléctrica, es decir, de la movilidad y concentración de los iones presentes. Se mide en
S/m.
La conductancia es la propiedad extrínseca mientras que la conductividad es la
propiedad intrínseca. Esto significa que la conductancia es la propiedad de un objeto
que depende de su cantidad/masa o forma física y tamaño, mientras que la
conductividad es la propiedad inerte del material que compone el objeto.

Instrumento.

Un sistema típico de medida de la conductividad en el laboratorio está constituido por


una sonda, celda o célula de conductividad, que se sumerge en la disolución que se
pretende analizar, conectada a un dispositivo de lectura, donde la señal medida por la
celda se transforma y acondiciona para ser mostrada en una pantalla digital como
conductividad.
TIPOS DE SONDAS:
 Sondas conductivas: estas sondas miden la conductancia de una disolución a
partir de la resistencia que presenta al paso de una corriente eléctrica y la
aplicación de la ley de Ohm.
 Sondas inductivas (sin electrodos): estas sondas están constituidas por dos
bobinas en el interior de una carcasa en forma de anillo, a través y alrededor del
cual fluye el líquido del que queremos conocer la conductividad.
Ventajas: no requieren de electrodos, mediciones exactas, disoluciones más sucias y
con tendencia a sedimentar, sensor está aislado de la muestra.
Aplicaciones.

La conductimetría se aplica a muestras líquidas en un amplio número de campos,


desde el laboratorio de análisis a diferentes vertientes de la industria química:
productos farmacéuticos, alimentación tratamiento de aguas residuales, procesos de
purificación de agua, etc.

Como ventaja se presenta como una técnica sencilla, con gran facilidad de aplicación,
de respuesta rápida, económica y que apenas requiere mantenimiento.
La mayor limitación de esta técnica es su falta de selectividad: la conductividad de una
disolución se debe a la contribución de todas las especies iónicas presentes.

Las aplicaciones prácticas de estas medidas pueden ser agrupadas en dos grupos:
 Conductimetría directa: medida de la conductividad de una muestra, evaluando
de esta forma la cantidad global de especies iónicas en disolución. Se aplica a:
sólidos totales disueltos en soluciones acuosas, salinidad y dureza del agua.
 Valoraciones conductimétricas: se utilizan para poner de manifiesto el punto final
de una valoración, en sustitución de los indicadores visuales.

4.4) Electrogravimetría.

Fundamento.

La electrogravimetría y la culombmetría son técnicas electroanalíticas que se basan en


la oxidación o reducción electrolítica de un analito durante un tiempo suficiente para
asegurar su conversión cuantitativa a un estado de oxidación diferente.
 Electrogravimetría: determina la masa del producto de la electrolisis que se
deposita en uno de los electrodos, conociendo así directamente la cantidad que
había del mismo en la disolución de partida.
 Coulombimetría: mide la cantidad de electricidad necesaria para completar la
electrolisis, y dicha magnitud se relaciona directamente con la cantidad de analito
presente.
Estos dos métodos, a diferencia de la mayoría de las técnicas instrumentales, no
requieren calibración del propio método respecto a patrones.
Sólo requieren de una calibración directa de los instrumentos que se emplean.

La gravimetría es un procedimiento de análisis en el cual, partiendo de un sólido, un


líquido o un gas, se llega al final a una forma pesable (electrogravimetría,
termogravimetría).
La medida que caracteriza a los métodos gravimétricos es la de la masa, magnitud
carente de toda selectividad.
Todas las especies químicas la poseen (masa), lo que hace necesario efectuar
separaciones previas lo más perfectas posibles.
El análisis gravimétrico consiste en separar y pesar, en el estado de mayor pureza, un
elemento o compuesto de composición conocida.
Clasificación.

Las gravimetrías se clasifican según la forma de aislar los productos pesables:


 Gravimetrías por precipitación: el consituyente buscado se separa en forma de
sustancia insoluble, que se pesa directamente o bien se transforma
cuantitativamente en otra sustancia que se pesa.
 Gravimetrías por volatilización: el constituyente buscado o el que se trata de
eliminar se volatiliza (termogravimetría).
 Gravimetría por electrolisis o electrogravimetrías: la sustancia se ha de
determinar se somete a un proceso de electrolisis y el producto se deposita
cuantitativamente sobre uno de los dos electrodos que conforman un circuito
eléctrico, que se pesa antes y después del proceso. El incremento de masa del
electrodo se utilizará para calcular la cantidad de analito que estaba presente
inicialmente.
Se basa en la electrolisis, que es el proceso en el que una reacción redox se realiza en
el sentido no espontáneo debido a la aplicación de una corriente eléctrica.

Instrumentación.

Los equipos de electrogravimetría están constituidos generalmente por:


 Una fuente de corriente continua.
 Una resistencia variable.
 Un voltímetro para medir el potencial.
 Un amperímetro para medir la intensidad.
 Una celda o cubeta para electrólisis con sus respectivos electrodos.
 Algún medio para la agitación (magnético o mecánico) y calentamiento de la
disolución.

Los electrodos son usualmente de platino, aunque pueden usarse también electrodos
de cobre, latón, acero inoxidable, grafito y otros metales.
Los electrodos de platino tienen la ventaja de ser relativamente no reactivos y pueden
ser calcinados para eliminar materia orgánica, residuos o gases que tendrían efectos
perjudiciales sobre las propiedades físicas del depósito.
Hay ciertos metales, como el bismuto, zinc y galio, que no pueden ser depositados
directamente sobre platino ya que causan un deterioro permanente en el electrodo.
El platino debe ser protegido siempre con una capa de obre electrodepositada antes
de realizar la electrolisis de esos metales.
Aplicaciones.

El análisis electrogravimétrico, en general, posee una moderada selectividad,


sensibilidad y rapidez; en muchos casos está entre las técnicas más exactas y
precisas.
Este método es muy utilizado en la determinación de metales de transición (IUPAC:
“un elemento cuyo átomo tiene una subcapa d (subnivel de energía) incompleta o que
puede dar lugar a cationes”. Aquellos situados en la parte central del sistema
aperiódico, en el bloque D).
La importancia de esta técnica se basa en la eficiencia que presenta como método en
la obtención de metales puros a partir de sus disoluciones, permitiendo la eliminación
de impurezas o contaminantes.
Además de como método analítico, la electrodeposición es muy utilizada para
recubrimientos electrolíticos (cobrizado, niquelado, cromado, plateado, zincado,
aureado, latonado, etc.), que permiten proteger y dar mejor presentación a artículos
elaborados con materiales que expuestos al medio ambiente se oxidan con facilidad.

4.5) Coulombimetría.

Fundamento.

Las técnicas coulombimétricas de análisis están basadas en la medición exacta de la


cantidad de electricidad que pasa a través de una disolución durante el transcurso de
una reacción electroquímica, hasta completar la oxidación o reducción del analito. Esta
cantidad de electricidad se relaciona matemáticamente con la cantidad de analito
presente.
La sustancia de interés puede ser oxidada (o reducida) en uno de los electrodos
(análisis coulombimétrico primario), puede reaccionar cuantitativamente en disolución
con un producto de la electrolisis (análisis coulombimétrico secundario). En cualquiera
de ambas situaciones, el requerimiento fundamental es que la reacción electródica sea
única y se ejecute con el 100% de eficacia de la corriente.

Existen varios tipos de celdas que se usan en coulombimetría.


Constan de:
 Un electrodo de trabajo.
 Un electrodo auxiliar (también denominado contraelectrodo), que suele estar
separado de la disolución que se van a analizar por un puente salino para evitar
que productos de reacción difundan e interfieran en el análisis.
 Un electrodo de referencia.
La coulombimetría puede llevarse a cabo de dos formas, que condicionan la
instrumentación que se vaya a utilizar:
 Coulombimetría con potencial constante (potenciostática):
En esta modalidad el potencial del electrodo de trabajo se mantiene a un valor
constante que asegure que sólo la especie de interés es la que reaccionará
electroquímicamente.
La corriente es inicialmente elevada, pero disminuye con rapidez y se aproxima a
cero la medida que el analito se va consumiendo, indicando el final la reacción.

 Coulombimetría con corriente constante (amperostática):


En este caso se aplica una corriente constante durante un determinado tiempo. En
este caso es necesario un sistema indicador que determine que la reacción ha
llegado a su punto final. Por eso recibe también el nombre de valoración
coulombimétrica.

Aplicaciones.

La coulombimetría presenta numerosas ventajas sobre otros procedimientos


cuantitativos. Sus resultados son precisos y poseen una exactitud del orden de ±0,2%.
Las valoraciones coulombimétricas son mucho más sensibles que las clásicas.
La coulombimetría con potencial controlado posee todas las ventajas de los métodos
electrogravimétricos sin que sea necesario pesar el producto. Por tanto, como ya se ha
dicho, se pueden analizar cantidades de analito muy pequeñas (muy útil en el análisis
de trazas).
Las aplicaciones más numerosas de los métodos coulombimétricos se encuentran en
el grupo de las valoraciones coulombimétricas a corriente constante.
Estas valoraciones no se diferencian de las volumetrías clásicas más que en la
manera de adicionar el agente valorante, que en vez de utilizar una bureta, se genera
electrolíticamente. De este modo se evita la alteración de conservación difíciles, se
permite el uso de reactivos complicados de manejar, se pueden añadir
microcantidades con mucha exactitud, y se presta más a la automatización, porque
resulta más fácil el control de una corriente eléctrica que el líquido liberado por una
bureta.
Tema 5: técnicas magnéticas.
5.1) Técnicas magnéticas.
En estas técnicas se evalúa el comportamiento de la muestra, o de un componente de
la misma, cuando se somete a la influencia de un campo magnético.
Las propiedades magnéticas de la materia están íntimamente relacionadas con su
estructura; por ese motivo los métodos basados en la investigación de las propiedades
magnéticas son especialmente útiles para el estudio de la estructura de los
compuestos.

Las técnicas que se estudiarán de este grupo:


 Resonancia magnética nuclear (RMN): se basa en la interacción entre los
momentos magnéticos de los núcleos atómicos con un campo magnético externo.
 Espectrometría de masas (siglas en inglés, MS): se basa en la ionización de las
moléculas o átomos que posteriormente pueden ser analizados en función de las
diferentes trayectorias o velocidades con las que se mueven en el seno de campos
electromagnéticos.

5.2) Resonancia magnética nuclear (RMN):

Fundamento.

A mediados de los años 20 del siglo XX, el modelo atómico propuesto por Bohr y
Sommerfield, estaba aún lejos de explicar las observaciones experimentales hechas
por los espectroscopistas. No estaba claro a qué fenómeno físico se debía la
generación de dobletes y tripletes en los espectros de emisión atómica y más
desconcertante aún era el hecho de que en presencia de un campo magnético intenso,
inclusive el átomo de hidrógeno, el elemento químico más sencillo, produce un
espectro con un patrón de líneas múltiples diferente al observado a campos
magnéticos más débiles.
La espectroscopía es el estudio de la interacción entre la radiación electromagnética
y la materia, con absorción o emisión de energía radiante.
Cuando los espectrómetros fueron más sensibles, los espectroscopistas se dieron
cuenta de que muchas de las líneas espectrales no eran sino dos, tres o más líneas
muy juntas, grupos a los que se les denominó “multipletes”.
Las bases teóricas de la espectroscopía de resonancia magnética nuclear fueron
formuladas por W. Pauli en 1924, quien sugirió que ciertos núcleos atómicos tienen las
propiedades de espín y momento magnético y que al exponerlos a un campo
magnético se produciría una división de sus niveles de energía.

Se basa en la capacidad de absorber y emitir radiación electromagnética,


concretamente radiofrecuencias (alrededor de 4 a 900MHz), por parte de ciertos
núcleos atómicos que pueden adoptar dos estados energéticos distintos inducidos por
la presencia de un campo magnético.
En contraste con la absorción UV, visible e infrarroja, los núcleos de los átomos son
los que participan en el proceso de absorción en vez de los electrones exteriores.
Ciertos núcleos atómicos presentan características magnéticas debidas a la carga
eléctrica que poseen y al movimiento de rotación, es decir, poseen un espín, al igual
que los electrones.
Estos núcleos se comportan como pequeños imanes, ya que generan un pequeño
campo magnético.
Se incluyen en este grupo aquellos núcleos que tienen un número impar de protones o
de neutrones.
Entre los núcleos que presentan esta propiedad y que son más estudiados por RMN
están los siguientes: 1H, 13C, 19F y 31P.

El espín representa una propiedad general de las partículas pueden entenderse


fácilmente por analogía con las propiedades de los electrones. Es sabido que los
electrones que circulan por una bobina generan un campo magnético en una
determinada dirección.
De manera análoga, los electrones del átomo circulan alrededor del núcleo y generan
un campo magnético que llevará asociado un determinado momento angular. Existe
un momento angular asociado a la partícula misma ya se trate del electrón, protón y
neutrón, y éste se describe mediante el número cuántico de espín que puede tomar
valores de +1/2 y -1/2.
De particular interés para la RMN es el espín de los protones y neutrones del núcleo
atómico. En el núcleo atómico, cada protón se puede aparear con otro protón con
espín antiparalelo (algo análogo a lo que sucede con los electrones en los enlaces
químico). Los neutrones también pueden hacerlo. Los pares de partículas que resultan
de combinar un espín de signo positivo con otro negativo, da como resultado un espín
neto de valor cero. Por esta razón núcleos con número de protones y neutrones impar
dan lugar a un espín neto, donde el número de desapareamientos contribuye con ½ al
total del número cuántico de espín nuclear, denominado I. Por tanto, entre los
elementos de la tabla periódica, cada isótopo de un determinado átomo, dependiendo
de cual sea el número de protones y neutrones del núcleo, va a tener un determinado
valor de I.

El espín nuclear puede tomar dos valores numéricos característicos: +1/2 y -1/2.
En ausencia de campo magnético externo los espines nucleares, y por tanto los
momentos magnéticos de una población de núcleos, se orientan al azar.
Cuando una población de núcleos de un determinado elemento químico con actividad
magnética se coloca en un campo magnético externo:
 Los núcleos con espín positivo se orientan en la misma dirección que el campo
magnético externo, en un estado de mínima energía.
 Los núcleos con espín negativo lo hacen en dirección opuesta, en un estado de
mayor energía.

Los núcleos irradiados con un pulso intenso de radiación electromagnética de


frecuencia adecuada (radiofrecuencias) pueden absorber esta radiación para
promoverse hasta el nivel superior, cambiando así de espín nuclear. Cuando cesa la
irradiación los núcleos se relajan hasta el nivel inferior mediante la emisión de
radiación de frecuencia correspondiente a la diferencia de energía entre los dos
estados.

La medida de esta emisión inducida constituye la base de la RMN.


Los núcleos pasan de un estado energético a otro por medio de la absorción y
emisión de una determinada radiofrecuencia, efecto que se conoce como
resonancia.

Instrumento.

En a953, Varian Associates comercializó el primer espectrómetro de resonancia


magnética nuclear de alta resolución para estructurales químicos. Desde entonces. El
crecimiento de la espectroscopía de RMN ha sido explosivo, y la técnica ha influido
notablemente en el avance de la química orgánica, de la química inorgánica y de la
bioquímica.
Es imposible que haya transcurrido alguna vez en un tiempo tan corto entre un
descubrimiento científico y su aplicación y aceptación generalizadas.
En la actualidad, los dos tipos generales de espectrómetros de RMN que se utilizan
son el de onda continua y el de impulsos (o de transformada de Fourier).
Los primeros estudios se realizaron con los instrumentos de onda continua.
Hacia 1970 aparecieron en el comercio los espectrómetros de resonancia magnética
nuclear de transformada de Fourier y, a la fecha, este tipo de instrumentos es el que
domina el mercado.
En ambos tipos de instrumentos, la muestra se coloca en un potente campo magnético
con una intensidad de varios teslas (1T=1kg/s2A).

Siempre puedes separar una serie temporal como la suma de muchas ondas de
dimensiones diferentes y con ritmo también diferentes.
Esto es la transformada de Fourier. Es un “separador” de series temporales en ondas
simples.

Se aplica un campo magnético constante y se irradia la muestra con un pulso intenso


de radiofrecuencias durante un intervalo adecuado de tiempo; esto equivale a la
realización de un barrido en un cierto intervalo de frecuencias, de forma que cada
núcleo absorbe la frecuencia necesaria para entrar en resonancia cambiando de
estado de espín nuclear.
Tras el pulso aplicado tiene lugar la emisión de radiofrecuencias por parte de la
muestra, que pueden ser detectadas por la misma bobina generadora de
radiofrecuencias que ahora actúa como receptor, generando una señal que va
disminuyendo en función del tiempo a medida que los núcleos vuelven al estado de
mínima energía.
Una vez acondicionada esta señal es enviada a un ordenador donde se somete a una
transformación de Fourier para proporcionar una intensidad en función de la
frecuencia, y finalmente representar la intensidad en función del desplazamiento
químico.
La RMN por transformadas de Fourier permite la obtención de espectros de alta
resolución en muy poco tiempo (menos de 2s) y con muy pequeñas cantidades de
muestra (menos de 5mg).
La resolución es una medida de la capacidad de distinguir dos picos de relaciones
masa-carga, ligeramente diferentes, en un espectro de masas.

EJEMPLO:
El espectro de alta resolución del etanol revela que dos de las tres resonancias del
protón se desdoblan en más picos.

Los módulos de un instrumento de RMN son:


 Imán para producir el campo magnético en el que se produzca el desdoblamiento
de los núcleos en función de su espín nuclear.
 Compartamento/sonda para la muestra.
 Transmisor de radiofrecuencias, para que tenga lugar la absorción a la frecuencia
de resonancia por parte de cada núcleo.
 Detector para registrar la emisión de radiofrecuencias de los núcleos resonantes.
 Sistema informático para el control del instrumento, la adquisición y el tratamiento
de los datos, y la presentación y el almacenamiento de los espectros.

El componente principal de un instrumento de RMN es el imán.


La sensibilidad de esta técnica depende directamente de la intensidad del campo
magnético aplicado, ya que cuanto mayor sea ésta, mayor es la proporción relativa de
núcleos que cambian de nivel de energía, y por tanto mayor será la intensidad de la
señal generada.
Lo ideal es contar con imanes que generen un campo lo más intenso posible, que
además debe ser homogéneo y reproducible.
En los equipos más modernos y potentes se generan campos magnéticos de hasta
23 teslas (T). La magnitud en la superficie de la Tierra varía de 25 a 65µT.

Aplicaciones.

La técnica de RMN se aplica fácilmente a muestras en disolución e incluso a líquidos


puros si tienen una viscosidad suficientemente baja.
Los disolventes no deben proporcionar señal en la región del espectro en la que se
analiza la muestra.
En el caso de la RMN de 1H se suelen utilizar como disolventes cloroformo, metanol,
acetona o agua deuterados, en función del grado de polaridad de la muestra.
En la actualidad existen instrumentos que permiten la obtención de espectros RMN de
alta resolución del 13C en muestras sólidas.

Por su versatilidad y por la gran información que aporta, es la técnica más usada en la
identificación de nuevos compuestos orgánicos. El rango de posibles aplicaciones es
muy amplio, algunas de ellas son:
 Verificación del grado de pureza de materias primas.
 Análisis de drogas y fármacos.
 Desarrollo de productos químicos.
 Investigación de reacciones químicas.
 Identificación de sustancias desconocidas.
 Análisis de polímeros.
Esta técnica también es aplicable al análisis cuantitativo, teniendo en cuenta que el
área bajo cada pico es proporcional al número de núcleos que lo originan.
Sin embargo su coste y complejidad la hacen inapropiada para este tipo de
aplicaciones, ya que tampoco aporta mayores prestaciones que otras técnicas
instrumentales en este ámbito.
BIOLOGÍA ESTRUCTURAL:
Desde el nivel macromolecular, los principales componentes básicos de nuestro
cuerpo están compuestos por proteínas, ácidos nucleicos, lípidos y carbohidratos.
Estas macromoléculas también tienen la misma importancia en bacterias o virus, que
son los patógenos comunes para nosotros. La estructura y dinámica de estas
macromoléculas y sus complejos determinan sus funciones. Esta información es
fundamental para la mayoría de nuestros problemas médicos.
La RMN proporciona ventajas específicas para determinar la estructura y dinámica de
las macromoléculas.
DETERMINACIÓN ESTRUCTURAL DE PROTEÍNAS:
Las proteínas representan más del 75% de los objetivos farmacológicos actualmente
conocidos. Algunas proteínas también se desarrollan como medicamentos para
completar el cuerpo. El conocimiento de la estructura de una proteína en particular
puede ayudarnos a comprender cómo logar su función específica y cómo solucionar
los problemas cuando algo sale mal.
A 16 de mayo de 2020, había más de 163.949 estructuras de proteínas depositadas
en el banco de datos de proteínas (PDB).
La mayoría de las estructuras se resuelven mediante cristalografía de rayos X, menos
del 10% de las estructuras se resuelven por RMN (estructuras 12.983), especialmente
por RMN en solución. Sin embargo, la RMN en solución todavía ofrece algunas
ventajas particulares sobre la cristalografía. Al estudiar las proteínas en solución, las
proteínas reciben un entorno que imita estrictamente su estado fisiológico y también se
les permite tener su dinámica natural.
DRUG SCREENING:
Los químicos han sintetizado un gran número de compuestos de bajo peso molecular
y los biólogos han caracterizado un gran número de dianas biológicas. Estos
compuestos y sus derivados son los fármacos potenciales. Se necesita un cribado de
alto rendimiento para seleccionar las parejas correctas, el compuesto (como ligando
para su objetivo) y su objetivo de interacción, a menudo proteínas o ácidos nucleicos.
La NMR, especialmente la NMR en solución, se ha aplicado ampliamente en síntesis
química como herramienta analítica para identificar compuestos. Además, en la
investigación farmacéutica, la RMN también se ha desarrollado para seleccionar
rápidamente los compuestos farmacológicos potenciales, así como para detectar la
unión del ligando a sus objetivos macromoleculares biológicos, localizar los sitios
activos, medir la afinidad o la cinética de la unión y optimizar la estructura de los
ligandos en función de los resultados.
METABOLÓMICA: ESTUDIO DE METABOLITOS.
Los metabolitos son los productos intermedios o finales de diferentes reacciones
bioquímicas que se ocurren en un sistema biológico. La metabolómica es una
disciplina dentro de la Biología de Sistemas en la que se evalúan, identifican y
cuantifican los metabolitos de un sistema biológico específico para obtener información
sobre el estado funcional de ese sistema biológico en un momento y condiciones
concretas.
Los metabolitos de un sistema biológico particular suelen ser complicados y muy
variados.
El uso de la RMN como herramienta de diagnóstico a través de la metabolómica
todavía se encuentra principalmente en la etapa de investigación.
NMR EN TEJIDOS CORPORALES:
Esta técnica permite obtener imágenes de múltiples secciones transversales a lo largo
de un determinado eje, de forma que es posible reconstruir a partir de ella imágenes
tridimensionales de órganos y tejidos en el interior del cuerpo del paciente. Es lo que
se conoce como imagen por resonancia magnética o IRM.
Esta técnica implica un riesgo prácticamente nulo en relación con otras técnicas de
obtención de imágenes como los rayos X o la gammagrafía. Sí se debe tener en
cuenta que el intenso campo magnético al que se somete al paciente impide que se
pueda aplicar esta técnica a personas con algún tipo de implante en el que están
presentes materiales conductores de le electricidad o ferromagnéticos.

5.3) Espectrometría de masas.

Fundamento.

Se basa en la ionización de las moléculas o átomos que forman una muestra, de forma
que en una siguiente etapa estos iones pueden ser analizados en función de las
diferentes trayectorias o velocidades con las que se mueven en el seno de campos
electromagnéticos de características variables, y que en general dependen de la
relación masa/carga (m/z) de los iones.
Según el sistema de ionización empleado las moléculas pueden sufrir una
fragmentación más o menos intensa, con lo que los iones analizados pueden estar
constituidos por fragmentos de la molécula original.
Un detector específico cuantifica separadamente cada uno de los iones producidos a
partir de una muestra, dando lugar así a un espectro de masas en el que se
representa la abundancia relativa de cada ion (generalmente en porcentaje sobre el
ion más abundante, al que se le asigna el valor 100), en función de su relación
masa/carga.
Es “habitual” que la carga de los iones sea la unidad, con lo que cada ion o fragmento
iónico se caracteriza básicamente por su masa.
Tradicionalmente la espectrometría de masas se ha clasificado como una técnica
magnética, ya que los primeros sistemas de análisis de iones que se desarrollaron
utilizaban un campo magnético para separarlos. En la actualidad existen sin embargo
sistemas analizadores de iones que hacen uso de otros fundamentos distintos.

La espectrometría de masas es una herramienta analítica útil para medir la relación


masa-carga (m/z) de una o más moléculas presentes en la muestra.
La espectrometría de masas es una rama de la ciencia que se ocupa de todos los
aspectos de los espectrómetros de masas y los resultados obtenidos con estos
instrumentos.
Estas mediciones pueden utilizarse a menudo para calcular el peso molecular exacto
de los componentes de la muestra.
Un espectro de masas es un gráfico de las intensidades detectadas de los iones en
función de sus valores m/z.
En la relación masa-carga la m se refiere al número de masa molecular o atómica y z
al número de carga del ion; sin embargo, la cantidad de m/z es adimensional por
definición.
EJEMPLO:
Un ion con masa de 100u (m=100) que lleva dos cargas (z=2) se observará a
m/z=50.
La unidad de masa atómica o dalton es la unidad estándar de masa definida como la
doceava parte de la masa de un átomo, neutro y no enlazado de 12C, en su estado
fundamental eléctrico y nuclear, y equivale a 1,660 538 921*10-27kg.
La masa de 1 mol de unidades de masa atómica equivale a 1g.
El átomo de C-12 tiene 6 protones y 6 neutrones en su núcleo.
La masa de un átomo en UMA es aproximadamente igual a la suma del número de
protones y neutrones en el núcleo.
 Masa promedio: la masa de un ion, átomo o molécula calculada utilizando las
masas de todos los isótopos de cada elemento ponderados por su abundancia
isotópica natural.
 Masa monoisotópica: masa exacta de un ion o molécula calculada utilizando la
masa del isotopo más ligero de cada elemento isótopo más ligero de cada
elemento.
 Precisión de la masa: suele referirse a la capacidad de separar dos picos
espectrales de masa estrechos.

Aplicaciones.

 Identificar compuestos desconocidos mediante la determinación del peso molecular.


 Cuantificar compuestos conocidos: el uso de un espectrómetro de masas en el
análisis cuantitativo aprovecha su selectividad y sensibilidad exquisitas como
detector, lo que permite atribuir una señal con gran exactitud a una entidad química
concreta, incluso cuando esa sustancia química está presente en una muestra a
baja concentración.
 Determinar la estructura de las moléculas: los principales pasos involucrados en la
determinación de la estructura de un compuesto desconocido son:
 Aislar y purificar el compuesto desconocido.
 Determinar los elementos presentes (fórmula empírica).
 Determinar la fórmula molecular.
 Identificar los grupos funcionales presentes.
 Ensamblar la fórmula de la molécula con la constitución y la estereoquímica
correctas.
 Propiedades químicas de las moléculas.

¿Qué tipo de moléculas puede analizar la EM?

Pesticidas, antibióticos, β-bloqueantes, hormonas, petro-aceites, proteínas o


aminoácidos, ARN/ADN, drogas de abuso, lípidos o grasas, azúcares, productos
farmacéuticos, explosivos y residuos.

¿Qué tipo de moléculas no puede analizar la EM?

Plasma, pelo, orina, sangre, tierra, maquillaje y cremas.


Ventajas.

Las principales ventajas de un espectrómetro de masas en comparación con otras


técnicas son:
 Velocidad de análisis.
 Alta sensibilidad, alcanzando el nivel femto-/attomolar.
 Análisis simultáneo de muchos componentes de las mezclas.
 Información de la estructura de compuestos y modificaciones postraduccionales.
 Posibilidad de combinar con técnicas de separación.
 Análisis cuantitativo.
 Análisis de la composición elemental.
 Análisis de la composición isotópica.
 Identificación inequívoca de la sustancia.

Partes.

El espectrómetro de masas es el instrumento que mide los valores m/z y las


abundancias relativas de los iones.
Partes:
 Fuente de ionización: las moléculas se convierten en iones en fase gaseosa para
que puedan ser desplazadas y manipularlas mediante campos eléctricos y
magnéticos externos.
 Analizador de masas: los iones se clasifican y separan según las relaciones masa-
carga (m/z).
 Sistema de detección de iones: Los iones separados se miden y se envían a un
sistema de datos donde las relaciones m/z se almacenan junto con su abundancia
relativa.
FUENTES DE IONIZACIÓN:
ELECTROSPRAY (ESI):
Esta fuente puede conectarse con relativa facilidad a prácticamente cualquier
analizador utilizado en los instrumentos modernos.
1. Ionización a presión atmosférica: electrospray ioniza una muestra bajo presión
atmosférica. Análisis de sustancias en solución, sin un pretratamiento previo. Es
posible vincular fácilmente el espectrómetro de masas a un sistema de
cromatografía líquida de alta presión, la electroforesis capilar y otras técnicas
afines.
2. Iones con carga múltiple: más de un protón puede unirse o desprenderse de la
molécula. Frecuente en moléculas más grandes y depende del número de grupos
polares en la secuencia de la proteína.
3. Técnica de ionización suave: no ocurre una fragmentación no deseada.
Desolvatación: eliminación o disociación del componente de la partícula como
método de secado de una muestra o material en solución.

MALDI (MATRIX-ASSISTED LASER DESORPTION/IONIZATION):


Desorción: liberación de una sustancia de otra, ya sea desde la superficie o a
través de la superficie.
Técnica de ionización utilizada en la espectrometría de masas que permite el análisis
de macromoléculas lábiles en fase gaseosa y se clasifica como una técnica "suave"
(no proporciona fragmentación espontánea).
Esta técnica es el resultado de la radiación láser (longitud de onda del rango UV, de la
mezcla co-cristalizada de la muestra y la matriz). El papel de la matriz es absorber
energía láser y transferirla a las moléculas de la muestra que no absorben la luz láser
de este rango. Como resultado, la desorción e ionización del analito tiene lugar
después del disparo del rayo láser.
La fuente MALDI funciona en alto vacío, aunque la presión atmosférica
MALDI también está disponible.

1. Haz láser produce: matriz neutra (X), iones de matriz (XH)+, (X-H)- muestra neutra
(M).
2. La matriz transfiere protones a la muestra: XH+ + M ─ ─ X + MH+

La técnica MALDI se asocia con mayor frecuencia a un analizador de tiempo de vuelo


que permite una rápida identificación de macromoléculas.
Una ventaja adicional sobre la ionización por ESI es la mejor tolerancia a las
impurezas como sales o detergentes.
ANALIZADOR DE MASAS:
TIEMPO DE VUELO (TOF):
Al principio, los iones son generados o introducidos entre dos placas con carga
opuesta y se aceleran hacia una de ellas, en la que hay un agujero o una ranura.
A continuación, un haz focalizado de iones sale de la ranura de salida y migra hacia la
región libre de campo del analizador. Los iones se mueven a través de esta región en
un tiempo determinado, es decir, el tiempo de vuelo, que depende de sus valores m/z.
En otras palabras, el analizador TOF separa los iones en función del tiempo
transcurrido entre la formación y la desorción de los iones, y su formación y desorción
de iones, y su detección.
DETECTOR DE MASAS:
Una de las partes más importantes de la espectrometría de masas es el detector, ya
que es crítico para la sensibilidad de todo el instrumento.
Actualmente, en la mayoría de los espectrómetros de masas, se utilizan
multiplicadores de electrones como detectores básicos debido a su rentabilidad,
sensibilidad y fiabilidad. Convierten la energía cinética del ion en un haz de electrones,
generando una corriente medible.
Constan de unos pocos electrodos (10-20) llamados dínodos. Un analizador de salida
de iones golpea el primer dinodo. La energía cinética del ion es suficiente para eliminar
algunos electrones de la superficie del electrodo. Los electrones que salen golpean
consecutivamente los siguientes dinodos. La construcción del multiplicador y las
corrientes en los dinodos permiten la generación de la cascada de electrones que viaja
a través de estos.
El detector de microcanales está formado por miles de multiplicadores de canales en
forma de tubos diminutos recogidos en una placa que se asemeja a un panal. Esto es
especialmente útil en las construcciones basadas en el TOF.
Además, el detector de microcanales detector es capaz de registrar series de iones
en lapsos de tiempo muy cortos (incluso en intervalos de nanosegundos), por lo que
se utiliza de forma rutinaria utilizado en los sistemas MALDI-TOF, donde las series de
iones pueden generarse en pasos de microsegundos (dependiendo de la frecuencia
del láser aplicado).

Aplicaciones.

MALDI BIOTYPER:
El sistema MALDI identifica los microorganismos utilizando la espectrometría de
masas MALDI-TOF para determinar una huella única de un organismo. En concreto, el
sistema MALDI Biotyper mide las proteínas altamente abundantes que se encuentran
en todos los microorganismos.
Los patrones característicos de estas proteínas altamente abundantes se utilizan para
identificar de forma fiable y precisa un microorganismo concreto comparando el patrón
respectivo con una extensa biblioteca de referencia (comparación basada en la
coincidencia de patrones →posiciones de picos, intensidades y frecuencias).
Una vez finalizada la adquisición de los datos espectrales se genera un informe.
DESCUBRIMIENTO DE BIOMARCADORES:
Un número relativamente pequeño de casos y controles se analizan mediante
descubrimiento sin hipótesis proteómica en gran profundidad, lo que idealmente
conduce a la cuantificación de miles de proteínas. Esto puede dar lugar a decenas de
candidatos con expresión diferencial que se analizan mediante métodos de proteómica
dirigida en cohortes de tamaño moderado.
Por último, para uno o unos pocos de los candidatos a biomarcadores restantes, se
desarrollan inmunoensayos que se validan en grandes cohortes y se aplican en la
clínica.
En la fase de descubrimiento se investiga una gran cohorte con la mayor cobertura
posible del proteoma. En la fase de validación, se analiza otra cohorte para confirmar
los biomarcadores candidatos, pero se utiliza la misma tecnología y un tamaño de
cohorte similar. Ambas cohortes pueden analizarse en paralelo, pero sólo las proteínas
que son estadísticamente diferentes en ambos estudios (círculo naranja frente al verde
en la parte derecha del panel). en la parte derecha del panel A) son biomarcadores
validados.
 En la actualidad, los médicos toman decisiones sobre el tratamiento basándose en
unas pocas pruebas de biomarcadores plasmáticos combinados con el historial del
paciente y los datos clínicos.
 La adición de nuevos biomarcadores sobrecargaría rápidamente el paradigma
actual, lo que daría lugar a decisiones clínicas subóptimas.
 Los paneles multiproteicos y los datos del pasado se combinan de forma
algorítmica. Esto ayudará al médico a hacer recomendaciones más precisas
recomendaciones de tratamiento más precisas, sin dejar de tener en cuenta el
historial del paciente y los datos clínicos.
PROTEÓMICA UNICELULAR:
Los organismos multicelulares muestran una amplia heterogeneidad en la expresión
de proteínas en diferentes condiciones y durante un período de tiempo. Por lo tanto, el
análisis en un momento concreto de las proteínas de una célula a menudo pasa por
alto esa heterogeneidad celular perdiendo conocimiento del efector de la respuesta
analizada y sobre las regulaciones de procesos biológicos clave puede permanecer sin
definir.
Por ello, surge la necesidad de tecnologías de “single-cell proteomics” (proteómica
unicelular), porque actualmente los equipos tiene el potencial de identificar una gran
cantidad de proteínas expresadas dentro de una única célula diana individual o una
población de células diana individualmente en un momento dado (instantánea), o
pueden ser dirigidos para generar información sobre un varios de parámetros en las
mismas células a lo largo del tiempo.
La generación mapa de expresión de proteínas (perfil proteómico) de ciertas células
individuales diana, puede proporcionar información sobre los procesos de desarrollo,
progresión de una enfermedad y biomarcadores de diagnóstico, efectos del
tratamiento y pronóstico para que los científicos comprendan, controlen, modifiquen y
mejoren la vida de los organismos. La tecnología single-cell proteomics se encuentra
en su fase inicial de desarrollo y aún tiene que progresar de manera integral para
aplicaciones biológicas.
Tema 6: técnicas térmicas.
6.1) Técnicas térmicas.
Se basan en la evolución de las propiedades de una muestra cuando se somete a un
proceso de calentamiento.
Los efectos del calor sobre los materiales pueden ser variados y producir cambios en
muchas de sus propiedades, dando lugar así a un variado grupo de técnicas.
Las principales aplicaciones de estas técnicas se encuentran en el ámbito de:
La investigación.
El control de calidad de procesos de fabricación de materiales cerámicos, poliméricos,
etc.

Los métodos térmicos difieren en las propiedades que se miden y en los programas de
temperatura aplicados. Hay más de una docena de métodos térmicos.
 Termogravimetría o análisis termogravimétrico: la muestra se coloca en una
atmósfera controlada y se registran cambios en su masa en función de la
temperatura, o en función del tiempo mientras se mantiene constante la
temperatura. El resultado es un termograma o curva de descomposición térmica.
 Análisis térmico diferencial (ATD): se registra la diferencia de temperatura entre
la muestra y un material de referencia mientras se someten al mismo programa de
calentamiento.
 Calorimetría diferencial de barrido (DSC): se registra la diferencia en el cambio
de entalpía entre la muestra y un material de referencia, cuando ambos se someten
a un programa controlado de calentamiento para mantenerlos a la misma
temperatura. En resumen, mide la energía que es necesaria suministrar a la
muestra para mantenerla a la misma temperatura que el material de referencia.
 Termodilametría: se miden los cambios en las dimensiones de un material en
función de la temperatura.
 Termooptometría: se mide la evolución de alguna propiedad óptica en función de
la temperatura.
 Análisis electrotérmico: cambios en la conductividad eléctrica en función de la
temperatura.
 Análisis microtérmico: combina el análisis térmico con la microscopía de fuerza
atómica.

6.2) Termogravimetría.

Fundamento.

En un análisis termogravimétrico se registra continuamente la masa de una muestra


colocada en una atmósfera controlada en función de la temperatura o del tiempo en
que aumenta su temperatura (por lo general, en forma lineal con el tiempo).
La representación de la masa o del porcentaje de masa en función del tiempo o de la
temperatura se denomina termograma o curva de descomposición térmica.

Los instrumentos empleados en termogravimetría constan de:


 Una microbalanza sensible (termobalanza).
 Un horno.
 Un sistema de gas de purga que genera una atmósfera inerte o reactiva.
 Un sistema computarizado para el control del instrumento y la adquisición y el
proceso de los datos.
Además, existe la opción común de añadir un sistema para sustituir el gas de purga en
aquellos casos en los que este gas se tiene que cambiar durante el experimento.

Instrumento.

Las termobalanzas o balanzas térmicas que tienen la capacidad de proporcionar


información cuantitativa sobre muestras cuyas masas van desde 1mg hasta 100g. el
tipo de balanza más común acepta sólo masas entre 1 y 100mg. Muchas de las
balanzas son capaces de detectar cambios en la masa de hasta 0,1µg.
El soporte de la muestra debe estar alojado en el horno, el resto de la balanza debe
estar aislado térmicamente de aquel.
Un cambio de masa de la muestra causa una desviación del brazo. El desequilibrio
resultante se detecta en la bobina (E), que está situada entre los polos de un imán
permanente (F).
Los datos de masa frente a la temperatura se representan en tiempo real o se
almacenan para trabajar con ellos después.

Los hornos para termogravimetría van desde la temperatura ambiente hasta 1000ºC,
aunque algunos se usan con temperatura de hasta 1600ºC. para evitar la transferencia
de calor a la balanza es necesario aislar y refrigerar el exterior del horno.
Las tasas de calentamiento se pueden seleccionar desde 0.1ºC/min hasta 100ºC/min.
Se utiliza nitrógeno o argón para purgar el horno y evitar la oxidación de la muestra.

Portamuestras: las muestras se colocan en recipientes hechos de platino, aluminio o


alúmina. El platino se usa más porque es inerte y fácil de limpiar.
Los volúmenes de los recipientes para la muestra varían de 40µL a más de 500µL.
En la mayoría de unidades el manejo y análisis de las muestras son procesos
automáticos con ayuda de un programa de control:
 Tara del recipiente de la muestra.
 Carga y el peso.
 Calentamiento.
 Enfriamiento del horno.
 Descarga del recipiente.
Control de la temperatura: la temperatura puede obtenerse al introducir un pequeño
termopar directamente en la muestra. Este procedimiento rar vez se utiliza por las
posibles descomposiciones catalíticas de las muestras, la posible contaminación de
las mismas y a los errores al determinar el peso que se generan en las terminales del
termopar.
Las temperaturas registradas se miden con un pequeño termopar ubicado lo más
cerca posible del recipiente de la muestra.
Las temperaturas registradas tienen entonces un retraso o un adelanto respecto a la
temperatura real de la muestra.
Un termopar es un transductor formado por la unión de dos metales distintos que
produce una diferencia de potencial muy pequeña (milivoltios) que es función de la
diferencia de temperatura entre uno de los extremos denominado “punto caliente”
o “unión caliente” o de “medida” y el otro llamado “punto frío” o “unión fría” o de
“referencia”.

Aplicaciones.

La información que proporciona es cuantitativa al verificar la masa del analito con


ayuda de la temperatura, pero limitada a las reacciones de descomposición y de
oxidación, y a procesos como vaporización, sublimación y desorción.
Entre las aplicaciones más importantes están el análisis de composición y los perfiles
de descomposición de sistemas con múltiples componentes. Los patrones de
descomposición son característicos de cada tipo de polímero y pueden utilizarse con
fines de identificación.

Definición de las condiciones térmicas necesarias para obtener una especie pura.
 Las regiones horizontales perfectamente definidas corresponden a los intervalos de
temperatura en los que los compuestos de calcio indicados son estables.
 Como el análisis termogravimétrico es capaz de proporcionar información
cuantitativa, la determinación de niveles de humedad es otra importante aplicación.
Se pueden determinar niveles de 0.5% y algunas veces menores.

 Conocer el rango de estabilidad térmica de los materiales: problemas de los


peligros de almacenamiento de explosivos, periodo de vigencia de los fármacos,
condiciones de secado de tabaco y cultivos.
 Conocer mediante el uso de una atmósfera de aire u oxígeno, las condiciones en
que se oxidan los metales o se degradan los polímeros.
 Se puede determinar la cinética de una reacción a partir de la curva TG de un
compuesto cuando esta describe un proceso bien definido.

6.3) Análisis térmico diferencial (ATD).

Fundamento.

Se mide la diferencia de temperatura entre una sustancia y un material de referencia


en función de la temperatura cuando la sustancia y el patrón se someten a un
programa de temperatura controlado.
Los picos del análisis son el resultado de cambios físicos o de reacciones químicas
inducidos por la temperatura en la muestra. Entre los procesos físicos que son
endotérmicos están: fusión, vaporización, sublimación, absorción y desorción. La
adsorción y la cristalización por lo general son exotérmicas.
Las reacciones químicas pueden ser exotérmicas (oxidación en aire u oxígeno,
polimerización y reacciones catalíticas) o endotérmicas (deshidratación, reducción en
atmósfera gaseosa y descomposición).
Aplicación.

Se considera una técnica cualitativa. Aunque es capaz de medir las temperaturas a las
cuales ocurren varios cambios, es incapaz de medir la energía asociada con cada
fenómeno.
Es una herramienta que se utiliza ampliamente para estudiar y caracterizar polímeros
de forma muy considerable en la industria de la cerámica y de los metales.
Es apta para estudiar procesos a altas temperaturas (hasta 2400ºC) y tamaños de
muestra relativamente grandes de cientos de miligramos.
Se utiliza para estudiar las temperaturas de descomposición, transiciones de fase,
puntos de fusión y de cristalización y estabilidad térmica.
El método térmico diferencial proporciona también una manera sencilla y exacta para
determinar los puntos de fusión, ebullición y descomposición de compuestos
orgánicos.

6.4) Calorimetría diferencial de barrido (DSC).

Fundamento.

Este método de análisis térmico es usado por su rapidez, sencillez y disponibilidad.


La muestra y la referencia se colocan en recipientes especiales en el instrumento. Los
calentadores suben la temperatura a una tasa especificada o bien, mantienen una
temperatura determinada. El instrumento mide la diferencia en el flujo de calor entre la
muestra y la referencia.

La diferencia básica entre la calorimetría de barrido diferencial y el análisis térmico


diferencial estriba en que la primera es un método calorimétrico en el que se miden
diferencias de energía. Por el contrario, en el análisis térmico diferencial, se registran
diferencias de temperatura.
Se considera que la calorimetría de barrido diferencial es una técnica cuantitativa, a
diferencia del análisis térmico diferencial.

Hay 3 tipos de instrumentos para DSC:


 DSC de potencia compensada.
 DSC de flujo de calor.
 DSC modulada.
Aplicaciones.

La DSC se utiliza para determinar las características de los materiales.

Entre las aplicaciones cuantitativas están la determinación de los calores de fusión y el


grado de cristalización de materiales cristalinos. Las temperaturas de transición vítrea
y los puntos de fusión son útiles en la clasificación cualitativa de materiales, aunque
los métodos térmicos no se pueden usar solos para la identificación.
Asimismo, los puntos de fusión son muy útiles para establecer la pureza de varias
preparaciones. Por tanto, los métodos térmicos se aplican a menudo en el control de
calidad.

Es una técnica que se usa para caracterizar la estabilidad de una proteína u otra
biomolécula directamente en su forma nativa. Lo hace mediante la medición del
cambio de calor asociado con la desnaturalización térmica de la molécula cuando se
calienta a un ritmo contante.
Una biomolécula en solución está en equilibrio entre sus conformaciones nativa
(plegada) y desnaturalizada (desplegada). Cuanto mayor es el punto medio de
transición térmica (Tm), más estable es la molécula. Ka DSC mide la entalpía (∆H) de
despliegue que resulta de la desnaturalización inducida por calor.

 Caracterización y selección de las proteínas más estables o los posibles candidatos


para el desarrollo de productos bioterapéuticos.
 Estudios de interacción de ligandos.
 Optimización rápida de las condiciones de purificación y fabricación.
 Determinación fácil y rápida de las condiciones óptimas para formulaciones de
líquidos.
 Ensayo rápido para indicar la estabilidad de proteínas objetivo para pruebas.
Tema 7: técnicas radioquímicas.
7.1) Técnicas radioquímicas.
Están basadas en la medida de la radiación que emiten los isótopos radiactivos de
determinados elementos.
Esta medida se relaciona con la concentración del analito en la muestra.
Los distintos métodos radioanalíticos se pueden diferenciar por el origen de la
radioactividad:
 La radioactividad puede provenir espontáneamente de la muestra.
 La radioactividad puede ser inducida por irradiación o bombardeo de la muestra con
radiación o partículas de características adecuadas.
 La radioactividad puede ser introducida en la muestra por mezcla con una cantidad
conocida.

Como ventaja estos métodos presentan una alta sensibilidad, siendo a la vez
específicos, por lo que se reduce o elimina incluso la necesidad de separaciones
previas.
Como desventaja presentan los riesgos asociados al empleo de sustancias
radiactivas, así como la necesidad de instalaciones y equipos adecuados.
Las técnicas que se van a tratar son:
 Análisis por activación de neutrones.
 Dilución isotópica.
 Radioinmunoensayo.

7.2) Núclidos o nucleídos radiactivos.


Los núcleos atómicos están constituidos por un conjunto de protones y de neutrones,
excepto el hidrógeno, que consta de un solo protón. Las propiedades químicas de un
átomo están determinadas por su número atómico Z, que es el número de protones
que contiene su núcleo.
Un núclido/ nucleído se caracteriza por la cantidad de protones y neutrones que hay
en el núcleo. La suma de la cantidad de neutrones y de protones en un núcleo es el
número de masa A.
Los isótopos de un elemento son átomos que tienen el mismo número atómico (z) pero
diferente número de masa (a); es decir, los núcleos de los isotopos de un elemento
contienen la misma cantidad de protones pero diferente cantidad de neutrones.
Dos nucleídos que difieren en el número másico pero tienen un mismo número
atómico son “especies” de un mismo elemento químico. Se dice que estos dos
nucleídos son isótopos de dicho elemento.

Nucleído: especie atómica caracterizada por su número másico, su número atómico y


el estado energético de su núcleo y con una vida media, en este estado,
suficientemente larga para que sea observable (RAE).

Los núclidos estables son aquellos que nunca se han desintegrado en forma
espontánea.
Los radionúclidos experimentan desintegración espontánea que finalmente da lugar a
núclidos estables.
La desintegración radiactiva se produce por:
Emisión de radiación electromagnética en forma de rayos X o rayos gamma, con la
formación de electrones, positrones y núcleos de helio.
Fisión en la que un núcleo se rompe en núcleos más pequeños.
7.3) Análisis de la actividad neutrónica.

Fundamento.

Es un método de determinación cualitativa y cuantitativa de elementos basado en la


medición de la radiación característica de los radionucleidos que se forman al irradiar
materiales con neutrones.
La técnica del análisis por activación neutrónica se basa en la medición de la
radicación liberada por el decaimiento (emisión rayos gamma) de los núcleos
radiactivos formados al irradiar los materiales con neutrones.
Tiene la suficiente sensibilidad para medir ciertos elementos a nivel de nanogas e
incluso por debajo. Permite analizar a la vez hasta 69 elementos y además es una
técnica no destructiva.

Muchos procesos de emisión alfa y beta dejan un núcleo en estado excitado, que
vuelve al estado fundamental en una o más etapas cuantizadas con la liberación de
fotones de rayos gamma monoenergéticos.
Los rayos gamma no se distinguen de los rayos X de igual energía, excepto por su
fuente: los rayos gamma se producen por relajaciones nucleares y los rayos X
provienen de relajaciones de los electrones.
El espectro de emisión de los rayos gamma es característico para cada núclido y, por
tanto, útil para identificar radionúclidos.

Aplicación.

Después de las actividades de enseñanza y capacitación, el análisis por activación


neutrónica es la aplicación de los reactores de investigación más ampliamente
utilizada.
Los reactores de investigación desempeñan un papel importante en el desarrollo
de la ciencia y la tecnología nucleares. Se utilizan en investigación básica,
producción de radioisótopos, dispersión neutrónica y radiografía, así como parra la
caracterización y el ensayo de materiales.

APLICACIONES EN MEDICINA:
Los elementos traza (Ca, Cu, Co, I, Mg, Se, Fe, Zn, Hg, Ba, Cr) tienen una influencia
importante en los procesos fisiológicos y bioquímicos. La abundancia relativa y el
equilibrio de diferentes elementos en cantidades de trazas influyen fuertemente en la
aparición y el avance de muchas enfermedades (cáncer de piel, pecho, colorectal;
disfunción de la glándula tiroides).
APLICACIONES EN MATERIALES:
 Evolución de los daños en el material de la vasija de los reactores nucleares que
está sujeto a la irradiación del bombardeo de neutrones provenientes del núcleo del
reactor.
 Contenido de elementos materiales.

7.4) Dilución isotópica/radioinmunoensayo (RIA).

Fundamento.

Los métodos de dilución isotópica requieren la preparación de una cantidad de analito


en forma radiactiva.
Una cantidad conocida de esta especie marcada isotópicamente se mezcla con la
muestra no arcada que se desea analizar.
Después de un tratamiento que asegure la homogeneidad de la mezcla entre la
especie activa y la no activa, una parte del analito se aísla químicamente en forma de
un compuesto purificado.
Si se cuenta con una porción conocida de este producto, se puede calcular el grado de
dilución del material activo y relacionarlo con la cantidad de sustancia no activa en la
muestra original.
Puede determinar alrededor de 30 elementos en distintas matrices. Los
procedimientos de dilución isotópica se pueden usar para la determinación de distintas
sustancias como vitamina D, vitamina B12, sacarosa, insulina, penicilina, diversos
aminoácidos, corticosterona, distintos alcoholes y tiroxina.

Es comparable con el método de Lincoln-Petersen.

Un ejemplo de una técnica en la que se aplica el principio de la dilución de isótopos en


las reacciones anticuerpo-antígeno es el radioinmunoensayo (RIA).
El perfeccionamiento de esta técnica le dio a Rosalyn Yalow el Premio Nobel en
Fisiología o Medicina (1/2) en 1977.
Se una mezcla de un antígeno radiactivo y anticuerpos específicos para el antígeno.
Luego se añaden cantidades conocidas de antígenos sin marcar, los cuales compiten
por los cuales compiten por los sitios de enlace en el anticuerpo.

Cueva de calibrado: a medida que aumenta la concentración de antígeno sin marcar,


más antígeno radiactivo es desplazado de los anticuerpos y se incrementa la relación
entre antígeno libre y enlazado.

Medidas: las muestras desconocidas se someten al mismo procedimiento y se


determina la relación entre antígeno libre y antígeno enlazado al anticuerpo.
Luego se determina la cantidad de antígeno sin marcar presente en las muestras a
partir de la curva de calibrado.

La ventaja más importante de RIA en la medición de compuestos en fluidos biológicos


es la precisión y extrema sensibilidad que no puede ser conseguida por otras técnicas
analíticas (excepto GC-MS).

7.5) Inmunoensayos (no radiactivo).

Fundamento.

Los inmunoensayos son métodos bioanalíticos en los que la cuantificación del analito
depende de un antígeno (analito) y un anticuerpo.

Inmunoensayo enzimático: es el análogo al RIA excepto que el marcador es una


enzima en lugar de un radioisótopo. El enfoque básico para el uso de una enzima
como una etiqueta de inmunoensayo es poder unirla químicamente al anticuerpo.

La técnica ELISA (“ensayo por inmunoabsorción ligado a enzimas”) es una técnica


de inmunoensayo en la cual un antígeno inmovilizado se detecta mediante un
anticuerpo enlazado a una enzima capaz de generar un productor detectable,
como cambio de color o algún otro tipo.

Aplicaciones: COVID.

1) Se agrega una muestra de plasma de un paciente a un pocillo que contiene el


antígeno antígeno específico del SARS-CoV-2.
2) Los anticuerpos del paciente contra el SARS-CoV-2 se adhieren a las proteínas del
SARS-CoV-2 recubiertas en el fondo del pozo y el resto de la muestra líquida se
lava.
3) Se agregan otros anticuerpos producidos en el laboratorio con enzimas adheridas y
se adhieren a los anticuerpos del paciente presentes en el pozo como una
“segunda capa”. El exceso da anticuerpo con enzima adherida se elimina por
lavado, por lo que la enzima solo está presente en los pozos cuando un paciente ha
producido anticuerpos contra el COVID-19.
4) Se agrega una molécula incolora especial al pozo.
5) En los pozos que contienen muestras de pacientes que han sido afectados con el
COVID-19 y también tienen anticuerpos contra el virus, los anticuerpos de esa
“segunda capa” con enzima actúan sobre la molécula incolora especial que hace
que cambien rápidamente de color indicando un resultado positivo.
6) El cambio de color se puede leer a simple vista o con una máquina llamada
espectrofotómetro.
7) Si el paciente no hubiera sido infectado con el COVID-19, el anticuerpo ligado a las
enzimas no almacenaría nada en el pozo y la molécula incolora no cambiaría de
color.

7.6) Bioensayo (no radiactivo).

Aplicaciones: clínica.

Los bioensayos son pruebas en las que (micro)organismos vivos en condiciones de


laboratorio se utilizan como un agente de indicadores para determinar la presencia o
concentración de un compuesto o un efecto ambiental.
Tema 8: técnicas de separación.
8.1) Técnicas de separación.
Tanto para análisis cualitativo como cuantitativo es habitual una etapa previa de
separación de los componentes de la muestra, que puede tener como objetivo la
separación de interferentes o la concentración del analito para conseguir una mayor
sensibilidad.
Algunas de estas técnicas de separación han alcanzado un notable grado de
tecnificación, aplicándose mediante instrumentos complejos. Además, la
instrumentación correspondiente a estas técnicas incluye módulos para la detección y
cuantificación de la señal que genera cada componente de la muestra.
Aunque no responden estrictamente al esquema descrito para explicar las técnicas
instrumentales, se incluyen dentro de este grupo algunas técnicas de separación como
son la centrifugación, las cromatografías de alta eficacia y la electroforesis.

8.2) Centrifugación.

Fundamento.

SEDIMENTACIÓN POR GRAVEDAD:


Se produce sedimentación por gravedad si la densidad de la partícula es mayor que la
densidad del disolvente, esto se puede deducir a partir del Principio de Arquímedes y,
según este principio, cuando se sumerge un cuerpo en un fluido, el cuerpo
experimenta una fuerza Empuje de sentido opuesto al peso, que tiene igual valor que
el peso del líquido que ha desplazado.
Por lo tanto, sobre la partícula sumergida están actuando tres fuerzas que influyen
sobre el movimiento:
 Fuerzas que favorecen: P (peso de la partícula).
 Fuerzas que dificultan: E (empuje, fuerza de sustentación) y FR (fuerza de
resistencia al avance).

Algunos de los principios básicos en la teoría de la sedimentación se derivan de la Ley


de Stokes, la cual se refiere a la fuerza de fricción experimentada por objetos esféricos
moviéndose en el seno de un fluido viscoso en un régimen laminar de bajos números
de Reynolds; en general, esta ley es válida en el movimiento de partículas esféricas
pequeñas moviéndose a velocidades bajas.

El número de Reynolds (Re) es un número adimensional utilizado en mecánica de


fluidos, diseño de reactores y fenómenos de transporte para caracterizar el
movimiento de un fluido, su valor indica si el flujo sigue un modelo laminar o
turbulento.
Para simplificar el problema se suele considerar que las partículas a aislar en biología
son esferas; cuando éstas se encuentran en un campo gravitacional y alcanzan una
velocidad constante, la fuerza neta sobre cada esfera es igual a la fuerza de
resistencia que opone el líquido a su movimiento.
En este caso particular de la ley de Stokes se comprueba qué:
 La velocidad de sedimentación de cada partícula es proporcional a su tamaño.
 La velocidad de sedimentación es proporcional a la densidad de la partícula y a la
del medio.
 La velocidad de sedimentación es nula cuando ambas densidades se igualan.
 La velocidad de sedimentación disminuye al aumentar la viscosidad del medio.
 La velocidad de sedimentación aumenta al aumentar el campo de fuerza.
Las velocidades de sedimentación que se dan en condiciones naturales son muy
bajas; a veces, interesa incrementar esa velocidad de sedimentación, para lo que se
utiliza la técnica de la centrifugación.
CENTRIFUGACIÓN:
Es una técnica de sedimentación acelerada gracias al uso de fuerza centrífuga, se
aplica al análisis o a la separación de mezclas de partículas, células, orgánulos o
moléculas.
Casi cualquier proceso biológico o biotecnológico tendrá en algún momento un paso
de centrifugación.
Esta técnica permite separar sólidos de líquidos, o líquidos de líquidos de diferentes
densidades mediante la utilización de una centrifuga; cuando se centrifuga una
solución, se rompe la homogeneidad y se produce la separación del soluto y del
disolvente.
Las primeras partículas en sedimentar son las de mayor masa.
Fuerzas que actúan sobre la partícula son:
 Peso (P)
 Fuerza centrífuga (Fc) debido al giro que experimenta.
La suma de estas dos fuerzas da como resultante el Peso Efectivo (PE), la fuerza que
realmente produce la sedimentación, la que lleva la partícula al fondo del tubo.

Tipos de centrifugación.

Los tipos de centrifugación varían de acuerdo al propósito de su aplicación y las


condiciones en las cuales se realiza el proceso, estas condiciones pueden ser
diferentes dependiendo del tipo de muestra y de la naturaleza de lo que se desea
separar y/o analizar.
Según el objetivo o propósito de su realización:
 Centrifugación preparativa: se usa principalmente para aislar o separar
moléculas, partículas, fragmentos celulares o células, para su posterior utilización o
análisis. La cantidad de muestra que generalmente se usa con este fin es
relativamente grande.
 Centrifugación analítica: se realiza con la finalidad de medir o analizar las
propiedades físicas como son: el coeficiente de sedimentación y la masa molecular
de las partículas sedimentada.
Existen otros criterios de clasificación dependiendo de las características en las cuales
se ejecuta el proceso de centrifugación; según esto podemos distinguir entre:
a) Centrifugación diferencial: separación de partículas por su diferencia de
velocidad de sedimentación, la cual se relaciona directamente con sus tamaños: las
que presentan mayor tamaño sedimentan en el fondo del tubo (precipitado o pellet),
mientras que, las que tienen menor tamaño, van a permanecer suspendidas
(sobrenadante).
Se utiliza para someter una muestra a centrifugación, generalmente con rotor
angular, por un tiempo y velocidad determinados.
Se puede emplear para realizar la separación de orgánulos celulares o células
completas.
Este tipo de centrifugación consiste en someter una muestra a centrifugación,
generalmente con rotor angular, por un tiempo y velocidad determinados.

b) Centrifugación zonal o en bandas: separación de los componentes de la muestra


fundamentada en la diferencia de masa (S) al atravesar un medio con un gradiente
de densidad preformado.
La densidad máxima del gradiente no ha de exceder a la de las partículas a
separar; la muestra se coloca encima del gradiente del tubo de ensayo, se
centrifuga a alta velocidad y se produce la separación en diferentes bandas
dispuestas a lo largo del medio.
Es importante controlar bien el tiempo para evitar que todas las moléculas o
partículas de la muestra sedimenten en el fondo del tubo, las partículas con menor
valor de S quedan al inicio del medio, mientras que las que son más grandes o
tienen mayor S, se dirigen hacia el fondo del tubo.

Svedberg:
El coeficiente de sedimentación, s, tiene unidades de tiempo y habitualmente se
mide en Svedberg, S, y se define como la razón entre la velocidad V a la que
sedimenta la partícula y la aceleración centrífuga aplicada, C; este coeficiente se
relaciona con el radio y la densidad de la molécula, además de, con la densidad y
viscosidad del medio.
c) Centrifugación isopícnica o de equilibrio de sedimentación: separación de las
partículas en un gradiente de densidades en función de la densidad de las mismas,
se especializa en separar macromoléculas, aunque sean de un mismo tipo (el ADN
encaja muy bien en este tipo de macromoléculas, ya que presenta variaciones en
las secuencias y cantidad de sus bases nitrogenadas; y por lo tanto, sedimentan a
diferentes velocidades)
El tiempo de centrifugación es lo suficientemente largo (hasta 1 o 2 días) como para
que se alcance el equilibrio de sedimentación. Lo más frecuente es mezclar la
muestra con el material que formará el gradiente y generar un gradiente
autoformado a la vez que se hace la separación; requiere ultracentrifugación para
que se forme el gradiente.
La densidad máxima del gradiente final DEBE siempre exceder a la densidad de las
partículas. Así la sedimentación final (preciptado en el fondo del tubo) no se
produce si se controlan las condiciones de centrifugación, ya que las partículas
flotan sobre un "colchón" de material que posee una densidad superior a la de
éstas. Se emplea para separar partículas similares en tamaño pero distintas en
densidad.

Tipos de centrífugas.

 Centrífugas de sobremesa (centrífugas clínicas, médicas o de baja velocidad):


se utilizan para separar partículas grandes, tienen tubos de varios mL de capacidad
y alcanzan velocidades de giro máximas de 4000 - 5000 rpm.
 Minicentrífugas: son variación de las anteriores ya pueden lograr velocidades de
giro de 10.000 rpm o más y utilizan microtubos (tubos “Eppendorf”) de 0,2, 0,5, 1,5
o 2 mL.
 Centrífugas de alta velocidad (supercentrífugas): se utilizan para separar
fracciones de células (no ribosomas, virus o macromoléculas), alcanzan
velocidades de giro de entre 18.000 y 25.000 rpm y cuentan con sistemas de
refrigeración (condensadores y compresores), además, pueden hacer vacío.
 Ultracentrífugas: se utilizan para separar proteínas superan las 50.000 o 100,000
rpm, por lo que tienen sistemas auxiliares para refrigerar no sólo la cámara del rotor
donde están las muestras sino también el motor.

Instrumento.

Se puede regular velocidad, tiempo y temperatura.


Las centrifugas cuentan con las siguientes partes:
 Rotor: es la parte que sujeta los tubos que contienen el líquido a ser centrifugado;
varían en tamaños y tipos, encontrando rotores fijos o intercambiables,
dependiendo del modelo de centrifuga.
 Eje: conecta el rotor con el motor y es el encargado de transmitir la fuerza del motor
para hacer girar el rotor.
 Motor eléctrico: dependiendo de su potencia, permite a la centrifuga operar a
determinadas revoluciones por minuto.
Estas partes se encuentran protegidas, generalmente, por un tipo de cubierta que
ofrece soporte a sus partes y protege al usuario durante su uso (física y
acústicamente); en el exterior están los controles de velocidad y tiempo.
 Sistema de freno: permite al rotor llegar a una posición sin movimiento, pocos
segundos después de finalizado el proceso.
 Sistema de refrigeración: para mantener la integridad de muestras biológicas
delicadas.

En las ultracentrífugas, la velocidad extrema (más de 100.000 rpm), hace que sea
necesario hacer un intenso vacío en la cámara de la centrífuga para evitar el
calentamiento de rotor y muestra.

Tipos de rotor.

 De ángulo fijo: se utiliza para separaciones más simples y el adaptador del tubo
tiene una cierta inclinación fija respecto al eje de giro.
 Oscilantes, flotantes o basculantes: el adaptador del tubo está unido al brazo del
rotor por su parte superior, pero no está fijo a él; los tubos pierden la verticalidad
cuando se inicia el proceso a causa de la fuerza centrífuga y se sitúan
perpendiculares al eje de rotación (isopícnicos).
 Verticales: son típicos de ultracentrífugas en separaciones isopícnicas y posee
rotores macizos con compartimentos esculpidos paralelos al eje.

Complementos a la centrifugación (Phase Lock Gel).


APLICACIONES:
 ADN genómico de colas de ratón: utilice PLG Heavy para mejorar el aislamiento
de ADN genómico de colas de ratón utilizando un protocolo de extracción orgánica
Sandart proteinasa K/SDS.
 Aislamiento de ADN de plásmido: utilice PLD Heavy para mejorar el aislamiento
de ADN de plásmido utilizando protocolos estándar de lisis alcalina/extracción con
fenol.
 Aislamiento de ARN total: utilice PLG Heavy para mejorar el aislamiento de ARN
total de células y tejidos mediante un método de isotiocianato de guanidinio/fenol
ácido modificado.
 Aislamiento de ADN genómico: use PLG Light para mejorar el aislamiento de
ADN genómico utilizando procedimientos estándar de proteinasa K/SDS.
 Aislamiento de ADN de geles de agarosa: utilice PLG Light para mejorar el
aislamiento de fragmentos de ADN de geles de agarosa mediante procedimientos
de extracción con fenol.
 Aislamiento de ADN de fagos Lamba o M13: utilice PLG Light para mejorar el
aislamiento de ADN de bacteriófagos mediante protocolos de purificación estándar.

Centrifugación en rotores de flujo continuo.

Un rotor de flujo continuo permite centrifugar grandes volúmenes de material a fuerzas


centrífugas elevadas SIN el tedio de llenar y decantar gran cantidad de tubos o tener
que poner en marcha y detener el rotor con frecuencia.
Al utilizar este rotor, o está recogiendo un sobrenadante o raspando un sedimento.
La muestra penetra en el rotor por su parte central de modo continuo durante la
centrifugación. El material que sedimenta se va acumulando sobre la pared del rotor,
por acción del campo centrífugo. De modo simultáneo a la entrada de la muestra, y
también de forma continua, se produciendo la salida del disolvente y de los materiales
que no poseen un coeficiente de sedimentación suficientemente elevado como para
que sedimenten en las condiciones de trabajo.

Elutriación (centrifugación en contracorriente).

Se realiza una centrifugación en rotores de flujo continuo (rotores de elutriación o


elutriadores).
Se combina la acción del campo centrífugo generado por la rotación del rotor con la de
la fuerza centrípeta debida al caudal de entrada de la muestra en el rotor. De esta
manera, la separación de las partículas de la muestra se efectúa esencialmente en
función de su diferente tamaño.
La muestra se introduce en el rotor, de modo que accede a la cavidad de separación
por la zona más alejada del eje de giro. De esta forma, la tendencia de las moléculas a
sedimentar (componente centrífuga) se puede contrarrestar con el caudal de entrad de
la muestra (componente centrípeta).

Recomendaciones de seguridad.

 La carga debe ser equilibrada tratando de colocar los tubos de muestra repartidos
de la forma más simétrica posible. Las diferencias de peso pueden desequilibrar el
rotor cuando gira a gran velocidad ocasionando daños en la centrífuga y posible
rotura de los tubos de muestra o del eje. Nunca se ha de dejar la centrífuga sin
atención hasta llegar a la velocidad máxima de giro.
 Los tubos deben ser de una calidad adecuada y suficiente para soportar la fuerza
centrífuga a la que serán sometidos. No usar tubos de la calidad adecuada puede
provocar su rotura y la pérdida de la muestra. Los ajustes de velocidad incorrectos
también pueden causar roturas de los tubos. Para muestras biológicas o sustancias
peligrosas es conveniente usar tubos con tapa.
 La fatiga del metal puede afectar al rotor debido al estrés que suponen las
elevadas fuerzas G a las que está sometido. No debe sobrepasarse su tiempo de
vida útil para evitar accidentes.
 La corrosión puede afectar tanto al rotor como al resto de componentes de las
centrífugas de laboratorio, debilitando los materiales y reduciendo su capacidad
para soportar las tensiones de la fuerza centrífuga. Deben comprobarse
periódicamente para asegurar su perfecto estado de conservación.
 La tapa debe permanecer cerrada durante el funcionamiento de la centrífuga.
Nunca abra la tapa ni la mueva de lugar con el rotor en marcha. Las centrífugas
más modernas disponen de bloqueo automático cuando el rotor está en marcha.

8.3) Cromatografía.

Historia.

El botánico ruso Mikhail Tswett, en 1906 colocó un extracto de pigmentos vegetales en


la parte superior de una columna de vidrio rellena de tiza (carbonato de calcio). Al
agregar éter con un poco de alcohol, observó que la mezcla original se separaba en
diversas bandas coloridas que descendían a través de la columna a diferentes
velocidades. De esta forma consiguió separar los pigmentos. Tswett utilizó la palabra
“cromatografía” para denominar a su método, que proviene del griego y significa
“escribir en colores”, porque cuando fue desarrollada los componentes separados eran
coloridos. Otros piensan que en la mente de Tswett, cromatografía querría decir
“escritura de Tswett”, dado que su apellido significa en ruso “color”.
Las aplicaciones de la cromatografía han aumentado en forma explosiva en los últimos
cincuenta años debido no sólo al perfeccionamiento de nuevos y diversos tipos de
técnicas cromatográficas, sino también a las necesidades crecientes de los científicos
de mejores métodos para la caracterización de mezclas complejas.
La tremenda influencia de esos métodos en la ciencia se confirmó cuando se le otorgó
el Premio Nobel de Química de 1952 a A. J. P. Martin y R. L. M. Syng por sus
descubrimientos en este campo. Muchos de los Premios Nobel concedidos desde
entonces se han basado en trabajos en los que la cromatografía desempeña un papel
vital.

Fundamento.

La cromatografía agrupa un conjunto importante y diverso de métodos que facilitan la


separación, identificación y determinación de componentes estrechamente
relacionados en mezclas complejas. Muchas de dichas separaciones son imposibles
por otros medios.
En todas las separaciones cromatográficas la muestra se disuelve con una fase móvil
(que puede ser un gas, un líquido o un fluido supercrítico) y la fase estacionaria
inmiscible fija en una columna o en una superficie sólida a través de la cual se hace
pasar la fase móvil.
Las dos fases se eligen de tal forma que los componentes de la muestra se distribuyen
en distintos grados entre la fase móvil y la fase estacionaria.
Aquellos componentes que son fuertemente retenidos por la fase estacionaria se
mueven con mucha lentitud con el flujo de la fase móvil. En cambio, los componentes
unidos débilmente a la fase estacionaria se mueven con rapidez.
Como consecuencia de las distintas velocidades de migración, los componentes de la
muestra se separan en bandas o zonas distintas que se pueden analizar en forma
cualitativa y cuantitativa.
El fundamento del fenómeno cromatográfico se encuentra en la diferencia en alguna o
algunas de las propiedades físicas o fisicoquímicas de los analitos que se van a
separar: solubilidad, adsorción, volatilidad, tamaño, carga, reactividad química o
bioquímica, etc.

Clasificación.

Los métodos cromatográficos se pueden clasificar de dos maneras:

Medios físicos de contacto entre las fases estacionaria y móvil:


 Cromatografía en columna: un tubo estrecho contiene la fase estacionaria a
través de la cual la fase móvil se fuerza a pasar por presión.
 Cromatografía en plano: la fase estacionaria se fija sobre una placa plana o en los
intersticios de un papel; en este caso la fase móvil se desplaza a través de la fase
estacionaria por capilaridad o por gravedad.
a) Cromatografía papel.
b) Cromatografía en capa fina (TLC).

Tipos de fases móviles y estacionarias y en la clase de equilibrios involucrados en la


transferencia de los solutos entre las fases:
 Cromatografía de gases (CG): fase móvil gas, en columnas.
 Cromatografía de líquidos (CL): fase móvil líquido, en columnas o sobre
superficies planas.
 Cromatografía de fluidos supercríticos (CFS): fase móvil fluidos supercríticos, en
columnas.

Mecanismos físicos o químicos responsables de la separación de los componentes de


la muestra:
 Cromatografía de adsorción: se usa una fase estacionaria sólida y una fase móvil
líquida o gaseosa. Las sustancias pueden adsorberse en la superficie de las
partículas sólidas de la fase estacionaria por fuerzas de Van der Waals. El equilibrio
de adsorción/desorción de la sustancia entre la fase sólida y la fase móvil es la
causa de la separación.
 Cromatografía de reparto: la fase estacionaria es un líquido retenido sobre un
soporte sólido. El analito se equilibra o reparte entre este líquido estacionario y una
fase móvil líquida o gaseosa.
 Cromatografía de intercambio iónico: se unen aniones o cationes
covalentemente a una fase estacionaria sólida, de forma que adquiere una carga
neta. Los iones de la muestra, de carga opuesta a los existentes en la fase
estacionaria, son atraídos por esta última mediante fuerzas electrostáticas. La fase
móvil es un líquido. Esta cromatografía se aplica a la separación de sustancias
iónicas.
 Cromatografía de afinidad: se utilizan interacciones altamente específicas entra
un tipo de moléculas de la muestra y otras moléculas que se unen (inmovilizan)
covalentemente a la fase estacionaria.
 Cromatografía de exclusión molecular (o filtración en gel): a diferencia de lo
que ocurre en otras formas de cromatografía, en esta no existen interacciones entra
la fase estacionaria y los componentes de la muestra; la fase estacionaria actúa
como un simple tamiz. La fase móvil, líquida o gaseosa, pasa a través de dicho
tamiz, arrastrando los componentes a separar. Los poros son suficientemente
pequeños para excluir las moléculas grandes, que son rápidamente eluidas por la
fase móvil, a diferencia de las pequeñas, que penetran en dichos poros, siguiendo
un camino más largo en su recorrido por la columna.

Parámetros de la cromatografía.

VOLÚMENES:
Cuando se introduce una sustancia en la corriente de la fase móvil de un sistema
cromatográfico, si no existe ningún tipo de interacción entre ésta y la fase móvil, la
sustancia se desplazará a la misma velocidad que la fase móvil, y emergerá de la fase
estacionaria cuando el volumen total de la fase móvil utilizado sea igual al volumen
vacío de la fase estacionaria. Ese es el volumen muerto.
Lo normal es que los componentes de la muestra interaccionen con la fase
estacionaria, necesitarán para su elución un volumen mayor de fase móvil denominado
volumen de retención de la muestra.
TIEMPOS:
 Tiempo muerto (tM): es el tiempo que tarda en salir un componente que no se
retiene.
 Tiempo de retención, (tR): es el tiempo que tarda en salir un determinado
componente que sí se retiene.
 Tiempo de retención corregido, (t’R): es el tiempo real que la fase estacionaria ha
retrasado el avance de la sustancia.

FACTOR DE CAPACIDAD:
Es un factor adimensional, y es una medida de la fortaleza con que la fase
estacionaria retiene a un componente dado.
 En cromatografía de líquidos depende de la composición de la fase móvil y la fase
estacionaria, y en cromatografía de gases depende de la temperatura y del
empaquetado de la columna.
 Por el contrario, es independiente de la velocidad de flujo de la fase móvil y de las
dimensiones de la columna, y puede usarse para comparar retenciones en
instrumentos diferentes.
 Los valores de los factores de capacidad para una separación óptima deben
encontrarse entre 2 y 5. Valores mucho más altos alargarían demasiado los tiempos
de separación.

DISPERSIÓN:
Al introducir una mezcla de componentes en una columna cromatográfica, la mezcla
va pasando desde un extremo a otro; los compuestos se van separando y se forman
bandas para cada uno de ellos, que según avanzan se van ensanchando y separando
unas de otras. A mayor tiempo, mayor dispersión de banda habrá.
Dado que los procesos de difusión de las moléculas tienen su fundamento en
movimientos al azar, la concentración final de las moléculas dentro de la banda
cromatográfica adoptará idealmente una distribución normal o gaussiana.
EFICACIA:
Cuanto más agudos (menos anchos) sean los picos que emergen de una columna,
más eficaz es dicha columna, porque se están separando adecuadamente los
componentes. Si las bandas se ensanchan, se podrán resolver o separar menor
número de componentes en un intervalo de tiempo dado.
La eficiencia de la columna, y por tanto la anchura de la banda cromatográfica,
depende de las características de dicha columna, tales como tamaño de las partículas
de la fase estacionaria u homogeneidad de ésta, pero también de otros factores, como
la velocidad y viscosidad de la fase móvil, y la temperatura de trabajo.

Algunos picos cromatográficos no son ideales y presentan deformación hacia la cola o hacia el frente.

Dos términos se utilizan ampliamente como medidas cuantitativas de la eficiencia de


una columna cromatográfica:1) la altura de plato (H)2) el número de platos o cantidad
teórica de platos (N).

Se trata la columna cromatográfica como si fuera similar a una columna de destilación


que estuviera constituida por numerosas capas angostas, o platos, distintos pero
contiguos, a las que denominaron platos teóricos.
El descenso del soluto por la columna se trataba entonces como una transferencia por
etapas de fase móvil equilibrada de un plato al siguiente.

La teoría del plato explica de manera satisfactoria la forma gaussiana de los picos
cromatográficos y su velocidad de desplazamiento por la columna.
La teoría del plato se abandonó en favor de la teoría de la velocidad, debido a que la
primera fallaba al intentar justificar el ensanchamiento de los picos de una manera
mecanicista.
No obstante, los términos originales para la eficiencia se han incorporado a la teoría de
velocidad.
RESOLUCIÓN:
Grado de separación que se puede obtener en un sistema cromatográfico para dos
componentes dados.
La resolución puede observarse directamente sobre el cromatograma; se tendrá una
buena resolución si los picos no se solapan y están perfectamente delimitados, sin que
coincida el final de uno con el principio del siguiente.

Optimización de las separaciones cromatográficas.

Hay tres parámetros fundamentales que determinan la resolución de una separación


cromatográfica:
 Aumentar el número de platos teóricos y con ello la eficiencia:
 Incrementar la longitud de la columna (lo más sencillo), pero eso también
incrementaría el tiempo de análisis, y además los picos se ensancharían.
 Reducir el tamaño de las partículas de la fase estacionaria. Los picos se
estrecharán (menor ancho de banda) y los tiempos de retención no variarán pero se
resolverán los picos. El inconveniente es que la presión de trabajo deberá ser
mayor.
 Ajustar la velocidad de la fase móvil (opción más factible). Según el sistema
cromatográfico, habrá una velocidad óptima de fase móvil que consigue la menor
altura de los platos, y por tanto la mayor eficacia, a igualdad del resto de
condiciones.
 Aumentar el factor de capacidad o retención se consigue cambiando la composición
de la fase móvil, la superficie de interacción de la fase estacionaria o la temperatura
de elución.
 Aumentar la selectividad modificando la composición de la fase móvil, cambiando la
fase estacionaria, o trabajando a otra temperatura. La selectividad puede ser
manipulada de modo muy similar al factor de retención porque depende de él; la
diferencia es que mientras éste contempla las características termodinámicas de un
solo pico, la selectividad lo hace de los dos a separar.

Aplicaciones generales.

La cromatografía es una técnica rápida, sencilla, relativamente de bajo coste (si no se


tiene en cuenta el equipo) y de gran aplicabilidad en separación. Se puede emplear
para:
ANÁLISIS CUALITATIVO:
 La cromatografía, a efectos analíticos, es una técnica ciega (para identificar). Los
métodos cromatográficos pueden informar del número de compuestos químicos
existente en una mezcla (según el número de picos que aparezcan en el
cromatograma) mediante el tiempo de retención (o la posición en la fase
estacionaria tras un tiempo de elución si se trata de cromatografía plana).
 La identidad del compuesto detectado sólo puede ponerse en evidencia con la
utilización de un patrón, sometido exactamente a las mismas condiciones.
 La cromatografía podrá usarse para reconocer la presencia o ausencia (debajo del
límite de detección) de componentes en mezclas.
ANÁLISIS CUANTITATIVO:
 Se basa en la medida de la altura o el área del pico cromatográfico del analito, que
se compara con la altura o el área de uno o más patrones inyectados en las mismas
condiciones.
 La medida del área de los picos es el método más general en las determinaciones
cuantitativas. El método de medida más utilizado con diferencia en la actualidad es
la integración electrónica.

Calibración.

 El método de calibración más sencillo consiste en el empleo de patrones externos


(mismo volumen y condiciones para la muestra que para los patrones).
 El patrón interno debe ser un compuesto que puede resolverse completamente de
los picos adyacentes, que no esté presente en la muestra y que no produzca ningún
efecto interferente.
La curva de calibración mediante patrón externo se prepara midiendo varias
concentraciones y, de este modo, creando una línea recta.
Éstas incluyen concentraciones menores y mayores que la concentración esperada del
analito en la muestra real.
 Cuando desconoce la concentración del analito en la muestra real, normalmente se
preparará una curva de calibración utilizando un mínimo de ocho concentraciones
de muestra diferentes.
 Cuando se conoce la concentración esperada del analito en la muestra real, se
puede reducir el número de concentraciones de muestra necesarias para la curva
de calibración.

Cromatografía en plano (TLC).

En la cromatografía en capa fina la fase estacionaria consiste en una capa delgada de


un adsorbente (como por ejemplo gel de sílice, alúmina o celulosa) depositada sobre
un soporte plano como una placa de vidrio, o una lámina de aluminio o de plástico.
Se deposita una pequeña cantidad de la muestra problema en disolución en un punto
en la parte inferior de la placa. Esta se introduce en una cubeta cromatográfica. Así
sólo la parte inferior de la placa queda sumergida en el líquido (fase móvil) que
asciende por la placa por capilaridad.
Los componentes se diferenciarán en solubilidad y en la fuerza de su adsorción. Unos
componentes se desplazarán más que otros.
Si los compuestos son coloreados se pueden observar las manchas a simple vista. Si
no los son se han de revelar / visualizar mediante inmersión o por spray:
 Utilizar luz ultravioleta (UV254) para observar la placa.
 Utilizar reveladores, por ejemplo, vapores de yodo que es un reactivo inespecífico.
 Emplear reactivos específicos para desarrollar coloración en las manchas.
Cada compuesto tiene un Rf (factor de retención) característico que depende del
disolvente empleado y del tipo de placa utilizada, pero es independiente del recorrido
del disolvente.

Cromatografía de líquidos (HPLC).

TIPOS DE CROMATOGRAFÍA HPLC:


 Adsorción: se caracteriza por utilizar una fase estacionaria sólida (adsorbente) de
carácter polar y una fase móvil líquida (eluyente) apolar. No ofrece ventajas
especiales sobre la cromatografía de partición, salvo en el caso de análisis de
isómeros.
 Exclusión por tamaño/filtración en gel: la fase estacionaria es un material poroso
que permite la elución diferencial de los solutos en función de sus tamaños
moleculares.
 Reparto/partición: la fase estacionaria es un líquido retenido sobre un soporte
sólido y la separación se debe a la diferente distribución del analito entre la fase
móvil y estacionaria. Es el tipo de cromatografía líquida de alta resolución más
utilizado.
Es una cromatografía que emplea como fase estacionaria un líquido retenido sobre
un soporte sólido, o bien enlazado químicamente al mismo.
Lo más común es que la fase estacionaria establezca enlaces con la superficie del
soporte.
La separación de los componentes de la muestra se basa en la diferente solubilidad
de esos componentes entre la fase móvil y la fase estacionaria.
Los soportes empleados suelen estar formados por partículas de sílice que son
resistentes, porosas y con un diámetro de unos 3-5 μm.
Su superficie está formada por grupos silanol químicamente reactivos.
Los recubrimientos más utilizados son los siloxanos, formados por reacción de los
grupos silanol con un organoclorosilano.

Los hidrocarburos son un ejemplo perfecto de hidrofobicidad al ser sustancias


aceitosas. Los alcanos lineales están bien preparados para funcionar como una
buena fase estacionaria.
A medida que aumentan los átomos de carbono sus propiedades físicas de los
hidrocarburos también cambian:
 C1 a C4 son gaseosos.
 C5-C17 son líquidos.
 C18 y mayores son sólidos.
La popularidad de las C18 se debe a su disponibilidad temprana del material de
origen para el proceso de unión y lo adecuado del C18 para el proceso
cromatográfico. Actualmente las C18 son indiscutidas como fase estacionaria en RP.
La sílica ha superado a cualquier otro relleno y sus partículas se encuentran en
varias formas (esferas regulares o irregulares), tamaños (0,9 o 10 µm y más
grandes), porosidades (tan grandes como como hasta 1000 Ȧ), y puede ser
totalmente porosa o tener un núcleo sólido por diseño.
La longitud de la cadena del grupo alquilo influye en la eficacia de la separación. A
mayor longitud mayores serán el tiempo de retención y el tamaño de partícula capaz
de retener.

Un enlace covalente polar comparte los electrones desigualmente, lo que significa


que hay separación de cargas. Los enlaces covalentes apolares, la distribución de
cargas es homogénea. Un disolvente polar sólo disuelve otras sustancias polares y
un disolvente apolar sólo disuelve sustancias apolares (semejante disuelve a
semejante).

Según la naturaleza de las fases, se distinguen a su vez dos tipos generales de


cromatografía de partición:
 Cromatografía de reparto en fase normal: la fase móvil es un disolvente apolar
o poco polar (como el hexano o el isopropiléter) y la fase estacionaria presenta
elevada polaridad (el grupo R es polar).
 Cromatografía de reparto en fase inversa (reversa): la fase móvil es un
disolvente relativamente polar (disoluciones acuosas con etanol, acetonitrilo o
tetrahidrofurano) y la fase estacionaria es apolar (el grupo R es un n-octilo: C8, o
n-octadecilo: C18).
En cromatografía en fase normal, el componente menos polar eluye primero, debido
a que relativamente es el más soluble en la fase móvil y se mueve con ella. Un
aumento de la polaridad de la fase móvil provoca una disminución del tiempo de
elución.
Por el contrario, en fase inversa, los componentes más polares aparecen primero, y
un aumento de la polaridad de la fase móvil aumenta el tiempo de elución.

 Intercambio iónico: se unen aniones o cationes covalentemente a una fase


estacionaria sólida que adquiere una carga neta. Los iones de la muestra son carga
opuesta a la fase estacionaria, son atraídos por esta última. La fase móvil es un
líquido. Separa de iones y moléculas polares basados en las propiedades de carga
de las moléculas.
Separación de iones y moléculas polares basado en las propiedades de carga de
las moléculas.
Es usada a menudo en purificación de proteínas, análisis de agua y control de
calidad.
Los procesos de intercambio iónico se basan en los equilibrios de intercambio entre
los iones de una solución y los iones del mismo signo que están en la superficie de
un sólido de elevada masa molecular y esencialmente insoluble.

Principio de la técnica:
Los intercambiadores de iones contienen básicamente grupos cargados unidos
covalentemente a la superficie de una matriz insoluble.
Los grupos cargados de la matriz pueden tener carga positiva o negativa.
Cuando se hace pasar una solución acuosa, los grupos cargados de la matriz
estarán rodeados por iones de carga opuesta.
En esta “nube de iones”, los iones se pueden intercambiar de forma reversible sin
cambiar la naturaleza y las propiedades de la matriz.

EJEMPLO:
Las proteínas tienen numerosos grupos funcionales que tienen cargas positivas y
negativas.
La cromatografía de intercambio iónico separa las proteínas de acuerdo a su
carga neta, la cual depende la composición de la fase móvil.

Por ejemplo, si la proteína tiene una carga positiva con un pH de 7, entonces


puede unirse a una columna cargada negativamente, mientras que una proteína
con carga negativa no lo podría hacer.

INSTRUMENTO:
Un cromatógrafo de líquidos conta de una serie de elementos indispensables, que
normalmente constituyen en módulos con funciones bien definidas.
La circulación de la fase móvil entre los módulos se hace a través de conductos
tubulares. Deben emplearse siempre diámetros muy pequeños para estos conductos,
con el fin de minimizar el ensanchamiento de banda.
Las partes de un cromatógrafo de líquidos son: el suministro de la fase móvil, la
bomba, la columna y el detector.
SUMINISTRO FASE MÓVIL:
Puede ser un disolvente puro, o una mezcla de disolventes. Además, la fase móvil
puede mantener durante todo el proceso la misma composición, realizándose
entonces una elución isocrática, o, lo que es más frecuente, pueden usarse dos o más
disolventes cuya relación va variando a lo largo del proceso, de forma programada.
Esta elución se denomina en gradiente, y aumenta considerablemente la eficacia de la
separación.

INYECCIÓN DE LA MUESTRA:
Se trata de montajes más o menos sofisticados diseñados para introducir un volumen
pequeño de muestra líquida en el sistema, lógicamente entre el sistema de bombeo y
la columna. Puede ser manual o automático.
COLUMNA:
Es la parte esencial del cromatógrafo de líquidos, ya que en ella, a través de diferentes
mecanismos, tiene lugar la separación de los analitos. Las columnas son tubos de
acero que miden entre 10 y 30 cm de longitud y cuyo diámetro oscila entre 2 y 10 mm
normalmente.
DETECTOR:
Se sitúa a la salida de la columna, y proporcionan de forma continua información
acerca de la composición del eluyente que circula a su través. Comparan o detectan la
diferencia en alguna propiedad física entre la fase móvil y la fase móvil más muestra.
Un detector ideal en HPLC debe ser sensible a pequeñas concentraciones de analito,
dar una respuesta lineal amplia, tener poco ruido de fondo y ser estable en el tiempo
que dura el cromatograma.

Los detectores en cromatografía de líquidos son de dos tipos básicos:


 Detectores que se basan en la medida de una propiedad de la fase móvil que se
modifica en presencia del analito:
 Índice de refracción (RI): es una solución rentable recomendad para el análisis
de rutina de compuestos de absorción no UV como azúcares, polímeros,
surfactantes y otros compuestos que no contienen cromóforos.
El índice de refracción es una característica física definida de todos los
compuestos. La detección se basa en equilibrar el detector con fase móvil pura a
caudal contante, y medir el cambio de índice de refracción cuando aparece la
muestra eluida junto con la fase móvil. Cuanto mayor sea la diferencia entre los
índices de refracción de la muestra y de la fase móvil se obtendrá mayor
sensibilidad.
Un inconveniente es la necesidad de reequilibrarlo cada vez que se produce un
pequeño cambio en la composición de la fase móvil, por lo que no se puede usar
en separaciones con elución por gradiente.

 Constante dieléctrica.
 Densidad.
 Detectores basados en alguna propiedad de los componentes de la muestra:
 Absorbancia en UV:
El detector ultravioleta/visible es muy común en HPLC; porque muchas
sustancias absorben luz ultravioleta.
Los sistemas más simples utilizan la intensa línea de emisión de 254 nm de una
lámpara de mercurio.
Los instrumentos más versátiles tienen también lámparas de deuterio, xenón o
wolframio, y un monocromador, con el que se puede elegir la longitud de onda
óptima, de ultravioleta o visible, para estudiar los analitos separados.
El detector de matriz de diodos (PDA) es un tipo de detector ultravioleta cuya
importancia es cada vez mayor en HPLC.
Se basa en que el haz de radiación que atraviesa la cubeta a través de la cual
circula la fase móvil procedente de la columna es dispersado por medio de una
red de difracción fija, siendo recogidas simultáneamente todas las longitudes de
onda dispersas mediante una matriz de fotodiodos.
El resultado es la obtención del espectro de absorción de cada uno de los
componentes de la muestra.

 Fluorescencia: son muy sensibles y selectivos, pero solo aplicables a


compuestos fluorescentes. El principio de la operación se basa en la irradiación
con la luz UV al componente de interés y la posterior medida de la luz
fluorescente.

 Corriente límite.
Cromatografía de gases (CG).

FUNDAMENTO:
Se inyecta y volatiliza una pequeña cantidad de muestra en una columna
cromatográfica. La elución se produce por el flujo de un gas inerte, que constituye la
fase móvil.
Esta corriente de gas atraviesa la columna cromatográfica arrastrando así a los
componentes separados emergerán de la columna a intervalos discretos y pasarán a
través de un sistema de detección adecuado o serán dirigidos hacia un dispositivo de
recogida de muestras.
La cromatografía gaseosa puede utilizarse para cualquier tipo de muestra: sólida,
líquida o gaseosa siempre que sus componentes sean:
 Volátiles.
 Generalmente con un peso molecular por debajo de 1250 Da.
 Térmicamente estables a la temperatura de trabajo para que no se degraden en el
sistema GC.
De forma general la CG es aplicable a la separación y el análisis de muestras cuyos
componentes tengan puntos de ebullición de hasta 300ºC.
Todos los componentes que se introduzcan en la columna han de ser volátiles. Los
compuestos de escasa volatilidad pueden ser retenidos por la columna, y eluir más
tarde, cuando se esté realizando un análisis posterior, dando lugar a los denominados
picos fantasma.
Por otro lado, los componentes no volátiles se condensan en la columna,
deteriorándola.
TIPOS:
Existen dos tipos de cromatografía de gases:
 Cromatografía gas-sólido: la fase estacionaria es sólida, y la separación de los
componentes de la muestra se produce según su volatilidad y su capacidad para
ser absorbidos por la fase estacionaria. La aplicación de esta modalidad es muy
limitada debido a que muchas moléculas son retenidas en exceso por el sólido.
 Cromatografía gas-líquido: la fase móvil es gaseosa y la fase estacionaria es
líquida inmovilizada sobre la superficie de un sólido inerte. Las sustancias se
separan en función de su volatilidad y según las diferencias de solubilidad en la
fase estacionaria. Tiene muchísimas aplicaciones en todos los campos de la
ciencia, y comúnmente la denominación de “cromatografía de gases” se refiere a
esta técnica.
El gas portador debe ser una especie químicamente inerte, no debe reaccionar con
la muestra ni con la fase estacionaria ni con las superficies del instrumento.
Además debe ser puro y relativamente barato.
Entre los gases portadores de mayor uso se encuentra en helio, nitrógeno y el
argón.
EQUIPAMIENTO:
La muestra se inyecta en el GC a través de un septo que permite la inyección de la
mezcla de muestra sin perder la fase móvil. Conectada a la entrada está la columna
analítica (longitud 10-150m. diámetro interno 01-0,53mm) de sílice fundida o de metal
que contiene la fase estacionaria revestida en las paredes internas. La columna
analítica se mantiene en el horno de columna que se calienta durante el análisis para
eluir los componentes menor volátiles. La salida de la columna se inserta en un
detector que responde a los componentes químicos que eluyen de la columna para
producir señal. La señal es registrada por el software de adquisición en un ordenador
que genera un cromatograma.
DETECTORES:
La combinación de cromatografía de gases con espectrometría de masas se conoce
con las siglas CGMS. La tasa de flujo procedente de las columnas capilares es casi
tan baja que la salida de la columna se puede alimentar de manera directa a la cámara
de ionización del espectrómetro de masas.
Los analizadores más comunes son los cuadrupolares y los de trampa de iones,
aunque también pueden utilizarse tiempos de vuelo.
APLICACIONES:
La cromatografía de gases se puede aplicar a:
 Análisis medioambiental: análisis de contaminantes orgánicos en agua corriente o
residual, análisis de pesticidas y herbicidas, análisis de hidrocarburos aromáticos
polinucleares, etc.
 Química industrial: análisis de aminas, hidrocarburos, disolventes, etc.
 Industria alimentaria: análisis de saborizantes y otros aditivos, vinos,
contaminantes en comida envasada, etc.
 Análisis clínico: análisis de drogas y fármacos, análisis de contaminantes o
alcohol en sangre, etc.
 Análisis de fragancias, de derivados del petróleo, etc.

Cromatografía de fluidos supercríticos (SFC).

Un fluido supercrítico se forma siempre que una sustancia se calienta por encima de
su temperatura crítica.
La temperatura crítica de una sustancia es aquella por encima de la cual no puede
existir en fase líquida independientemente de la presión.
Una sustancia a temperaturas y presiones por encima de su temperatura y de su
presión críticas (punto crítico) se denomina fluido supercrítico.
La densidad, viscosidad y otras propiedades de los fluidos supercríticos son
intermedias entre las propiedades de esa sustancia en estado gaseoso y en estado
líquido.
Ventajas:
 Una propiedad importante de los fluidos supercríticos, que está relacionada con sus
densidades elevadas (de 0,2 a 0,5 g/cm3), es su capacidad para disolver moléculas
grandes no volátiles.
 Los analitos disueltos en ellos se recuperan con facilidad dejando que las
soluciones se equilibren con la atmósfera a temperaturas relativamente bajas.
 Son baratos e inocuos.

La SFC, en la cual la fase móvil es un fluido supercrítico, es un híbrido de la unión de


CG y LC en la que se combinan algunas de las mejores características de cada una.
Para la fase estacionaria, se puede utilizar las mismas columnas capilares que se
emplean en la CG. También sirven las columnas de relleno, aunque estas varían en
cuanto al diámetro interno y el grosor de las partículas.
Se utiliza con productos naturales, fármacos, alimentos, plaguicidas y herbicidas,
tensoactivos, polímeros, aditivos de polímeros, combustibles fósiles, explosivos y
propelentes.
Permite la separación y determinación de un grupo de compuestos que no son
manejables de manera conveniente ni por la cromatografía de gases ni por la de
líquidos:
1. No volátiles o térmicamente inestables para los que la cromatografía de gases es
inaplicable.
2. No contienen grupos funcionales que permitan la detección mediante técnicas
espectroscópicas o electroquímicas que se utilizan en cromatografía de líquidos de
alta resolución.
Se calcula que hasta el 25% del total de los problemas de separación a los que se
enfrentan los científicos actuales son mezclas que contienen tales especies de difícil
estudio.
APLICACIONES:

8.4) Electroforesis.

Fundamento.

La electroforesis es un método de separación que se basa en la diferente velocidad de


migración de especies cargadas dentro de un campo eléctrico de corriente directa. El
químico sueco Arne Tiselius investigó por primera vez esta técnica de separación en
los años treinta para estudiar las proteínas séricas. En 1948 fue galardonado con el
Premio Nobal de Química por estos trabajos.
Una separación electroforética se lleva a cabo mediante una inyección/carga de una
pequeña cantidad de la muestra en una solución tampón alojada en un tubo estrecho o
en un medio de soporte poroso y plano (papel o gel semisólido).
se aplica un alto voltaje a lo largo de la solución tampón mediante dos electrodos
ubicados en los extremos. El campo impulsa los iones de la muestra a migrar hacia
uno u otro de los electrodos.
La velocidad de migración depende de la carga y también del tamaño.
Las separaciones se basan en las diferencias de la relación carga-tamaño entre los
diferentes analitos de la muestra. Cuanto mayor es esta relación, más rápido migran
en el campo eléctrico.

La electroforesis en macroescala se aplica a una diversidad de problemas de


separación analítica difíciles: aniones y cationes inorgánicos, aminoácidos,
catecolaminas, fármacos, vitaminas, carbohidratos, péptidos, proteínas, ácidos
nucleótidos, ácidos polinucleótidos y otras numerosas especies.
Una ventaja especial de la electroforesis es su capacidad única de separar proteínas,
como enzimas, hormonas, anticuerpos y ácidos nucleicos (ADN, ARN) con una
resolución incomparable.

Para obtener la secuencia de ADN ha sido necesario (secuenciación Sanger) distinguir


entre polinucleótido de cadena larga que poseen 200 y 500 pares de bases y que
difieren por un solo nucleótido. Nada más la electroforesis tiene el suficiente poder de
resolución para manejar este problema. Sin ella, el Proyecto Genoma Humano habría
sido casi imposible.

Tampón.

(disoluciones amortiguadoras, sistemas tampón, amortiguadores buffers)


Disoluciones cuya concentración de protones apenas varía al añadir ácidos o bases
fuertes.
Los tampones más sencillos están formados por mezclas binarias:
Un ácido débil y una sal de este ácido con una base fuerte.
Una base débil y la sal de esta base con un ácido fuerte.

Mantener el pH constante es vital para el correcto desarrollo de las reacciones


químicas y bioquímicas que tienen lugar tanto en los seres vivos como, a nivel
experimental, en el laboratorio.

Tipos.

En las electroforesis podemos distinguir dos grupos: las electroforesis convencionales


(gel de agarosa y gel de policarilamida SDS-PAGE) y las electroforesis especiales
(electroforesis bidimensional y electroforesis capilar).
ELECTROFORESIS CONVENCIONALES: GEL DE AGAROSA (ADN/ARN):
Método de separación de biomoléculas como el ADN o ARN, principalmente, de
acuerdo a su tamaño (todos tienen carga negativa).
La electroforesis de ácidos nucleicos es muy versátil porque permite una observación
directa de cada fragmento separado directamente en el gel mediante tinción que los
hace visibles por su iluminación con luz UV.
Cuando una corriente eléctrica se aplica sobre el gel de agarosa el ADN/ARN tiene
una carga negativa (grupos fosfato) y migra hacia el polo positivo.
La agarosa se mantiene líquida oír encima de 50ºC y forma un gel cuando se enfría.
El porcentaje de agarosa condiciona el rango de tamaños y la resolución de los
fragmentos de ADN se pueden analizar.

 Bromuro de etidio (BrEt): es el más conocido y utilizado. Se puede usar en: la


mezcla del gel, el tampón de electroforesis o para teñir el gel después de su
ejecución. Agente intercalante en los ácidos nucleicos que emiten fluorescencia
bajo la luz UV. Cancerígeno potencial.
 SYBR Gold: llegó como una de las primeras alternativas al BrEt y se considera
más sensible.
 SYBR Greeb I (DNAds) y II (DNAss, RNA): se unen al ADN por lo que se
consideran mutágenos potenciales. Emiten fluorescencia bajo la luz UV.
 SYBR Safe: fue diseñado para ser una alternativa más segura al BrEt y otras
tinciones SYBR. Se puede visualizar con un transiluminador de luz azul que causa
menos daño al ADN.

Los marcadores de peso molecular para fragmentos de ADN o ARN se utilizan en


electroforesis para conocer el tamaño estimado de un fragmento. Son fragmentos de
ácidos nucleicos comerciales o el resultado de una digestión de genomas que
presentan tamaños conocidos y reconocibles.
ELECTROFORESIS CONVENCIONALES: GEL DE POLICARILAMIDA SDS-
PAGE (PROTEÍNAS):
El soporte se prepara a partir del monómero de acrilamida, que forma largas cadenas
lineales con abundantes grupos polares que las hace solubles en medios acuosos, y a
adicción de N,N´-metilénbisacrilamida que permite la unión de un par de cadenas
mediante enlaces covalentes. La polimerización se obtiene por la adición de
catalizadores de la polimerización.
 La acrilamida y la bisacrilamida son amidas.
 La bisacrilamida es un tipo de acrilamida.
 La acrilamida incluye el uso como agente aglutinante y espesante, en la fabricación
de cemento, etc.
 Bisacrilamida es el nombre común que se usa para N,N´-metilenbisacrilamida.
 La bisacrilamida se utiliza principalmente como agente de reticulación.
 La principal diferencia entre acrilamida y biscrilamida es que la acrilamida tiene un
enlace C-N mientras que la bisacrilamida contiene un enlace N-C-N.
ELECTROFORESIS ESPECIALES: ELECTROFORESIS BIDIMENSIONAL
(2D):
La electroforesis bidimensional en geles de poliacrilamida es la herramienta más
empleada para el análisis global y la separación de los componentes del proteoma.
Dicha técnica permite la separación de cientos o miles de proteínas en un único gel,
mostrando un patrón característico.

Esta técnica consta de dos partes:


Primera dimensión o isoelectroenfoque (IEF): las separa según su punto isoeléctrico
(pI) derivado de su composición de aminoácidos. Así las proteínas migrarán hacia el
cátodo o el ánodo en relación a su carga, que pierden cuando el pH es igual a su pI.
Segunda dimensión: los separa por su masa molecular (MW) por SDS-PAGE.
Con eso se consiguen las dos dimensiones al separar las proteínas por carga (pI) y
después por masa.

ELECTROFORESIS ESPECIALES: ELECTROFORESIS CAPILAR:


FUNDAMENTO:
La separación se basa en las diferentes movilidades electroforéticas adquiridas por los
analitos dentro del capilar al aplicar un campo eléctrico.
La electroforesis capilar (CE), produce separaciones de alta velocidad y alta resolución
con volúmenes de muestra extraordinariamente pequeños (de 0.1 a 10µL).
Las especies separadas son eluídas desde uno de los extremos del capilar, por lo que
se pueden utilizar detectores cuantitativos como los que se emplean en cromatografía
de líquidos de alta resolución.
Permite la separación y cuantificación de una amplia gama de analitos entre los que se
incluyen macromoléculas (iones, péptidos, proteínas, carbohidratos, esteroides, ácidos
nucleicos, vitaminas, fármacos, células, etc.).
TIPOS:
A diferencia de la cromatografía que basa la separación en un equilibrio de analitos
entre fase estacionaria y móvil, la CE ofrece un mecanismo de separación de no
equilibrio basado en diferentes parámetros como:
 Electroforesis en zona: separación por carga y ratio hidrodinámico.
 Electroforesis capilar en gel: separación por peso molecular.
 Electroforesis capilar no acuosa: separación de compuestos insolubles en agua.
 Isoelectroenfoque capilar: separación por punto isoeléctrico.
 Cromatografía electrocinética capilar: separación con base en la interacción de
los analitos con selectores quirales como ciclodextrinas.
 Cromatografía electrocinética micelar: separación con base en el coeficiente de
partición de los analitos entre las micelas y el solvente.
 Cromatografía electrocinética de microemulsión: separación con base en la
interacción de los analitos con las diferentes fases de la microemulsión.

La electroforesis de zona capilar (CZE) se caracteriza por el uso de sistemas tampón


de viscosidad relativamente baja donde se mueven las moléculas de analito según la
suma vectorial de movilidad electroforética y electroosmótica.
En CZE, el capilar, después del acondicionamiento, se llena con un tampón conductor.
A continuación, la muestra se introduce elevando el vial correspondiente, y el vial en la
entrada se reemplaza por otro que contenga el tampón conductor antes de aplicar un
alto voltaje entre los dos extremos. En la denominada polaridad normal, la inyección
tiene lugar en el extremo positivo (ánodo) y el detector está ubicado en el extremo
negativo (cátodo). En estas condiciones, los compuestos se someten a dos diferentes
fuerzas: movilidad electroforética y electroosmótica.
Flujo electroosmótico:
A valores de pH por encima de 3, la pared interna de un capilar de sílice presenta
carga negativa debido a la ionización de los grupos silanol en su superficie. Los
cationes de la solución amortiguadora se agrupan sobre la doble capa eléctrica
adyacente a la superficie negativa del capilar de sílice. Los cationes situados en la
capa exterior difusa de la doble capa son atraídos hacia el cátodo o electrodo
negativo, y dado que los cationes están solvatados arrastran entonces al solvente con
ellos.
La velocidad del flujo electroosmótico es mayor que la velocidad de migración
electroforética de los iones individuales y en la práctica es el mecanismo de bombeo
de la fase móvil en la electroforesis capilar. Aun cuando los analitos migran según sus
cargas dentro del capilar, la velocidad del flujo electroosmótico es suficiente para
arrastrar a todas las especies, las que tienen carga positiva, las neutras y hasta
aquellas con carga negativa hacia el mismo extremo del capilar, de tal forma que
todas pueden ser detectadas al pasar por un punto común.

Como consecuencia de la electroósmosis, el orden de elución en una separación


electroforética característica es:
 Los cationes más rápidos.
 Los cationes más lentos.
 Todas las especies neutras en una zona única.
 Los aniones más lentos.
 Los aniones más rápidos.

EQUIPAMIENTO:
Un sistema CE es bastante simple y comprende:
 Un capilar de sílice (como en la CG) generalmente con un diámetro interno de 25
a 75µm y una longitud de 50 a 100cm, aunque condiciones especiales pueden
requerir diferentes tipos de capilares, cubiertos con poliimida para evitar que la
sílice se rompa.
 Una fuente de energía capaz de reproducir potenciales hasta 30kV en los
extremos del capilar.
 Un sistema de refrigeración capaz de eliminar el calor producido en el interior del
capilar debido al efecto Joule mientras debido a la aplicación de potencial.
 Un sistema de inyección y un detector.

Efecto Joule: fenómeno irreversible por el cual si un conducto circula corriente


eléctrica, parte de la energía cinética de los electrones se transforma en calor
debido a los constantes choques que sufren con los átomos del material conductor
por el que circulan, elevando la temperatura del mismo.
APLICACIONES: SECUENCIACIÓN DE ADN:
La secuenciación de ADN tipo Sanger por terminación de cadena mediante
didesoxinucleótidos se basa en que la adición de un nucleótido trifosfaro requiere un
grupo hidroxilo libre en el carbono 3´ del azúcar del último nucleótido de la cadena de
ADN en crecimiento para formar un enlace fosfodiéster. Si un didesoxinucleótido
sintético carente de un grupo hidroxilo en el carbono 3´ del azúcar se incorpora al final
de la cadena en crecimiento, la síntesis de ADN se detiene.

La replicación del ADN utiliza una mezcla de reacción que incluye los cuatro dNTP
estándar y los cuatro ddNTP, cada uno marcado con un fluoróforo diferente.
La incorporación aleatoria de los ddNTP marcados prodice una serie de fragmentos de
ADN en los que la elongación de la cadena va terminando en una posición sucesiva
siendo cada secuencia más larga que la anterior.
La separación de los fragmentos por tamaño produce una escalera de secuencias
como una serie de bandas coloreadas que son separadas por electroforesis capilar.
APLICACIONES: ESPECTROMETRÍA DE MASAS:
La CE con espectrometría de masas (MS) presenta una gran capacidad para separar
los compuestos presentes en muestras de volumen extremadamente pequeño,
rápidamente, con alta eficacia de separación y con capacidad de identificación de
compuestos basada en el peso molecular. Es una técnica analítica extremadamente
valiosa para el análisis de mezclas biológicas complejas utilizada en metabolómica,
proteómica, etc.
Un MS utilizado como detector se sitúa fuera del capilar por lo que el vial de salida
debe ser reemplazado por el de entrada al MS con las dificultades esperadas para
hacer coincidir dos voltajes con diferencias de varios órdenes de magnitud (CE y MS),
y desafíos para mantener un spray estable con un volumen de líquido muy bajo. Lo
más frecuente es conectar el capilar a la electrospray (ESI), que es la fuente de iones
más común en CE-MS.

También podría gustarte