Está en la página 1de 10

Facultad de Medicina “Alberto Hurtado”

DEPARTAMENTO DE TECNOLOGIA MÉDICA,

ESPECIALIDAD DE LABORATORIO CLINICO

GUÍA DE PRÁCTICA
QUIMICA CLINICA GENERAL
TEMA N°1

Introducción a las prácticas de Química Clínica

Espectrofotómetro y Fotocolorímetro: Spectronic 20D y Micro Lab 200

2024-I

Lima – Perú
INTRODUCCIÓN A LAS PRÁCTICAS DE QUIMICA CLINICA

El objetivo del curso está orientado a desarrollar en los alumnos las competencias para el manejo e
interpretación de las pruebas de Química Clínica en la ayuda al diagnóstico basado en el
laboratorio clínico, con énfasis en conocer los fundamentos de los diferentes métodos y técnicas de
laboratorio, seleccionar, desarrollar, comprender los conceptos biológicos y fisiológicos de los
resultados y su validación analítica en los principales métodos utilizados, en la determinación de:
enzimas, carbohidratos, proteínas, lípidos, función hepática y función renal a través de métodos
manuales, semiautomatizados y automatizados
DEFINICIONES
1.- Química Clínica
La química clínica es el área del Laboratorio Clínico que realiza el análisis bioquímico de los fluídos
corporales, con el fin de describir como ocurren los procesos biológicos en el organismo. Utiliza
reacciones químicas y enzimáticas para determinar los niveles de concentración de compuestos
químicos que pueden ser enzimas, carbohidratos, proteínas, lípidos en los líquidos corporales:
sangre, orina y fluidos; con relación a su actividad y función en el organismo. Las técnicas tales
como espectrofotometría, immunoensayos y electroforesis son muy utilizadas en química clínica.
2.- Interferencia
Es la modificación que una sustancia causada en la medición de la concentración o actividad
enzimática de un analito, realizado en una muestra y con un método analítico particular. Cada
Interferencia es un efecto único, como resultado de la interacción: interferente- analito-muestra-
método.
Las interferencias son importantes en Química Clínica, porque cuando se obtiene un valor de
concentración o actividad enzimatica de un componente o analito en la evaluación clínica,
diagnóstico, control de tratamiento, pronóstico, etc., este resultado se correlaciona con datos del
paciente y el clínico plantea un diagnostico médico, por tanto si hay una Interferencia se
modificará el valor hallado y puede llevar a un diagnóstico médico erróneo.

Según el mecanismo general las interferencias, se dividen en:


Interferencia analítica: Es dependiente del método de medición utilizado. Ejemplo: la absorción a
la longitud de onda del método, por causar turbidez o precipitados que alteran la señal medida,
algunos analitos que se dosan como ion, etc.
Interferencia biológica: Es independiente del método de medición utilizado. La sustancia
interferente modifica el metabolismo del analito a dosar: altera su nivel de absorción, de síntesis o
catabolismo, de secreción o excreción, del analito a dosar en el paciente. Este cambio altera la
concentración o actividad catalítica del analito en el especimen en que se realiza su medición.
Ejem: - ciertos hipotensores disminuyen la excreción de metabolitos y se falsean sus niveles
urinarios. Algunos diuréticos producen una marcada pérdida de potasio por orina.

Según su origen: Interferencias endógenas e interferencias exógenas


Interferencias endógenas: La sustancia interferente es un componente normal del espécimen,
pero se encuentra en nivel elevado respecto al habitual, en tal medida que genera una interferencia
analítica. Los interferentes más comunes son: bilirrubina, hemoglobina, quilomicrones,
inmunoglobulinas, proteínas plasmáticas y cuerpos cetónicos.
Interferencias exógenas: Se pueden dividir en tres categorías: 1- Interferencias por
medicamentos, 2- Interferencias por aditivos 3- Interferencias por materiales de prueba
3.- Selección del método: Las características metodológicas ideales permitirán que el método
seleccionado tenga buena probabilidad de exactitud en el laboratorio, estas características
incluirán: la metodología de elección, que tendrá potencialmente la especificidad química
necesaria (libre de interferencias) y sensibilidad química (capacidad de detectar cantidades
pequeñas o pequeños cambios en la concentración del compuesto analizado). También es
importante la capacidad de usar calibrador, la elección de reactivos, temperatura, tiempo de
reacción, tiempo de medición y tipo de medición (métodos de determinación de un punto, dos
puntos o cinéticos), son características de un método que deben definirse. La IFCC (Internacional of
Federation Clinical Chemistry and laboratory Medicine) y la AACC (Asociación Americana de
Química Clínica) han desarrollado una serie de recomendaciones para los métodos empleados en
química clínica. El operador del procedimiento del método debe familiarizarse con la estabilidad
de los calibradores, controles y reactivos; con la linealidad de la respuesta a través de todo el
intervalo de trabajo.
Precisión, Veracidad y Exactitud: Nos permiten medir aspectos importantes del método.
La precisión se define como la concordancia entre las medidas de una misma magnitud realizadas,
esto quiere decir que el equipo es capaz de reproducir un mismo valor varias veces en un punto muy
cercano entre sí, este puede o no ser cercano al valor verdadero
La veracidad se define como la cercanía de la media de un grupo de mediciones independientes al
valor verdadero en condiciones estipuladas.
La exactitud es el grado de concordancia existente entre el resultado del ensayo y un valor aceptado
como referencia.
Sensibilidad y especificidad de un método analítico: Es importante a considerar al evaluar la
validez de un método: su sensibilidad y su especificidad.
Sensibilidad del método: se refiere a la capacidad del método de medir una cantidad de sustancia.
Límite de detección o límite inferior de cuantificación (LIdQ): cantidad mínima de sustancia que
puede ser cuantificada por el método.
Límites de cuantificación (LoQ): se puede definir como el valor más pequeño que excede
significativamente las medidas de una muestra con el blanco. Así, el límite se estima en base a las
mediciones repetidas de una muestra blanca y se reporta como la media más 2 o 3 SD de las
mediciones de los blancos. En el intervalo entre LoD y LIdD, el resultado debe informarse como
"detectado", pero no debe proporcionarse un resultado cuantitativo.
Especificidad analítica: capacidad para medir únicamente la sustancia que quiere estudiarse, sin
interferencia de otras sustancias que puedan encontrarse en la muestra. La especificidad está a
menudo ligada a la sensibilidad. Es posible reducir la sensibilidad de un método de tal forma que la
presencia de interferencias afecte en menor grado al resultado final y el método pueda considerarse
como especifico, aunque menos sensible para la sustancia problema.

4.- Proceso del Análisis Clínico


La meta fundamental del laboratorio clínico es proporcionar datos confiables acerca de la
composición de las muestras obtenidas de pacientes, para contribuir al diagnóstico, tratamiento y
seguimiento de diversas enfermedades. Para obtener los datos verdaderamente confiables,
requieren de la rigurosa aplicación de diferentes técnicas de control de calidad, teniendo siempre
presente que el mejor sistema de control es el que permite prevenir, identificar y corregir los
errores, para este propósito es necesario el uso de programas de control de calidad interno y
externo en todo tipo de sistemas analíticos: manuales o automatizados. La meta de un sistema de
control de calidad deberá ser que: “La variación en las determinaciones que se llevan a cabo en
el laboratorio sea lo suficientemente pequeña para que no se afecte su utilidad” por lo que se
requiere controlar el proceso total del análisis de laboratorio clínico, incluyendo las etapas pre-
analítica, analítica y post-analítica.
Control de Calidad
Si tenemos en consideración que se ha establecido apropiadamente todos los parámetros previos
entonces podremos controlar el sistema
El control de calidad en el laboratorio de análisis clínico, es una herramienta que permite detectar y
corregir posibles deficiencia analíticas del proceso antes de emitir un resultado, básicamente nos
ayuda a medir la precisión y exactitud del proceso analítico y con el fin de aumentar la calidad y
confiabilidad de los resultados obtenidos por uno o un conjunto de procedimientos que se utilizan en
una misma técnica, y verificar que el resultado se mantiene invariable a lo largo del tiempo o
bajo condiciones operativas diferentes.

Se hace uso de un material de control (controles) sobre el cual se realiza una serie
de determinaciones al comienzo de cada analítica, cada vez que un instrumento recibe
servicio técnico, cada vez que se cambia un lote de reactivos, o si se preparan en el laboratorio de
análisis clínicos, cada vez que se prepara un nuevo lote, tras cada calibración, y cada vez que un
resultado parezca inapropiado.

Los resultados de Laboratorio se valoran sobre los límites de control de + 2 DS a partir del valor
medio del control utilizado para el método, cuando se establece en el laboratorio, o sobre el valor
medio asignado por el fabricante cuando aun no se ha implementado en el laboratorio.

ETAPA PREANALÍTICA
Es la etapa más importante en todo el proceso de laboratorio debido a que cualquier no
conformidad generada en esta fase no podrá ser superada bajo ninguna estrategia en las
siguientes fases (analítica y post-analítica) y el resultado no será válido.
Si asumimos que el resultado analítico obtenido es la concentración real del compuesto
analizado en el paciente, debemos comprender que pueden existir numerosos factores que
pueden invalidar esta suposición, debido al número de no conformidades no analíticos que
pueden cambiar la concentración de uno o más compuestos analizados en un espécimen por lo
tanto los resultados no reflejarían la condición fisiológica del paciente.

Factores llamados fuentes de error preanalítico: que incluyen


Causas de Variación Previas a la Recolecta
1.-Variables del ciclo biológico: Comunes a los pacientes o propias de alguna patología del
paciente
2.- Técnicas para la recolecta de sangre. Habilidad y destreza del personal
Tipos de muestras de sangre. Selección adecuada. Variar la muestra requerida.
Errores relacionados con preservantes y anticoagulantes: usados para colectar
muestras de sangre, orina y otros fluidos corporales. Errores relacionados con los tubos
separadores de suero. Errores relacionados con las técnicas de recolecta inadecuada. El uso
de los torniquetes. Hemólisis. Contaminación con fluidos intravenosos
3.-Errores relacionados con la identificación del paciente y la muestra

Causas de Variación Posteriores a la Recolección


Criterios para las condiciones aceptables de almacenamiento y manejo de muestras después
de la colecta, durante el tiempo que las muestras están en posesión del laboratorio. Transporte
de las muestras. Durante la preparación de la muestra: centrifugación , diluciones, etc. Criterios
de conservacion y almacenamiento de muestras. Evaporación, temperatura, humedad,
movimiento del aire. Criterio para el rechazo de muestras.
ESPECTROFOTOMETRÍA
INTRODUCCIÓN:
La espectrofotometría es una de las técnicas experimentales más utilizadas para la detección
específica de moléculas. Se caracteriza por su precisión, sensibilidad y su aplicabilidad a
distintas moléculas.
Los fundamentos fisicoquímicos de la espectrofotometría son relativamente sencillos. Las
moléculas pueden absorber energía luminosa y almacenarla en forma de energía interna.
La Mecánica Cuántica nos dice que la luz está compuesta de fotones cada uno de los cuáles
tiene una energía:
Efotón = h⋅ν = h⋅c/λ
Donde: c= velocidad de la luz
ν= frecuencia
λ= longitud de onda
h= 6.6 x 10 -34 J⋅s (Constante de Planck)

Cuando decimos que una sustancia química absorbe luz de longitud de onda λ, esto significa
que las moléculas de esa sustancia absorben fotones de esa longitud de onda.

Los espectros de absorción se miden mediante un instrumento denominado espectrómetro,


constan de una fuente de luz “blanca” caracterizada por un espectro de emisión continuo en un
intervalo amplio de longitudes de onda (en nuestro caso 325 nm-900 nm) y de un
monocromador que actúa como filtro óptico transmitiendo un haz de luz de longitud de onda fija
λ e intensidad I0. Este haz de luz penetra en la cubeta de análisis donde se encuentra la
muestra. Un detector sensible a la luz mide la intensidad del haz a la salida If.

ESPECTROS DE ABSORCIÓN:
Los compuestos tienen espectros de absorción en la región visible y ultravioleta, esto hace
posible la identificación de dichos materiales en una mezcla. Por ejemplo, las proteínas: los
aminoácidos triptófano y tirosina absorben a 280 nm por lo tanto esto es la base o
fundamento de una técnica muy sensible para determinar proteínas sin que se destruya la
muestra. Las proteínas también absorben en el ultravioleta lejano, debido a los enlaces
peptídicos.
La diferencia del espectro de absorción de cada molécula nos permite diferenciar sus
componentes y comprender la diferencia entre un espectrofotómetro y un fotómetro o
fotocolorímetro.
Comprendiendo que la diferencia básica consiste en que mientras en el
espectrofotómetro se utiliza un prisma que le permite identificar una longitud de onda
exacta un fotómetro utiliza filtros y por lo tanto la lectura se realiza en el rango que
presenta el filtro estos rangos se basan en las regiones del espectro de luz.

Como utilizar un espectrofotómetro o fotómetro para la


medición de una determinación en Química Clínica
La luz blanca que emite la lámpara se hace pasar a través de un prisma, el cual
descompone la luz, separándola en sus colores constituyentes (según su longitud de onda),
formando un abanico de colores. Para cada cifra programada corresponde diferente color.
El rayo de luz es dirigido hacia una rejilla metálica (monocromador), por la cual podrá pasar
la luz del color que en ese momento se haya escogido. Simultáneamente, cuando cambia
el color, aparece en la ventana de lectura la longitud de onda del color que estamos usando.

LEY DE BEER: Cuando un rayo de luz monocromática pasa a través de un medio


absorbente, su intensidad disminuye exponencialmente a medida que la concentración
del medio absorbente aumenta.

LEY DE LAMBERT: Cuando un rayo de luz monocromática pasa a través de un medio


absorbente, su intensidad disminuye exponencialmente a medida que la longitud
del medio absorbente aumenta.

La combinación de ambas leyes puede expresarse en forma integral de la manera


siguiente:
Io (Luz inicial antes de atravesar la
muestra)
I (Luz luego de atravesar la muestra)
e (Coeficiente de absortividad molar)
C (Concentración molar)
L (Longitud de la cubeta)

Donde “Io” es la intensidad de la luz incidente (que va llegando a la cubeta óptica), “I” es la intensidad
de la luz emergente o transmitida (que atravesó la cubeta óptica y se dirige a la foto celda), “e” es el
coeficiente de absorción molar (en unidades de litros por mol por cm.) el cual varía según la
naturaleza específica de cada sustancia, “C” la concentración de la especie absorbente en moles
por litro y “L” (longitud = 1cm), el espesor de la muestra absorbente en centímetros.

La Ley de Beer-Lambert supone que la luz incidente es paralela y monocromática y que las
moléculas del solvente y el soluto están orientadas al azar, de manera uniforme.
La expresión log (Io / I) se denomina “ABSORBANCIA” y se designa por A. Es la base
matemática que permite calcular cuánta energía puede haber sido absorbida por la
sustancia que se estudia. Es importante observar que cada milímetro de espesor de una
solución absorbente en una cubeta óptica de 1.0 cm. (medida estándar de todas las cubetas
que usaremos en nuestras prácticas de laboratorio) no absorbe una cantidad constante de
la luz incidente. Sin embargo, con una capa absorbente de espesor constante (como será
nuestro caso cada vez que hagamos uso del procedimiento fotométrico), la absorbancia (A)
es directamente proporcional a la concentración de la solución absorbente.
Como medir la concentración de componentes en Química Clínica
Cuando se desea determinar la concentración de un componente de una solución
mediante el uso de un espectrofotómetro o fotocolorímetro, se deben considerar varias
mediciones que nos permiten evaluar el método, evaluar los reactivos, calcular y obtener la
concentración de la muestra finalmente nos permite validar nuestros resultados, como son:
Medición del blanco, medición del estándar/calibrador, medición de los controles y la
medición de la muestra, la misma que puede hacerse en tubo, cubeta o celda en equipos
manuales, semiautomatizados y automatizados

“Medición del Blanco” Es la medición contenida en un tubo, celda, o cubeta que permite
eliminar el color si es en el espectro visible o la actividad si es un espectro UV, contiene
diluyente, estabilizadores químicos del pH, reactivos, colorantes y todos los ingredientes
que sean necesarios para la técnica o procedimiento analítico, esta lectura se realiza antes
de que se inicie la reacción.
Existen varios tipos de “blanco”:
a) Blanco de aire: Verifica que el haz de luz que pasa y se absorbe o trasmite
adecuadamente, sea 100% si se trata de transmitancia o 0% si se trata de absorbancia. En
los fotocolorímetros es de utilidad para evaluar las condiciones de cada filtro.
b) Blanco de reactivo: Verifica la lectura del reactivo y su actividad que esta descrita por el
fabricante, antes de que tenga reacción con alguna sustancia. Tiene un valor limite, que
nos dice que ya no se debe utilizar por deterioro o contaminación.
c) Blanco de muestra: Es el color propio de la muestra que en algunos procedimientos es
valioso identificar. Debe ser medido para eliminar ese color que puede generar interferencia
o sobreestimación de la medición.
d) Blanco de cubeta: esta lectura nos permite evaluar la calidad de la cubeta y poder
identificar si existe alguna dañada para su remplazo.

“Medición del Estándar” Contiene el reactivo del analito a realizar y se le agrega el


estándar (solución acuosa que tiene el analito a investigar en concentración conocida y
exacta) en la misma condición de la muestra con la finalidad que bajo las mismas
condiciones reproduzca un valor que servirá de base para elaborar la curva de Calibración,
después será comparado para obtener la concentración del analito a investigar en la
muestra.

“Medición del Calibrador” Contiene el reactivo del analito a realizar y se le agrega el


calibrador (solución de matriz proteica similar al suero humano que contiene el analito a
investigar en concentración conocida y exacta) en la misma condición de la muestra con la
finalidad que bajo las mismas condiciones reproduzca un valor que servirá de base para
elaborar la curva de Calibración, después será comparado para obtener la concentración
del analito a investigar en la muestra.

“Medición del Control” Contiene el reactivo del analito a realizar y se le agrega el control
(solución de matriz proteica similar al suero humano que contiene el analito a investigar con
un rango de valor asignado en nivel patológico y no patológico en un rango aceptable +/-
2DS) en la misma condición de la muestra con la finalidad que bajo las mismas condiciones
reproduzca un valor que servirá para evaluar la curva de Calibración.
“Medición de la Muestra” Contiene el reactivo del analito a realizar y se le agrega la
muestra para medir la determinación del paciente.
Debe ser determinado en la condición que propone el fabricante como: longitud de onda,
volumen reactivo, volumen de muestra o calibrador, temperatura y tiempo con la finalidad
que todo el proceso se produzca bajo las mismas condiciones y que reproduzca el mismo
desempeño establecido por el fabricante.
La concentración del analito en la muestra se calculará con el valor de lectura corregida
obtenido y el valor del factor colorimétrico que se obtiene de la curva de Calibración.

BIBLIOGRAFÍA

o Pilar Roca, Jordi Oliver y Ana M . Rodríguez. Bioquímica. Técnicas y Métodos.


Madrid. Editorial Hélice (2003)
o Anderson, SC y Cockayne, S. Química Clínica. México. Interamericana / McGraw-Hill.
(1995)
o González de Buitrago, JM, Ferreiro, EA., Rodríguez-Segade, M. y Sánchez, PA.
Bioquímica Clínica. España. McGraw-Hill / Interamericana. (1999)
o Skoog, D., Holler, J. y Nieman, TA. Principios de Análisis Instrumental. España.
McGraw-Hill. (2001)
o Carl A. Burtis y David E. Bruns. Tietz Fundamentos de Química Clínica y
Diagnóstico Molecular. Brasil. Elsevier (2016)

También podría gustarte