Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Principios Basicos de Autn en Laboratorio Clinico PDF
Principios Basicos de Autn en Laboratorio Clinico PDF
EN LABORATORIO CLINICO”
LIC. WILFREDO GOCHEZ QUINTANILLA
No cabe duda que el efecto tecnológico ha sido y seguira siendo un gran pilar para el
descubrimiento de nuevos conocimientos, ha sido, es y será la base de donde surgió la
carrera de Laboratorio Clínico, Por lo tanto en esta pequeña revisión no busca ser un
texto de referencia para algo tan amplio y profundo como puede ser la automatización,
sino más bien es una guía practica de conocimientos básicos que le sirvan al alumno
para cuando este en sus prácticas en los hospitales y se encuentra por primera vez como
un usuario de este tipo de aparatos. Una de las principales dudas con las cuales se
pueden encontrar los alumnos al asistir a los diferentes áreas automatizadas de los
laboratorios de los hospitales es: ¿En qué principio se basa ese aparato para medir esa
prueba? ¿Cómo puedo saber si el aparato esta funcionando bien? ¿Cuáles son las partes
internas del equipo? ¿Cómo puedo usarlo para obtener un buen resultado?, etc. Estas
dudas son lógicas para alguien que inicia su carrera, tiene su respuesta desde el punto de
vista del fabricante, sin embargo es importante agregarle el fundamento científico.
2
PROLOGO
PRESENTACION
INDICE
CAPITULO I:
A. Historia y definición de la Automatización. Pág. 4,5
B. Aplicación de la automatización al laboratorio clínico Pag.6,7,8
C. Diferentes áreas de Aplicación de la automatización
en el laboratorio clínico Pag. 9
CAPITULO II:
CAPITULO III
3
CAPITULO I
A. HISTORIA Y DEFINICIÓN DE LA AUTOMATIZACIÓN
El concepto de máquinas automatizadas se remonta a la antigüedad, con mitos de
seres mecánicos vivientes. Los autómatas, o máquinas semejantes a personas, ya
aparecían en los relojes de las iglesias medievales, y los relojeros del siglo XVIII eran
famosos por sus ingeniosas criaturas mecánicas.
Algunos de los primeros robots empleaban mecanismos de realimentación para corregir
errores, mecanismos que siguen empleándose actualmente. Un ejemplo de control por
realimentación es un bebedero que emplea un flotador para determinar el nivel del agua.
Cuando el agua cae por debajo de un nivel determinado, el flotador baja, abre una
válvula y deja entrar más agua en el bebedero. Al subir el agua, el flotador también
sube, y al llegar a cierta altura se cierra la válvula y se corta el paso del agua.
El primer auténtico controlador realimentado fue el regulador de Watt, inventado en
1788 por el ingeniero británico James Watt. Este dispositivo constaba de dos bolas
metálicas unidas al eje motor de una máquina de vapor y conectadas con una válvula
que regulaba el flujo de vapor. A medida que aumentaba la velocidad de la máquina de
vapor, las bolas se alejaban del eje debido a la fuerza centrífuga, con lo que cerraban la
válvula. Esto hacía que disminuyera el flujo de vapor a la máquina y por tanto la
velocidad.
El control por realimentación, el desarrollo de herramientas especializadas y la división
del trabajo en tareas más pequeñas que pudieran realizar obreros o máquinas fueron
ingredientes esenciales en la automatización de las fábricas en el siglo XVIII. A medida
que mejoraba la tecnología se desarrollaron máquinas especializadas para tareas como
poner tapones a las botellas o verter caucho líquido en moldes para neumáticos. Sin
embargo, ninguna de estas máquinas tenía la versatilidad del brazo humano, y no podían
alcanzar objetos alejados y colocarlos en la posición deseada.
El desarrollo del brazo artificial multiarticulado, o manipulador, llevó al moderno robot.
El inventor estadounidense George Devol desarrolló en 1954 un brazo primitivo que se
podía programar para realizar tareas específicas. En 1975, el ingeniero mecánico
estadounidense Víctor Scheinman, cuando estudiaba la carrera en la Universidad de
Stanford, en California, desarrolló un manipulador polivalente realmente flexible
conocido como Brazo Manipulador Universal Programable (PUMA, siglas en inglés).
El PUMA era capaz de mover un objeto y colocarlo en cualquier orientación en un lugar
deseado que estuviera a su alcance. El concepto básico multiarticulado del PUMA es la
base de la mayoría de los robots actuales.
El diseño de un manipulador robótico se inspira en el brazo humano, aunque con
algunas diferencias. Por ejemplo, un brazo robótico puede extenderse telescópicamente,
es decir, deslizando unas secciones cilíndricas dentro de otras para alargar el brazo.
También pueden construirse brazos robóticos de forma que puedan doblarse como la
trompa de un elefante. Las pinzas están diseñadas para imitar la función y estructura de
la mano humana. Muchos robots están equipados con pinzas especializadas para agarrar
dispositivos concretos, como una gradilla de tubos de ensayo o un soldador de arco.
Las articulaciones de un brazo robótico suelen moverse mediante motores eléctricos. En
la mayoría de los robots, la pinza se mueve de una posición a otra cambiando su
orientación. Una computadora calcula los ángulos de articulación necesarios para llevar
la pinza a la posición deseada, un proceso conocido como cinemática inversa.
Algunos brazos multiarticulados están equipados con servocontroladores, o
controladores por realimentación, que reciben datos de un ordenador. Cada articulación
4
del brazo tiene un dispositivo que mide su ángulo y envía ese dato al controlador. Si el
ángulo real del brazo no es igual al ángulo calculado para la posición deseada, el
servocontrolador mueve la articulación hasta que el ángulo del brazo coincida con el
ángulo calculado. Los controladores y los ordenadores asociados también deben
procesar los datos recogidos por cámaras que localizan los objetos que se van a agarrar
o las informaciones de sensores situados en las pinzas que regulan la fuerza de agarre.
Cualquier robot diseñado para moverse en un entorno no estructurado o desconocido
necesita múltiples sensores y controles (por ejemplo, sensores ultrasónicos o infrarrojos)
para evitar los obstáculos. Los robots como los vehículos planetarios de la NASA
necesitan una gran cantidad de sensores y unas computadoras de a bordo muy potentes
para procesar la compleja información que les permite moverse. Eso es particularmente
cierto para robots diseñados para trabajar en estrecha proximidad de seres humanos,
como robots que ayuden a personas discapacitadas o sirvan comidas en un hospital. La
seguridad debe ser esencial en el diseño de robots para el servicio humano.
En 1995 funcionaban unos 700.000 robots en el mundo industrializado. Más de 500.000
se empleaban en Japón, unos 120.000 en Europa Occidental y unos 60.000 en Estados
Unidos. Muchas aplicaciones de los robots corresponden a tareas peligrosas o
desagradables para los humanos. En los laboratorios clínicos, los robots manejan
materiales que conlleven posibles riesgos, como muestras de sangre u orina. En otros
casos, los robots se emplean en tareas repetitivas y monótonas en las que el rendimiento
de una persona podría disminuir con el tiempo. Los robots pueden realizar estas
operaciones repetitivas de alta precisión durante 24 horas al día sin cansarse. Uno de los
principales usuarios de robots es la industria del automóvil. La empresa General Motors
utiliza aproximadamente 16.000 robots para trabajos como soldadura por puntos,
pintura, carga de máquinas, transferencia de piezas y montaje. El montaje es una de las
aplicaciones industriales de la robótica que más está creciendo. Exige una mayor
precisión que la soldadura o la pintura y emplea sistemas de sensores de bajo coste y
computadoras potentes y baratas. Los robots se usan por ejemplo en el montaje de
aparatos electrónicos, para montar microchips en placas de circuito.
Las actividades que entrañan gran peligro para las personas, como la localización de
barcos hundidos, la búsqueda de depósitos minerales submarinos o la exploración de
volcanes activos, son especialmente apropiadas para emplear robots. Los robots también
pueden explorar planetas distantes. La sonda espacial no tripulada Galileo, de la NASA,
viajó a Júpiter en 1996 y realizó tareas como la detección del contenido químico de la
atmósfera joviana.
Ya se emplean robots para ayudar a los cirujanos a instalar caderas artificiales, y ciertos
robots especializados de altísima precisión pueden ayudar en operaciones quirúrgicas
delicadas en los ojos. La investigación en telecirugía emplea robots controlados de
forma remota por cirujanos expertos; estos robots podrían algún día efectuar
operaciones en campos de batalla distantes.
Los manipuladores robóticos crean productos manufacturados de mayor calidad y
menor costo. Sin embargo, también pueden provocar la pérdida de empleos no
cualificados, especialmente en cadenas de montaje industriales. Aunque crean trabajos
en los sectores de soporte lógico y desarrollo de sensores, en la instalación y
mantenimiento de robots y en la conversión de fábricas antiguas y el diseño de fábricas
nuevas, estos nuevos empleos exigen mayores niveles de capacidad y formación. Las
sociedades orientadas hacia la tecnología deben enfrentarse a la tarea de volver a formar
a los trabajadores que pierden su empleo debido a la automatización y enseñarles
5
nuevas capacidades para que puedan tener un puesto de trabajo en las industrias del
siglo XXI.
Fig. 1. Gustav Robert Kirchhoff (izq.) Antón Van Leewenhoek (centro) y su microscopio (Derecha)
Robert Wilhelm Bunsen (1811 – 1899) Químico alemán que con su compatriota el
físico Gustav Robert Kirchhoff, invento el espectroscopio y promovió el análisis del
espectro que les condujo al descubrimiento del cesio y del rubidio.
Bunsen nació en Gotinga el 31 de marzo de 1911 y estudio en la universidad de esta
ciudad, entre 1836 y 1852 dio clases sucesivamente en el instituto politécnico de
Kassely en las universidades de Marburgo y Breslau (Actualmente Wroclaw, Polonia),
después fue profesor en la universidad de Heidelberg hasta que se retiro en 1889.
Considerado uno de los más grandes químicos del mundo Bunsen descubrió en 1843 el
antídoto que aun hoy en día se utiliza contra el arsénico. Su estudio sobre los cianuros
dobles confirmo el principio de química orgánica en el que la naturaleza de un
compuesto depende de los radicales que lo componen. Además invento el mechero
Bunsen, un mechero de gas utilizado en laboratorios científicos. Entre otros de sus
inventos están además el calorímetro de hielo, una bomba de filtro y la célula eléctrica
de cinc y carbono. Los resultados de sus estudios sobre los gases residuales se
publicaron en el clásico “Métodos gasométricos”(1857). Bunsen murió el 16 de agosto
de 1899 en Heidelberg.
Gustav Robert Kirchhoff, nació en Konigsberg (actualmente Kaliningrado, Rusia) y
estudio en la universidad de esta ciudad. Fue profesor de física en la universidad de
Breslau, Heidelberg y Berlín. Con el químico alemán Robert Wilhelm Bunsen,
desarrollo el espectroscopio moderno para el análisis químico. En 1860 los dos
científicos descubrieron el cesio y el rubidio mediante la espectroscopia. Kirchhoff
dirigió importantes investigaciones sobre la transferencia de calor y también expuso dos
reglas actualmente conocidas como las leyes de Kirchhoff, con respecto a la
distribución de la corriente en los circuitos eléctricos.
En 1859, estos dos científicos, Gustav Robert Kirchhoff y Robert Wilhelm Bunsen
fueron los primeros en descubrir que cada elemento emite y absorbe luz de colores
característicos, que aplicaron al análisis químico. Este instrumento que es uno de los dos
tipos principales de espectroscopio, está formado por una rendija, un conjunto de lentes,
6
un prisma y un ocular. La luz que va a ser analizada pasa por una lente colimadora, que
produce un haz de luz estrecho y paralelo, y a continuación por el prisma. Con el ocular
se enfoca la imagen en la rendija, de hecho lo que se ve son una serie de imágenes de la
rendija conocidas como líneas espectrales, cada una con un color diferente, porque el
prisma separa la luz en los colores que la componen. Este descubrimiento sentaría las
bases del desarrollo químico e investigativo que diera paso al concepto de laboratorio
clínico moderno.
Para principios del siglo XX, se vislumbraba un nuevo panorama debido a las
innovaciones tecnológicas de la época y la electrificación masiva en las ciudades junto
a los avances en las ciencia de la salud, se aplicaron descubrimientos en la química y la
física, que permitieron a compañías desarrollar el instrumental necesario para los
1
avances en la medicina diagnostica de la época. Así surgen compañías como la: Klett –
Summer de Detroit Michigan USA con el desarrollo de su colorímetro, en los años de
1940, que fue uno de los aparatos con mas aceptación en nuestro país hasta a principios
de los años 80, posteriormente surgieron otras compañías con espectrofotómetros más
complejos, análogos como: Perkin Elmer, Spectronic D, etc. Que fueron
modernizándose de acuerdo al avance electrónico de la época cambiando su tecnología
hacia equipos digitales.
La compañía Technicon introdujo en 1957 su primer analizador automatizado (1) que
fue un analizador de lotes secuencial, de canal único y flujo continuo capaz de proveer
un solo resultado de prueba en casi 40 muestras por hora.
Fue hasta 1970 que se introdujo una competencia a este analizador por medio del
descubrimiento del Dr. Norman Anderson con su primer analizador centrífugo, sub
producto de una investigación de la NASA (1) la innovación de este sistema fue además
de una alternativa al sistema continuo fue el uso de la innovación de las tecnologías de
las computadoras. Pero fue hasta 1975 que se perfeccionaron estos aparatos con la
miniaturización de las computadoras y el avance en la industria de los polímetros para la
fabricación de cubetas ópticas de plástico de gran calidad.
A estos equipos se le unió el Automatic Clinical Analizar (ACA) de la compañía Dade
Behring en 1970 que fue el primer analizador discreto de flujo continuo así como el
primer instrumento en tener capacidades de acceso aleatorio mediante el cual se podían
analizar muestras fuera de secuencia de lote según se requiera.
Otro de los hitos importantes en estos avances fueron la introducción de tecnologías de
análisis de micro muestra y reactivos, además de incorporar de manera extensa la
tecnología de computadoras en su diseño y uso, Ortho-Clinical Diagnostics, 1978(1).
Desde 1980 se ha ido desarrollando analizadores mas poderosos que incorporan
características importantes como: Software y Hardware cada vez mas sofisticados y
rápidos, fibra óptica, Lecturas policromaticas, sistemas On line para resultados
inmediatos, avances en equipos semi – automatizados, etc. Pero no ha sido hasta
mediados de los años 90 que en nuestro país han ido avanzando este tipo de tecnologías
y logrando posicionarse en especial en los grandes hospitales, debido especialmente por
su requerimiento en manejo de mayores volúmenes de muestras, necesidad de rapidez
en los resultados, necesidad de optimización del recurso humano de los hospitales y por
la facilidad de disposición de presupuestos para poder adquirir estas tecnologías, no así
en los laboratorios pequeños especialmente en las periferias e interior del país.
Otro grave problema actual es la falta de incorporación de esta información en los
planes de estudio de las universidades formadoras de recursos profesionales en el país,
existe casi un divorcio total entre contenidos universitarios y realidad en los
7
establecimientos de salud, y sumado a esto esta también la poca preparación que dan las
compañías distribuidoras a los personales de cada hospital, especialmente a estudiantes
o a nuevas contrataciones.
Fig.2 Equipo Hitachi 912, analizador automatizado de química clínica. Roche Diagnostics.
Fig. 3 Espectrofotómetro análogo Perkin Elmer, uno de los primeros equipos usados en
los laboratorios clínicos del país.
8
C – DIFERENTES AREAS DE APLICACIÓN DE LA AUTOMATIZACION EN
LABORATORIO CLINICO
Química Clínica
Hematologia
Inmunodiagnostico o tamizaje
Fraccionamiento y extracción de componentes de banco de sangre.
Etc.
9
CAPITULO II:
A. AUTOMATIZACIÓN EN QUÍMICA CLINICA.
i. CONCEPTOS BASICOS:
I. ESPECTROFOTOMETRIA
Se define por luz aquel tipo de energía electromagnética cuya velocidad es una
constante en el universo y que se desplaza a todas direcciones en forma de partículas
llamadas fotones a una velocidad de 299,792.458 km/seg. y de la cual hay dos fuentes
principales:
I- Energía de alta radiación: Generada por las estrellas, súper novas, quásar, el sol, etc.
II- Energía de Baja radiación: Generada por la energía Alterna o Directa. Dependiendo
de su generación puede ser:
i. Energía Eléctrica, Corriente alterna: Generación de alta tensión: 220voltios, 110 v.
Energía Corriente Directa: utilizada por instrumentos electrónicos a 6v, 10v, 12v o
24 v.
2
Enciclopedia Encarta 2005
10
La espectrofotometría, se basa en la luz y su refracción a través de un prisma o filtro
intersticial para descomponerla en sus distintas partes o para poder medir y cuantificar
reacciones químicas en substancias, llámese a estas: Analitos, Substratos o Enzimas.
(Fig. 1) A esta refracción para descomponer en sus distintas partes a la luz se le llama
Longitud de onda y se mide en nano metros (nm). o mil millonésima parte de un metro.
(10 -9 mt.)
Para poder cuantificar una sustancia se necesita que dos fenómenos ocurran:
1) TRAMITANCIA: Es el fenómeno de transmisión de la luz en un 100% en un rango
determinado.
2) ABSORBANCIA: Es la absorción de la luz por las substancias presentes en la cubeta
previo a una calibración a cero con agua destilada.
11
CONTROL NORMAL : Es un suero bovino o humano cuya concentración de
Analitos, enzimas y sustratos es conocida, la cual varia a limites permisibles
Reacción química:
Esta se da en el tubo de ensayo o cubeta de reacción de acuerdo con los parámetros
establecidos por el fabricante como son:
- Volumen de relación Reactivo – muestra
- Tipo de muestra a usar y forma de extracción (Edta, citrato de Sodio, etc.)
- Pipeteado, temperatura de reacción, Tiempo de Incubación, Lectura.
- Forma de cálculo, etc.
Al estar lista esta reacción se procede a la cuantificación del analito, substrato o enzima
por medio de la medición de luz (fotones) que estas partículas presentes en la reacción
absorben. (Esquema.1)
CUBETA DE REACCION
LUZ ABSORVIDA
12
La química clínica ha avanzado muchísimo desde el desarrollo y aplicación del primer
“espectroscopio” por Bunsen y Kirchhoff (1856) convirtiéndose actualmente en una
sofisticada tecnología de vanguardia que utiliza a la luz y su aplicación en la medición
de absorción de substancias sean estos analitos, sustratos o enzimas de valor clínico en
el diagnostico de muchas enfermedades en el ser humano.
Realizando un vistazo desde los primeros aparatos utilizados en la química clínica, hasta
la actualidad, nos damos cuenta que el principio de la espectrofotometría se aplica a
todos los instrumentos antiguos y modernos. Ejemplos de algunos equipos en distintas
epocas: Desde 1940 hasta la fecha:
13
Colores de la luz visible
14
Fig. 5 Colorímetro de química clínica Klett Sumer. (1940)
3
“El control interno de la Calidad” Javier Gella, Biosystems España.
15
A3, 4, 5 HARDWARE – SOFTWARE -LIS
La fase pre – analítica comienza en la buena obtención y preparación de la muestra,
que es y ha sido un proceso manual en la mayoría de los casos, pero actualmente se han
incorporado procesos automatizados desde el ingreso del paciente en la ventanilla de la
recepción del laboratorio donde se le asigna un código de barra y se le ingresa al
sistema donde se le asigna la cantidad de pruebas solicitadas, esta información llega
desde el ordenador hasta el aparato de química en el área especificada a través de un
cableado llamado Sistema de interfases de laboratorio (LIS) donde el aparato se carga
con esta información especifica del paciente, su código de barra y las pruebas a realizar.
En el área de recepción, el flebotomista encargado de la sangría del paciente deberá
pegar al tubo de la muestra el código de barra correspondiente para que este sea llevado
hasta la separación y cargar el suero o plasma al rotor del aparato para que este inicie la
secuencia de búsqueda con su lector de código de barras. Al detectar el código asignado
revisa en su memoria las pruebas asignadas y comienza a procesar el listado en una
secuencia lógica agrupando las pruebas de acuerdo a la metódica específica.
Al finalizar el listado de trabajo este envía la información al computador para que este
pueda mostrar los resultados en pantalla, para una posterior validación de la corrida, de
acuerdo a las características especificas ingresadas a la programación previa del aparato
en detección de alarmas especificas del aparato y el control de calidad asignado, de
acuerdo a la corrida simultanea de calibradores y controles comerciales.
Al recibir estos resultados y analizarlos de acuerdo a los parámetros de la calidad (ver
capitulo III) se validan dejándolos listos para que nuevamente en la recepción del
laboratorio se puedan imprimir los resultados a través del software y el sistema de
cableado LIS donde viaja la información.
En conclusión podemos afirmar que las metodologías han avanzado mucho en lo que
a Automatización en química clínica respecta, los principios físicos y químicos de la
espectrofotometría son los mismos, pero se han hecho grandes innovaciones en estas
áreas que nos traen hasta la actualidad donde hay una gran opción de equipos
automáticos y semi automáticos de tamaño compacto, rápidos y modernos que
conjuntan diferentes principios como los que hemos mencionado anteriormente para
poder abarcar la determinación de los distintos sustratos, enzimas y analitos de valor
clínico, junto con la cuantificación de las nuevas metodologías Inmunoquimicas para la
valorización de Marcadores tumorales como el PSA, (Antigeno prostático especifico)
drogas terapéuticas y de abuso, Hormonas, Anticuerpos específicos, Inmunoglobulinas,
etc. En fin todas las valorizaciones necesarias para la evaluación del paciente.
Un aspecto importante en estas cuantificaciones es la relación matemática de la
reacción química que sucede en la cubeta de reacción, de esta forma, nos cercioramos
de la validez de la reacción, a este conjunto de relaciones matemáticas le llamamos:
“Formas de Calculo”.
En el proceso manual las formas de calculo generalmente se realizan por el personal que
realiza la prueba, de manera que de esta forma, se esta sujeto a caer en fallas de calculo
y errores humanos en la realización de estos, siendo esta una de las principales fuentes
de error post – analítico.
Los modernos computadores con sus microprocesadores son una poderosa herramienta
para evitar estas fallas, estos aparatos junto con los software desarrollados por los
fabricantes de los aparatos recogen la información cruda (Lecturas de absorbencias,
limites de absorción, valor de estándares, formas de calculo, etc) para procesarlas y en
algunas ocasiones especialmente en los sistemas On line, se reciben los resultados en el
16
monitor de la computadora en tiempo real en unos cuantos segundos después de hecha
la lectura de la reacción..
Es preciso que el futuro profesional en laboratorio clínico, estudie las principales
formas de cálculo y sus aplicaciones, y que estas se incorporen a los planes de estudio
de la carrera de las distintas universidades.
17
Fig. 7 En esta figura podemos observar el rotor de muestras con selector de código de barras (Parte
inferior izquierda), además de las cubetas de reacción y lectura (Parte superior izquierda). Se puede ver
también a los brazos automatizados de dispensado de reactivo, muestras y lavados (Uno en la parte
superior izquierda y dos en la derecha). Este modelo tiene compartimientos refrigerados para reactivos (2
Parte derecha).
18
A.5 DIFERENTES FORMAS DE CÁLCULO. PRINCIPIO Y APLICACIÓN
1. CONCEPTOS GENERALES
2. MODOS DE CÁLCULO
3. TIPOS DE LECTURA
4. CONTROL DE CALIDAD
1. CONCEPTOS GENERALES
Para que ocurra esta reacción en forma satisfactoria, deberá de tomarse en cuenta
ciertos parámetros que influencian el resultado de la misma como son:
Tiempo: Es el tiempo exacto cronometrado desde el inicio del proceso hasta el
final con la lectura del tubo o la cubeta.
Temperatura: Es la medición de la energía calórica en forma de movimiento de
partículas, cuyas variaciones son criticas en toda reacción. Es de suma
importancia las reacciones a 37ªC debido al valor clínico de estas.
PH: Potencial de hidrogeno es critico en toda reacción.
Protocolo: o Inserto es la guía de instrucciones en el proceso de la reacción
otorgado por el fabricante del mismo.
Reactivo 1, 2 , o más : Son las cantidades de reactivos presentes en la reacción.
Muestra: Es la muestra problema a la cual se le busca la concentración y se
mezcla con los reactivos. Ej.: Suero, plasma, LCR, Orina, etc.
Lectura: Es la medición a través de Espectrofotometría del resultado final de la
reacción química.
Longitud de Onda: Es el rango específico expresado en manómetros (distancia
entre cresta y cresta) donde se desarrolla la mayor absorbancia del espécimen de
muestra investigado.
Etc.
4
“Manual del usuario Bts-370 Plus” Biosystems España
19
2. MODOS DE CÁLCULO
IV. MODO CINETICO ( KINETIC MODE): El modo cinético se utiliza para medir
la concentración de actividad catalítica. La absorbancia de la mezcla de reacion
es medida por de 4- 31 veces posterior a una incubación a una temperatura
determinada. En este procedimiento se utiliza un único reactivo. Generalmente
la concentración es determinado por u n factor dado por el fabricante. Se usa un
rango entre 320 – 340 nm. Ej. TGO, TGP, Amilasa, Ck total, Ck mb, etc.
VI. CUTT – OFF ( CORTE): Este procedimiento se utiliza para poder realizar
lecturas basados en absorbancias de controles positivos y absorbancias de
controles negativos , utilizando estas para generar una línea de corte para
discriminar pruebas positivas de las negativas, utilizada especialmente en el área
de inmunodiagnostico para pruebas infecto – contagiosas en los bancos de
sangre. Son mas bien utilizados en procedimientos basados en la metodología de
ELISA. Ej. HIV, Hbag, HCV, Toxoplasma, etc.
20
3. TIPOS DE LECTURA.
La lectura se refiere a la medición de la absorbancia de las pruebas, esto dependerá de la
tecnología disponible para este fin, específicamente dependerá del aparato que se
disponga en el laboratorio.
Existen dos modos de lecturas para las pruebas:
Lectura Monocromática: Se realiza una sola lectura de la absorbancia de la
mezcla después de un tiempo determinado. Ej. Espectrofotómetros simples.
Lectura Bicromatica: Dos lecturas de la absorbancia de la mezcla después de un
tiempo determinado simultaneas, Una con el filtro de lectura principal y la otra
con el filtro de referencia, generando dos lecturas A1 y A2 de la cual se realiza
la siguiente operación :
A1 – A2 = Absorbancia Final.
A1: Absorbancia del rango principal
A2: Absorbancia del rango de referencia
Esto se utiliza generalmente para eliminar las coloraciones parasitas* de las muestras, y
garantiza una mejor exactitud en la determinación. (4)
* Coloración parasita es aquella donde la muestra esta coloreada antes de reaccionar con
el reactivo especifico.
4. CONTROL DE CALIDAD.
21
Fig. 8 Analizador espectrofotómetro semi-automatizado de química clínica marca Bts- 330 Biosystems.
Aparato usado en laboratorio clínicos mas actualizados de bajo volumen (abajo) Espectrofotómetro marca
UNICO usado también en prácticas de laboratorio clínico.(Arriba)
22
B. AUTOMATIZACIÓN EN HEMATOLOGÍA
Virus de la Hepatitis A, B, C.
23
Los leucocitos pueden contarse y diferenciarse dentro de un amplio número de
categorías por diversas metodologías. Según el fabricante la zona de detección puede
ser: optica, de conductancia, de impedancia o una combinación de todas. Por medio de
estas metodologías estos determinan el conteo total de los WBC y de las distintas
poblaciones de estos o formula diferencial.
Otra importante metodología para el conteo de los WBC y los diferenciales se
determina usando citometria de flujo combinada con laser semiconductor. Se obtiene
información celular usando la dispersión de luz frontal para determinar el volumen
celular, la dispersión de luz lateral para evaluar la estructura interna de la célula, y la luz
fluorescente lateral para dar información sobre los ácidos nucleicos RNA/DNA. La
ventaja de este método es que tiene la capacidad de dar el recuento total de la formula
diferencial, pueden contar reticulocitos además de reconocer todas las variantes
normales y anormales de las células incluyendo células atípicas con características de
células progenitoras o inmaduras. 5 .
Fig. 9 Principio de Coulter. Desarrollado por Wallace Coulter en 1956. Básico para conteo automatizado
de células en hematología.
.
En estos procesos es importante siempre el mantenimiento constante del equipo por
parte del equipo técnico de la empresa que pertenece el equipo, para su óptimo resultado
además de la realización de la corrida de los distintos controles en los tres niveles: Bajo,
Normal y Alto.
No obstante siempre es recomendable corroborar cualquier dato anormal por medio de
un proceso manual, ya que a través de este estaríamos viendo directamente a las tres
líneas celulares y es el mejor control de calidad que podemos aplicar.
5
“La Ciencia del Diagnostico de Laboratorio” Crocker & Burnett, 2ª Edición
24
Fig. 10 Analizador para coagulación marca Instrumentation Laboratory ACL 100.
Fig. 11 Joseph y Wallace Coulter. Los inventores del “principio coulter, Básico para los citometros de
hematología modernos.
25
Fig. 12 Analizador automatizado para Hematologia marca ABX Pentra 80.
Fig. 13. Reportes de histogramas de poblaciones de glóbulos rojos y plaquetas anormales, macro
plaquetas, (Parte izquierda) En el control de calidad de lámina podemos observar glóbulos rojos
hipocromicos y presencia de macro plaquetas. (Parte derecha)
26
C. AUTOMATIZACIÓN EN EL BANCO DE SANGRE
Definición:
I. Procedimientos de ELISA – Automatización en Inmunodiagnostico
II. Modo de calculo CUTT – OFF
27
I. PROCEDIMIENTO DE ELISA – AUTOMATIZACIÓN DEL
INMUNODIAGNOSTICO.
28
Esquema Nº 2 : Secuencia de pasos para realizar un ensayo de ELISA.
Ensayo de Micro Elisa
29
II. MODO DE CALCULO DE CORTE (CUTT – OFF)
0.60
Positivo fuerte 0.59
Control 0.58
0.57 + POSITIVOS(REACTIVOS)
30
III. AUTOMATIZACIÓN EN LA EXTRACCIÓN DE COMPONENTES
SANGUÍNEOS
Filtro de Ceramica que atrapa la mayoria de glóbulos blancos presentes en la bolsa de plaquetas.
31
Fig. 15. Cassette de extracción y separación de componentes
sanguíneos de un solo uso, con sistema de
leucorreduccion.(Izquierda) Maquina centrifuga automatizada de
separación de componentes sanguíneos marca TRIMA de
GAMBRO.
32
CAPITULO III.
A.1 INTRODUCCION AL SISTEMA DE CONTROL DE LA CALIDAD
HISTORIA:
El sistema de control de la calidad en laboratorio clínico ha avanzado muchísimo
desde sus inicios en los procesos industriales de a principios del siglo XX. Ha
evolucionado hasta introducirse en la mayoría de ámbitos realizados por el ser humano,
incluyendo a los procesos en el laboratorio clínico.
Historia del control de Calidad:
En el principio de los procesos de control de calidad podemos mencionar a Walter A.
Shewhart que fue un analista estadístico de la compañía Bell Telephone quien desarrollo
su obra titulada ¨Economic control of quality of Manufactured Product¨ publicado en
1931. En esta obra se plasmaron los procesos estadísticos básicos para el control de la
calidad como son los valores mínimos necesarios en los procesos de rutina y la
medición de las desviaciones de estos y sus cosos económicos para el proceso.
Los procesos de control de calidad han sido siempre desde el principio
concernientemente al deseo de alcanzar las metas de calidad al mínimo costo. Shewart
identifico los elementos críticos en los cuales se esperan variaciones en los procesos de
rutina y la forma de cómo identificar los rompimientos en estos procesos para poder
eliminar las causas que lo originan.
Casi veinte años después aparecieron Levey and Jennings e introdujeron los métodos
estadísticos de control de calidad en los laboratorios, en 1950. Siguiendo las
recomendaciones originales de Shewart hicieron un grupo de mediciones del proceso y
calcularon los promedios de rango (máximas diferencias) ploteando los promedios de
los rangos en dos distintos gráficos. Además ellos (Levey – Jennigs) propusieron
realizar mediciones por duplicado de las muestras de los pacientes.
Después de esto Henry y Segalove desarrollaron un proceso alternativo en el cual se
establece muestras de referencias que son analizadas repetidamente en mediciones que
son ploteadas directamente, este sistema es conocido actualmente como Graficas de
Levey and Jennings. 6
Desde esa época a la fecha muchas empresas han desarrollado nuevos y mejores
productos para el aseguramiento de la calidad que son disponibles para la mayoría de
pruebas de laboratorio clínico. Al mismo tiempo hay disponibilidad de mayores
conocimientos en el entendimiento de los procesos de control de calidad a través de
literatura, software, programas estadísticos, productos, etc. y de organizaciones e
instituciones dedicadas a vigilar y fomentar los procesos multi control para evaluar e
interpretar los datos de control de calidad. Por lo tanto hoy en día hay una gran
disposición de información y herramientas para alumnos y profesionales que quieran
saber más acerca del sistema de aseguramiento de la calidad.
6
“Basic QC Practices” James Westgard, 2ª Edicion
33
A 2. CONCEPTOS BASICOS
CONTROL DE LA CALIDAD:
Es la parte del sistema de aseguramiento de la calidad que comprende todas aquellas
técnicas y procedimientos que se utilizan para monitorear el comportamiento de
determinados parámetros que pueden afectar los requisitos de calidad, entendiendo
como calidad a aquel dato o valor que más se apega a la realidad de la condición del
paciente en el momento de que fue tomada la muestra, en resumen es la “búsqueda de la
verdad” o del valor convencionalmente verdadero (3) en ese momento. Además nos
permiten medir errores y alertar sobre funcionamientos incorrectos. Ejerce control sobre
la fase analítica.
Se define como Error, a todo aquel dato o valor que se aleja del “valor verdadero”.
Tomando en cuenta que no existe un valor verdadero absoluto, especialmente cuando se
trabajo con mediciones de analitos médicos que son dinámicos y variantes, se conocerá
a este como el valor convencionalmente verdadero.
Existen dos tipos principales de error:
Error sistemático
Error Aleatorio
El error sistemático es aquel que se repite o persiste constantemente durante un
tiempo determinado, hasta que las condiciones que lo originan son cambiadas. Ejemplo:
Equipos deteriorados, reactivos vencidos, calibradores defectuosos, etc.
El error aleatorio es aquel que se da por razones fortuitas y no se repite necesariamente
con periocidad, afecta la precisión además de la calidad de los resultados. Ejemplo:
Mala toma de muestra, rotulación equivocada, mal pipeteado, etc.
Al hablar de estima del error debe de saberse en que parte del proceso analítico se esta
aplicando dicho medición. Existen en los procesos analíticos de cuantificación o
medición de substancias, tres fases, que pueden afectar la calidad, las cuales son:
1. Fase Pre-analítica
2. Fase Analítica
3. Fase post-analítica
La fase pre-analítica es toda aquella previa al proceso analítico (cuantitativo) y
comprende desde que el paciente llega al laboratorio con su orden de exámenes a la
recepción de laboratorio y la secuencia de pasos que lleva como la introducción de datos
al sistema interlaboratorial, elaboración de viñetas de identificación de tubos,
indicaciones previas o requisitos previos a la toma de muestra, la toma de muestra por
un profesional calificado, el uso de tubos adecuados (con o sin su respectivo
anticoagulante), hasta el traslado del área especifica donde se procesara la muestra y la
efectiva separación de componentes a usar dependiendo del tipo de examen a procesar.
En esta fase entran los requisitos de cadena de frió o traslado adecuados para poder
conservar intactas las muestras cuando estas son procesadas en laboratorios de
referencia.(13)
Los principales sistemas de control de calidad se aplican a la fase analítica donde se
controlaran factores críticos que afectan los resultados como son: Personal que realiza
los análisis, equipos de análisis (Instrumentos), reactivos, calibradores, técnicas, etc.
En esta fase se aplican los dos tipos de control de calidad control interno y externo.
La fase post analítica consiste en el análisis y la interpretación de los resultados de las
lecturas crudas de los aparatos (raw readings) y la aplicación de las distintas formas de
34
calculo y formulas para obtener los valores cuantitativos de las unidades de magnitud
que se esten aplicando en su debido momento ej. mg/dl, gr/dl, mmol/lt, UI/lt, etc. Hasta
el mecanografiado de estos resultados para entregar el reporte al paciente o al medico de
este, en esta fase no aplican los dos principales sistemas de control de la calidad.
En la actualidad y con la tendencia del uso de los equipos automatizados y semi-
automatizados, se ha reducido este tipo de practica de interpretación manual de las
lecturas, ya que los equipos lo realizan de forma automatizada debido a la incorporación
de sistemas computacionales (software y microprocesadores) en los aparatos, los cuales
despliegan la información de los resultados finales con su unidad de magnitud y rangos
de referencia, alarmas, graficas de control de la calidad, etc a las pantallas de las
computadoras para solamente ser validados por un profesional encargado para que esta
sea mandado a un impresor y después al paciente o al medico. De esta forma se ha
reducido de gran manera el índice de “error humano” al analizar las lecturas y al
mecanografiar la información final de los resultados.
En una situación deseable u optima el error en la fase pre y post analítica debe de ser
eliminada o reducida a la mínima expresión para poder obtener resultados confiables.
Pero la tendencia actual en los sistemas automatizados de los laboratorios clínicos
modernos es de reducir al mínimo la injerencia del “error humano” y de automatizar
todo el proceso en lo que se conoce como el “entorno automatizado” que consiste en la
automatización desde la recepción hasta la generación y entrega de resultados. Aunque
siempre existirá la intervención humana en estos procesos, el personal deberá de estar
en constante capacitación para poder responder a los retos y reducir los errores
inherentes al proceso.
Los dos principales sistemas de control de la calidad que miden la fase analítica del
proceso son: Control interno y externo de la calidad.
35
- El laboratorio central del MSPAS, “Dr Max Bloch”
- La unidad de control de calidad del ISSS (Instituto Salvadoreño del seguro social)
- The American association of clinical chemistry (AACC)
- The American association of bank of blood (AABB)
A.3 - MATERIALES DE CONTROL , HERRAMIENTAS Y SOFTWARE
Los sueros de matriz bovina son mas baratos que los de matriz humana por lo cual
generalmente son los mas utilizados en muchos laboratorios, para la mayoría de las
pruebas los sueros bovinos satisfacen los requisitos necesarios para monitorear la
imprecisión, pero debido a diferencias substanciales entre las proteínas bovinas de las
humanas estos no son recomendados en el monitoreo de pruebas como: Ensayos
inmunoquimicos, bilirrubinas, etc.(1)
Los sueros de matriz humana son mejores que los sueros bovinos y según algunos
autores los materiales de control deben de ser de la misma matriz de las pruebas que se
están monitoreando ( J. Westgard), pero debido a los altos costos que generan el
tamizaje completo de los sueros en búsqueda de agentes infecciosos( virus HIV, Hbag,
HCV, etc), y a las limitantes existentes en esta materia prima por ser seres humanos, es
que los costos se elevan y no son los controles mas utilizados en los laboratorios
clínicos.
Los materiales de control deben de ser procesados como muestras problema, y sus
resultados deben de ser tomados en cuenta para poder tomar decisiones importantes
dentro de los laboratorios. En el caso del control interno de la calidad, este resultado nos
dará la pauta para poder reportar las corridas diarias que me lleguen al laboratorio en el
caso que los controles den dentro del límite establecido. De lo contrario cuando se salen
de estos límites se está en la obligación de detener el reporte de la corrida diaria y
volver a calibrar de nuevo y tirar otra vez los controles hasta que estos estén dentro de
los valores permitidos de desviación con respecto a la media.
Por esta razón el tiraje de los controles es esencial en la garantía de la calidad y
repercuten directamente en la credibilidad del laboratorio clínico. Actualmente existen
herramientas estadísticas muy buenas que a partir del uso de software nos llevan el
histórico del mes en corridas de treinta días, donde se muestran los resultados de
36
desviaciones estándar, índices o coeficientes de variación, coeficientes de error absoluto
y de error porcentual (Ver fig.16)
Estas estadísticas son importantes debido a que nos permiten ver a través de los
gráficos (Levey-Jennigs) las tendencias de las corridas de los controles en dos series
(una normal y una patológica) para ver cuando los valores están o hacia abajo o hacia
arriba de la media o si se están repitiendo varias veces en un lado especifico de la curva,
esto nos da un panorama más amplio y permite tener información muy puntual para
tomar decisiones especialmente e importante para poder detectar errores sistemáticos.
Para conocer más acerca de la interpretación de estas curvas, existen actualmente en el
mercado literatura especializada para saber que reglas se están violando en un proceso
específico y qué medidas tomar para resolver estos problemas. A estas reglas se les
conoce actualmente como “Reglas de Westgard”, en alusión a su creador el Dr. James
O. Westgard pHD. Experto mundial y especialista de control de calidad en laboratorio
clínico.
37
Fig. 16. Software de programa de control interno de la calidad que calcula automáticamente los índices de
error absoluto y relativo. (Abajo) Gráficos de Levey-Jennigs que calculan la dispersión de los valores de
un control normal de acido úrico en un periodo determinado.(Arriba).
38
Fig. 17. Alumno de laboratorio clínico en sus prácticas en el Hospital Nacional “Dr. Juan José
Fernández” hospital nacional de la Zacamil, y algunos equipos automatizados: Pentra Abx Hematología,
Hitachi de Roche Diagnostics, Lector de tiras de uroanálisis de Roche diagnostics.
39
RESUMEN DE FIGURAS E ILUSTRACIONES:
40
BIBLIOGRAFÍA
2. - “La ciencia del diagnostico de laboratorio” John Crocker – David Burnett McGraw
Hill. 2º Edición
41
42