Está en la página 1de 4

Curvas de Calibración

Una curva de calibración es una herramienta importante en el análisis cuantitativo de


muestras en el laboratorio. Son herramientas útiles que permiten establecer una relación
entre la concentración de una muestra y la señal que se obtiene en un detector.
Las curvas de calibración se utilizan para establecer una relación matemática entre dos
variables. Esto se hace a través de la realización de una serie de mediciones
experimentales en diferentes niveles de la variable de entrada y la posterior
representación grafica de los datos obtenidos. Una vez que se han recopilado los datos, se
pueden ajustar modelos matemáticos para obtener una ecuación que permita predecir la
variable de salida a partir de la variable de entrada.
Es importante verificar los resultados obtenidos mediante el uso de un segundo método
analítico para confirmar la precisión y exactitud del método analizado.
La curva de calibrado se puede expresar de diferentes maneras, dependiendo del tipo de
análisis y la técnica utilizada. Algunas de las expresiones más comunes son:
1. Regresión lineal
2. Regresión polinómica
3. Curva de ajuste no lineal

En bioquímica, la curva de calibración se utiliza comúnmente para cuantificar la cantidad


de una sustancia o analito en una muestra biológica. Por ejemplo, en la determinación de
la concentración de una proteína, la curva de calibrado se construye utilizando proteínas
estándar con concentraciones conocidas y luego se mide la absorbancia de cada estándar
utilizando espectrofotometría (la absorbancia se mide en diferentes longitudes de onda y
se traza una curva de calibrado para cada longitud de onda).
Algunos ejemplos de curvas de calibrado utilizadas en diferentes campos:
1. Curva de calibración de glucosa en sangre
2. Curva de calibración de proteínas
3. Curva de calibración de ácidos nucleicos
4. Curva de calibración de pH
Límite de detección y cuantificación

Cuando se trabaja con equipos de laboratorios que cuantifican algún parámetro, es


fundamental conocer el límite de cuantificación y de detección de este. El límite de
detección (LOD) se refiere a la concentración más baja de una sustancia que se puede
detectar en una muestra, mientras que el límite de cuantificación (LOQ) se refiere a la
concentración más baja de una sustancia que se puede medir con precisión.
El LOD y el LOQ son importantes para determinar la sensibilidad de un método analítico,
para la validación de los métodos analíticos y para determinar si una muestra contiene
una concentración de sustancia por debajo del límite de detección o cuantificación.
Es importante conocer los límites máximos del equipo. De esta manera si ocurre el caso en
el que los datos se salgan de rango, será necesario hacer las diluciones correspondientes
para ajustarse al rango cálido del equipo.

Precisión en la cuantificación

La precisión se refiere a la capacidad de un método analítico para producir resultados


consistentes y reproducibles. La precisión es una propiedad importante de un método
analítico, ya que una baja precisión puede llevar a resultados inconsistentes y a una mayor
incertidumbre en las mediciones.
La precisión se puede expresar como la variabilidad en los resultados obtenidos de una
muestra cuando se realizan múltiples mediciones con el mismo método analítico . La
precisión se puede evaluar mediante la determinación de la desviación estándar o el
coeficiente de variación de los resultados obtenidos en las mediciones repetidas.

Concepto de error usado en curvas de calibración

El error permitido en una curva de calibración depende del método analítico y del
propósito de la medición. En general, se busca que los errores en la curva de calibración
sean lo mas bajo posible para mejorar la precisión y la exactitud de los resultados de
análisis.
Es importante establecer un criterio para el error permitido en la curva de calibración y
que se lleve a cabo un control de calidad riguroso para garantizar que se cumpla el
criterio. Los errores en la curva de calibración deben ser detectados y corregidos antes de
que se utilice el método analítico para realizar mediciones cuantitativas en muestras
conocidas.
En general, se recomienda que una curva de calibración tenga al menos 5 puntos,
incluyendo un punto de referencia. En algunos métodos analíticos se requiere una mayor
cantidad de puntos, por ejemplo, algunos métodos analíticos requieren puntos adicionales
en los extremos de la curva para garantizar la linealidad, mientras que otros métodos
analíticos pueden requerir una mayor densidad de puntos en una región especifica de la
curva en donde se necesite una mayor precisión.

Ecuación de la recta

La ecuación de una recta en el plano cartesiano se puede escribir de diferentes formas,


una de ellas es: y = mx + b. Donde “m” es la pendiente de la recta y “b” es el punto donde
la recta corta el eje y.
La pendiente de la recta es la medida de la inclinación de la recta y se calcula como la
diferencia en las coordenadas y dividida por la diferencia en las coordenadas “x” de dos
puntos en la recta: m = (y2 - y1) / (x2 – x1).
Al despejar la ecuación la variable que deseamos conocer es la X, de la ecuación de la
recta: x = (y – b) / m
Concepto de R2

El R cuadrado es una medida estadística utilizada para evaluar la calidad de ajuste de un


modelo de regresión lineal. El valor de R 2 varia entre 0 y 1, y representa la proporción de
la varianza en la variable dependiente. Un valor de R 2 cercano a 0 indica que el modelo no
explica bien la variabilidad de los datos, mientras que un valor cercano a 1 indica que el
modelo ajusta muy bien los datos.
En el caso de la calibración de un método analítico, un valor de R 2 aceptable depende de la
aplicación específica del método y de las especificaciones del cliente o de los reguladores.

También podría gustarte