Está en la página 1de 33

UNIVERSIDAD

TECNOLOGICA
METROPOLITANA
Departamento de Química
UTEM

“TRAZADO Y ANÁLISIS DE CURVAS DE CALIBRACIÓN

“GUÍA DE BUENAS PRÁCTICAS”


(GLP)

Preparado por:

Prof. PEDRO A. MLADINIC P.


Metrología Química

Santiago – 2006
CONTENIDOS

1. INTRODUCCIÓN

2. EL PROCESO DE CALIBRACIÓN

2.1 Planificación de la experiencia


2.2 Realizando las mediciones
2.3 Graficando los resultados

2.3.1 Evaluación del gráfico de Dispersión

2.4 Realizando el análisis de regresión

2.4.1 Consideraciones
2.4.2 Análisis de regresión utilizando software

2.5 Evaluación de resultados del análisis de regresión

2.5.1 Gráfico de residuales


2.5.2 Regresión estadística

2.6 Uso de la “función de calibración” para estimar valores para las


muestras

2.7 Estimación de la Incertidumbre en las concentraciones calculadas


2.8 Predicción del Error estándar

3. CONCLUSIONES

Apéndice I: Ecuaciones de Regresión Lineal

Apéndice II: Ejemplos de Cálculo


II-1: Regresión Lineal
II-2: Regresión logarítmica
II-3: Adición de Estándar
1. INTRODUCCIÓN

La Calibración instrumental es una etapa esencial en la mayoría de los procesos de


medición. Constituye un conjunto de operaciones que establecen la relación que existe
entre la “salida de un Sistema de medición” (respuesta de un instrumento) y el “valor
aceptado de los patrones de calibración” (la cantidad de analito presente). Un gran
número de métodos analíticos requieren de la calibración de un instrumento.

Ello básicamente implica la preparación de un conjunto de patrones que contienen una


cantidad conocida del analito de interés, midiendo la respuesta instrumental de cada
estándar y estableciendo la relación entre la respuesta del instrumento y la
concentración de analito. Dicha relación es entonces utilizada para transformar la
medición realizada sobre la muestra medida, en la estimación de analito presente en
ella y según se indica en la Fig. 1.

Fig. 1: Típica curva de calibración

Siendo la Calibración una etapa común e importante en los métodos analíticos, es de


vital importancia que tanto Químicos como Analistas tengan un buen conocimiento y
entendimiento de “cómo llevar acabo un experimento de calibración” y “cómo
evaluar los resultados obtenidos”.

El objetivo de esta “Guía”, contenida en las Recomendaciones de las “Buenas


Prácticas de Laboratorio (GLP)”, es investigar y calcular las incertidumbres
asociadas con la construcción de las curvas de calibración y con el uso de dicha curva
poder determinar la concentración de un compuesto desconocido en solución acuosa.

Aunque el ejercicio puede inicialmente aparentar relativa sencillez, normalmente se


cometen errores en la realización de dicho experimento, que al ser corregido, permiten
que ellos sean abordados por otros Laboratorios y lograr así el control de los errores
implícitos y cómo ellos pueden ser evaluados.
La presente Guía está focalizada a los experimentos de calibración y en donde la
relación entre “respuesta” y “concentración” se espera que sea lineal, aunque muchos
de los principios de las buenas prácticas describen que también pueden ser aplicados a
sistemas no-lineales.

Con el uso de paquetes de “software” adecuados (entre ellos Excel y otros) es fácil
generar un gran número de parámetros estadísticos. Esta Guía también pretende
explicar el significado y correcta interpretación de alguno de los términos estadísticos
comúnmente asociados con la calibración.

2. EL PROCESO DE CALIBRACIÓN

En un instrumento analítico el proceso de calibración implica una serie de etapas y que


pueden resumirse en:

 Planificación del experimento


 Realización de las mediciones
 Graficar los resultados
 Realización del análisis estadístico (regresión) sobre los datos para obtener la
función de calibración.
 Uso de la función de calibración para estimar los valores para las muestras
medidas.
 Estimar la incertidumbre asociada con los valores obtenidos para las muestras
medidas.

2.1 Planificación de la experiencia.

Los puntos que un analista debe considerar cuando planifica un estudio de


calibración son los siguientes:

 El número de patrones (estándares) de calibración


 La concentración de cada uno de los estándares de calibración
 El número de replicados de cada concentración
 Preparación de los estándares de calibración.

Uno de los primeros asuntos que el analista se pregunta es: Qué número de
experimentos necesito realizar? Debido al consumo de tiempo y otra
consideraciones, esto se traduce en: Cuál es el mínimo absoluto que puedo hacer?
Cuando pensamos en un experimento de calibración, ello relaciona el número de
estándares de calibración que necesito analizar y la cantidad de replicados de cada
nivel de calibración.
Para un aseguramiento inicial de la función de calibración, como por ejemplo como
parte de la validación de un método, deberán ser preparados por lo menos siete
concentraciones diferentes (incluyendo blanco). Las concentraciones de los
estándares deberán cubrir, por lo menos, el rango de concentraciones encontradas
durante el análisis de las muestras de ensayo y deberán ser adecuadamente
espaciadas a través del rango. Idealmente, el rango de calibración deberá ser
establecido de modo que la mayoría de las concentraciones de las muestras de
ensayos se encuentren hacia el centro del rango. Ello como se demostrará más
adelante, el área del rango de calibración donde la incertidumbre asociada a las
concentraciones predichas, es mínima. Resulta además útil realizar, al menos,
mediciones replicadas (duplicados) de cada nivel de concentración, particularmente
en la etapa de Validación de métodos puesto que ello permite evaluar la precisión
del proceso de calibración a cada nivel de concentración. Los replicados deberán ser
idealmente independientes. Cuando se realizan mediciones replicadas sobre el
mismo estándar de calibración, sólo se obtiene información parcial acerca de la
variabilidad de la calibración y por tanto sólo cubre la precisión del Instrumento
usado para las mediciones y no incluye el efecto de la preparación de los estándares
de calibración.

Habiendo decidido sobre el número y concentración de los estándares de


calibración, el analista necesita considerar lamedor manera de su preparación.
Inicialmente, la fuente del material usado para su preparación (material de
referencia) requiere de consideraciones especiales. La incertidumbre asociada con la
etapa de calibración de cualquier método, deberá estar limitada por la incertidumbre
asociada con los valores de los estándares de calibración utilizados en el proceso de
calibración. La incertidumbre de un resultado nunca podrá ser menor que la
incertidumbre de los estándares utilizados.
Las soluciones de calibración son típicamente preparadas a partir de sustancias
puras con un valor de pureza conocida o una solución de una sustancia con una
concentración conocida. La incertidumbre asociada con el valor de dicha propiedad
(pureza o concentración) necesita ser considerada a objeto de asegurar que es la
apropiada para tales propósitos.

La matriz usada para los estándares también requiere consideraciones especiales.


La pregunta que debiera formularse: es suficiente la preparación de los estándares
en un solvente puro? o necesita que el analito se encuentre lo más cercano posible a
la matriz de las muestras problema? Ello depende y es función de la naturaleza del
instrumento que está siendo utilizado para analizar la muestra y los estándares, más
que del valor del analito. La exactitud de algunos métodos puede ser incrementada
por adición de un adecuado estándar interno, tanto a los patrones de calibración
como a las muestras analizadas y basando la regresión en la relación entre la
respuesta del analito y la del estándar interno. Es conocido el hecho que el uso de
esta herramienta de trabajo corrige pequeñas variaciones derivadas de las
condiciones de operación.

Idealmente, los estándares de calibración deberán ser independientes, ellos no


deberán ser preparados a partir de una solución stock común. Cualquier error en la
preparación de dicha solución stock, se propagará a través de los otros estándares,
induciendo a un error sistemático en la calibración. Algunas veces el procedimiento
usado en la preparación de los estándares de calibración es la preparación del
estándar más concentrado y luego diluido en un 50% para obtener el siguiente
estándar. Este nuevo estándar es nuevamente diluido en un 50% y así
sucesivamente. Este procedimiento no es muy recomendado en parte, por falta de
independencia y porque no se encuentran lo suficientemente espaciados a través del
rango de concentraciones y que ocasionan el problema de “apalancamiento”,
discutido más adelante.

La construcción de una curva de calibración usando siete (7) estándares, cada vez
que se realiza una batería de medición de muestras, resulta costoso y de alto
consumo de tiempo. Si se a establecido durante una validación de método que la
función de calibración es “lineal”, entonces es posible establecer un procedimiento
simplificado de calibración cuando el método es aplicado rutinariamente, por
ejemplo, utilizando un número menor de estándares de calibración y solamente un
replicado para cada nivel de concentración. Un punto sencillo de calibración es un
camino rápido para el chequeo del sistema de calibración cuando no existe duda
acerca de la linealidad de la función de calibración y el sistema no posee error
sistemático (el intercepto (”a”) no es significativamente diferente de cero. La
concentración del estándar deberá ser igual o mayor al la máxima concentración que
se espera encontrar en las muestras de ensayo.

Si no hay duda acerca de la linealidad de la función de calibración, pero existe un


error sistemático conocido (intercepto significativamente diferente de cero),
entonces es posible usar la calibración con “dos puntos”. En este caso, se preparan
dos estándares de calibración cuyos valores se encuentren dentro del rango esperado
para los valores de las muestras ensayo.

Cuando no existe duda acerca de la linealidad de la función de calibración en todo


el rango de interés, o la estabilidad del sistema de medición es conocido, entonces es
posible emplear la técnica de “relación de concentraciones”. Se preparan para este
efecto, dos estándares de calibración en los niveles que se estima se encuentra la
concentración de las muestras de ensayo. Este método aunque consume tiempo,
minimiza los errores debidos a la no-linealidad.

2.2 Realizando las Mediciones

Constituye una buena práctica analizar los estándares de calibración en una


secuencia “aleatoria”, más bien que en el orden comúnmente establecido del menor
al más alto nivel de concentración (orden seguido en las muestras de ensayo).

Todo el equipamiento utilizado en un método analítico, desde material volumétrico


de vidrio hasta un Sistema de medición HPLC, debe ser adecuado para el propósito
propuesto. Constituye “buena ciencia”, ser capaz de demostrar que el instrumento
es adecuado para el propósito. La Calificación de Equipos (EQ) es un proceso
formal que suministra evidencia documentada que un instrumento es adecuado para
un propósito intentado y mantenido en estado de mantención y calibración
permanente con su uso. Idealmente el instrumento usado para practicar mediciones
de estándares y muestra deberá permanecer bajo adecuado y permanente proceso de
EQ.

2.3 Graficando los resultados

Siempre constituye una buena práctica, graficar los datos antes de realizar cualquier
análisis estadístico. En el caso del análisis de regresión, esta etapa es de vital
importancia, puesto que si se realizan en forma aislada, pueden cometerse errores
que pueden llegar a ser significativos.
Cualquier conjunto de datos de igual tamaño puede ser graficado uno contra el otro
en un diagrama que muestra la relación que existe entre ellos (una correlación)

Fig. 2 Gráfico de dispersión

El eje horizontales definido como eje-x y el vertical como el eje-y. Cuando se


grafican los datos provenientes de un experimento de calibración, la convención es
graficar los datos de respuesta instrumental en el eje “y” y los valores de los
estándares sobre el eje-x. Esta consideración es debida a que al aplicar la estadística
usada en el análisis de regresión, se asume que los errores en los valores sobre el eje
de la x, son NO significativos comparados con aquellos sobre el eje-y. En el caso de
datos de calibración, se asume que los errores en los valores de la respuesta
instrumental (debida a variaciones aleatorias) son mayores que los errores asignados
a los estándares.

Los valores graficados sobre el eje-y son a menudo referidos como la variable
dependiente, debido a que sus valores dependen de la magnitud de la otra variable.
Por ejemplo, la respuesta instrumental obviamente dependerá de la concentración
del analito presente en el estándar. Inversamente, los datos registrados en el eje-x
son referidos como la variable independiente.
2.3.1 Evaluación del gráfico de dispersión

El gráfico de los datos deberá ser inspeccionado por posibles “outliers” ( valores
anómalos) y puntos de influencia. En general, un outlier es un resultado el cual es
significativamente diferente del resto del conjunto de datos. En el caso de un
experimento de calibración, es un punto que podrá ser removido de los otros puntos
de calibración. Un punto de influencia, es un punto de calibración que puede tener
un efecto perturbador en la posición de la línea de regresión. Un punto de influencia
puede ser un outlier, pero puede también ser causado por un inadecuado o pobre
diseño experimenta. Los puntos de influencia pueden tener uno o dos efectos sobre
la línea de regresión: “efecto palanca” o error sistemático.

EFECTO PALANCA

Fig. 3 Puntos de influencia en la Curva de calibración


Un outlier en el extremo de la curva de calibración puede cambiar la posición de la
línea por inclinación hacia arriba o hacia abajo. Se dice que dicho punto tiene un
alto efecto de “palanca”. Dicho efecto puede constituir un problema si uno o dos de
los puntos se encuentran en la misma dirección de los otros en el eje-x, aún cuando
ellos no constituyan outliers. En pocas palabras, un relativo pequeño error en la
respuesta de la medición puede tener un efecto significativo en la posición de la
línea de regresión. Esta situación se produce cuando los estándares de calibración se
preparan por diluciones sucesivas de las soluciones (ej. 32 , 16, 8, 4, 2, 1 mg L-1).
Los efectos “palanca” afectan tanto a la pendiente como al intercepto de la línea en
el eje-y.

Un outlier en el centro del rango de calibración producirá un cambio hacia arriba o


hacia debajo de la línea de regresión. El outlier es un punto de influencia puesto que
produce un error sistemático en la posición de la línea. La pendiente de la línea
permanecerá aproximadamente correcta, pero el intercepto será erróneo.
2.4 Realizando el Análisis de Regresión

En relación a la calibración instrumental, el objetivo de la regresión lineal es establecer


la ecuación que mejor describa la relación entre la respuesta instrumental (y) y el nivel
del analito (x). La relación es descrita por la ecuación de la línea: “ y = a + bx “ donde
“b” es la pendiente de la línea y “a” es el intercepto en el eje-y.

La regresión lineal establece los valores de “a” y “b” y es la que mejor describe la
relación entre el conjunto de datos. Las ecuaciones para el cálculo de estas variables se
indican en el Anexo respectivo, pero ellas pueden ser fácil y rápidamente determinadas
aplicando un paquete estadístico adecuado. Es preciso hacer notar que la regresión de
“y” sobre “x” (generalmente utilizada en los estudios de calibración) no es la misma
que la regresión de “x” sobre “y”. Esta consideración es porque los procedimientos
usados en la regresión lineal asumen que todos los errores están en los valores de “y” y
que los errores en los valores de “x” son no-significativos. Ella es una consideración
razonable para muchos métodos analíticos en los cuales es posible preparar estándares
donde la incertidumbre en la concentración es no-significativa comparada con la
variabilidad aleatoria del instrumento analítico. Resulta entonces esencial asegurarse
que los datos de la respuesta instrumental y de la concentración de los estándares sean
correctamente asignados.
Fig. 4 Regresión lineal por mínimos cuadrados – la mejor línea recta

Entender los principios de la regresión lineal requiere un entendimiento de los “residuales”.


Un residual es la diferencia entre un valor observado “y” y el valor “y” calculado usando la
ecuación de la línea ajustada (ver Fig.4). Los residuales entregan una indicación de cuán
bien la línea ha sido ajustada. Se puede mostrar (a través del gráfico de residuales) que la
línea que da la menor suma de los cuadrados de los residuales, es la que mejor representa la
relación lineal entre la variables “x” e “y”. Los valores de “a” y “b” de la Ec. de la recta
que minimizan la suma de los cuadrados de los residuales puede ser fácilmente obtenida
aplicando software adecuados. Por esta razón, este tipo de regresión es a menudo referida
como “regresión por mínimos cuadrados”.

2.4.1Consideraciones

Las bases de la regresión lineal por mínimos cuadrados descansan en un número de


consideraciones que es necesario tener en cuenta. El trazado de la mejor línea solamente
puede ser obtenida cuando se consideran los aspectos mencionados.

La primera consideración a tomar en cuenta fue mencionada anteriormente y guarda


relación con que el error en los valores de “x” será no-significativo comparados con los
valores del eje-y. En resumen, el error asociado con el valor “y” debe estar normalmente
distribuido. Esta condición no siempre es frecuente estadísticamente en términos
consistentes, debido a la pequeña cantidad de datos. Si existen dudas acerca de su
distribución normal, puede ser suficiente remplazar las determinaciones “simples” con el
promedio de dos o tres mediciones replicadas para cada valor de “x”, puesto que el valor
promedio tiende a ser normalmente distribuido, aún cuando el resultado individual no lo
sea.
La magnitud del error en los valores de “y” deberán también ser constantes a través de
todo el rango de interés (ej. La desviación estándar deberá ser constante). La regresión
lineal simple da iguales ponderaciones para todos los puntos. Esta consideración no será
apropiada si algunos de los puntos son menos precisos que los otros. En muchos sistemas
de mediciones químicas, la desviación estándar se incrementa con el aumento de la
concentración (es la desviación estándar relativa la que permanece más o menos constante,
más que la desviación estándar absoluta). La solución general a este problema es el uso de
la “regresión ponderada”, la que considera la variabilidad en los valores de “y”.

2.4.2 Utilización de software para el análisis de regresión

Las expresiones para calcular la regresión lineal se indican en el Anexo correspondiente,


pero ella normalmente es realizada utilizando un software suministrado con el instrumento
o a través de paquetes estadísticos adecuados, tales como Excel u otros.
Muchos de los software empleados permiten realizar el análisis de regresión sin
previamente haber graficado los datos. Sin embargo, constituye una buena práctica (GLP)
trazar el respectivo gráfico, antes de efectuar el análisis estadístico de la regresión. Si la
opción está disponible, igualmente es recomendable el trazado del Gráfico de “residuales”.
Muchos de los software aplicados también permiten la puesta “en Cero” del intercepto con
el eje-y, cuando se realiza la regresión. Esta opción puede ser seleccionada cuando
previamente a sido demostrado que el intercepto no difiere significativamente de cero.
Finalmente dentro de las consideraciones de relevancia se debe asegurar que los datos de
“x” e “y” han sido correctamente asignados.

2.5 Evaluación de los resultados del análisis de regresión

Usando un software para realizar la regresión lineal, se obtienen una serie de diferentes
parámetros estadísticos y posiblemente (dependiendo del software utilizado) una Tabla y/o
gráfico de residuales.
El significado e interpretación de cada uno de los datos de “salida” del análisis de regresión
se discuten a continuación.

2.5.1.1 Gráfico de los Residuales

Obtener un gráfico de residuales es altamente recomendable, puesto que no pueden ser


obviamente detectados, solamente a partir de los datos de dispersión de la curva de
calibración. La construcción del gráfico de residuales se indica en la Fig. 5

La Fig.5 (a) muestra un gráfico de residuales ideal. Los residuales están dispersos
aproximadamente en forma aleatoria alrededor del “cero”. La Fig.5 (b) muestra un patrón
de residuales que se obtienen cuando la desviación estándar de la respuesta del instrumento
aumenta con la concentración del analito. La Fig.5 (c) ilustra un típico gráfico de
residuales que es obtenida cuando la línea recta es trazada a partir de datos que no
representan una regresión lineal. Finalmente la Fig.5 (d) muestra un posible modelo de
residuales cuando la línea de regresión lineal ha sido incorrectamente trazada a partir del
“cero”. Las Fig.5 (b) y (d) representan modelos cuyos residuales, claramente son NO-
aleatorios.

Fig. 5 Gráfico de residuales


2.5.1.2 Estadística de la Regresión

Una salida típica de un análisis de regresión lineal se indica en la Fig.6. La salida indicada
corresponde a una Planilla de cálculo Excel, pero información similar se obtiene a partir de
otros software. Los diferentes aspectos involucrados se describen con mayor detalle en las
siguientes secciones.

El coeficiente de correlación, r

El coeficiente de correlación, r (y los parámetros relacionados r 2 y r2 ajustado) es una


medida de la fuerza o grado de correlación entre los valores “x” e “y”. En la Planilla Excel
la salida se describe como “Múltiple R”. r puede tomar cualquier valor entre +1 y -1; el
valor más cercano a 1 representa la mayor correlación. En las mediciones analíticas, el
coeficiente de correlación es uno de los parámetros estadísticos muy utilizado.
Desafortunadamente, es frecuente y fácilmente “subvalorado”. La causa de este error de
interpretación es debida a:

 Correlación y linealidad son solamente poco relacionados. El coeficiente r es


una medida de correlación y no una medida de linealidad.
 Es relativamente fácil generar datos con una aparente buena correlación. Sin
embargo, un gráfico de datos puede muy bien revelar que los datos podrían no
ser satisfactorios para los propósitos de calibración.
 Para predicciones realizadas a partir de una curva de calibración que tenga
pequeña incertidumbre, “r” necesita estar muy cercano a “1”
 Un bajo valor de “r” no necesariamente significa que no exista correlación.
Podrá existir una relación entre los valores de “x” e “y”, pero que ella no sea
lineal.

Por estas razones es esencial la representación gráfica de los datos y no solamente realizar
la estadística cuando se desee asegurar que la curva de calibración es la adecuada para los
propósitos previamente definidos. La Fig.7 muestra algunos ejemplos de cómo el
coeficiente de correlación puede ser erróneamente interpretado.
Fig. 7 Interpretación del coeficiente de correlación

La Fig.7 (a) indica un caso donde la relación es claramente no-lineal a través del rango
completo de los valores de “x”.En la Fig. 7 (b) el valor r = 0 indica que no existe
correlación lineal. Sin embargo, es claramente significativa la relación no-lineal. Las Figs.
7 (c) y (d) indican los efectos de valores “anómalos” individuales. En Fig. 7(c) el
intercepto de la línea trazada con el outlier presente (línea punteada) será incorrecta
comparada con la línea trazada con el outlier removido (línea sólida). En la Fig. 7 (d) tanto
el intercepto como la pendiente serán incorrecto. En la Fig 7. (e), el valor de r = 0.998
indica una fuerte correlación. Sin embargo, los dos grupos de puntos son distintos y ambos
muestran una correlación significativa. Aunque existen 12 puntos de datos, la distribución
de los puntos indican que estos, constituyen el efecto de “calibración con 2.puntos”
(donde siempre se conseguirá que r =1).

La pregunta que un Analista a menudo se hace es: Cuán cerca de 1 deberá ser el valor del
coeficiente de correlación para disponer de una buena Curva de Calibración?
La respuesta a esta interrogante debe ser abordada de acuerdo a los objetivos que se
persiguen:
 Análisis de “trazas”.
 Cuantificación de macro constituyentes
 Incertidumbres aceptadas para el Informe de resultados.

Cuanto más cercano el valor de r a 1, tanto menor será la Incertidumbre asociada a dichos
resultados.
Por ejemplo, si para una serie de 10 datos se obtiene un r = 0,6, significará que
estadísticamente la correlación es significativa. Sin embargo, es altamente improbable que
con una correlación de 0,6 podrá ser usada para algún uso específico, dado que la
incertidumbre asociada a este valor es demasiado alta para predecir valores obtenidos en
estas condiciones.

Los parámetros relacionados con r son r2 y r2 ajustado son a menudo usados para describir
la fracción de la varianza total en los datos y representan el denominado coeficiente de
determinación y determina la relación entre las variables analizadas. Una buena
correlación lineal, conlleva a que el r2 sea muy cercano a 1.

Desviación Estándar Residual (error estándar ó típico)

La desviación estándar residual (conocida también como el error estándar residual) es una
medida estadística de la desviación de los datos a partir de la línea de regresión trazada. Se
calcula utilizando la expresión dada en la Eq.1

Ecuación 1

Donde yi es el valor observado de y para un valor dado de x, ŷi es el valor de y calculado a


partir de la línea de calibración para un valor dado de xi , y n es el número de puntos de
calibración
Tabla ANOVA (Análisis de Varianza)

Software tal como Excel produce una Tabla de resultados de análisis de varianza.
La suma de los términos cuadrados (SS) representa diferentes fuentes de variación en los
datos de calibración.

Fig. 8 Origen de los términos en el análisis de regresión

La Fig 8. ilustra los orígenes de esos términos. El término de regresión representa la


variabilidad en los datos que pueden ser contados por la línea de regresión trazada.
Idealmente ésta deberá ser grande, si existe una buena relación lineal, la línea trazada
describirá la variación en la respuesta de la calibración. Este término residual es la suma de
los residuales al cuadrado. Este valor deberá ser pequeño comparado con la suma de los
términos cuadrados debido a que si la línea de regresión trazada es buena, los residuales
serán pequeños.
Cada término del promedio cuadrado (MS) es simplemente la del término al cuadrado
dividido por los grados de libertad. El valor F es la razón entre el término MS de la
regresión y el término residual MS. Idealmente esta razón debería ser lo más grande
posible; si existe una buena relación de linealidad, el término de la regresión MS será
mucho mayor que el término MS del residual. ( ver Fig. 6). La significancia del valor F
representa la probabilidad de obtención los resultados de la Tabla de ANOVA si no existe
correlación entre los valores x e y, obteniéndose los resultados por casualidad. Por otra
parte, un valor pequeño, será indicativo de una fuerte correlación entre las variables. Para
una curva de calibración que será utilizada para un propósito de cualquier uso, el valor de
significancia de F deberá ser extraordinariamente pequeño (ver Fig.6). Dicho valor también
es conocido domo valor-p.
Coeficientes de correlación

La información final de salida de la Planilla de cálculo analizada (Fig.6) entrega


información acerca de los coeficientes de regresión b (pendiente de la línea) y a
(intercepto) de la línea con el eje-y. La primera columna de dicha Planilla (Excel) entrega
los valores de dichos coeficientes y se describen como “x variable 1“. La siguiente
columna indica el valor del error estándar (conocido también como desviación estándar)
de cada coeficiente. Dichos valores son una indicación de los rangos entre los cuales los
valores de pendiente e intercepto podrían encontrarse. Relacionados con estos valores, se
encuentran los valores de los límites de confianza tanto para la pendiente como para el
intercepto. Usualmente dichos valores se relacionan con el nivel de confianza del 95 %..
Las ecuaciones que se emplean para dichos cálculos se indican en el Anexo respectivo.

Los valores de los coeficientes estadísticos “t” y “p” relacionan la significancia cuando
existe o no diferencia significativa de “cero”. En un experimento de calibración debería
esperarse que el valor de la pendiente (b) sea muy significativamente diferente de “cero”.
El valor “t” deberá ser por lo tanto un número grande (para una calibración con 7 pares de
datos, el valor “t” deberá ser mucho mayor que 2,6 (valor numérico “t”de Student para 5
grados de libertad y P = 95 %), y el valor “p” debería ser pequeño (mucho menor de 0.05 si
el análisis de regresión ha sido realizado con un nivel de confianza de 95 % (valores típicos
se indican en Fig. 6).

Idealmente, se debería esperar que la línea de calibración pase por el origen. Si éste es el
caso, entonces el intercepto(a) no debería ser significativamente diferente de “cero”. En la
regresión, deberíamos esperar un valor de “t” muy pequeño (< 2.6 en Curva de calibración
de 7 pares de datos) y un valor “p” > 0.05 (para una regresión a un nivel de confianza de 95
%). Cuando puede asumirse razonablemente que la línea de calibración pasa por “cero”
(también puede asumirse por inspección del intervalo de confianza del “intercepto”). Si éste
tiende a cero, entonces el intercepto (a) no es significativamente diferente de “cero”, como
se indica en el ejemplo de la Fig.6 .

2.6 Uso de la función de calibración para estimar valores en las muestras de ensayo.

Si después de haber graficado los datos de la curva de calibración y haber efectuado el


análisis estadístico, se juzga que los datos de la ecuación de calibración son satisfactorios
(valores de “intercepto” y “pendiente”) , la ecuación de calibración puede ser utilizada para
estimar la concentración del analito en las muestras de ensayo. Ello requiere que cada
muestra sea analizada una o más veces bajo las mismas condiciones en que fueron medidos
los estándares de calibración. Resulta además útil obtener una estimación de la
incertidumbre asociada con los valores de la concentración pronosticada para las muestras
de ensayo.
2.7 Estimación de la Incertidumbre en las concentraciones pronosticadas.

La Fig.9 ilustra el intervalo de confianza para la línea de regresión. El intervalo es


representado por la línea curva a ambos lados de la línea de regresión y entrega una
indicación del rango entre los cuales puede encontrarse la “Línea verdadera “. Hay que
hacer notar que el intervalo de confianza es menos ancho cerca del punto central (puntos x,
y) que en los extremos de dicha curva. En resumen, es posible calcular un intervalo de
confianza para los valores pronosticados, utilizando la función de calibración. En algunos
casos, está referido como “error estándar de predicción “y es ilustrado en la Fig.10. El
intervalo de predicción da una estimación de la incertidumbre asociada con los valores
calculados de “x “

Fig. 9 Intervalo de confianza del 95 % para la línea recta


Fig. 10 Intervalo de predicción (estimación de x)

2.8 Predicción del Error estándar

El intervalo de predicción sx0 es calculado utilizando la Ec.2.

Ecuación 2

Donde:

s(r) es la desviación estándar residual (ver Ec.1)

n es el número de pares de datos de la curva de calibración ( xi , yi )

b es el valor calculado de la pendiente de la mejor curva trazada

N es el número de mediciones repetidas realizadas sobre la muestra (puede variar


entre muestras y puede ser igual a 1)

yo es el valor promedio de las N mediciones repetidas de y para la muestra

y es el valor promedio de los y valores para la curva de calibración

xi es el valor sobre el eje-x

x es el valor promedio de los xi valores


El intervalo de confianza se obtiene por multiplicación de s0 con el valor estadístico de “t”
de Student para un nivel apropiado de confianza y para (n-2 )grados de libertad.

3. CONCLUSIONES

Cuando se realizan ejercicios de calibración se han detectado algunos problemas que


frecuentemente se cometen y que pueden ser cubiertos con algunas recomendaciones muy
fáciles de efectuar.

Entre los problemas más frecuentes podemos mencionar:

 El rango de los estándares de calibración no cubren adecuadamente el rango de


concentraciones encontradas para las muestras analizadas.
 La concentración de los estándares de calibración no se encuentran lo
suficientemente espaciados y distribuidos a través del rango establecido.
 La incertidumbre asociada a los estándares de calibración es demasiado grande, ello
es debido fundamentalmente al uso inapropiado de materiales utilizados en la
preparación de los estándares (material volumétrico y pureza del reactivo).
 Regresión equivocada. Regresión de x sobre y , en lugar de y sobre x.
 La línea de regresión es trazada a través de “zero”, cuando de hecho es
significativamente diferente de “zero”.
 Se utiliza automáticamente el software del instrumento para el cálculo de las
concentraciones de las muestras de ensayo, en circunstancias que no se ha obtenido
el gráfico de calibración.
 Se utiliza la desviación estándar del los residuales para una estimación de la
incertidumbre del pronóstico de la concentración, en lugar del error estándar normal
de predicción.
 El protocolo del instrumento usado para las mediciones se encuentra fuera de
especificación.

Siguiendo las etapas que se indican, es posible evitar los problemas planteados:

 El Plan del estudio de calibración debe incorporar que el rango de concentraciones


de interés cubra el rango de concentraciones de las muestra problemas y que además
se encuentren espaciados convenientemente.
 Se debe incluir un estándar con concentración “cero” de analito (blanco).
 Asegurarse de utilizar materiales y equipos apropiados para preparar los estándares
de calibración.
 Asegurarse que el instrumento utilizado para las mediciones, sea adecuado a los
propósitos Calificación de Equipos).
 Graficar y examinar los resultados.
 Usar software validado para el análisis de regresión lineal.
 No utilizar el intercepto “cero” a menos que exista evidencia que él no es
significativamente diferente de “cero”.
 Graficar y examinar los residuales.
 Calcular la incertidumbre (intervalo de predicción) para las muestras de ensayo
utilizando la “línea de calibración”.
UNIVERSIDAD
TECNOLOGICA
METROPOLITANA
Departamento de Química
UTEM

ANEXOS

ANEXO I : Ecuaciones de regresión lineal

ANEXO II : Ejemplos de cálculo

II – 1.- Regresión lineal

II - 2.- Regresión logarítmica

II - 3.- Adición de Estándar

Prof. PEDRO A. MLADINIC P.


Metrología Química
ANEXO I: “Ecuaciones de Regresión Lineal”
_______________________________________________________________
ANEXO II - 1: “Ejemplo Regresión Lineal”
_______________________________________________________________

DETERMINACIÓN DE ARSÉNICO EN AGUAS NATURALES

PROTOCOLO DE EXPERIENCIA

ANALITO……….. Arsénico (As)

MATRIZ………… Agua natural superficial. Concentración iónica total = 21 meq L-1

METODO……… Norma Internacional ISO 6595-1992. “Water quality – Determi-


nation of total arsenic – Silverdiethildithiocarbamate spectopho-
tometric method”

VOL. REACTOR.... 100 ml

‫ ג‬de medición ……. 510 nm

Cubeta ……………. Vidrio óptico especial

Paso óptico ……….. 10 mm

Control de Calidad Analítica:

 Estándar de verificación inicial de la calibración (EVIC) = 6.0 μg As

 Estándar de verificación de continuidad de la calibración (EVCC) = 1.7 μg As


RESULTADOS Y EVALUACION DE DATOS

1.- La línea de regresión de "y" sobre "x".

DATOS:

xi yi ( xi-x ) ( xi-x )2 ( yi-y ) ( yi-y )2 ( xi-x ) ( yi-y )


1,01 0,045 -5,19429 26,9806 -0,2266 0,0513346 1,1769
2,02 0,090 -4,18429 17,50825 -0,1816 0,0329682 0,7597
5,05 0,224 -1,15429 1,332376 -0,0476 0,002263 0,0549
5,05 0,226 -1,15429 1,332376 -0,0456 0,0020768 0,0526
8,08 0,351 1,875714 3,518304 0,0794 0,0063089 0,1490
10,10 0,440 3,895714 15,17659 0,1684 0,0283682 0,6561
12,12 0,525 5,915714 34,99568 0,2534 0,064226 1,4992
6,204 0,27157 7 7
43,43 1,901 0 100,8442 4E-16 0,1875457 4,3485

ESTADIGRAFOS CALCULADOS:
Coeficiente de correlación , r 0,9999
Coeficiente de determinación , r 2 0,9998
Intercepto de la línea recta, a 0,00404
Pendiente de la línea recta, b 0,04312

Ecuación de la recta: y= bx+a


2.- Errores en la pendiente e intercepto de la linea de regresión.

xi (xi) 2 yi yi (yi-yi) (yi-yi)2


1,01 1,020 0,045 0,0476 -0,0026 6,7E-06
2,02 4,080 0,090 0,0911 -0,0011 1,3E-06
5,05 25,503 0,224 0,2218 0,0022 4,9E-06
5,05 25,503 0,226 0,2218 0,0042 1,8E-05
8,08 65,286 0,351 0,3525 -0,0015 2,1E-06
10,10 102,010 0,440 0,4396 0,0004 2,0E-07
12,12 146,894 0,525 0,5267 -0,0017 2,8E-06
Sumat. 370,30 0,0000 3,56E-05

Desviación estándar, S y/x 0,00267


Desviación estándar de la pendiente, S b 0,00027
Desviación estándar del intercepto, S a 0,00193
3.- Límites de confianza para "b" y "a"

d.f t 0,95
3 3,18
5 2,57

Para d.f = 5

Intervalo de confianza para la pendiente: b ±t S b

Lím. Sup. 0,0438


Lím. Inf. 0,0424

Intervalo de confianza para el intercepto: a ±t S a

Lím. Sup. 0,0090


-
Lím. Inf. 0,0009

Número de replicados, m 1 2 3
Valores exp. de y, y 0 0,100 0,100 0,100
Conc. calculadas, x 0 2,23 2,23 2,23
(y0-y) -0,1716 -0,1716 -0,1716
(y0-y)2 0,02944 0,02944 0,02944
Desviación estándar, S 0 0,071 0,055 0,049
Error estándar de x 0, SE 0,18 0,14 0,13
Lím. de confianza sup. 2,41 2,37 2,35
Lím. de confianza inf. 2,04 2,08 2,10
Incert.est.relativa u % 3,2 2,5 2,2
4.- Estimación de los Límites de Detección (LoD) y Cuantificación (LoQ)

Parámetro y x
L o D: 0,01 0,19
L o Q: 0,03 0,62

5.- Resúmen de datos

a= 0,00404 ± 0,00193
b= 0,04312 ± 0,00027
r= 0,9999 r2= 0,9998
S y/x = 0,0027
S x0 = 0,071
LoD = 0,19
LoQ = 0,62

RESUMEN DE RESULTADOS
ENSAYO: Determinación de Arsénico (As) en Aguas naturales
(Método: Espectrofotometría Ag – DDTC)

Nombre del Laboratorio UTEM


Nombre Analista NN
Fecha de análisis Mayo 2006
Longitud de onda usada 510 nm
Paso óptico de celda 1.0 cm

Resultados de la Calibración

Cantidad de patrón (As2 O3) usado: 133.8 mg

Concentración Concentración real Absorbancia


teórica µg As 510 nm
µg As
1.0 1.01 0.045
2.0 2.02 0.090
5.0 (a) 5.05 0.224
5.0 (b) 5.05 0.226
8.0 8.08 0.351
10.0 10.10 0.440
12.0 12.12 0.525

Coeficiente de correlación (r) para


la curva de calibración 0.9999

Ecuación de la curva de calibración pendiente (b) intercepto (a)


( y = a + bx ) 0.0431 0.00404

Concentración de As en muestra de
agua natural:

Absorbancia µg As mg L –1 Error estándar µg As Incertidumbre relativa %


0.100 2.23 0.0446 0.071 3.2 para N = 1
0.055 2.5 N=2
0.049 2.2 N=3
_________________________________________________________________________

ANEXO II - 2: “Ejemplo Regresión Logarítmica”


_______________________________________________________________
Conc. Log. Ln. E y0 Exp. Conc.
x x x mV mV x0
- -
0,20 0,69897 1,60944 113,8 113,8 -0,709 0,20
- -
0,50 0,30103 0,69315 87,5 87,5 -0,281 0,52

1,00 0,00000 0,00000 70,7 70,7 -0,007 0,98

2,00 0,30103 0,69315 52,0 52,0 0,298 1,98

-
Coef. de correlación, r 0,99947
Coef. de determinac.,r 2 0,9989
Pendiente, b -61,38
Intercepto, a 70,28

ANEXO II - 3: “Ejemplo Adición de Estándar”


_______________________________________________________________
Conc. Señal
x y
0 0,320
5 0,410
10 0,520
15 0,600
20 0,700
25 0,770
30 0,890

Coef. de correlación, r 0,9988 Conc,x 0 17,26


Coef. determinación r 2 0,9976
Pendiente, b 0,0186
Intercepto, a 0,3218

xi (x i - x) (x i - x) 2 yi yi (y i - y i ) (y i - y i ) 2
0 -15 225 0,320 0,3218 -0,0018 3,19E-06
5 -10 100 0,410 0,4150 -0,0050 2,50E-05
10 -5 25 0,520 0,5082 0,0118 1,39E-04
15 0 0 0,600 0,6014 -0,0014 2,04E-06
20 5 25 0,700 0,6946 0,0054 2,87E-05
25 10 100 0,770 0,7879 -0,0179 3,19E-04
30 15 225 0,890 0,8811 0,0089 7,97E-05
Sumat. 15 700 0,6014 5,96E-04
d.f. 5
N= 7

Desviación estánd. de y sobre x, S y/x = 0,01092


Desv. estánd.de la conc. extrapolada, S xE = 0,748
Error estándar de x 0 = 1,92
Int. de confianza para x 0 = 17,26
Lím. Superior = 19,18
Lím. Inferior = 15,34

COMENTARIOS GENERALES SOBRE LOS EJEMPLOS DE CÁLCULO:

Una vez que han sido determinadas la pendiente y la ordenada en el origen de la recta de
regresión, e fácil calcular la concentración (valor de x) correspondiente a cualquier señal
medida en el instrumento (valor de y). Sin embargo, también es necesario estimar el error
asociado a la concentración calculada. El cálculo de un valor de x a partir de un valor dado
de y, conlleva al uso de las ecuaciones indicadas en los Anexos II – 1 y 2.

No siempre es posible la aplicación de los ejemplos indicados de “regresión lineal” y “


regresión logarítmica”.Cuando se presenta este problema (efectos de matrices, etc.) es que
todas las medidas analíticas, incluyendo la línea de calibrado, deban ser realizadas de
alguna manera utilizando la propia muestra. En la práctica esto se logra usando el
“Método de adición de estándar”.

En el ejemplo del Anexo II-3 la señal originada por este método se representa en el eje-y,
mientras que en el eje-x se expresa en términos de las cantidades de analito añadidas. La
línea de regresión se calcula de la manera usual, si bien el espacio ocupado por ella se
extrapolará al punto del eje-x en que y = 0. Este valor negativo sobre el eje-x corresponde a
la cantidad de analito en la muestra problema. El análisis del ejemplo respectivo muestra
que este valor viene dado por a/b, la razón entre la ordenada en el origen y la pendiente de
la recta de regresión. Ya que tanto “a” como “b” están sujetos a error, el valor calculado
también lo estará. Sin embargo, en este caso, la cantidad no se predice a partir de un único
valor medido de y, de manera que la fórmula de la desviación estándar, SxE, del valor
extrapolado de x (xE) no es la misma que la indicada en el Anexo I (Ec. de regresión lineal )

Se utiliza para estos efectos, la fórmula indicada a continuación:

Al igual que en el ejemplo 1 del Anexo II, se mejora la Precisión aumentando el valor de n.
En general, en un experimento de adiciones de estándar deberían usarse al menos seis
puntos. Además, se mejora maximizando ∑(xi – x)2, de manera que las soluciones de
calibrado deberían cubrir, si fuera posible, un intervalo considerable.
Los límites de confianza para xE se determinan como siempre, como:

xE ± t(n-2) SxE

Aunque es una manera elegante al problema común de los “efectos de interferencia de


matriz”, el método de las adiciones estándar tiene varias desventajas. La principal es que
cada muestra ensayada requiere su propia gráfica de calibrado, en contraste con los
experimentos de calibración convencional, donde un gráfico puede proporcionar valores de
la concentración de muchas muestras de ensayo. En términos estadísticos es un método de
extrapolación, y en principio menos preciso que las técnicas de interpolación.

También podría gustarte