Documentos de Académico
Documentos de Profesional
Documentos de Cultura
mtodos analticos
1. Estadstica bsica.
1.1. Concepto de poblacin y muestra
En estadstica, se define poblacin como el conjunto de individuos portadores de
informacin del fenmeno que se estudia. Una muestra sera un conjunto de individuos
representativos de dicha poblacin, conjunto que permitira estudiar el fenmeno sin
prdida significativa de informacin. As, si se pretende analizar el contenido en
sulfatos de un lago, la poblacin sera el propio lago y la muestra sera una porcin de
agua representativa del mismo. De este modo, a partir del anlisis de la muestra, debe
ser posible conocer el contenido en sulfatos de la poblacin.
Cuando nos referimos a datos obtenidos experimentalmente en el laboratorio, la
poblacin se refiere a la totalidad de medidas posibles, mientras que la muestra sera un
conjunto de estas medidas.
1.2. Media aritmtica.
Se define la media aritmtica como la suma de una serie de individuos dividida por el
nmero de individuos considerados. En el caso de una poblacin, es decir, cuando
realizsemos una serie infinita de medidas obtendramos la media de la poblacin,
generalmente designada por . Cuando se realice una serie de medidas representativas
de la poblacin se debe hablar de media muestral. La media muestral se calcula como:
n
x=
i =1
(1)
J. M. Jurado
(x x )
s=
i =1
n 1
(2)
CV = RSD =
s
100 (3)
x
J. M. Jurado
y=
1
exp {( x ) 2 / 2 2 } (4)
2
Si dispusisemos de una serie de medias, cada una obtenida de una serie de medidas
individuales, se observara que estas medias se encuentran ms agrupadas en torno a
que las medidas individuales. La distribucin de todas las medias muestrales posibles se
denomina distribucin muestral de la media o distribucin en el muestreo de la media.
Su media es la misma que la media de la poblacin original. Su desviacin estndar se
denomina error estndar de la media (e.e.m.). Existe una relacin matemtica exacta
entre el e.e.m. y la desviacin estndar, , de la poblacin: e.e.m.= / n . A mayor n,
menor ser el e.e.m. y menor la dispersin de las medias muestrales en torno a . El
e.e.m. nos da una medida de la variabilidad de x , adems, aunque la distribucin de las
medidas no sea una distribucin normal, la distribucin de las medias muestrales tiende
a serlo a medida que aumenta n. Esto se conoce como la teora del Lmite Central. Se
asume que las medias de muestras muy pequeas (<5) se distribuyen normalmente.
J. M. Jurado
Donde z=1.96 para un 95% de nivel de confianza, 2.58 para el 99% y 2.97 para el
99.7%.
1.6. Mediana
J. M. Jurado
Supongamos que disponemos de una serie de patrones de concentracin x1, x2, xi,
xn que, una vez medidos por una determinada tcnica presentan unas seales analticas
y1, y2, yi, yn. Si representamos las seales frente a las concentraciones obtenemos la
denominada curva de calibracin. En el caso ms sencillo, como ya se ha dicho,
tendremos una recta de calibrado de ecuacin y = bx + a, donde b es la pendiente y a la
ordenada en el origen.
Para calcular el valor de estos dos parmetros se utiliza el mtodo de los mnimos
cuadrados, que consiste en ajustar estos parmetros para minimizar la suma del
cuadrado de los residuales:
n
S = ( yi a bxi ) 2 (7)
i =1
Para poder aplicar este mtodo se debe considerar que no existe error en la variable x,
siendo este considerado slo en la variable y por mediacin de la varianza de repeticin
pura (obtenida a partir de replicados). Adems, dicha varianza debe permanecer
constante en los distintos niveles (homocedasticidad) y los valores de y deben estar
normalmente distribuidos en cada nivel. Esto se puede observar en la grfica de
residuales.
J. M. Jurado
{( x x )( y y )}
i
b=
(8)
i
n
( xi x )
a = y bx (9)
( y y )
i
sy / x =
(10)
n2
Donde
yi = a + bxi (11)
sy / x
(12)
(x x )
x
sa = s y / x
2
i
i
n
( x x )
(13)
J. M. Jurado
{( x x )( y y )}
i
r=
(14)
i
n
n
2
2
x
x
(
)
i
( yi y )
i
i
y0 a
(15)
b
sy / x
b
1
1+ +
n
( y0 y )
b 2 ( xi x )2
(16)
Frmula
Media
=PROMEDIO()
Desviacin estndar
=DESVEST()
Varianza
=VAR()
Raz cuadrada
=RAIZ()
Nmero de datos
=CONTAR()
Mediana
=MEDIANA()
Pendiente
=PENDIENTE()
Ordenada en el origen
=INTERSECCION.EJE()
Coeficiente de correlacin
=COEF.DE.CORREL()
Estimacin lineal
=ESTIMACION.LINEAL()
La ltima es muy til cuando se quieren obtener los errores asociados a la pendiente y la
ordenada en el origen. Se explicar mas adelante.
J. M. Jurado
J. M. Jurado
i =n
i =1
i =1
Ei2 = ( xi x) 2 + n( x ) 2 (18)
E2 =
( xi x ) 2
+ ( x ) 2 (19)
i =1
J. M. Jurado
2.3. Veracidad.
Como se ha dicho anteriormente, la veracidad da cuenta de lo cercano del resultado
medio obtenido con el mtodo y el valor real. Para asegurar la veracidad es necesario
compara el valor medio medido con un valor de referencia (que ser el valor real o el
considerado como tal). Esto se realiza, generalmente comparando los resultados
obtenidos por el mtodo con el valor de un material de referencia certificado o
comparando con un mtodo ya validado (que suele haber sido sometido a un ejercicio
de intercomparacin). En caso de no existir materiales de referencia o no tener
posibilidad de aplicar el mtodo de referencia, se puede simular la matriz de la muestra
aadiendo al analito en una cantidad conocida y efectuar un ensayo de recuperacin.
Como ltima instancia, se pueden realizar dichos ensayos de recuperacin aadiendo al
analito sobre la propia muestra [3].
Como se explicar ms adelante, para compara dos valores ser necesario conocer la
precisin con la que este ha sido obtenido, por ello la exactitud se evala a partir de la
veracidad en conjunto con la precisin.
2.4. Precisin.
Cuando realizamos una medida se deben obtener replicados, a partir de los cuales se
puede observar el grado de concordancia que estos resultados tienen entre s. Como se
dijo anteriormente, este grado de concordancia se denomina precisin. La precisin se
divide en dos parmetros repetitividad y reproducibilidad.
2.4.1. Repetitividad.
Se define la repetitividad como la desviacin estndar obtenida al analizar una misma
muestra varias veces, en un periodo de tiempo corto, sin cambiar de equipo de medida,
reactivos o analista.
2.4.2. Reproducibilidad.
La reproducibilidad se define como la desviacin estndar obtenida al analizar varias
veces la muestra en das distintos, pudiendo variar condiciones tales como el equipo,
reactivos o analistas. Se habla de reproducibilidad interlaboratorio cuando las medidas
se realizan en laboratorios distintos (ensayos de intercomparacin). La reproducibilidad
intralaboratorio se realiza en un solo laboratorio, preparando los patrones de calibracin
cada vez, en distintos das y cambiando en la medida de lo posible de equipo y analista.
A esta reproducibilidad intralaboratorio se la conoce como precisin intermedia.
10
J. M. Jurado
2.5. Sensibilidad.
Segn la IUPAC la sensibilidad se define como el cociente entre la seal medida y la
concentracin de analito. Cuando trabajamos con curvas de calibrado, la sensibilidad es
la pendiente de la curva a una concentracin dada. En caso de ser una recta, coincide
con la pendiente de la misma.
2.6. Lmites de deteccin y cuantificacin.
Estos parmetros estn relacionados con la sensibilidad del mtodo. El lmite de
deteccin (LOD) se define como la cantidad de analito presente que se deriva de la
menor seal analtica que puede detectarse con certeza razonable (YLOD) [4]. Si
analizamos un blanco de la muestra varias veces y obtuviramos la seal media ( Y0 ) y
su desviacin estndar, sY0 , las seales mayores a YLOD = Y0 3sY0 caeran fuera de la
gausiana del blanco analtico y podramos asignarlas a la presencia de analito. Si
tenemos una recta de calibrado de ecuacin y = bx + a, el LOD se calculara como:
X LOD =
YLOD a
(21)
b
Como la seal del blanco debe coincidir con la ordenada del blanco analtico (puesto
que es la seal que se obtendra a una concentracin de analito igual a cero), el LOD se
calcular como:
X LOD =
3s a
(22)
b
X LOQ =
10 sa
(23)
b
11
J. M. Jurado
Estos parmetros no son del todo fidedignos, siendo lo correcto realizar un anlisis
estadstico de los residuales mediante el anlisis de la varianza (ANOVA) o la
aproximacin prctica de Huber [6]. Ambos procedimientos los explicaremos
detenidamente cuando estudiemos la aplicacin de EXCEL.
El intervalo dinmico o rango lineal es el rango de concentraciones donde existe una
relacin lineal entre estas y las seales analticas. En este intervalo, los valores deben
presentar un nivel aceptable de precisin y exactitud, con lo cual, no pueden ser
inferiores al lmite de cuantificacin.
2.8. Robustez
Es la inercia que presenta un mtodo analtico a modificar su seal cuando tienen lugar
pequeos cambios en las condiciones ambientales u operativas, que se consideran las
variables que gobiernan el experimento de medida. Para el estudio de robustez, estas
condiciones se modifican ligeramente, siguiendo un determinado diseo experimental, y
se comprueba su influencia en la seal analtica. Con ello, se puede concluir que
variables son ms significativas a la hora de realizar las medidas y por tanto, deben ser
mejor controladas.
Anlisis Cualitativo
Anlisis Cuantitativo
Precisin
Veracidad
Linealidad
Especificidad
Rango
LOD/LOQ
Robustez
Anlisis de trazas
X
LOD
LOQ
12
J. M. Jurado
13
J. M. Jurado
s22
1 . Se compara con Ftab(0.05,
s12
n2-1, n1-1). Si F<Ftab admitimos H0. Los valores de F para una cola se pueden obtener
usando la funcin =DISTR.F.INV(p;n2-1;n1-1), siendo p la probabilidad (normalmente
0.05, es decir 95% de nivel de confianza)
3.2.1. Aplicaciones
- Comprobar que dos mtodos son igual de precisos.
- Comprobar que las varianzas son iguales para ver que tipo de test de comparacin de
medias usar posteriormente.
- Comprobar que en la reproducibilidad no interviene factores distintos a los
encontrados en el estudio de repetitividad.
3.2.2. Resolucin con EXCEL
Supongamos que hemos realizado una serie de medidas de una muestra con dos
mtodos analticos y queremos comprobar si ambos son igual de precisos. Lo primero
es tener los datos en EXCEL.
14
J. M. Jurado
Pulsamos en la flecha roja del cuadro rango para la variable 1 y seleccionamos el rango
A2:A7. En rango para la variable 2 seleccionamos el rango B2:B9. Si marcamos
Rtulos, el programa considera que en la primera celda del rango seleccionado se
encuentra el nombre del conjunto de datos (deberamos haber seleccionado A1:A7 y
B1:B9). Alfa es el indica la probabilidad o nivel de confianza que usaremos (0.05 es un
95%). En rango de salida se indica la primera celda del rango donde se colocarn los
resultados. Es aconsejable que sea en un extremo para que no sobrescriba nada. Otra
opcin es hacerlo en una hoja nueva. Supongamos que hemos elegido la celda D1 como
rango de salida. El resultado ser:
15
J. M. Jurado
Media
Varianza
Nmero de datos
x1
s12
n1
x2
s22
n2
n1 1) s12 + ( n2 1) s22
(
=
n1 + n2 2
(25)
Se calcula el estadstico t:
t=
x1 x2
1 1
s
+
n1 n2
(26)
16
J. M. Jurado
x1 x2
t=
s12 s22
+
n1 n2
(27)
eff =
s12 s22
+
n1 n2
s14
s4
+ 2 2
2
n1 ( n1 1) n2 ( n2 1)
(28)
referencia.
3.3.1.2. Resolucin con EXCEL.
a) Conjunto de datos con varianzas estadsticamente similares.
Supongamos que partimos del ejemplo anterior, en el que mediante el test de Fisher se
dedujo que las varianzas eran similares.
17
J. M. Jurado
La forma de escoger los rangos, nivel de confianza y rango de salida son similares a la
prueba F. Ntese que es posible tomar distintas hiptesis nulas en la casilla Diferencia
hipottica entre las medias. El resultado es:
Como en valor absoluto el t calculado es menor que el t crtico (contraste de dos colas),
la hiptesis nula se toma como cierta y las dos medias muestrales no difieren
significativamente. El hecho de usar un contraste de dos colas implica que no nos
interesa el sentido en que difieren las medias (es decir si la diferencia es positiva o
negativa). Si pretendemos ver solo si un valor aumenta en relacin al otro se usa un
contraste de una cola.
b) conjunto de datos con varianzas distintas.
Considrese el conjunto de datos:
18
J. M. Jurado
Al aplicar el test F:
Comparando con el valor de t crtico para dos colas, las medias no difieren
significativamente. Ntese que los grados de libertad efectivos son 5 (en realidad
5.2868, pero se ajusta al entero ms prximo).
3.3.2. Prueba t para valores emparejados.
Supongamos que tenemos un conjunto de muestras de valores x1 ,...xi ,...xn . Ntese que
se trata de n muestras distintas, por lo que las cantidades x1 ... xi ... xn . Se
determinan los valores mediante dos mtodos y se pretende comprobar que no existen
diferencias significativas entre los resultados obtenidos por ambos. Al aplicar cada
mtodo se obtienen los valores x11 ,...x1i ,...x1n con el mtodo 1 y x21 ,...x2i ,...x2 n con el
19
J. M. Jurado
mtodo 2. Se calculan las diferencias d i = x1i x2i , el valor medio de todas las
diferencias y su desviacin estndar:
n
d
d=
(29)
sd =
(d
d)
n 1
(30)
Si los mtodos son equivalentes y levan al mismo resultado las diferencias di deben ser
nulas. Esto es lo mismo que considerar la hiptesis nula H0: d = 0. Se calcula el
estadstico t:
t = d n / sd (31)
20
J. M. Jurado
Como el valor experimental (0.88) es menor que el crtico (2.26) los mtodos no
proporcionan resultados significativamente diferentes.
3.4. ANOVA de un factor.
ij
xi =
(32)
x=
21
(33)
J. M. Jurado
x11
x12
...
x1 j
...
x1n
x1
Mtodo 2
x21
x22
...
x2 j
...
x2 n
x2
.
.
.
Mtodo i
.
.
.
xi1
.
.
.
xi 2
.
.
.
...
.
.
.
xij
.
.
.
...
.
.
.
xin
.
.
.
xi
.
.
.
Mtodo h
.
.
.
xh1
.
.
.
xh 2
.
.
.
...
.
.
.
xhj
.
.
.
...
.
.
.
xhn
.
.
.
xh
Media global
( xij xi )
j
si2 =
(34)
n 1
En el ANOVA la hiptesis nula es que todas las muestras se extraen de una poblacin
de media y varianza 2 . Esta varianza se puede estimar de dos formas, estudiando la
variacin dentro de las muestras y la variacin entre muestras.
2
La varianza debida al error puramente aleatorio, sPE
, tambin conocida como varianza
dentro de las muestras (o del grupo), se calcula como promedio de las varianzas
individuales si2 :
h
2
2 sPE
=
( x
si2
=
ij xi )
h(n 1)
(35)
La varianza debida al factor (en nuestro caso a los distintos mtodos usados), conocida
como varianza entre muestras (o entre grupos), es una estimacin de la varianza de la
poblacin, 2 . Si todas las medidas se extraen de una poblacin de varianza 2 ,
entonces sus medias (obtenidas variando el mtodo empleado, es decir, variando un
factor controlado) proceden de una poblacin de varianza 2 / n (Vase seccin 1.4).
En general, la varianza debida al factor se calcula como:
22
J. M. Jurado
2
2 sFactor
=
n ( xi x )
(36)
h 1
significativamente distinta a la varianza de error puro. Esto es lo mismo que decir que el
hecho de variar el factor (el mtodo de medida en nuestro ejemplo) no introduce un
error significativo en comparacin con el puramente aleatorio. Se comprueba esto
mediante un test de Fisher, calculando F como:
F=
2
sFactor
(37)
2
sPE
Se compara F con el valor tabulado F(0.05, h-1, h(n-1)) para contraste de una cola
(puesto que nos interesa saber si la varianza del factor es mayor que la de error puro, no
solo si difieren). Si el valor de F calculado es menor que el tabulado, no existen
diferencias significativas entre las dos varianzas, es decir, el hecho de variar el factor
(cambiar de mtodo) no introduce un error significativo.
Si la hiptesis nula es verdadera existe una tercera forma de estimar la varianza que
consiste en tratar los datos como si fueran una muestra grande de varianza:
h
( x
ij
2
sTotal
=
x)
hn 1
(38)
MDS = sPE
2
th ( n 1) (39)
n
23
J. M. Jurado
Otra posibilidad es comparar las medias dos a dos mediante el test de de la genuina
diferencia significativa de Tukey. Si una vez realizados los clculos de ANOVA se han
encontrado diferencias significativas entre la varianza de un factor y la del error puro,
debemos averiguar que nivel de ese factor es el responsable de los errores sistemticos
que producen dichas diferencias. Con este fin se realiza el ensayo Tukey-HSD (Honest
Significant Difference) [8], por el que se comparan dos a dos las medias obtenidas a
cada nivel del factor. Aquel nivel que presente un valor promedio significativamente
diferente del resto ser el responsable del sesgo detectado y se elimina para recalcular el
ANOVA.
Supongamos que queremos comparar dos niveles p y q del factor (mtodo en nuestro
caso). Para que no haya diferencia significativa entre los valores promedio de estos dos
niveles, x p y xq , se debe demostrar que ambos se corresponden con las medias
muestrales de una misma poblacin, de distribucin normal, de media y varianza
p q ( x p xq )
qr,
2
1 1
2
sPE
+
n p nq
(40)
24
J. M. Jurado
p q ( x p xq )
qr,
2
sPE
1
(41)
n
( x p xq )
qr,
2
sPE
q
1
1
< 0 < ( x p xq ) + r , sPE
n
n
2
(42)
x p xq
sPE
1
n
(43)
25
J. M. Jurado
26
J. M. Jurado
libertad (4.066). Existen entonces diferencias significativas entre las medias obtenidas
tras las distintas formas de almacenamiento de las muestras. Los test de minima
diferencia significativa o de Tukey deben realizarse manualmente (EXCEL no
implementa los mismos).
3.4.3. La precisin a partir del anlisis de la varianza.
Hasta ahora se ha aplicado el ANOVA para la comparacin de mltiples medias. En
este caso se va ha emplear para separar y estimar distintas fuentes de variacin.
Supongamos que realizamos un estudio de reproducibilidad a un solo nivel de
concentracin. Tendremos dos fuentes de variacin, la debida al error puramente
aleatorio, es decir, el error de replicacin, y el debido al cambio de condiciones (da,
reactivos, analista, laboratorio...) que implica el hecho de estudiar la reproducibilidad.
Lo ideal sera aadir otro factor, realizando el estudio en distintos niveles de
concentracin, pero entonces realizaramos un ANOVA de dos factores. Es ms, al
prevalecer el factor de las condiciones de trabajo sobre los niveles de concentracin
deberamos realizar un ANOVA de dos factores anidados.
Consideremos que realizamos n replicados durante h dias (reproducibilidad entre dias,
minimalista). La varianza de repetitividad o de error puro vendr dada por la ecuacin
35, mientras que la debida al factor vendr dada por la ecuacin 36. Puesto que en la
ecuacin 36 estn incluidas las medias de cada grupo, xi , se estara considerando el
efecto de la repetitividad dentro del efecto del factor. Por ello, se debe calcular una
varianza neta entre grupos que dependa slo de la varianza entre las medias de los
grupos y la media global. La varianza neta entre grupos se calcula como:
sB2 =
2
2
sFactor
sPE
(44)
n
27
J. M. Jurado
Horwitz dedujo una expresin para predecir el valor esperado para la desviacin
estndar relativa para la precisin intermedia (o interlaboratorio) a partir de la
concentracin de analito, c (en tanto por 1).
RSDH = 2(10.5log c ) (46)
El valor de RSD obtenido se compara con el predicho por Horwitz (RSDH) mediante el
parmetro Horrat [12].
Horrat =
RSDR
(47)
RSDH
Si el valor del parmetro Horrat es igual o menor a 2 se puede decir que el mtodo tiene
valores aceptables de precisin intermedia.
Adems de comparar con los valores de Horwitz, se puede tambin comparar con los
valores establecidos por la AOAC [13] (Asociacin Oficial de Qumicos Analticos).
Estos valores y los obtenidos por Horwitz se presentan en la siguiente tabla.
28
J. M. Jurado
1
1
Unit
100%
1.3
10
10
10%
2.8
1.8
102
1%
2.7
0.1
103
0.1%
5.7
3.7
0.01
104
100 ppm
5.3
0.001
105
0.0001
10 ppm
11.3
7.3
1 ppm
16
11
10
0.00001
10
100 ppb
22.6
15
0.000001
108
10 ppb
32
21
0.0000001
109
1 ppb
45.3
30
Algunos requisitos prcticos relacionados con los estudios interlaboratorio son los
siguientes [14]:
-
ij = xij T (48)
Siendo T el valor certificado de un CRM (pues el valor verdadero no se conoce).
El sesgo se puede entonces calcular como:
1 h n
xij T = x T (49)
hn i j
29
J. M. Jurado
n (50)
u 2 ( ) =
h
< 2.
u ( )
Cobs Cnative
(51)
Cspike
30
J. M. Jurado
31
J. M. Jurado
El resultado es el siguiente:
32
J. M. Jurado
Re si Re smean
(52)
Re ssd
33
J. M. Jurado
SC Re s = ( yi yi ) 2 (53)
i
n
SCT = ( yi y )2 (54)
i
R2 = 1
SC Re s
(55)
SCT
( y y )
i
(56)
CM Re s =
n2
n
(y y)
CMT =
R 2 = 1
n 1
(57)
CM Re s
(58)
CMT
34
J. M. Jurado
( y y ) = ( y y ) + ( y y )
2
(59)
Estas sumas de cuadrados aparecen en la tercera columna y dividiendo entre los grados
de libertad de la segunda se obtienen las correspondientes varianzas (llamadas por
EXCEL promedio de cuadrados). Excel solo calcula las varianzas de regresin y la de
los residuales (cuarta columna). A partir de ellas calcula un Valor de F (quinta columna)
y calcula una probabilidad para este valor (es lo que llama valor crtico de F).
n
( y y )
F=
(n 1) (n 2)
n
( y y )
i
(60)
n2
En general, si el valor de F es muy elevado, la suma de cuadrados de residuales ser
mucho menor que la de regresin, con lo que tambin ser mucho menor que la suma de
cuadrados totales. Entonces, segn la expresin 55, r ser prximo a 1.
El hecho de que EXCEL trabaje con un valor de probabilidad es similar a comparar con
el valor tabulado de F para 1 y n-2 grados de libertad, pero en vez de comparar, calcula
directamente la probabilidad de que el F calculado sea mayor que el tabulado. Si la
probabilidad es muy pequea es poco probable que los datos lleven a un valor tan
elevado de F, es decir, es poco probable que la suma de cuadrados totales sea mucho
mayor que la de residuales y r sea prximo a uno. Esto quiere decir que el ajuste lineal
no es fruto de la casualidad, porque es poco probable que los datos se organicen de este
modo por casualidad.
Como ya hemos dicho, nosotros estamos ms acostumbrados a comparar el valor de F
experimental con un valor tabulado de F para un nivel de confianza determinado (95 %,
por ejemplo) teniendo en cuenta que los grados de libertad para la varianza de regresin
es (n-1-n-2=1) y la de la varianza de los residuales n-2. Si Fexp>F(0.05, 1, n-2) la
correlacin lineal es significativa y no puede atribuirse a la casualidad.
Los parmetros ajustados de pendiente y ordenada se obtienen en:
35
J. M. Jurado
J. M. Jurado
d) Si existen outliers.
37
J. M. Jurado
38
J. M. Jurado
C=
2
smax
h
si2
(61)
i =1
2
El valor obtenido se compara con el tabulado C (h, r, ). Siendo smax
la varianza
sospechosa, h el nmero de series de replicados, si2 las varianzas de cada una de estas
series, r el nmero de replicados y el nivel de significacin. Si el valor calculado es
mayor que el terico, normalmente para un 95% de nivel de confianza, se considera
que la serie de replicados sospechosa constituye un outlier dispersivo. En este caso no
tiene sentido la prueba de la falta de ajuste, puesto que los datos no son homocedsticos
y no se debera aplicar la regresin lineal ordinaria, sino la ponderada. En el ANEXO 2
se presentan los valores tabulados del parmetro C.
Una vez hecho esto, si no hay outliers dispersivos, se calcula una varianza de error puro
como la media de las varianzas a cada nivel (suponiendo h niveles).
h
2
sPE
=
2
i
h
39
(62)
J. M. Jurado
Con r-1 grados de libertad (se han sumado h varianzas de r-1 grados de libertad pero se
ha dividido entre h).
A partir del ANOVA se tiene la varianza de los residuales:
n
2
sRES
=
( y y )
i
n2
(63)
Para obtener la varianza de falta de ajuste se resta la de error puro a la de los residuales.
2
sLOF
=
2
2
(r 1) sPE
(n 2) sRES
(64)
(n 2) (r 1)
FLOF =
2
sLOF
(65)
2
sPE
40
J. M. Jurado
a0
(66)
sa
tb =
b 1
(67)
sb
J. M. Jurado
bCE
(68)
bAP
sb2
sb2
S R = R 2CE + 2AP
bCE bAP
(69)
Donde bCE y bAP son las pendientes de las rectas de calibrado externo y adicin patrn,
respectivamente, sbCE y sbAP son sus desviaciones estndar correspondientes. Si ambas
pendientes son prcticamente iguales, su cociente, R, no debe ser significativamente
distinto de 1. Calculando la t de Student como:
tcal =
R 1
(70)
SR
J. M. Jurado
Bibliografa
EURACHEM,
LGC, Teddington,
UK 1998.
http://www.eurachem.org/guides/valid.pdf.
2. R. Compa, A. Rios. Garanta de la calidad en los laboratorios analticos. Editorial
Sntesis, Madrid, 2002.
3. J. M. Jurado, A. Alczar, F. Pablos, M. J. Martn, A. G. Gonzlez. Talanta, 2004, 63,
297-302
4. J. Inczedy, T. Lengyel, A. M. Ure. Compendium of Analytical Nomenclature 3rd
edition. Blackwell Science, 1998
5. L. Cuadros, A.M. Garca and J.M. Bosque, Anal. Lett. 1996, 29, 1231
6. L. Huber. LC-GC Int. 1998, 11, 96105
7. J. N. Miller, J. C. Miller. Estadstica y quimiometra para qumica analtica. Prentice
Hall, Madrid, 2002.
8. J. A. Rafter, M. L. Abell, J. P. Braselton. Multiple comparison methods for means.
43
J. M. Jurado
15. E. Pitchard, Quality in the analytical chemistry laboratory. ACOL Series, Wiley,
Chichester, West Sussex, UK, 1995.
16. International Organization of Standarization (ISO), ISO/DTS 21748, Guide to te use
of repeatability, reproducibility and trueness estimates in measurement uncertainty
estimation, ISO, Geneva, Switzerland, 2003
17. W. G. Cochran. The distribution of the largest of a set of estimated variances as a
fraction of their total. Annals of Eugenics, 1941, 11, 47-61.
18. L. Huber. Validation of analytical methods: review and strategy. LC-GC
44
J. M. Jurado
45
J. M. Jurado
46
J. M. Jurado
47