Está en la página 1de 53

ASEGURAMIENTO DE LA CALIDAD ANALÍTICA

1. INTRODUCCIÓN
En la actualidad el concepto de la calidad ha tomado un enfoque global; la química analítica como
ciencia ha decidido transformar la idea de un típico análisis químico convirtiéndola en un análisis
cuantitativo con la comprensión de una serie de etapas, y diversas secuencias como la de elección
del método de análisis ,el tratamiento y procesamiento de la muestra, propiedades y
características del analito, determinación de resultados y como el más importante, determinación
de la finalidad y confiabilidad de los resultados.

El avance tecnológico y científico significa que la acreditación del sistema de calidad del
laboratorio, su personal, sus instalaciones y equipos, sus métodos de prueba, sus archivos y
reportes han sido evaluados, y la evaluación indica que el laboratorio tiene la capacidad de
conseguir nuevas oportunidades de mercado, reservado solo para aquellos laboratorios que
consiguen demostrar su avance y su competencia técnica.

Los resultados analíticos juegan un papel importante en el laboratorio, entonces hay que aceptar
que los estudios pueden tener errores, un principio guía es “no existen resultados cuantitativos de
interés si no van acompañados de alguna estimación de los errores inherentes a los mismos”, este
principio se aplica no solamente a la química analítica sino a cualquier campo de estudio donde se
obtenga resultados experimentales numéricos. Por ello en todo laboratorio el aseguramiento de
la calidad analítica es importante y lo podemos definir como:
Es un medio adecuado e imprescindible para evaluar la calidad del propio trabajo, descubrir
errores en el sistema de medición y demostrar la comparabilidad con los resultados de los
procedimientos de referencia.

El objetivo del análisis debe ser determinar el contenido verdadero de los analitos a medir de la
forma más exacta y precisa posible para que sean confiables.

En la validación de métodos, los laboratorios realizan un esfuerzo para asegurar la precisión de los
resultados. El proceso asegura que los laboratorios acreditados cumplen con los requisitos y
demuestran la capacidad para dar datos mas exactos y precisos de los parámetros especificados
en el alcance de la acreditación.

La calificación de laboratorios según la norma ISO/IEC 17025 “Aseguramiento de la calidad de


resultados de ensayo y calibración” según esta norma el laboratorio debe tener procedimientos
de control de la calidad para monitorear la validez de los ensayos y calibraciones realizados. Es
requisito entre otros:

Método: que los resultados sean confiables (método validado)


Entrenamiento de personal
Reactivos: se deben emplear reactivos y disolventes de la calidad estandarizados, deben contar
con sus certificados de análisis por lote.
Agua: Tipo ASTM I o II (ultrapura para preparación de soluciones).
Instrumentos estandarizados y equipos calibrados o validado, rango de los parámetros
operacionales, verificación del rendimiento del instrumento elegido para una técnica analítica
particular, así como el software y hardware que lo controla.
Resultados estadísticos.
2. LAS MEDICIONES
El hecho fundamental en toda ciencia experimental es siempre una observación o una medida
cuyo grado de confiabilidad decidirá la validez del estudio.

El grado de confiabilidad viene dado por el error en la medida; por lo tanto será muy importante
indicar cada medición con su error correspondiente.

Generalmente aunque no siempre una gran exactitud implica una gran precisión; la teoría de
errores da específicamente una medida de la precisión, no de la exactitud, pero como se busca es
la exactitud al efectuar mediciones se tendrá mucho cuidado de eliminar los errores sistemáticos
y entonces se obtendrá un grado de confiabilidad o de confianza que nos dé un índice de lo
cercana que está nuestra medida al valor verdadero, a la medida que obtengamos de esta forma
la llamamos “valor más probable “

Existen diversos métodos estadísticos para la evaluación de los resultados experimentales, las
interrogantes a resolver son:

¿Cómo estar seguro de que el valor obtenido experimentalmente es cercano al valor verdadero?

¿Cuánta certidumbre se tiene de que el valor obtenido es el mismo o distinto del valor obtenido
con la misma muestra en un momento distinto o por otra persona?

Al realizar un análisis existe siempre la posibilidad de cometer errores, en el procedimiento se


determina las fuentes del error que pueden ser por ejemplo: secado incompleto de la muestra,
lectura incorrecta del volumen medido, posibles pérdidas, derrames o salpicaduras,
contaminación de reactivos entre muchas otras.

3. LOS ERRORES EN LOS ANÁLISIS


Durante la realización de una análisis cuantitativo es muy importante tomar en cuenta
todas las variables que pueden afectar nuestro resultado, dentro de estos están los factores
provocados por los instrumentos utilizados y los errores provocados por quien maneja el
material.

En el reporte de cualquier análisis químico, es importante tomar en cuenta este tipo de


errores hacer un análisis de los resultados y asi se podrá concluir sobre él.

• Groseros o accidentales
Son errores que son tan importantes que no existe alternativa real que abandonar el
experimento y empezar de nuevo por completo. Ejemplos: la avería total de un
instrumento, caída o vertido accidental de una sustancia en otra.

• Aleatorio
Estos provocan que los resultados individuales difieran uno del otro de manera que caigan
a ambos lasos del valor medio. Estos errores afectan la precisión de un experimento. Este
tipo de errores son los que comete el operador del instrumento utilizado.

 Sistemáticos
Provocan que todos los resultados sean erróneos en el mismo sentido, son demasiado
grandes. Y se denomina también sesgo de la medida. Este tipo de error es responsabilidad del
material empleado y de su origen y presión de fabricación.
Podemos calcular nuestros errores experimentales de la siguiente manera:

• Error absoluto.- Nos indica si medimos u obtuvimos más o menos que el valor
experimental, y en qué cantidad excedimos del valor real o qué cantidad nos faltó; esto
según el signo de la sustracción. EA = valor experimental – valor teórico
• Error relativo.- Es una forma de conocer el porcentaje de error que obtuvimos en
nuestros resultados.

ER = (valor experimental – valor teórico) x 100


(Valor teórico)

 Porcentaje de error % error = 1 – (valor experimental) x 100


(Valor teórico)

MÉTODOS PARA DISMINUIR LOS ERRORES


Los errores determinados o sistemáticos, se pueden a veces disminuir por alguno de los métodos
siguientes:

 Calibración de instrumentos y aplicación de correcciones: Se deben calibrar todos los


instrumentos de medición (matraces aforados, buretas, pipetas, etc.) y corregir las
mediciones que con ellos se realicen. En algunos casos, cuando no se puede eliminar la causa
de algún error, se aplica una corrección al resultado que se obtenga.

 Realización de una determinación en blanco: Consiste en efectuar una determinación por


separado, exactamente en las mismas condiciones experimentales, en que se realizó el análisis,
pero sin emplear la muestra. Así se puede conocer la influencia de las impurezas de los
reactivos y la debida a contaminaciones por ataque de los recipientes. En igual forma se
determina el exceso de solución valorada necesaria para establecer el punto final de una
titulación. Si por la determinación en blanco se debe aplicar una corrección grande, se
aumenta la incertidumbre del resultado.

 Determinación en paralelo con una muestra patrón: Se efectúa una determinación en


paralelo en las mismas condiciones experimentales, empleando igual cantidad de una muestra
patrón de composición semejante a la muestra en análisis
Para efectuar determinaciones en paralelo, con muestras de composición conocida, pueden
adquirirse en el comercio, muestras patrones( muestras certificadas) , analizadas por
numerosos analistas de reconocida competencia o laboratorios certificados.

4. TÉCNICAS ESTADÍSTICAS APLICADAS EN LOS LABORATORIOS DE ENSAYO

ESTADISTICA
La Estadística entendida como Ciencia de la recogida, análisis e interpretación de los datos
numéricos, no es una ciencia vulgar sino, como decía Kendall, la base del conocimiento
cuantitativo. De aquí la importancia que tiene un uso adecuado, puesto que permite obtener un
conocimiento que sería imposible adquirir sin ella.

DEFINICIONES ESTADÍSTICAS
Para los fines de una validación, se utilizan normalmente ciertas mediciones estadísticas, que nos
ayudan a establecer si el método se encuentra dentro de un parámetro aceptable, normalmente
se determinan las siguientes:

MEDIA
Conocida también como media aritmética o promedio, es la cantidad total de la variable (muestra
o medida) distribuida a partes iguales entre cada observación. En términos matemáticos, es igual
a la suma de todos sus valores dividida entre el número de sumandos.
𝑛
∑ 𝑥𝑖
𝑋=
𝑛

𝑥𝐼 = valor de una lectura.


n = número de lecturas

DESVIACIÓN ESTÁNDAR (𝜎, S):


Es el promedio de lejanía de los valores obtenidos (lecturas) respecto del promedio.
𝑛
∑𝑖=1(𝑥𝑖 − 𝑋)2
𝑠=√
𝑛−1

𝑥𝐼 = valor de una lectura.


𝑋= promedio de la totalidad de lecturas.
n = número de lecturas

COEFICIENTE DE VARIACIÓN (CV)


Desviación estándar dividida por la media. También es conocida como desviación estándar
relativa (RSD). El coeficiente de variación puede ser expresado en porcentaje:
𝑆
%𝐶𝑉 = ∙ 100
𝑋

S = desviación estándar de las lecturas.


X = promedio de la totalidad de lecturas.

VARIANZA
Es una medida de dispersión definida como el cuadrado de la desviación estándar.
𝑛
2
∑𝑖=1(𝑥𝑖 − 𝑋)2
𝑆 =
𝑛−1

𝑥𝐼 = valor de una lectura.


X= promedio de la totalidad de lecturas.
n = número de lecturas

DISTRIBUCIÓN NORMAL
Distribución continua conocida también como distribución Gaussiana, la distribución de una
variable normal está completamente determinada por dos parámetros, su media y su desviación
estándar, denotadas generalmente por 𝜇 𝑦 𝜎. La distribución normal se caracteriza por tener una
única moda, que coincide con su media y su mediana. Su expresión grafica es una curva normal,
cuya forma es similar a los histogramas con forma de campana, es conocida como campana de
gauss que es simétrica respecto a su media y asintótica al eje de abscisas, esto hace que cualquier
valor entre −∞ 𝑦 + ∞y es teóricamente posible. El área total bajo la curva es, por tanto, igual a 1.
Para este tipo de variables existe una probabilidad de un 50% de observar un dato mayor que la
media, y un 50% de observar un dato menor.

PRUEBA DE MANDEL (H Y K)
La prueba h de Mandel permite analizar la variabilidad de los resultados bajo condiciones de
reproducibilidad. Determina la consistencia de los resultados en lo referente a su distribución
alrededor del promedio. El valor del estadístico h para cada laboratorio se obtiene mediante la
expresión:
𝑑
ℎ=
𝑠
𝑑 =𝑥−𝑋

d= Desviación del laboratorio con respecto al promedio


s= Desviación estándar del promedio de todos los laboratorios.
X= Promedio de los resultados de todos los laboratorios.

NORMALIDAD.-
Los resultados tienen normalidad si su función de distribución es la curva de Gauss, conocida
como distribución Normal conocidos también como paramétricos, y aquellos resultados que se
encuentran en los extremos de la curva, se denominan resultados anormales o atípicos o no
paramétricos.

Los resultados deben de distribuir de la siguiente manera:


Dónde:
x : Resultado obtenidos.
: Media de los resultados.
 : Desviación estándar de los resultados

ESTADÍSTICA DE MANDEL PARA MEDIR LA VERACIDAD DE LOS RESULTADOS


Para medir la veracidad de los resultados en los ensayos, utilizaremos, la estadística de Mandel.

La estadística de Mandel, analiza la consistencia (veracidad) entre Analistas y dentro de Analistas.

Estadística de Consistencia de Mandel entre Analistas ( h )

Planteamiento de Hipótesis:

Hipotesis nula : El Analista es consistente


Hipotesis alterna : El Analista no es consistente

Estadístico de Contraste:

Se utilizará el siguiente estadístico:


yi  y
hi  p
1

2
( yi  y )
p  1 i 1

Donde:
p : número de analistas
n : número de repeticiones del ensayo por analista

Criterio:
Se comparará con la estadistica de Tabla de Mandel.

Si el valor de h, de la prueba, es menor o igual al valor tabular de 5%, la hipótesis nula es


aceptada.

Si el valor de h, de la prueba, se encuentra entre los valores tabulares de 5% y 1 %, se considera


valor rezagado.

Si el valor de h, de la prueba, es mayor que el valor tabular 1 %, se considera valor no consistente


y se elimina del análisis.
Tabla Nº 1.1 Indicadores para las Estadísticas de h y k de Mandel en el Nivel de Significación de
1%
K
P H N
2 3 4 5 6 7 8 9 10
3 1,15 1,71 1,64 1,58 1,53 1,49 1,46 1,43 1,41 1,39
4 1,49 1,91 1,77 1,67 1,60 1,55 1,51 1,48 1,45 1,43
5 1,72 2,05 1,85 1,73 1,65 1,59 1,55 1,51 1,48 1,46
6 1,87 2,14 1,90 1,77 1,68 1,62 1,57 1,53 1,50 1,47
7 1,97 2,2 1,94 1,79 1,70 1,63 1,58 1,54 1,51 1,48
8 2,06 2,25 1,97 1,81 1,71 1,65 1,59 1,55 1,52 1,49
9 2,13 2,29 1,99 1,82 1,73 1,66 1,60 1,56 1,53 1,50
10 2,18 2,32 2,00 1,84 1,74 1,66 1,61 1,57 1,53 1,50
11 2,22 2,30 2,01 1,85 1,74 1,67 1,62 1,57 1,54 1,51
12 2,25 2,36 2,02 1,85 1,75 1,68 1,62 1,58 1,54 1,51
13 2,27 2,38 2,03 1,86 1,76 1,68 1,63 1,58 1,55 1,52
14 2,30 2,39 2,04 1,87 1,76 1,69 1,63 1,58 1,55 1,52
15 2,32 2,41 2,05 1,87 1,76 1,69 1,63 1,59 1,55 1,52
P = Número de etapas en un determinado nivel
N = Número de duplicados dentro de cada etapa en ese nivel
Fuente: Tomada del Dr. J. Mandel.

Tabla Nº 1.2 Indicadores para las Estadísticas de h y k de Mandel en el Nivel de Significación de


5%

K
P H N
2 3 4 5 6 7 8 9 10
3 1,15 1,65 1,53 1,45 1,40 1,37 1,34 1,32 1,30 1,29
4 1,42 1,76 1,59 1,50 1,44 1,40 1,37 1,35 1,33 1,31
5 1,57 1,81 1,62 1,53 1,46 1,42 1,39 1,36 1,34 1,32
6 1,66 1,85 1,64 1,54 1,48 1,43 1,40 1,37 1,35 1,33
7 1,71 1,87 1,66 1,55 1,49 1,44 1,41 1,38 1,36 1,34
8 175 1,88 1,67 1,56 1,50 1,45 1,41 1,38 1,36 1,34
9 1,78 1,90 1,68 1,57 1,50 1,45 1,42 1,39 1,36 1,35
10 1,80 1,90 1,68 1,57 1,50 1,46 1,42 1,39 1,37 1,35
11 1,82 1,91 1,69 1,58 1,51 1,46 1,42 1,39 1,37 1,35
12 1,83 1,92 1,69 1,58 1,51 1,46 1,42 1,40 1,37 1,35
13 1,84 1,92 1,69 1,58 1,51 1,46 1,43 1,40 1,37 1,35
14 1,85 1,92 1,70 1,59 1,52 1,47 1,43 1,40 1,37 1,35
15 1,86 1,93 1,70 1,59 1,52 1,47 1,43 1,40 1,38 1,36
P = Número de etapas en un determinado nivel
N = Número de duplicados dentro de cada etapa en ese nivel
Fuente: Tomada del Dr. J. Mandel.
PRUEBA DE COCHRAN Y GRUBBS
TEST DE COCHRAN: Localiza laboratorios con una dispersión (s) discrepante
Calcular la s2 (varianza) de cada laboratorio
Calcular el cociente entre la varianza más elevada y el sumatorio de todas las varianzas
Fexp= s2H / Σ(s2)
Si Fexp>Ftab el laboratorio es discrepante.

R DE GRUBBS
Para valores discrepantes: localiza valores discrepantes dentro de los datos dados por cada
laboratorio
Rexp= (Xsospechoso-Xm) / s
Si Rexp>Rtab se rechaza Ho, es decir, el valor es discrepante
Para laboratorios discrepantes: localiza laboratorios discrepantes
Cálculo de 2 valores de Rexp
Rexp=100·(1-(SL/SM))
Rexp=100·(1-(SH/SM)) siendo:
SL- desv más baja, SH-desv más alta, SM- desv media todos los laboratorios
Si la Rexp mayor de las dos anteriores > Rtab, se rechaza Ho, es decir, laboratorio discrepante

ESTADÍSTICA DE COCHRAN MEDIR LA PRECISIÓN DE LOS RESULTADOS


Para medir la precisión de los resultados en los ensayos, utilizaremos, la estadística de Cochran.

Estadística de Precisión de Cochran ( C )

Planteamiento de Hipótesis:
Hipotesis nula: El Analista obtiene resultados precisos.
Hipotesis alterna: El Analista no obtiene resultados precisos.

Estadístico de Contraste:
Se utilizará el siguiente estadístico:

S i 2 max
C  p

S
i 1
i
2

Donde:
p : número de analistas
s : Desviación estándar del analista

Criterio:
Se comparará con la estadistica de Tabla de Cochran.

Si el valor de C, de la prueba, es menor o igual al valor tabular de 5%, la hipótesis nula es


aceptada.

Si el valor de C, de la prueba, se encuentra entre los valores tabulares de 5% y 1 %, se considera


valor rezagado.
Si el valor de C, de la prueba, es mayor que el valor tabular 1 %, se considera valor no preciso y se
elimina del análisis.

Tabla Nº 1.3 Valores Críticos para la Prueba de Cochran


N=2 N=3 n=4 N=5 n=6
P
1% 5% 1% 5% 1% 5% 1% 5% 1% 5%
2 - - 0,995 0,975 0,979 0,939 0,959 0,906 0,937 0,877
3 0,993 0,967 0,942 0,871 0,883 0,798 0,834 0,746 0,793 0,707
4 0,968 0,906 0,864 0,768 0,781 0,684 0,721 0,629 0,676 0,590
5 0,928 0,841 0,788 0,684 0,696 0,598 0,633 0,544 0,588 0,506
6 0,883 0,781 0,722 0,616 0,626 0,532 0,564 0,480 0,520 0,445
7 0,838 0,727 0,664 0,561 0,568 0,480 0,508 0,431 0,466 0,397
8 0,794 0,680 0,615 0,516 0,521 0,438 0,463 0,391 0,423 0,360
9 0,754 0,638 0,573 0,478 0,481 0,403 0,425 0,358 0,387 0,326
10 0,718 0,602 0,536 0,445 0,447 0,373 0,393 0,331 0,357 0,303
11 0,684 0,570 0,504 0,417 0,418 0,348 0,366 0,308 0,332 0,281
12 0,653 0,541 0,475 0,392 0,392 0,326 0,343 0,288 0,310 0,262
13 0,624 0,515 0,450 0,371 0,369 0,307 0,322 0,271 0,291 0,243
14 0,699 0,492 0,427 0,352 0,349 0,291 0,304 0,255 0,274 0,232
15 0,575 0,471 0,407 0,335 0,332 0,276 0,288 0,242 0,259 0,220
Fuente: Tomada de la American Statiscal Association
p = Número de etapas en un determinado nivel.
n = Número de resultados de ensayo por celda.

ESTADÍSTICA DE GRUBSS PARA DETECTAR PUNTOS ATÍPICOS


Para atípicos o puntos extremos, se usa la Estadística de Grubss (G)

Planteamiento de Hipótesis:
Hipotesis nula: El Analista no obtiene un resultado atípico.
Hipotesis alterna: El Analista obtiene un resultado atípico.

Estadístico de Contraste:
Se utilizará el siguiente estadístico:

p
y extr  y 1
S 
p  1 i 1
( yi  y ) 2
G 
S

Donde:
p : número de analistas
s : Desviación estándar general

Criterio:
Se comparará con la estadistica de Tabla de Cochran.
Si el valor de G, de la prueba, es menor o igual al valor tabular de 5%, la hipótesis nula es
aceptada.
Si el valor de G, de la prueba, se encuentra entre los valores tabulares de 5% y 1 %, se considera
valor rezagado.

Si el valor de G, de la prueba, es mayor que el valor tabular 1 %, se considera valor atípico y se


elimina del análisis.

Tabla Nº 1.4 Valores Críticos para la Prueba de Grubbs


1 más grande o 1 más pequeño 2 más grande o 2 más pequeño

P Superior 1% Superior 5 % Inferior 1 % Inferior 5 %


3 1,155 1,155
4 1,496 1,481 0,0000 0,0002
5 1,764 1,715 0,0018 0,0090
6 1,973 1,887 0,0016 0,0349
7 2,139 2,020 0,0308 0,0708
8 2,274 2,126 0,0563 0,1101
9 2,387 2,215 0,0851 0,1492
10 2,482 2,290 0,1150 0,1864
11 2,564 2,355 0,1448 0,2213
12 2,636 2,412 0,1738 0,2537
13 2,699 2,462 0,2016 0,2836
14 2,755 2,507 0,2280 0,3112
15 2,806 2,549 0,2530 0,3367
16 2,852 2,585 0,2767 0,3603
17 2,894 2,620 0,2990 0,3822
18 2,932 2,651 0,3200 0,4025
19 2,968 2,681 0,3398 0,4214
20 3,001 2,709 0,3585 0,4391
P = Número de etapas en un determinado nivel
Fuente: Tomada de la American Statiscal Association.

PRUEBA DE ANDERSON DARLING NORMALY TEST


La prueba de Anderson-Darling es utilizada para probar si un conjunto de datos muéstrales
provienen de una población con una distribución de probabilidad continua específica (por lo
general la distribución normal). La prueba de Anderson-Darling se basa en la comparación de la
distribución de probabilidades acumulada empírica (resultado de los datos) con la distribución de
probabilidades acumulada teórica (definida en H0).

ESTADÍSTICO DE PRUEBA:
El estadístico de A2 está dado por las siguientes formulas:

𝐴2 = −𝑛 − 𝑠
(2𝑖 − 1)
𝑆𝑖 = [ln 𝐹(𝑌𝑖 ) + ln(1 − 𝐹(𝑌𝑛+1−𝑖 ))]
𝑛
𝑛

𝑆 = ∑ 𝑆𝑖
𝑖=1
PRUEBA DE T-STUDENT DE UNA MUESTRA
Esta prueba permite comparar las medias de dos grupo de datos y determinar si entre estos
parámetros las diferencias es estadísticamente significativo.

En la prueba t , se procede a determinar el valor t de student calculado, obtenido de la


experiencia analítica, y este valor posteriormente se compara con el llamado valor crítico, este
valor critico se obtiene de la tabla de t-student para un determinado porcentaje de confiabilidad
(normalmente se utiliza el 95% de confianza, es decir, un valor a de 0,05). Si no existen diferencias
significativas entre 2 grupos, el t calculado debería ser inferior al t critico (o conocido también
como t de tabla).

El siguiente ejemplo, trata de explicar la afirmación realizada anteriormente: Un atleta desea


realizar un salto con garrocha, para lo cual, el realiza un cálculo de con que velocidad y con qué
fuerza (t calculado) debe realizar la prueba de atletismo, a fin de saltar correctamente la altura
establecida para la competencia (t critico).

Si el t calculado es inferior al t crítico, entonces, no existirá una diferencias significativa que


permita superar al t crítico, y el atleta no podrá realizar el salto.

Si el valor t calculado es superior al t crítico, entonces, existirá una diferencia significativa que
permitirá superar al t crítico, y el atleta podrá realizar el salto.
PRUEBA DE T-STUDENT DE DOS MUESTRAS

A. IGUALES TAMAÑOS MUESTRALES, IGUALES VARIANZAS


Esta prueba se utiliza solamente cuando: los dos tamaños muestrales (esto es, el
número, n, de participantes en cada grupo) son iguales; se puede asumir que las dos
distribuciones poseen la misma varianza.

Las violaciones a estos presupuestos se discuten más abajo.


El estadístico t a probar si las medias son diferentes se puede calcular como sigue:
𝑋1 − 𝑋2
𝑡=
2
𝑆𝑋1 𝑋2 ∙ √𝑛

Dónde:
1
𝑆𝑋1 𝑋2 = √ (𝑆 2𝑋1 + 𝑆 2𝑋2 )
2

Aquí 𝑆𝑋1 𝑋2 es la desviación estándar combinada, 1 = grupo uno, 2 = grupo 2. El


denominador de t es el error estándar de la diferencia entre las dos medias.
Por prueba de significancia, los grados de libertad de esta prueba se obtienen como
2n − 2 donde n es el número de participantes en cada grupo.

B. DIFERENTES TAMAÑOS MUESTRALES, IGUALES VARIANZAS


Esta prueba se puede utilizar únicamente si se puede asumir que las dos
distribuciones poseen la misma varianza. (Cuando este presupuesto se viola, mirar
más abajo). El estadístico t si las medias son diferentes puede ser calculado como
sigue:

𝑋1 − 𝑋2
𝑡=
1 1
𝑆𝑋1 𝑋2 ∙ √𝑛 + 𝑛
1 2

Dónde:
(𝑛1 − 1)𝑆 2𝑋1 + (𝑛2 − 1)𝑆 2𝑋2
𝑆𝑋1 𝑋2 = √
𝑛1 + 𝑛2 − 2
Nótese que las fórmulas de arriba, son generalizaciones del caso que se da cuando ambas
muestras poseen igual tamaño (sustituyendo n por n1 y n2).

es un estimador de la desviación estándar común de ambas muestras: esto


se define así para que su cuadrado sea un estimador sin sesgo de la varianza comun
sea o no la media iguales. En esta fórmula, n = número de participantes, 1 = grupo
uno, 2 = grupo dos. n − 1 es el número de grados de libertad para cada grupo, y el
tamaño muestral total menos dos (esto es, n1 + n2 − 2) es el número de grados de
libertad utilizados para la prueba de significancia.

C. DIFERENTES TAMAÑOS MUESTRALES, DIFERENTES VARIANZAS


Esta prueba es también conocida como prueba t de Welch y es utilizada únicamente
cuando se puede asumir que las dos varianzas poblacionales son diferentes (los
tamaños muestrales pueden o no ser iguales) y por lo tanto deben ser estimadas por
separado. El estadístico t a probar cuando las medias poblacionales son distintas
puede ser calculado como sigue:

̅̅̅
𝑋1 − ̅̅̅𝑋2
𝑡=
𝑆̅̅̅̅
𝑋1 −𝑋̅̅̅̅
2

Dónde:
𝑆 21 𝑆 2 2
𝑆̅̅̅̅
𝑋1 −𝑋̅̅̅̅ = √ +
2
𝑛1 𝑛2
Aquí 𝑆2 es el estimador sin sesgo de la varianza de las dos muestras, n = número de
2
participantes, 1 = grupo uno, 2 = grupo dos. Nótese que en este caso, (𝑆̅̅̅̅
𝑋1 −𝑋̅̅̅̅
2
) no
es la varianza combinada. Para su utilización en pruebas de significancia, la
distribución de este estadístico es aproximadamente igual a una distribución t
ordinaria con los grados de libertad calculados según:

2
𝑆2 𝑆2
( 𝑛 1 + 𝑛 2)
1 2
𝑔. 𝑙. = 2 2
𝑆2 𝑆2
( 𝑛 1) ( 𝑛 2)
1 2
+
(𝑛1 − 1) (𝑛2 − 1)

Esta ecuación es llamada la ecuación Welch–Satterthwaite. Nótese que la verdadera


distribución de este estadístico de hecho depende (ligeramente) de dos varianzas
desconocidas.

PRUEBA DE WILCOXON
La prueba de los rangos con signo de Wilcoxon es una prueba no paramétrica para comparar
la mediana de dos muestras relacionadas y determinar si existen diferencias entre ellas. Se utiliza
como alternativa a la prueba t de Student cuando no se puede suponer la normalidad de dichas
muestras. Debe su nombre a Frank Wilcoxon, que la publicó en 1945.

Se utiliza cuando la variable subyacente es continua pero no se presupone ningún tipo


de distribución particular.
PLANTEAMIENTO
Suponga que se dispone de n pares de observaciones, denominadas (𝑥𝑖 , 𝑦𝑖 ). El objetivo del test es
comprobar si puede dictaminarse que los valores 𝑥𝑖 e 𝑦𝑖 son o no iguales.
SUPOSICIONES
1. Si 𝑧𝑖 = 𝑦𝑖 − 𝑥𝑖 , entonces los valores 𝑧𝑖 son independientes.
2. Los valores tienen una misma distribución continua y simétrica respecto a una
mediana común 𝜃.

MÉTODO
La hipótesis nula es 𝐻0 : 𝜃 = 0 . Retrotrayendo dicha hipótesis a los valores
𝑥𝑖 , 𝑦𝑖 originales, ésta vendría a decir que son en cierto sentido del mismo tamaño.
Para verificar la hipótesis, en primer lugar, se ordenan los valores absolutos |𝑧1 , … , 𝑧𝑛 | y
se les asigna su rango 𝑅𝑖 . Entonces, el estadístico de la prueba de los signos de Wilcoxon,
𝑊 + , es:
𝑊 + = ∑ 𝑅𝑖 ,
𝑧𝑖 >0

Es decir, la suma de los rangos 𝑅𝑖 correspondientes a los valores positivos de 𝑧𝑖 .


La distribución del estadístico 𝑊 + puede consultarse en tablas para determinar si se
acepta o no la hipótesis nula.

En ocasiones, esta prueba se usa para comparar las diferencias entre dos muestras de
datos tomados antes y después del tratamiento, cuyo valor central se espera que sea
cero. Las diferencias iguales a cero son eliminadas y el valor absoluto de las desviaciones
con respecto al valor central son ordenadas de menor a mayor. A los datos idénticos se les
asigna el lugar medio en la serie. La suma de los rangos se hace por separado para los
signos positivos y los negativos. S representa la menor de esas dos sumas.
Comparamos S con el valor proporcionado por las tablas estadísticas al efecto para
determinar si rechazamos o no la hipótesis nula, según el nivel de significación elegido.

PRUEBA DE MANN WHITNEY


La hipótesis nula del contraste es que las dos muestras, de tamaño n1 y n2,
respectivamente, proceden de poblaciones continuas idénticas: 𝐻0 : 𝑓1 (𝑥) = 𝑓2 (𝑥). La
hipótesis alternativa puede ser unilateral o bilateral y únicamente supone que la
tendencia central de una población difiere de la otra, pero no una diferencia de forma o
de dispersión. Por esta razón esta prueba es el equivalente no paramétrico de la prueba t
para la diferencia de dos medias cuando las muestras son independientes pero no puede
suponerse la normalidad de las poblaciones de origen.

Para realizar el contraste se ordenan conjuntamente las observaciones de las dos


muestras, de menor a mayor, y se les asignan rangos de 1 a 𝑛1 + 𝑛2 . Si la tendencia
central de ambas poblaciones es la misma los rangos deberían distribuirse aleatoriamente
entre las dos muestras y el rango medio correspondiente a las observaciones de una
muestra debería ser muy similar a las correspondientes a las observaciones de la otra. El
estadístico de prueba U de Mann-Whitney se construye a partir de la suma de rangos de
una de las muestras, 𝑅𝑖 , elegida arbitrariamente:
𝑛𝑖 (𝑛𝑖 + 1)
𝑈𝑖 = 𝑛1 𝑛2 + − 𝑅𝑖
2
Dónde: 𝑖 = 1, 2
Para tamaños de muestra pequeños la distribución del estadístico U, bajo el supuesto de
que la hipótesis nula sea cierta, es discreta y está tabulada. Si los tamaños son
suficientemente grandes la distribución del estadístico se aproxima a una normal de
parámetros:
𝑛1 𝑛2 𝑛1 𝑛2 (𝑛1 + 𝑛2 + 1)
𝜇𝑈 = 𝜎𝑈2 =
2 12

El estadístico de prueba es el valor Z:


𝑈 − 𝜇𝑈
𝑍=
𝜎𝑈

La región de rechazo de 𝐻0 se localiza en las dos colas de la normal tipificada si 𝐻1 no es


direccional o en una de las colas si 𝐻1 es direccional.

PRUEBA H DE KRUSKAL – WALLIS


La prueba de Kruskal-Wallis es el método más adecuado para comparar poblaciones cuyas
distribuciones no son normales. Incluso cuando las poblaciones son normales, este
contraste funciona muy bien.
También es adecuado cuando las desviaciones típicas de los diferentes grupos no son
iguales entre sí, sin embargo, el Anova de un factor es muy robusto y sólo se ve afectado
cuando las desviaciones típicas difieren en gran magnitud.
La hipótesis nula de la prueba de Kruskal-Wallis es:
𝐻0 : Las k medianas son todas iguales
𝐻1 : Al menos una de las medianas es diferente

Cálculo de los rangos para cada observación


Para cada observación se le asigna el rango según el orden que ocupa la observación en el
conjunto total
de los datos, asignando el rango medio en caso de empates.

Cálculo de la suma de rangos 𝑹𝒎


Para cada grupo m = 1,…, r, siendo r el número de grupos, se define Rm como la suma de
rangos de cada grupo m
Cálculo del valor medio de los rangos 𝐸[𝑅𝑚 ] y de los rangos medios −𝑅𝑚
El valor medio de los rangos 𝐸[𝑅𝑚 ] se calcula como:
𝑛𝑚 (𝑛 + 1)
𝐸[𝑅𝑚 ] =
2
y el rango medio ̅̅̅̅
𝑅𝑚 como:
𝑅𝑚
̅̅̅̅
𝑅𝑚 =
𝑛𝑚

Estadístico de contraste H’
El estadístico de contraste de Kruskal-Wallis H’ se calcula como:
12 1 2
∑𝑟𝑚=1 [𝑅𝑚 − 𝐸[𝑅𝑚 ]]
𝑛(𝑛 + 1) 𝑛𝑚
𝐻′ =
∑𝑗=1(𝑑3𝑗 − 𝑑𝑗 )
𝑘
1−
𝑛3 − 𝑛
Siendo 𝑑𝑗 el número de empates en j = 1,…, k siendo k el número de valores distintos de
la variable respuesta, que sigue una distribución Chi-Cuadrado con r - 1 grados de
libertad.
MÉTODO DE LA PRUEBA RDS HORWITZ
Es el coeficiente de variación definido por W. Horwitz, a través de la ecuación obtenida de
un estudio estadístico. En dicho estudio, Horwitz después de reunir una serie de datos
(provenientes de 150 ensayos de interlaboratorios organizados por AOAC), observo que el
coeficiente de variación de los valores medios dados por los diferentes laboratorios
aumentaba a medida que disminuía la concentración del analito. Comportándose como
muestra la siguiente gráfica, conocida como la trompeta de Horwitz.

La ecuación de Horwitz, está definida como:

𝐶𝑉𝑛 = 2(1−0.5 log 𝐶) Ó 𝜎𝐻 ? 0.02 × 𝑐 0.7495


Dónde:
𝐶𝑉ℎ = Coeficiente de variación de Horwitz
𝜎𝐻 = Desviación estándar calculada conforme al modelo de precisión de Horwitz.
𝐶= concentración del analito expresado en potencia de 10
Este coeficiente de variación (𝐶𝑉ℎ ) esta expresado en potencia de 2, y la concentración
media del analito expresado como potencia de 10, de esta forma independiente del
analito y el método utilizado se puede estimar el CV esperado para la precisión.

MÉTODO DE LA PRUEBA F
Prueba en la que el estadístico utilizado sigue una distribución F si la hipótesis nula no
puede ser rechazada. En estadística aplicada se prueban muchas hipótesis mediante el
test F, entre ellas: La hipótesis nula=Ho de que las medias de múltiples poblaciones
normalmente distribuidas y con la misma desviación estándar son iguales. Esta es, quizás,
la más conocida de las hipótesis verificadas mediante el test F y el problema más simple
del análisis de varianza. Y la hipótesis de que las desviaciones estándar de dos poblaciones
normalmente distribuidas son iguales.

MÉTODO CHI – CUADRADO


Este método puede utilizarse incluso con datos medibles en una escala nominal. La
hipótesis nula de la prueba Chi-cuadrado postula una distribución de probabilidad
totalmente especificada como el modelo matemático de la población que ha generado la
muestra.
Para realizar este contraste se disponen los datos en una tabla de frecuencias. Para cada
valor o intervalo de valores se indica la frecuencia absoluta observada o empírica (Oi). A
continuación, y suponiendo que la hipótesis nula es cierta, se calculan para cada valor o
intervalo de valores la frecuencia absoluta que cabría esperar o frecuencia esperada
(Ei=n·pi , donde n es el tamaño de la muestra y pi la probabilidad del i-ésimo valor o
intervalo de valores según la hipótesis nula). El estadístico de prueba se basa en las
diferencias entre la Oi y Ei y se define como:

𝑘
2
(𝑂𝑖 − 𝐸𝑖 )2
𝑥 =∑
𝐸𝑖
𝑖=1
Este estadístico tiene una distribución Chi-cuadrado con k-1 grados de libertad si n es
suficientemente grande, es decir, si todas las frecuencias esperadas son mayores que 5.
En la práctica se tolera un máximo del 20% de frecuencias inferiores a 5.
Si existe concordancia perfecta entre las frecuencias observadas y las esperadas el
estadístico tomará un valor igual a 0; por el contrario, si existe unas grandes discrepancias
entre estas frecuencias el estadístico tomará un valor grande y, en consecuencia, se
rechazará la hipótesis nula. Así pues, la región crítica estará situada en el extremo
superior de la distribución Chi-cuadrado con k-1 grados de libertad.

PRUEBA DE MC – NEMAR
La prueba de McNemar se utiliza para decidir si puede o no aceptarse que determinado
''tratamiento'' induce un cambio en la respuesta dicotómica o dicotomizada de los elementos
sometidos al mismo, y es aplicable a los diseños del tipo ''antes-después'' en los que cada
elemento actúa como su propio control.

Los resultados correspondientes a una muestra de n elementos se disponen en una tabla de


frecuencias 2 x 2 para recoger el conjunto de las respuestas de los mismos elementos antes y
después. El aspecto general de dicha tabla, en la que los signos + y - se utilizan para representar
las diferentes respuestas, es el siguiente:

Antes/Después - +
- a b
+ c d

En las celdas de la tabla, a es el número de elementos cuya respuesta es la misma, -; b es el


número de elementos cuya respuesta es - antes del ''tratamiento'' y + después de éste; c es el
número de elementos que han cambiado de + a -; y des el número de elementos que mantienen
la respuesta +.

Por tanto, b+c es el número total de elementos cuyas respuestas han cambiado, y son los únicos
que intervienen en el contraste. La hipótesis nula es que el ''tratamiento'' no induce cambios
significativos en las respuestas, es decir, los cambios observados en la muestra se deben al azar,
de forma que es igualmente probable un cambio de + a - que un cambio de - a +. Así pues, si H0 es
cierta, de los b+c elementos cuya respuesta ha cambiado es de esperar que (b+c)/2 hayan pasado
de + a -, y (b+c)/2 hayan pasado de - a +. En otras palabras, si H0 es cierta, la frecuencia esperada
en las correspondientes celdas es (a+b)/2.
La hipótesis alternativa puede ser no direccional, cuando postula que la probabilidad de un
cambio de + a - tiene distinta probabilidad que un cambio de - a +, o direccional, cuando predice
que un cambio de - a + es más (o menos) probable que un cambio de + a -.

El estadístico de prueba que permite contrastar si existen diferencias significativas entre las
frecuencias esperadas y las observadas es:
𝑘
2
(𝑂𝑖 − 𝐸𝑖 )2
𝑥 =∑
𝐸𝑖
𝑖=1
Oi= frecuencia observada en la i-ésima celda
Ei = frecuencia esperada en la i-ésima celda si H0 es cierta
k = número de celdas
Para contrastar la significación de los cambios interesan sólo las celdas que recogen
cambios, por tanto el estadístico puede expresarse como
𝑏+𝑐 2 𝑏+𝑐 2
[𝑏 − 2 ] [𝑐 − 2 ] (𝑏 − 𝑐)2
𝑥2 = + =
𝑏+𝑐 𝑏+𝑐 𝑏+𝑐
2 2

Si H0 es cierta, el estadístico tiene distribución aproximadamente chi-cuadrado con 1


grado de libertad. La aproximación es más precisa si se realiza la corrección de
continuidad de Yates, quedando el estadístico:
(|𝑏 − 𝑐| − 1)2
𝑥2 =
𝑏+𝑐

La hipótesis nula, de que ambos tipos de cambio son igualmente probables, se rechaza si el valor
del estadístico se encuentra en la región crítica.

Cuando la frecuencia esperada (b+c)/2 es pequeña la aproximación de la distribución del


estadístico de prueba a la chi-cuadrado no es buena y, en tal caso, el SPSS no calcula el estadístico
anterior, sino que realiza la prueba binomial. El contraste se plantea en este caso de la siguiente
forma: supongamos que c<b; en este caso la hipótesis nula es que c es un valor de una variable X
con distribución binomial de parámetros 𝑛 = 𝑏 + 𝑐 y 𝜋 = 0,5. El nivel de significación para una
prueba de dos colas es 𝑃(𝑋 ≤ 𝑐) + 𝑃(𝑋 ≥ 𝑏) y se rechazará H0 para niveles de significación
iguales o superiores a éste. Si la hipótesis alternativa es direccional el nivel de significación a partir
del cual se rechazará H0 es la mitad del nivel de significación bilateral.

ANALISIS DE VARIANZA (ANOVA)


El análisis de la varianza (o Anova: Analysis of variance) es un método para comparar dos o más
medias, que es necesario porque cuando se quiere comparar más de dos medias es incorrecto
utilizar repetidamente el contraste basado en la t de Student. por dos motivos:

En primer lugar, y como se realizarían simultánea e independientemente varios contrastes de


hipótesis, la probabilidad de encontrar alguno significativo por azar aumentaría. En cada contraste
se rechaza la H0 si la t supera el nivel crítico, para lo que, en la hipótesis nula, hay una
probabilidad a. Si se realizan m contrastes independientes, la probabilidad de que, en la hipótesis
nula, ningún estadístico supere el valor crítico es (1 - a)m, por lo tanto, la probabilidad de que
alguno lo supere es 1 - (1 - a)m, que para valores de a próximos a 0 es aproximadamente igual
a a m. Una primera solución, denominada método de Bonferroni, consiste en bajar el valor de a,
usando en su lugar a/m, aunque resulta un método muy conservador.
Por otro lado, en cada comparación la hipótesis nula es que las dos muestras provienen de la
misma población, por lo tanto, cuando se hayan realizado todas las comparaciones, la hipótesis
nula es que todas las muestras provienen de la misma población y, sin embargo, para cada
comparación, la estimación de la varianza necesaria para el contraste es distinta, pues se ha
hecho en base a muestras distintas.

El método que resuelve ambos problemas es el anova, aunque es algo más que esto: es un
método que permite comparar varias medias en diversas situaciones; muy ligado, por tanto, al
diseño de experimentos y, de alguna manera, es la base del análisis multivariante.

6. VALIDACIÓN DE MÉTODOS DE ENSAYES ANALÍTICOS


VALIDACIÓN (ISO/IEC 17025): Es un proceso mediante el cual se define requisitos analíticos, que
aseguren que el método de ensayo bajo ciertas consideraciones ha desarrollado capacidades
consistentes con la aplicación requerida (Eurachem).

Un método de ensayo se valida cuando es necesario verificar que los parámetros ejecutados son
los adecuados para resolver un problema analítico en particular.
El laboratorio puede validar:
Los métodos de ensayo no normalizados.
Los métodos de ensayo normalizados, modificados, ampliados o aplicados a un alcance diferente
al originalmente establecido en la norma.
Cuando se requiera demostrar la equivalencia entre dos métodos de ensayo.

PARÁMETROS DE VALIDACIÓN:
Consistencia (estadística de Mandel h,k)
Validez (prueba de Cochran y grubbs)
Normalidad (prueba de Anderson-Darling Normality test)
Homogeneidad
Precisión (repetibilidad y reproducibilidad) (ISO 5725-1)
Exactitud (sesgo) (ISO 5725-1)
Veracidad (ISO 5725-1)
Selectividad/especificidad (Eurachem)
Rango de trabajo (para métodos instrumentales)
Sensibilidad (para métodos instrumentales)
Linealidad (coeficiente de sensibilidad), (para métodos instrumentales) (Eurachem)
Robustez (variación interna)
Incertidumbre (falta de exactitud)
Límite de detección LDM, límite de cuantificación LCM (Eurachem)

VERACIDAD, PRECISIÓN Y EXACTITUD DE LOS RESULTADOS DE ANÁLISIS


VERACIDAD.- Se refiere al grado de concordancia entre la media aritmética de un gran número de
resultados del ensayo y el valor de referencia

EXACTITUD
Indica la desviación de la concentración medida respecto a la concentración verdadera. Es la
mayor aproximación al valor verdadero o más probable de la propiedad medida, está relacionada
íntimamente con el error sistemático

PRECISIÓN
Indica la dispersión de los valores de las mediciones entre si. Cuando hay concordancia de los
valores de las diferentes mediciones. Cuanto menor es el error estadístico, mayor será la
precisión.

GRADO DE CONFIABILIDAD
Generalmente aunque no siempre una gran exactitud implica una gran precisión; la teoría de
errores da específicamente una medida de la precisión, no de la exactitud, pero como se busca es
la exactitud al efectuar mediciones se tendrá mucho cuidado de eliminar los errores sistemáticos
y entonces se obtendrá un grado de confiabilidad o de confianza que nos dé un índice de lo
cercana que está nuestra medida al valor verdadero, a la medida que obtengamos de esta forma
la llamamos “valor más probable “

REPRESENTACIÓN GRÁFICA DE EXACTITUD Y PRECISIÓN

BAJA EXACTITUD BAJA EXACTITUD


BAJA PRECISIÓN ALTA PRECISIÓN

ALTA EXACTITUD ALTA EXACTITUD


BAJA PRECISIÓN ALTA PRECISIÓN

REPETITIVIDAD
Es la más pequeña precisión esperada. Da una idea del tipo de variabilidad que se puede esperar
cuando el método es desarrollado por un mismo analista en un mismo equipo a lo largo de un
periodo de tiempo corto(análisis por duplicado) Ej., la variabilidad esperada entre los resultados
cuando la muestra es analizada por Duplicado

Es la precisión bajo las condiciones de repetibilidad, es decir, condiciones donde los resultados de
análisis independientes se obtienen con el mismo método en items de análisis idénticos en el
mismo laboratorio por el mismo operador utilizando el mismo equipamiento dentro de intervalos
cortos de tiempo.

Se puede determinar registrando a lo menos 6 mediciones bajo las mismas condiciones (mismo
operador, mismo aparato, mismo laboratorio y en corto intervalo de tiempo) de un analito en un
Material de Referencia. Calcular la Desviación Estándar (Sr) y el porcentaje de coeficiente de
variación (CVr%).
REPRODUCIBILIDAD
Es la precisión bajo las condiciones de reproducibilidad, es decir, condiciones donde los resultados
de los análisis se obtienen con el mismo método en item idénticos de análisis en condiciones
diferentes ya sea de laboratorio, diferentes operadores, usando distintos equipos, entre otros.
Para determinar la precisión de la reproducibilidad intralaboratorio (Ri) (es decir, la precisión
dentro de un laboratorio), se sugiere realizar 3 mediciones de un Material de Referencia (MRC o
material control) una vez por cada semana o el comportamiento de la curva de calibración en 3
días distintos.

También, se puede determinar registrando a lo menos 10 mediciones en días distintos, o en un


mismo día cambiando a lo menos una condición analítica (ejemplo: operador, aparato, reactivos y
largo intervalo de tiempo) de un analito en un Material de Referencia. Calcular la desviación
estándar (SRi) y el porcentaje de coeficiente de variación (CVRi%).

Cuando se desea determinar la reproducibilidad interlaboratorios para fines de validación de un


método, deben participar diferentes laboratorios, se debe tener en consideración que estos
utilicen el mismo método y misma muestra, en un intervalo de tiempo preferentemente
establecido, se determina de este modo la desviación estándar de los resultados obtenidos por
los diferentes laboratorios (SR).

La precisión más grande esperada. Una muestra analizada por varios laboratorios. Formalmente,
excluye la variación respecto del tiempo.

SELECTIVIDAD / ESPECIFICIDAD
En todo método analítico hay un paso fundamental en el que se produce la medida de una señal
relacionada con la concentración (análisis cuantitativo) o la presencia (análisis cualitativo) de un
determinado analito. A veces, la presencia de otros compuestos, química o físicamente similares
al analito, pueden contribuir a dicha señal, pudiendo causar un error sistemático en la
determinación del analito. Estos compuestos pasan a denominarse interferencias. Es por tanto
necesario asegurarse de donde procede la señal que se está midiendo. De aquí surge en concepto
de selectividad, entendiéndose esta como el parámetro que define de forma cualitativa la
extensión en que otras sustancias interfieren en la determinación de un analito usando un
método determinado. Al máximo de selectividad se le denomina especificidad, es decir, un
método será específico cuando la señal medida solo proviene del analito de interés. Un estudio de
selectividad implica investigar la capacidad del método para medir al analito en presencia de
interferencias añadidas a la muestra , no siendo esto objeto del presente texto. Hasta ahora, solo
hemos considerado las interferencias que pueden producir un error sistemático constante, es
decir, sustancias que contribuyen a la señal medida con un valor determinado. Pero existen otro
tipo de interferencias, relacionadas con efectos inespecíficos, que pueden producir errores
proporcionales. Estas son las designadas como efecto matriz y, aunque no existe ninguna
aplicación en Excel específica para cuantificar este efecto, hablaremos de el más adelante.

SELECTIVIDAD
La exactitud da cuenta de la proximidad entre el resultado obtenido por un método y el valor
“real”. Como se trata de un parámetro cualitativo (un método será muy o poco exacto) para
describir el error asociado a un resultado, hace falta un parámetro que permita medir la exactitud
cuantitativamente. Este parámetro es el error que, según la guía para validación de métodos de la
EURACHEM [1], se divide en dos componentes, la veracidad y la precisión. La veracidad es un
parámetro que expresa la proximidad de la media de una serie de resultados obtenidos con el
método al valor real. Generalmente se expresa en términos de error o bias, definido como la
diferencia entre el resultado de medida y el valor real [2]. La precisión da cuenta de la proximidad
entre sí de esta serie de resultados. Si expresamos la exactitud en función del error Ei, para una
determinada medida i:
𝐸𝑖 = 𝑥𝑖 − 𝜇 = (𝑥𝑖 − 𝑥̅ ) + (𝑥̅ − 𝜇)
En el caso de tener un replicado consistente en n medidas, el error cuadrático se
calcularía como:
𝑖=𝑛 𝑖=𝑛
2
∑ 𝐸𝑖 = ∑(𝑥𝑖 − 𝑥̅ )2 + 𝑛(𝑥̅ − 𝜇)2
𝑖=1 𝑖=1
Si dividimos por n, obtenemos el error cuadrático medio:
𝑖=𝑛 2
∑ (𝑥𝑖 − 𝑥̅ )
〈𝐸 2 〉 = 𝑖=1 + (𝑥̅ − 𝜇)2
𝑛
Si n es suficientemente grande, el primer término tiende a la varianza de la medida
(dividiendo entre n-1 en vez de n) y podría expresarse:
〈𝐸 2 〉 = 𝑠 2 + (𝑥̅ − 𝜇)2
Con lo cual vemos como el error cuadrático medio correspondiente a la exactitud se
equipara a la suma de la varianza de repetición pura (error aleatorio) más el cuadrado de
la veracidad (error sistemático).
La exactitud es máxima cuando el sesgo es nulo y la dispersión aleatoria es mínima.

ESPECIFIDAD
Como se ha dicho anteriormente, la veracidad da cuenta de lo cercano del resultado medio
obtenido con el método y el valor real. Para asegurar la veracidad es necesario compara el valor
medio medido con un valor de referencia (que será el valor real o el considerado como tal). Esto
se realiza, generalmente comparando los resultados obtenidos por el método con el valor de un
material de referencia certificado o comparando con un método ya validado (que suele haber sido
sometido a un ejercicio de intercomparación). En caso de no existir materiales de referencia o no
tener posibilidad de aplicar el método de referencia, se puede simular la matriz de la muestra
añadiendo al analito en una cantidad conocida y efectuar un ensayo de recuperación.
Como última instancia, se pueden realizar dichos ensayos de recuperación añadiendo al analito
sobre la propia muestra.

Como se explicará más adelante, para compara dos valores será necesario conocer la precisión
con la que este ha sido obtenido, por ello la exactitud se evalúa a partir de la veracidad en
conjunto con la precisión.

LIMITE DE DETECCIÓN Y CUANTIFICACIÓN


Límite de cuantificación: cantidad más pequeña del analito en una muestra que puede ser
cuantitativamente determinada con exactitud aceptable. Es un parámetro del análisis cuantitativo
para niveles bajos de compuestos en matrices de muestra y se usa particularmente para
impurezas y productos de degradación. Se expresa como concentración del analito.

Límite de detección: cantidad más pequeña de analito en una muestra que puede ser detectada
por una única medición, con un nivel de confianza determinado, pero no necesariamente
cuantificada con un valor exacto. Es comúnmente expresado como concentración del analito.

LIMITE DE DETECCIÓN DEL MÉTODO (LDM)


Es la concentración obtenida de una muestra procesada con el método completo y la cual
produce una señal con el 99% de probabilidad de ser diferente al blanco. Esto se verifica
realizando 7 réplicas, las cuales deben tener una media por arriba de 3.14s, donde “s” es la
desviación estándar de las 7 réplicas

LIMITE DE CUANTIFICACIÓN DEL MÉTODO (LCM)


Corresponde a la concentración mínima de un analito que puede ser cuantificada en una matriz
real, la cual es tratada siguiendo todas las etapas del método empleado, incluyendo separaciones
y pre tratamientos. Esta mínima concentración produce una señal cuantificable con un nivel de
confianza definido

LINEALIDAD
La linealidad es la capacidad de un método de análisis, dentro de un determinado intervalo, de
dar una respuesta o resultados instrumentales que sean proporcionales a la cantidad del analito
que se habrá de determinar en la muestra de laboratorio.
Con el fin de determinar el rango lineal se puede realizar mediante un gráfico de concentración
versus respuesta, que se conoce como Función Respuesta (normalmente llamada recta de
calibrado). Ésta se establece cada día con una cierta cantidad de valores formados por un blanco y
los patrones de trabajos limpios de valor teórico conocido, que cubran el intervalo de trabajo. En
este sentido se recomienda abarcar valores desde cercano al cero y valores superiores al LMP o al
valor de interés. El número de puntos a analizar deberá ser establecido por el analista (en general,
se utiliza un mínimo de 4 valores).
Luego de realizar el grafico se puede observar el comportamiento de la curva y establecer
cualitativamente el rango lineal (fig. a). Después de establecer el comportamiento lineal del
método se deberá realizar la Curva de trabajo o curva de calibración (fig. b). Graficar los datos de
concentración de los estándares de calibración estimados (X) v/s la lectura observada (Y).

Fig. a Fig. b

Evaluar los estimadores de regresión lineal del gráfico: la pendiente (m), el coeficiente de
correlación (r ó ϒ) y el punto de corte (intercepto) con el eje de las Y (L0).
𝑌 = 𝑋 ∙ 𝑚 + 𝐿𝑜
En general el criterio de aceptación cualitativo que se usa para determinar la linealidad es el
coeficiente de correlación:
El coeficiente de correlación indica el grado de relación entre la variable concentración (X) y la
variable respuesta (Y) de la curva de calibración. Los valores máximos que puede alcanzar son –1 y
1. El valor máximo de 1 indica una correlación positiva perfecta (entre X e Y) con una pendiente
positiva. Cuando r=0, no existe correlación alguna, independencia total de los valores X e Y.
SENSIBILIDAD
Según la IUPAC la sensibilidad se define como el cociente entre la señal medida y la concentración
de analito. Cuando trabajamos con curvas de calibrado, la sensibilidad es la pendiente de la curva
a una concentración dada. En caso de ser una recta, coincide con la pendiente de la misma.
ROBUSTEZ
La robustez es una medida de la capacidad de un procedimiento analítico de no ser afectado por
variaciones pequeñas pero deliberadas de los parámetros del método; proporciona una indicación
de la fiabilidad del procedimiento en un uso normal. En este sentido el objetivo de la prueba de
robustez es optimizar el método analítico desarrollado o implementado por el laboratorio, y
describir bajo que condiciones analíticas ( incluidas sus tolerancias), se pueden obtener a través
de este resultados confiables.
Un método de ensayo es más robusto entre menos se vean afectados sus resultados frente a una
modificación de las condiciones analíticas.
Entre las condiciones analíticas que podrían afectar a un método se encuentran:
• Analistas
• Equipos
• Reactivos
• pH
• Temperatura.
• Tiempo de reacción.
• Estabilidad de la muestra.
• Otros.
Para esta determinación se aplica el Test de Youden y Steiner para la evaluación de la robustez de
un método químico analítico. Este procedimiento permite evaluar el efecto de siete variables con
sólo ocho análisis de una muestra.
Para proceder a realizar el estudio de robustez se deben identificar aquellos factores del método
que posiblemente afectarían los resultados finales obtenidos a través de este.
Estas factores están presentes habitualmente en el método (ejemplo: temperatura, composición
de fase móvil o soluciones reactivas, pH de solución, tamaño de celda espectrofotométrica, flujo
gas carrier, split, etc.). Para estudiar la robustez se procede a exponer a cada factor a un estudio
de variable, es decir se expone a una variación respecto de la establecida en el método, es decir,
cada variable se estudia mediante un valor alto (A, B,...,G) y otro bajo (a,b,...,g)

INCERTIDUMBRE
La incertidumbre de una medición es el parámetro asociado al resultado, es decir, caracteriza la
dispersión de los valores que razonablemente pueden ser atribuidos al mesurando.
En este sentido, es importante que para un método validado o verificado por el laboratorio, se
realice la determinación de las diferentes fuentes o componentes de la incertidumbre de la
medición presentes:

1) Muestreo
2) Efectos de la muestra: tipo de matriz, almacenamiento, etc.
3) Sesgos Instrumentales: Las debidas a las características de los equipos utilizados para
realizar las medidas tales como: deriva, resolución, magnitudes de influencia.
Ejemplo: temperatura
4) Pureza de Reactivos: materiales de referencia, preparación de estándares.
5) Analista: Las debidas a la serie de mediciones: variaciones en observaciones
repetidas bajo condiciones aparentemente iguales. Ejemplo: paralelaje
6) Condiciones de medición: Las debidas al certificado de calibración: en él se
establecen las correcciones y las incertidumbres asociadas a ellas, para un valor de k
determinado, en las condiciones de calibración. Ejemplo: material volumétrico, etc.
7) Condiciones de medición: temperatura, humedad, etc.
8) Otras: Método (por ejemplo al interpolar en una recta), tablas (por ejemplo las
constantes), pesada, alícuota, efectos computacionales, etc.
PARTE EXPERIMENTAL

APLICACIÓN DE CASOS PRÁCTICOS


RESULTADOS DE ANÁLISIS
LABORATORIO: Química Analítica Cuantitativa de la Facultad de Ingeniería Química.
MUESTRA: (MCR) Porcentaje de grasa en maní
FECHA: septiembre del 2015

Tabla N° 2-1: Resultados Obtenidos de las Cuatro Etapas


Repeticiones Etapa I Etapa II Etapa III Etapa IV
1 54.41 54.48 54.47 54.67
2 54.28 54.55 54.41 54.54
3 54.35 54.22 54.47 54.41
4 54.02 54.48 54.08 54.47
5 54.28 54.09 54.28 54.08
6 54.15 54.61 54.21 54.28
7 54.48 54.28 54.95 54.21
8 54.54 54.15 54.08 54.67
9 54.22 54.35 54.01 54.08
10 54.48 54.41 54.34 54.02
11 54.08 54.22 54.14 54.34
12 54.61 54.09 54.41 54.15
13 54.28 54.02 54.28 54.47
14 54.15 54.35 54.47 54.28
15 54.35 54.15 54.54 54.41
16 54.41 54.41 54.21 54.34
17 54.22 54.28 54.47 54.41
18 54.15 54.41 54.08 54.21
19 54.35 54.35 54.60 54.61
20 54.22 54.41 54.28 54.54
21 54.48 54.02 54.14 54.47
22 54.61 54.35 54.34 53.95
23 54.35 54.15 54.47 54.08
24 54.22 54.41 54.21 54.21
25 54.08 54.28 54.14 54.61
26 54.54 54.48 54.47 54.15
27 54.28 54.55 54.54 54.47
28 54.61 54.22 54.60 54.08
29 54.68 54.35 54.34 54.41
30 54.35 54.61 54.28 54.15
Fuente: Facultad de Ingeniería Química de la U.N.C.P
Tabla N° 2-2: Resultados estadísticos de las Cuatro Etapas
Indicadores Etapa I Etapa II Etapa III Etapa IV
Estadísticos
Media 54.33 54.32 54.31 54.33
Mediana 54.31 54.35 54.31 54.34
Moda 54.28 54.35 54.47 54.41
Desviación 0.1642 0.1663 0.1805 0.2048
estándar
Varianza de la 0.0270 0.0276 0.0326 0.0420
muestra
Rango 0.5030 0.4330 0.5060 0.4700
Mínimo 54.02 54.02 53.95 53.95
Máximo 54.61 54.61 54.60 54.67
Suma 1629.80 1629.74 1629.30 1629.79
Cuenta (N) 30 30 30 30
Mayor (1) 54.61 54.61 54.60 54.67
Menor (1) 54.02 54.02 53.95 53.95
Nivel de
confianza (95%) 0.0587 0.0595 0.0646 0.0733
Fuente: Facultad de Ingeniería Química de la U.N.C.P

Gráfico N° II-1 Ajuste de Puntos por Regresión Lineal Etapa I

Fuente: Facultad de Ingeniería Química de la U.N.C.P


Gráfico N° II-2 Ajuste de Puntos por Regresión Lineal Etapa I

Fuente: Facultad de Ingeniería Química de la U.N.C.P

Gráfico N° II-3 Ajuste de Puntos por Regresión Lineal Etapa II

Fuente: Facultad de Ingeniería Química de la U.N.C.P


Gráfico N° II-4 Ajuste de Puntos por Regresión Lineal Etapa II

Fuente: Facultad de Ingeniería Química de la U.N.C.P

Gráfico N° II-5 Ajuste de Puntos por Regresión Lineal Etapa III

Fuente: Facultad de Ingeniería Química de la U.N.C.P


Gráfico N° II-6 Ajuste de Puntos por Regresión Lineal Etapa III

Fuente: Facultad de Ingeniería Química de la U.N.C.P

Gráfico N° II-7 Ajuste de Puntos por Regresión Lineal Etapa IV

Fuente: Facultad de Ingeniería Química de la U.N.C.P


Gráfico N° II-8 Ajuste de Puntos por Regresión Lineal Etapa IV

Fuente: Facultad de Ingeniería Química de la U.N.C.P

PRUEBA DE VALIDEZ: DETERMINACIÓN DE CONSISTENCIA Y VALORES REZAGADOS, ERRÁTICOS


O ATÍPICOS

Se ha calculado la estadística de la consistencia entre las pruebas realizadas, para cada etapa.
Aplicando el estadístico de la prueba de Mandel (h). De los datos de la tabla N° 2-2. Promedio
estadístico de las 4 Etapas.

Tabla N° 4-3 promedio estadístico de las cuatro etapas


Etapas Promedio Muestral Desviación estándar
I 54.33 0.1642
II 54.32 0.1663
III 54.31 0.1805
IV 54.33 0.2048
Fuente: Facultad de Ingeniería Química de la U.N.C.P

Calculo de la estadística de la consistencia entre analistas, para cada etapa. Aplicándola fórmula
para calcular la media general aritmética y la desviación estándar.

54.33 ∗ 30 + 54.32 ∗ 30 + 54.32 ∗ 30 + 54.33 ∗ 30


𝑚
̅ = ̿̿̿
𝑦1 = = 54.322
30 + 30 + 30 + 30

4
1 1
√ ∑(𝑦
̅̅̅̅ 𝑦1 2 = √
𝑖1 − ̿̿̿) [(54.33 − 53.322)2 + ⋯ (54.33 − 53.322)2 ] = 0.008
(𝑝1−1 ) 4−1
𝑖=1

En la tablas N°4-4 y 4-5, observamos que los valores críticos para el estadístico de Mandel, h son:
1% = 1,49 y 5% = 1.42
(54.33 − 54.322)
ℎ11 = = 0.5883
0.0080
ℎ21 = 0.3524;
ℎ31 = −1.4919
ℎ41 = 0.5513

Estadística de la consistencia dentro del laboratorio para cada etapa de Mandel, h.

Gráfico N° II-9 Estadística de Mandel (h)

Fuente: Facultad de Ingeniería Química de la U.N.C.P

Calculo de la estadística dentro del laboratorio, Mandel (k)


4
2 2 2 2 2
∑ 𝑆𝑖1 = 𝑆11 + 𝑆21 + 𝑆31 +𝑆41 = 0.12913
𝑖=1

∑ 𝑆2 0.1293
√ 𝑖1 = √ = 0.1797
𝑝1 4

En las tablas N° 4-4 y 4-5, observamos que los valores críticos para el estadístico de Mandel, k con
6 repeticiones serán:
1% = 1,55 y 5% = 1.40
0.1642
𝑘11 = = 0.9137
0.1797
𝑘21 = 0.9253;
𝑘31 = 1.0045
𝑘41 = 1.1401

Estadística de la consistencia dentro del laboratorio para cada etapa de Mandel, k.


Gráfico N° II-10 Estadística de Mandel (h)

Fuente: Facultad de Ingeniería Química de la U.N.C.P

Tabla N°4-4: Indicadores para las Estadísticas de h y k de Mandel en el Nivel de Significación de


1%
P H K
N
2 3 4 5 6 7 8 9 10
3 1,15 1,71 1,64 1,58 1,53 1,49 1,46 1,43 1,41 1,39
4 1,49 1,91 1,77 1,67 1,60 1,55 1,51 1,48 1,45 1,43
5 1,72 2,05 1,85 1,73 1,65 1,59 1,55 1,51 1,48 1,46
6 1,87 2,14 1,90 1,77 1,68 1,62 1,57 1,53 1,50 1,47
7 1,97 2,20 1,94 1,79 1,70 1,63 1,58 1,54 1,51 1,48
8 2,06 2,25 1,97 1,81 1,71 1,65 1,59 1,55 1,52 1,49
9 2,13 2,29 1,99 1,82 1,73 1,66 1,60 1,56 1,53 1,50
10 2,18 2,32 2,00 1,84 1,74 1,66 1,61 1,57 1,53 1,50
11 2,22 2,30 2,01 1,85 1,74 1,67 1,62 1,57 1,54 1,51
12 2,25 2,36 2,02 1,85 1,75 1,68 1,62 1,58 1,54 1,51
13 2,27 2,38 2,03 1,86 1,76 1,68 1,63 1,58 1,55 1,52
14 2,30 2,39 2,04 1,87 1,76 1,69 1,63 1,58 1,55 1,52
15 2,32 2,41 2,05 1,87 1,76 1,69 1,63 1,59 1,55 1,52
P = Número de etapas en un determinado nivel
n = Número de duplicados dentro de cada etapa en ese nivel
Fuente: Facultad de Ingeniería Química de la U.N.C.P
Tabla N°4-5: Indicadores para las Estadísticas de h y k de Mandel en el Nivel de Significación de
5%
P H K
N
2 3 4 5 6 7 8 9 10
3 1,15 1,65 1,53 1,45 1,40 1,37 1,34 1,32 1,30 1,29
4 1,42 1,76 1,59 1,50 1,44 1,40 1,37 1,35 1,33 1,31
5 1,72 1,81 1,62 1,53 1,46 1,42 1,39 1,36 1,34 1,32
6 1,87 1,85 1,64 1,54 1,48 1,43 1,40 1,37 1,35 1,33
7 1,97 1,87 1,66 1,55 1,49 1,44 1,41 1,38 1,36 1,34
8 2,06 1,88 1,67 1,56 1,50 1,45 1,41 1,38 1,36 1,34
9 2,13 1,90 1,68 1,57 1,50 1,45 1,42 1,39 1,36 1,35
10 2,18 1,90 1,68 1,57 1,50 1,46 1,42 1,39 1,37 1,35
11 2,22 1,91 1,69 1,58 1,51 1,46 1,42 1,39 1,37 1,35
12 2,25 1,92 1,69 1,58 1,51 1,46 1,42 1,40 1,37 1,35
13 2,27 1,92 1,69 1,58 1,51 1,46 1,43 1,40 1,37 1,35
14 2,30 1,92 1,70 1,59 1,52 1,47 1,43 1,40 1,37 1,35
15 2,32 1,93 1,70 1,59 1,52 1,47 1,43 1,40 1,38 1,36
P = Número de etapas en un determinado nivel
n = Número de duplicados dentro de cada etapa en ese nivel
Fuente: Facultad de Ingeniería Química de la U.N.C.P

VALIDEZ DE LOS RESULTADOS – PRUEBA DE COCHRAN


Para la prueba de Cochran se toma la desviación más alta de todos los datos, también en la tabla
N°4-6 muestra, los valores críticos para la prueba de Cochran, que son:
1% = 0,676
5% = 0,590
2
𝑆𝑚𝑎𝑥 (0,2048)2
𝐶= 𝑃 = = 0,3249
∑𝑖=1 𝑆𝑖2 (0,16422 + 0,16632 + 0,18052 + 0,20482 )

Tabla N°4-6: Valores Críticos para la Prueba de Cochran


P n=2 n=3 n=4 n=5 n=6
1% 5% 1% 5% 1% 5% 1% 5% 1% 5%
2 - - 0,995 0,975 0,979 0,939 0,959 0,906 0,937 0,877
3 0,993 0,967 0,942 0,871 0,883 0,798 0,834 0,746 0,793 0,707
4 0,968 0,906 0,864 0,768 0,781 0,684 0,721 0,629 0,676 0,590
5 0,928 0,841 0,788 0,684 0,696 0,598 0,633 0,544 0,588 0,506
6 0,883 0,781 0,722 0,616 0,626 0,532 0,564 0,480 0,520 0,445
7 0,838 0,727 0,664 0,561 0,568 0,480 0,508 0,431 0,466 0,397
8 0,794 0,680 0,615 0,516 0,521 0,438 0,463 0,391 0,423 0,360
9 0,754 0,638 0,573 0,478 0,481 0,403 0,425 0,358 0,387 0,326
10 0,718 0,602 0,536 0,445 0,447 0,373 0,393 0,331 0, 0,303
11 0,684 0,570 0,504 0,417 0,418 0,348 0,366 0,308 357 0,281
12 0,653 0,541 0,475 0,392 0,392 0,326 0,343 0,288 0,332 0,262
13 0,624 0,515 0,450 0,371 0,369 0,307 0,322 0,271 0,310 0,243
14 0,699 0,492 0,427 0,352 0,349 0,291 0,304 0,255 0,291 0,232
15 0,575 0,407 0,407 0,335 0,332 0,276 0,288 0,242 0,274 0,220
0,259
Fuente Tomada de la American Statiscal Association
P = Número de etapas en un determinado nivel
n = Número de duplicados dentro de cada etapa en ese nivel
VALIDEZ DE LOS RESULTADOS – PRUEBA DE GRUBBS:
Para la prueba de Grubbs se tomo el promedio más alto y el más bajo, también, en la tabla N° 4-7
muestra, los valores críticos para la prueba de Grubbs que son 1% = 1,496 y 5% =1,481

54,33 + 54,32 + 54,32 + 54,33


𝑋̅ = = 54,322
4

4
1 1
√ ∑(𝑦
̅̅̅̅ 𝑦1 2 = √
𝑖1 − ̿̿̿) [(54.33 − 54.322)2 + ⋯ (54.33 − 54.322)2 ] = 0.00577
(𝑝1−1 ) 4−1
𝑖=1
(54,33 − 54,322)
𝐺4= = 0,9449 (Simple Alto)
0,00577
(54,322 − 54,32)
𝐺4= = 1,3228 (Simple Bajo)
0,00577

Tabla N° 4-7: Valores Críticos para la Prueba de Grubbs


p 1 más grande o 1 más 2 más grande o 2 más
pequeño pequeño
Superior 1% Superior 5% Inferior 1% Inferior 5%
3 1,155 1,155
4 1,496 1,481 0,0000 0,0002
5 1,764 1,715 0,0018 0,0090
6 1,973 1,887 0,0016 0,0349
7 2,139 2,020 0,0308 0,0708
8 2,274 2,126 0,0563 0,1101
9 2,387 2,215 0,0851 0,1492
10 2,482 2,290 0,1150 0,1864
11 2,564 2,355 0,1448 0,2213
12 2,636 2,412 0,1738 0,2537
13 2,699 2,462 0,2016 0,2836
14 2,755 2,507 0,2280 0,3112
15 2,806 2,549 0,2530 0,3367
16 2,852 2,585 0,2767 0,3603
17 2,894 2,620 0,2990 0,3822
18 2,932 2,651 0,3200 0,4025
19 2,968 2,681 0,3398 0,4214
20 3,001 2,709 0,3585 0,4391
P =Número de etapas de un determinado nivel
Fuente Tomada de la American Statiscal Association

PRUEBAS DE NORMALIDAD DE LOS DATOS

DISTRIBUCIÓN NORMAL
Si x es una variable aleatoria que tiene una distribución normal con media 𝜇 y una varianza 𝜎 2 ;
luego la variable aleatoria 𝑍 = (𝑥 − 𝜇)⁄𝜎 tiene una distribución normal con media 0 y varianza1,
y su función de densidad es:
𝑍2
1
𝑓(𝑧) = 2𝜋 𝑒 − 2 ,
Si −∞ < 𝑍 < ∞
Dónde:
𝜇𝑍 = 𝐸[𝑍] = 0 𝜎𝑍2 = 𝑉𝑎𝑟 [𝑧] = 1

Esta distribución es usada para determinar la probabilidad de ocurrencia de una variable que
tiene una distribución normal cualquiera. Para esto es necesario hacer una transformación del
intervalo de análisis mediante un proceso llamado estandarización.
Residuales:

Es la diferencia entre los valores observables 𝑦𝑖𝑗 menos la media 𝑦̅;


𝑖 donde:
𝑒𝑖𝑗 = 𝑦𝑖𝑗 − 𝑦̅𝑖

Los valores de los residuales se indican en la tabla A-1 (anexos)

CÁLCULO DE PRUEBA DE ANDERSON – DARLING (NORMALITY TEST)


Para el ploteo de los datos en esta prueba estadística se tomara en cuenta dos fases, la primera
compuesta por las etapas I – III y la segunda conformada por la etapa II – IV. Donde el
planteamiento de la hipótesis será:

Ho: La muestra aleatoria tiene una distribución normal, con media y varianza no especificada.

Ha: la función de distribución de los 𝑦𝑖 s no es normal.


La regla de decisión estará denotado: se rechazará la 𝐻0 a un nivel de significación aproximado
𝛼 = 0,05 (95%) si 𝑃𝑣𝑎𝑙𝑢𝑒 es inferior a 0,05.

Gráfico N° IV-11 Prueba de Anderson – Darling Etapa I-III

Fuente: Facultad de Ingeniería Química de la U.N.C.P


Gráfico N° IV-12 Prueba de Anderson – Darling Etapa II-IV

Fuente: Facultad de Ingeniería Química de la U.N.C.P

PLOTEO DE RESIDUALES
Para ver gráficamente si el conjunto de datos se ajusta o no a una distribución normal, se
compara el gráfico de los cuantiles de los datos versus los valores de 𝑃𝑣𝑎𝑙𝑢𝑒 contra el gráfico de
los cuantiles teóricos de la distribución normal con la media y varianza iguales a la media y
varianza muestral de los datos versus sus probabilidades acumulativas correspondientes. La
escala de 𝑃𝑣𝑎𝑙𝑢𝑒 estará determinada de modo que el gráfico de los cuantiles teóricos resulte una
línea recta.

Para determinar el ploteo de residuales se tomara en cuenta dos fases, la primera compuesta por
las Etapas I –III y la segunda conformada por las Etapas II – IV.

Gráfico N° IV-13 Prueba de Anderson – Darling Residuales I-III

Fuente: Facultad de Ingeniería Química de la U.N.C.P


Gráfico N° IV-14 Prueba de Anderson – Darling Residuales II-IV

Fuente: Facultad de Ingeniería Química de la U.N.C.P

Tabla N°4-8: Criterio de decisión para la verificación de Normalidad de datos


Prueba Nivel de 𝑷𝒗𝒂𝒍𝒖𝒆 Criterio de Decisión
significación (𝜶) decisión
Anderson- 𝑝 ≥ 0,05 Datos normales
Darling 𝑝 < 0,05 Datos no
(software 0,05 P normales
Minitab)
Fuente: Facultad de Ingeniería Química de la U.N.C.P

Se realizó las pruebas normales de verificación usando el estadístico de Anderson- Darling


Normality Test de Minitab para las fases, cuyos resultados son los siguientes:

Tabla N°4-9: Resultado del 𝑷𝒗𝒂𝒍𝒖𝒆 de las fases


Fase 𝑷𝒗𝒂𝒍𝒖𝒆 𝑷𝒗𝒂𝒍𝒖𝒆 (𝑹𝒆𝒔𝒊𝒅𝒖𝒂𝒍𝒆𝒔)
I –III 0,153 0,166
II-IV 0,126 0,135
Fuente: Facultad de Ingeniería Química de la U.N.C.P

En la tabla 4-9 se muestra los resultados obtenidos del 𝑃𝑣𝑎𝑙𝑢𝑒 de la prueba de Anderson- Darling
los cuales, son mayores a 0,05, comparando los valores con la tabla N°4-8 las fases cumplen con
una Distribución Normal.

DETERMINACIÓN DE VERACIDAD
Este parámetro se determina para obtener el grado de concordancia existente entre el valor
obtenido de los resultados de las cuatro etapas y un valor aceptado como referencia (MCR). Se
desarrolla según ISO 5725-1.

OBJETIVO:
Verificar la tendencia central (𝑋̅media aritmetica) con el valor de referencia (𝜇1 = 54,32% 𝑍𝑛)
Hipotesis:
Ho: 𝜇1 = 𝜇2
Ha: 𝜇1 ≠ 𝜇2
𝑋̅ ≅ 𝜇2

El ploteo del estadístico t – Student se representará en los siguientes gráficos donde el valor de
MRC (54,32 %) se contrasta frente con los datos de las fases y etapas.

Gráfico N° IV-15 Prueba de t-Student de la estapas

Fuente: Facultad de Ingeniería Química de la U.N.C.P


Gráfico N° IV-16 Prueba de t-Student de las fases

Fuente: Facultad de Ingeniería Química de la U.N.C.P

Para determinar la veracidad del método se realizó las pruebas de verificación usando el
estadístico de t – Student en el Minitab para las cuatro etapas y las dos fases, cuyos resultados
son los siguientes:
Tabla N°4-10: Resultado de 𝑷𝒗𝒂𝒍𝒖𝒆 de la prueba de t - Student
Etapas/Fases Valor de 𝑷𝒗𝒂𝒍𝒖𝒆 de la Prueba t - Student
I 0,800
II 0,888
III 0,772
IV 0,881
I-III 0,964
II-IV 0,835
Fuente: Facultad de Ingeniería Química de la U.N.C.P

En la tabla N°4-10 observamos los resultados de 𝑃𝑣𝑎𝑙𝑢𝑒 obtenidos de la prueba de t-Student para
la determinación de la veracidad, según el criterio de decisión de la tabal N 4-11, el valor de
𝑷𝒗𝒂𝒍𝒖𝒆 ≥ 0,05, entonces las repeticiones reportan resultados con diferencias no significativas.

Por lo tanto, los resultados obtenidos son veraces al 95% de confianza. Se confirma la hipótesis
alterna Ha: 𝜇1 ≠ 𝜇2 ; 𝜇1 = 54,32
Tabla N° 4-11: Criterio de Decisión para Verificar la Veracidad de la metodología
Tipo de resultados pruebas Criterio de decisión decisión
Resultados con t-Student (prueba de 𝑃𝑣𝑎𝑙𝑢𝑒 ≥ 0,05 Los laboratorios
distribución normal diferencias de reportan resultados
medias) (software con diferencias no
Minitab) significativas.
𝑃𝑣𝑎𝑙𝑢𝑒 < 0,05 Los laboratorios
reportan resultados
con diferencias
significativas.
Resultados sin Mann-Whitney 𝑃𝑣𝑎𝑙𝑢𝑒 ≥ 0,05 Los laboratorios
distribución normal (prueba de reportan resultados
diferencias de con diferencias no
medianas) (software significativas.
Minitab) 𝑃𝑣𝑎𝑙𝑢𝑒 < 0,05 Los laboratorios
reportan resultados
con diferencias
significativas.
Fuente: Facultad de Ingeniería Química de la U.N.C.P

PRUEBA DE HOMOGENEIDAD DE VARIANZAS


El modelo aditivo lineal, es útil cuando las unidades experimentales son esencialmente
homogéneas; es decir, cuando la variación entre ellas es pequeña. En este diseño los tratamientos
se asignan los tratamientos a las unidades experimentales en forma aleatoria.

TÉCNICA GRÁFICA DE HOMOGENEIDAD


̅̅̅̅
Ploteo de residuales (𝑒𝑦 ) versus datos ajustados (𝑦 𝑖 ). Donde la regla de decisión estará denotada
en el gráfico se observará que los datos ploteados siguen una uniformidad y si muestran una alta
dispersión, se puede aceptar que el conjunto de datos se ajusta a una homogeneidad.
Gráfico N° IV-17 Promedio Vs. Residual

Fuente: Facultad de Ingeniería Química de la U.N.C.P

En el gráfico N° IV-17 se observa que los datos plotedos siguen una uniformidad y no una alta
dispersión, por lo tanto se acepta que el conjunto de datos son homogéneos.

Al igual que la técnica grafica de homogeneidad otra prueba para determinar la homogeneidad,
es la prueba de Bartlett´s y Levene´s que es una prueba numérica que determina la
homogeneidad muestral de las repeticiones.

Gráfico N° IV-19 Prueba de Bartlett’s y Levene’s

Fuente: Facultad de Ingeniería Química de la U.N.C.P

En el grafico N° IV-18 se observa que los valores obtenidos 𝑃𝑣𝑎𝑙𝑢𝑒 en la prueba de Bartlett´s y
Levene´s son: 0,612 y 0,315 respectivamente, mayores a 0,05, que indican que se tiene una
igualdad de varianza poblacional, por lo tanto los datos son homogéneos.
DETERMINACIÓN DE PRECISIÓN
La medición de la precisión es expresad en términos de imprecisión o calculada como una
desviación estándar de los resultados de ensayo. Una mayor desviación estándar refleja una
menor precisión. Se desarrollara según ISO 5725-1
La desviación estándar de repetibilidad a calcular es:

𝑝 2
∑𝑖=1(𝑛𝑖𝑗 −1)𝑆𝑖𝑗
𝑆𝑟𝑗 = √ 𝑝
∑𝑖=1(𝑛𝑖𝑗 −1)

La desviación estándar entre laboratorios es:


2 2
𝑆𝑑𝑗 −𝑆𝑟𝑗
𝑆𝑖𝑗2 = ̅̅̅
𝑛𝑗

1 𝑝
Dónde: 𝑆𝑖𝑗2 = 𝑝−1 ∑𝑖=1(𝑦̅ − 𝑦̿)2

𝑝
1 𝑝 ∑𝑖=1 𝑛𝑖𝑗 2
𝑛̿𝑗 = 1−𝑝 [∑𝑖=1 𝑛𝑖𝑗 − 𝑝
∑𝑖=1 𝑛𝑖𝑗
]

La desviación estándar de reproducibilidad es:


𝑆𝑅 = √𝑆𝑟2 +𝑆𝐿2

Ratio de precisión:
𝑆.𝐷
𝑅𝑎𝑡𝑖𝑜 =
𝑆𝑟

DETERMINACIÓN DE PRECISIÓN POR REPETICIONES DE CADA ETAPA


Hallamos RSD experimental y de Horwitz, haciendo uso de las relaciones siguientes:
𝜎
𝑅𝑆𝐷 = 𝑋̅ 100%

Se determina también por la ecuación de William Horwitz

𝑅𝑆𝐷 = 21−0,5 log 𝐶

Existe diferencia significativa si:


𝑅𝑆𝐷𝑒𝑥𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑎𝑙 > 𝑅𝑆𝐷𝐻𝑜𝑟𝑤𝑖𝑡𝑧

Tabla N° 4-12: Resultados de precisión


Etapas Promedio Desv. RSD RSD
Estándar experimental Horwitz
I 54,33 0,16 0,302 1,096
II 54,32 0,17 0,306 1,096
III 54,31 0,18 0,332 1,096
IV 54,33 0,20 0,377 1,096
Fuente: Facultad de Ingeniería Química de la U.N.C.P

En la tabla N° 4-12, los resultados obtenidos de la prueba de RSD Horwitz de cada etapa nos
muestran, que son datos precisos.
REPETIBILIDAD Y REPRODUCIBILIDAD DE LOS RESULTADOS DE ENSAYOS DE CADA FASE
Para la determinación de repetibilidad y reproducibilidad se calculara la desviación estándar de
cada uno respectivamente.
Desviación estándar de Repetibilidad:

𝑝 𝑝
𝑆𝑟 = √∑𝑖=1(𝑛𝑖 − 1)𝑆𝑖2⁄∑𝑖=1(𝑛𝑖 − 1)
Dónde:

𝑆𝑟 = Es la desviación estándar de los resultados de ensaye obtenidos en condiciones de


repetitividad.

Desviación estándar de Reproducibilidad:


𝑆𝑅 = √𝑆𝑟2 +𝑆𝐿2
Dónde:

𝑆𝑟 = Es la desviación estándar de los resultados de ensaye obtenidos en condiciones de


reproducibilidad.

𝑆𝐿 = Es la desviación estándar de los laboratorios.


𝑆𝐿2 = (𝑆𝑑2 − 𝑆𝑟2 )⁄𝑛̅
1 𝑝 ̅̅̅2 ) − ∑𝑝 𝑛1 (𝑦̅ 2 )]
𝑆𝑑2 = 𝑝−1 [∑𝑖=1(𝑦 𝑖=1
Cálculo de la desviación:
𝑇1 = ∑ 𝑛𝑖 𝑌̅𝐼
2
𝑇2 = ∑ 𝑛𝐼 𝑌̅𝐼
𝑇3 = ∑ 𝑛𝐼
𝑇4 = ∑ 𝑛𝑖 2
𝑇5 = ∑(𝑛𝐼 − 1)𝑆𝐼2
𝑇5
𝑆𝑟2 = 𝑇 −𝑃
3
𝑇 𝑇 −𝑇 2 𝑇 (𝑝−1)
𝑆𝐿2 = [ 𝑇2 (𝑝−1)
3 1
− 𝑆𝑟2 ] [ 𝑇3 2 −𝑇 ]
3 3 4

Dónde:
𝑆𝑖2 = Desviación estándar de los resultados de ensaye obtenidos de cada analista.
𝑛𝑖 = Número de repeticiones.
𝑝 = Número de analistas
𝑦̅𝑖 = Promedio
Los datos referenciales se tomaran de las etapas I y III primera fase y la segunda de las etapas II y
IV con resultados del análisis de 60 repeticiones.

Tabla N°4-13: Resumen de los resultados para obtener repetibilidad y reproducibilidad


Etapas Promedio Desv. n 𝑿𝟐 𝑺𝟐 𝒏𝟐
I 54,32 0,172 60 2950,47 0,0297 3600
III 54,33 0,186 60 2951,26 0,0344 3600
Suma 108,644 0,3579 120 5902 0,0641278 7200
Promedio 54,322 0,1789
final
Fuente: Facultad de Ingeniería Química de la U.N.C.P
Entonces el cálculo de la desviación:
𝑇1 = ∑ 𝑛𝑖 𝑌̅𝐼 = 6519
2
𝑇2 = ∑ 𝑛𝐼 𝑌̅𝐼 = 354104
𝑇3 = ∑ 𝑛𝐼 = 120
𝑇4 = ∑ 𝑛𝑖 2 = 7200
𝑇5 = ∑(𝑛𝐼 − 1)𝑆𝐼2 = 3,784
𝑇
𝑆𝑟2 = 5 = 0,0321
𝑇3 −𝑃
𝑇 𝑇3 −𝑇1 2 𝑇 (𝑝−1)
𝑆𝐿2 = [ 𝑇2 (𝑝−1) − 𝑆𝑟2 ] [ 𝑇3 2 −𝑇 ] = 0,000026
3 3 4
𝑆𝑟 = 0,1791
𝑆𝑅 = 0,1791

Donde la desviación relativa de la reproducibilidad y repetibilidad están denotado por por las
desviaciones estándares respectiva entre el promedio por el 100%.
𝑆
𝑅𝑆𝐷𝑍 = ̅𝑍 ∗ 100%
𝑚
𝑅𝑆𝐷𝑅 = 0,3%
𝑅𝑆𝐷𝑟 = 0,3%

DETERMINACIÓN DE SELECTIVIDAD / ESPECIFICIDAD

PRUEBA DE ESPECIFIDAD
Se realiza muy frecuentemente en técnicas instrumentales como: espectrofotometría de UV o
Cromatografía liquida.

PRUEBA DE SELECTIVIDAD
Las interferencias pueden aumentar o reducir la señal. La prueba consiste en verificar que las
interferencias no afectan significativamente la señal.

PRUEBA DE CHI CUADRADO: Para la determinación de esta prueba se toma como referencia los
valores de la tabla N°IV-19, que es la cantidad de repeticiones que se reproducen en la
determinación del analito en las etapas. Para la prueba se utilizará el siguiente estadístico:

(𝑂𝑖 −𝐸𝑖 )2
𝑋 2 = ∑𝑘𝑖=1 𝐸𝑖
Gráfico N° IV-20 Resultado de valores Repetitivos

Fuente: Facultad de Ingeniería Química de la U.N.C.P

Siendo:
𝑋 2 = 7,042 (Chi − Sq)
Donde los valores de la tabla de la distribución Chi _ Cuadrado con 𝑣 = (ℎ − 1)(𝑘 − 1) = 3
(grados de libertad), al 95% de confianza es:
𝑋 2 (95) = 7,81
Siendo el método selectivo y no específico al comparar los resultados observados que el valor de
chi-cuadrado de tablas es mayor con el valor parcial de chi- cuadrado obtenido.

LÍMITE DE SELECCIÓN Y CUANTIFICACIÓN


La determinación del límite de cuantificación y detección del método, está basado a variaciones
de estándares con un incremento de (k) blancos, los cuales determinaran la capacidad del método
para detectar esas pequeñas interferencias, este parámetro se toma en cuenta para leyes de baja
concentración.

DETERMINACIÓN DE LINEALIDAD
El parámetro de linealidad se aplica con mayor frecuencia a métodos analíticos que utilizan
equipos de instrumentación, ya que cuentan con dos variables por ejemplo la concentración y
absorbancia. Los métodos gravimétricos y volumétricos (conocidos como vía clásica), no
requieren de la evaluación de linealidad, por lo que cuenta solo con una variable.
SENSIBILIDAD
La sensibilidad se cuantifica mediante un coeficiente que es determinado por la siguiente manera:
𝜕𝑅𝑒𝑠𝑝𝑢𝑒𝑠𝑡𝑎 𝑑𝑦
𝑆𝑒𝑛𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 = 𝜕𝐶𝑜𝑛𝑐𝑒𝑛𝑡𝑟𝑎𝑐𝑖ó𝑛 = 𝑑𝑥 (4.23)

Siendo el coeficiente de la sensibilidad la pendiente de la recta de la linealidad, al no contar con la


recta de la linealidad no se puede cuantificar la sensibilidad del método.

DETERMINACIÓN DEL RANGO DE TRABAJO


Al no determinar el límite de cuantificación y detección del método, y siendo este dependiente de
la linealidad no se determina con certeza el rango de trabajo.

DETERMINACIÓN DE ROBUSTEZ
Los factores que se toman en cuenta para la verificación de la robustez del método se muestran
en la tabla N° 4-14.
Para determinar la robustez del método, se verifica la distribución normal de los resultados de la
tabla N°4-1 con la prueba de Anderson-Darling.

En el gráfico N° IV-21 se muestra el Normality Test de los resultados mostrándonos un 𝑃𝑣𝑎𝑙𝑢𝑒 de


0,013 menor a 0,05 lo que muestra que los resultados no tienen una distribución no normal es
decir no paramétrica, para este caso se determina la robustez con el estadístico de Kruskal-Wallis.

Gráfico N° IV-21 Prueba de Anderson - Darling

Fuente: Facultad de Ingeniería Química de la U.N.C.P

En el gráfico N° IV-22 observamos que los resultados de dos 𝑃𝑣𝑎𝑙𝑢𝑠 0,788 y 0,484; obtenidos del
estadístico de Kruskal-Wallis; comparados con el criterio de decisión de la tabla N° 4-15; los
valores son mayores a 0,05, lo cual indica que el método es robusto.
Gráfico N° IV-22 Estadístico de Kruskal - Walls

Fuente: Facultad de Ingeniería Química de la U.N.C.P

Tabla N° 4-15: Criterio de decisión para la verificación Robustez.


Tipo de resultados Pruebas Criterio de decisión Decisión
Resultados con ANOVA (software 𝑝𝑣𝑎𝑙𝑢𝑒 ≥ 0,05 El método es
distribución normal Minitab) robusto.
𝑝𝑣𝑎𝑙𝑢𝑒 < 0,05 El método no es
robusto.
Resultados sin Kruskal-Wallis 𝒑𝒗𝒂𝒍𝒖𝒆 ≥ 𝟎, 𝟎𝟓 El método es
distribución normal (software Minitab) robusto.
𝑝𝑣𝑎𝑙𝑢𝑒 < 0,05 El método no es
robusto.
Fuente: Facultad de Ingeniería Química de la U.N.C.P
Gráfico N° IV-23 Ploteo de los valores independientes

Fuente: Facultad de Ingeniería Química de la U.N.C.P

Gráfico N° IV-24 Boxplot

Fuente: Facultad de Ingeniería Química de la U.N.C.P


Gráfico N° IV-25 Resumen Estadístico

Fuente: Facultad de Ingeniería Química de la U.N.C.P

DETERMINACIÓN DE INCERTIDUMBRE
Existen dos formas para determinar la incertidumbre. El primero que hace una estimación
incertidumbre (Incertidumbre Global) mediante métodos y técnicas estadísticas, normalmente
halladas a partir de los resultados de las repeticiones. El segundo estima la incertidumbre
(Incertidumbre Expandida) la cual toma en cuenta otras informaciones tales como certificados de
calibración, especificaciones de los fabricantes, especificaciones de cálculos e informaciones
publicadas sobre la determinación de incertidumbre.

DETERMINACIÓN INCERTIDUMBRE EXPANDIDA


En la determinación de la incertidumbre expandida se toma en cuenta el proceso de análisis.

MODELO MATEMÁTICO DE INCERTIDUMBRE EXPANDIDA


Incertidumbre Parcial
2 2 𝑢𝑣̅ 2
𝑤(𝑇) 𝑢 𝑢
𝑇
= √[ 𝑤̅𝑤̅] + [ 𝑣̅𝑣̅ ] + [ 𝑣̅ 𝑔 ] (4.25)
𝑔

Incertidumbre Expandida
2 2 2 2
𝑈(%𝑍𝑛) = √𝑢(𝑇) + 𝑢(𝐵) + 𝑢(𝑏) + 𝑢(𝐴) (4.26)
Donde:
𝑈(%𝑍𝑛) : Incertidumbre estándar.
𝑈(𝑇) ∶ Incertidumbre de la titulación.
𝑈(𝐵) : Incertidumbre de Bureta.
𝑈(𝑏) : Incertidumbre de Balanza.
𝑈(𝐴) ∶ Incertidumbre entre analistas. (Desviación estándar de reproducibilidad)
Para un nivel de confianza del 95% y para un factor de cobertura K=2.
𝑈𝐸𝑥𝑝𝑎𝑛𝑑𝑖𝑑𝑜 = ±𝑈(%𝑍𝑛) (4.27)

DETERMINACIÓN INCERTIDUMBRE GLOBAL


En la determinación de la incertidumbre global se toma en cuenta el la desviación estándar de las
repeticiones.

Incertidumbre Global
𝜎
𝑈 = 𝐶𝑖 ∗ (4.28)
√𝑛
Dónde:
𝑈 : Incertidumbre global.
𝐶𝑖 : Coeficiente de incertidumbre.
𝑛 : Número de repeticiones.
𝜎 : Desviación estándar.
De la ecuación anterior podemos determinar el Coeficiente de incertidumbre entonces la
incertidumbre global estará denotado por:
𝜎
𝑈(𝐺𝑙𝑜𝑏𝑎𝑙) = 𝑥̅ ± 𝑡(𝑛−1; 𝛼) ∗ 𝑛 (4.29)
2 √
Dónde:
𝑈(𝐺𝑙𝑜𝑏𝑎𝑙) : Incertidumbre global.
𝑛 : Número de repeticiones.
𝜎 : Desviación estándar.
𝛼 : Nivel de confianza (95%)
𝑥̅ ∶ Promedio Global.
𝑡 : Distribución t-Student Inversa que esta como función de la probabilidad frente a los
grados de libertad.
Gráfico N° IV-26 Resumen Estadístico

Fuente: Facultad de Ingeniería Química de la U.N.C.P

CÁLCULO DE INCERTIDUMBRE GLOBAL


Para determinar la incertidumbre global extraeremos los datos del resumen estadístico mostrado
en el gráfico N° IV-26; además estos valores deben ser iguales o aproximados al intervalo de
confianza del promedio (límite inferior 54,290; límite superior 54,354).
Reemplazando los valores en:
𝜎
𝑈(𝐺𝑙𝑜𝑏𝑎𝑙) = 𝑥̅ ± 𝑡(𝑛−1; 𝛼) ∗
2 √𝑛
𝑛 = 120
𝜎 = 0,178
𝛼 = 0,05 𝑎𝑙 95%
𝑥̅ = 54,322
𝑡 = 2,27011694

El valor 𝑡 es un valor determinado por la función estadística del Excel DISTR.INV (probabilidad;
grado de libertad).
Dónde:
𝜎
𝑡∗ = 0,03688736
√𝑛
𝜎
El Límite de Inferior es: 𝑥̅ − 𝑡 ∗ 𝑛 = 54,30

𝜎
El Límite de Superior es: 𝑥̅ + 𝑡 ∗ = 54,36
√𝑛
𝑈(𝐺𝑙𝑜𝑏𝑎𝑙) = 54,322 +/−0,03699.
BIBLIOGRAFIA
 Murray R. Spigel, Larry J. Stephens, Estadística, Editorial Mc Graw Hill, Tercera edición
 José Camero Jiménez, Curso Taller – validación de ensayos analíticos, Cerper , certificaciónes
del perú S.A., diciembre – 2005
 http://www.uclm.es/profesorado/mdsalvador/58109/teoria/anova_un_factor-lectura.pdf
 http://www.ispch.cl/sites/default/files/documento_tecnico/2010/12/Guia%20T%C3%A9cnic
a%201%20validaci%C3%B3n%20de%20M%C3%A9todos%20y%20determinaci%C3%B3n%20d
e%20la%20incertidumbre%20de%20la%20medici%C3%B3n_1.pdf [CONSULTA 12/11/2012
5:00pm]
 http://www.uclm.es/profesorado/mdsalvador/58109/teoria/anova_un_factor-lectura.pdf
[CONSULTA 13/11/2012 8:00pm]
 http://www.slideshare.net/carlosroquehn/introduccion-a-la-validacion-de-metodos-de-
ensayo-13500574 [CONSULTA 12/11/2012 7:30pm]
 http://www.ema.org.mx/descargas/guias_tecnicas/ensayos_clinicos/laboratoriosclinicosv00.
pdf [CONSULTA 13/11/2012 2:00am]
 http://www.suelos.org.ar/adjuntos/validacion_metodos_analiticos.pdf [CONSULTA
13/11/2012 5:00am]
 http://www.galenica.cl/QC/2008/eventos/taller3/validacion_metodos_analiticos.pdf
[CONSULTA 13/11/2012 10:00pm]
ANEXOS

También podría gustarte