Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. INTRODUCCIÓN
En la actualidad el concepto de la calidad ha tomado un enfoque global; la química analítica como
ciencia ha decidido transformar la idea de un típico análisis químico convirtiéndola en un análisis
cuantitativo con la comprensión de una serie de etapas, y diversas secuencias como la de elección
del método de análisis ,el tratamiento y procesamiento de la muestra, propiedades y
características del analito, determinación de resultados y como el más importante, determinación
de la finalidad y confiabilidad de los resultados.
El avance tecnológico y científico significa que la acreditación del sistema de calidad del
laboratorio, su personal, sus instalaciones y equipos, sus métodos de prueba, sus archivos y
reportes han sido evaluados, y la evaluación indica que el laboratorio tiene la capacidad de
conseguir nuevas oportunidades de mercado, reservado solo para aquellos laboratorios que
consiguen demostrar su avance y su competencia técnica.
Los resultados analíticos juegan un papel importante en el laboratorio, entonces hay que aceptar
que los estudios pueden tener errores, un principio guía es “no existen resultados cuantitativos de
interés si no van acompañados de alguna estimación de los errores inherentes a los mismos”, este
principio se aplica no solamente a la química analítica sino a cualquier campo de estudio donde se
obtenga resultados experimentales numéricos. Por ello en todo laboratorio el aseguramiento de
la calidad analítica es importante y lo podemos definir como:
Es un medio adecuado e imprescindible para evaluar la calidad del propio trabajo, descubrir
errores en el sistema de medición y demostrar la comparabilidad con los resultados de los
procedimientos de referencia.
El objetivo del análisis debe ser determinar el contenido verdadero de los analitos a medir de la
forma más exacta y precisa posible para que sean confiables.
En la validación de métodos, los laboratorios realizan un esfuerzo para asegurar la precisión de los
resultados. El proceso asegura que los laboratorios acreditados cumplen con los requisitos y
demuestran la capacidad para dar datos mas exactos y precisos de los parámetros especificados
en el alcance de la acreditación.
El grado de confiabilidad viene dado por el error en la medida; por lo tanto será muy importante
indicar cada medición con su error correspondiente.
Generalmente aunque no siempre una gran exactitud implica una gran precisión; la teoría de
errores da específicamente una medida de la precisión, no de la exactitud, pero como se busca es
la exactitud al efectuar mediciones se tendrá mucho cuidado de eliminar los errores sistemáticos
y entonces se obtendrá un grado de confiabilidad o de confianza que nos dé un índice de lo
cercana que está nuestra medida al valor verdadero, a la medida que obtengamos de esta forma
la llamamos “valor más probable “
Existen diversos métodos estadísticos para la evaluación de los resultados experimentales, las
interrogantes a resolver son:
¿Cómo estar seguro de que el valor obtenido experimentalmente es cercano al valor verdadero?
¿Cuánta certidumbre se tiene de que el valor obtenido es el mismo o distinto del valor obtenido
con la misma muestra en un momento distinto o por otra persona?
• Groseros o accidentales
Son errores que son tan importantes que no existe alternativa real que abandonar el
experimento y empezar de nuevo por completo. Ejemplos: la avería total de un
instrumento, caída o vertido accidental de una sustancia en otra.
• Aleatorio
Estos provocan que los resultados individuales difieran uno del otro de manera que caigan
a ambos lasos del valor medio. Estos errores afectan la precisión de un experimento. Este
tipo de errores son los que comete el operador del instrumento utilizado.
Sistemáticos
Provocan que todos los resultados sean erróneos en el mismo sentido, son demasiado
grandes. Y se denomina también sesgo de la medida. Este tipo de error es responsabilidad del
material empleado y de su origen y presión de fabricación.
Podemos calcular nuestros errores experimentales de la siguiente manera:
• Error absoluto.- Nos indica si medimos u obtuvimos más o menos que el valor
experimental, y en qué cantidad excedimos del valor real o qué cantidad nos faltó; esto
según el signo de la sustracción. EA = valor experimental – valor teórico
• Error relativo.- Es una forma de conocer el porcentaje de error que obtuvimos en
nuestros resultados.
ESTADISTICA
La Estadística entendida como Ciencia de la recogida, análisis e interpretación de los datos
numéricos, no es una ciencia vulgar sino, como decía Kendall, la base del conocimiento
cuantitativo. De aquí la importancia que tiene un uso adecuado, puesto que permite obtener un
conocimiento que sería imposible adquirir sin ella.
DEFINICIONES ESTADÍSTICAS
Para los fines de una validación, se utilizan normalmente ciertas mediciones estadísticas, que nos
ayudan a establecer si el método se encuentra dentro de un parámetro aceptable, normalmente
se determinan las siguientes:
MEDIA
Conocida también como media aritmética o promedio, es la cantidad total de la variable (muestra
o medida) distribuida a partes iguales entre cada observación. En términos matemáticos, es igual
a la suma de todos sus valores dividida entre el número de sumandos.
𝑛
∑ 𝑥𝑖
𝑋=
𝑛
VARIANZA
Es una medida de dispersión definida como el cuadrado de la desviación estándar.
𝑛
2
∑𝑖=1(𝑥𝑖 − 𝑋)2
𝑆 =
𝑛−1
DISTRIBUCIÓN NORMAL
Distribución continua conocida también como distribución Gaussiana, la distribución de una
variable normal está completamente determinada por dos parámetros, su media y su desviación
estándar, denotadas generalmente por 𝜇 𝑦 𝜎. La distribución normal se caracteriza por tener una
única moda, que coincide con su media y su mediana. Su expresión grafica es una curva normal,
cuya forma es similar a los histogramas con forma de campana, es conocida como campana de
gauss que es simétrica respecto a su media y asintótica al eje de abscisas, esto hace que cualquier
valor entre −∞ 𝑦 + ∞y es teóricamente posible. El área total bajo la curva es, por tanto, igual a 1.
Para este tipo de variables existe una probabilidad de un 50% de observar un dato mayor que la
media, y un 50% de observar un dato menor.
PRUEBA DE MANDEL (H Y K)
La prueba h de Mandel permite analizar la variabilidad de los resultados bajo condiciones de
reproducibilidad. Determina la consistencia de los resultados en lo referente a su distribución
alrededor del promedio. El valor del estadístico h para cada laboratorio se obtiene mediante la
expresión:
𝑑
ℎ=
𝑠
𝑑 =𝑥−𝑋
NORMALIDAD.-
Los resultados tienen normalidad si su función de distribución es la curva de Gauss, conocida
como distribución Normal conocidos también como paramétricos, y aquellos resultados que se
encuentran en los extremos de la curva, se denominan resultados anormales o atípicos o no
paramétricos.
Planteamiento de Hipótesis:
Estadístico de Contraste:
Donde:
p : número de analistas
n : número de repeticiones del ensayo por analista
Criterio:
Se comparará con la estadistica de Tabla de Mandel.
K
P H N
2 3 4 5 6 7 8 9 10
3 1,15 1,65 1,53 1,45 1,40 1,37 1,34 1,32 1,30 1,29
4 1,42 1,76 1,59 1,50 1,44 1,40 1,37 1,35 1,33 1,31
5 1,57 1,81 1,62 1,53 1,46 1,42 1,39 1,36 1,34 1,32
6 1,66 1,85 1,64 1,54 1,48 1,43 1,40 1,37 1,35 1,33
7 1,71 1,87 1,66 1,55 1,49 1,44 1,41 1,38 1,36 1,34
8 175 1,88 1,67 1,56 1,50 1,45 1,41 1,38 1,36 1,34
9 1,78 1,90 1,68 1,57 1,50 1,45 1,42 1,39 1,36 1,35
10 1,80 1,90 1,68 1,57 1,50 1,46 1,42 1,39 1,37 1,35
11 1,82 1,91 1,69 1,58 1,51 1,46 1,42 1,39 1,37 1,35
12 1,83 1,92 1,69 1,58 1,51 1,46 1,42 1,40 1,37 1,35
13 1,84 1,92 1,69 1,58 1,51 1,46 1,43 1,40 1,37 1,35
14 1,85 1,92 1,70 1,59 1,52 1,47 1,43 1,40 1,37 1,35
15 1,86 1,93 1,70 1,59 1,52 1,47 1,43 1,40 1,38 1,36
P = Número de etapas en un determinado nivel
N = Número de duplicados dentro de cada etapa en ese nivel
Fuente: Tomada del Dr. J. Mandel.
PRUEBA DE COCHRAN Y GRUBBS
TEST DE COCHRAN: Localiza laboratorios con una dispersión (s) discrepante
Calcular la s2 (varianza) de cada laboratorio
Calcular el cociente entre la varianza más elevada y el sumatorio de todas las varianzas
Fexp= s2H / Σ(s2)
Si Fexp>Ftab el laboratorio es discrepante.
R DE GRUBBS
Para valores discrepantes: localiza valores discrepantes dentro de los datos dados por cada
laboratorio
Rexp= (Xsospechoso-Xm) / s
Si Rexp>Rtab se rechaza Ho, es decir, el valor es discrepante
Para laboratorios discrepantes: localiza laboratorios discrepantes
Cálculo de 2 valores de Rexp
Rexp=100·(1-(SL/SM))
Rexp=100·(1-(SH/SM)) siendo:
SL- desv más baja, SH-desv más alta, SM- desv media todos los laboratorios
Si la Rexp mayor de las dos anteriores > Rtab, se rechaza Ho, es decir, laboratorio discrepante
Planteamiento de Hipótesis:
Hipotesis nula: El Analista obtiene resultados precisos.
Hipotesis alterna: El Analista no obtiene resultados precisos.
Estadístico de Contraste:
Se utilizará el siguiente estadístico:
S i 2 max
C p
S
i 1
i
2
Donde:
p : número de analistas
s : Desviación estándar del analista
Criterio:
Se comparará con la estadistica de Tabla de Cochran.
Planteamiento de Hipótesis:
Hipotesis nula: El Analista no obtiene un resultado atípico.
Hipotesis alterna: El Analista obtiene un resultado atípico.
Estadístico de Contraste:
Se utilizará el siguiente estadístico:
p
y extr y 1
S
p 1 i 1
( yi y ) 2
G
S
Donde:
p : número de analistas
s : Desviación estándar general
Criterio:
Se comparará con la estadistica de Tabla de Cochran.
Si el valor de G, de la prueba, es menor o igual al valor tabular de 5%, la hipótesis nula es
aceptada.
Si el valor de G, de la prueba, se encuentra entre los valores tabulares de 5% y 1 %, se considera
valor rezagado.
ESTADÍSTICO DE PRUEBA:
El estadístico de A2 está dado por las siguientes formulas:
𝐴2 = −𝑛 − 𝑠
(2𝑖 − 1)
𝑆𝑖 = [ln 𝐹(𝑌𝑖 ) + ln(1 − 𝐹(𝑌𝑛+1−𝑖 ))]
𝑛
𝑛
𝑆 = ∑ 𝑆𝑖
𝑖=1
PRUEBA DE T-STUDENT DE UNA MUESTRA
Esta prueba permite comparar las medias de dos grupo de datos y determinar si entre estos
parámetros las diferencias es estadísticamente significativo.
Si el valor t calculado es superior al t crítico, entonces, existirá una diferencia significativa que
permitirá superar al t crítico, y el atleta podrá realizar el salto.
PRUEBA DE T-STUDENT DE DOS MUESTRAS
Dónde:
1
𝑆𝑋1 𝑋2 = √ (𝑆 2𝑋1 + 𝑆 2𝑋2 )
2
𝑋1 − 𝑋2
𝑡=
1 1
𝑆𝑋1 𝑋2 ∙ √𝑛 + 𝑛
1 2
Dónde:
(𝑛1 − 1)𝑆 2𝑋1 + (𝑛2 − 1)𝑆 2𝑋2
𝑆𝑋1 𝑋2 = √
𝑛1 + 𝑛2 − 2
Nótese que las fórmulas de arriba, son generalizaciones del caso que se da cuando ambas
muestras poseen igual tamaño (sustituyendo n por n1 y n2).
̅̅̅
𝑋1 − ̅̅̅𝑋2
𝑡=
𝑆̅̅̅̅
𝑋1 −𝑋̅̅̅̅
2
Dónde:
𝑆 21 𝑆 2 2
𝑆̅̅̅̅
𝑋1 −𝑋̅̅̅̅ = √ +
2
𝑛1 𝑛2
Aquí 𝑆2 es el estimador sin sesgo de la varianza de las dos muestras, n = número de
2
participantes, 1 = grupo uno, 2 = grupo dos. Nótese que en este caso, (𝑆̅̅̅̅
𝑋1 −𝑋̅̅̅̅
2
) no
es la varianza combinada. Para su utilización en pruebas de significancia, la
distribución de este estadístico es aproximadamente igual a una distribución t
ordinaria con los grados de libertad calculados según:
2
𝑆2 𝑆2
( 𝑛 1 + 𝑛 2)
1 2
𝑔. 𝑙. = 2 2
𝑆2 𝑆2
( 𝑛 1) ( 𝑛 2)
1 2
+
(𝑛1 − 1) (𝑛2 − 1)
PRUEBA DE WILCOXON
La prueba de los rangos con signo de Wilcoxon es una prueba no paramétrica para comparar
la mediana de dos muestras relacionadas y determinar si existen diferencias entre ellas. Se utiliza
como alternativa a la prueba t de Student cuando no se puede suponer la normalidad de dichas
muestras. Debe su nombre a Frank Wilcoxon, que la publicó en 1945.
MÉTODO
La hipótesis nula es 𝐻0 : 𝜃 = 0 . Retrotrayendo dicha hipótesis a los valores
𝑥𝑖 , 𝑦𝑖 originales, ésta vendría a decir que son en cierto sentido del mismo tamaño.
Para verificar la hipótesis, en primer lugar, se ordenan los valores absolutos |𝑧1 , … , 𝑧𝑛 | y
se les asigna su rango 𝑅𝑖 . Entonces, el estadístico de la prueba de los signos de Wilcoxon,
𝑊 + , es:
𝑊 + = ∑ 𝑅𝑖 ,
𝑧𝑖 >0
En ocasiones, esta prueba se usa para comparar las diferencias entre dos muestras de
datos tomados antes y después del tratamiento, cuyo valor central se espera que sea
cero. Las diferencias iguales a cero son eliminadas y el valor absoluto de las desviaciones
con respecto al valor central son ordenadas de menor a mayor. A los datos idénticos se les
asigna el lugar medio en la serie. La suma de los rangos se hace por separado para los
signos positivos y los negativos. S representa la menor de esas dos sumas.
Comparamos S con el valor proporcionado por las tablas estadísticas al efecto para
determinar si rechazamos o no la hipótesis nula, según el nivel de significación elegido.
Estadístico de contraste H’
El estadístico de contraste de Kruskal-Wallis H’ se calcula como:
12 1 2
∑𝑟𝑚=1 [𝑅𝑚 − 𝐸[𝑅𝑚 ]]
𝑛(𝑛 + 1) 𝑛𝑚
𝐻′ =
∑𝑗=1(𝑑3𝑗 − 𝑑𝑗 )
𝑘
1−
𝑛3 − 𝑛
Siendo 𝑑𝑗 el número de empates en j = 1,…, k siendo k el número de valores distintos de
la variable respuesta, que sigue una distribución Chi-Cuadrado con r - 1 grados de
libertad.
MÉTODO DE LA PRUEBA RDS HORWITZ
Es el coeficiente de variación definido por W. Horwitz, a través de la ecuación obtenida de
un estudio estadístico. En dicho estudio, Horwitz después de reunir una serie de datos
(provenientes de 150 ensayos de interlaboratorios organizados por AOAC), observo que el
coeficiente de variación de los valores medios dados por los diferentes laboratorios
aumentaba a medida que disminuía la concentración del analito. Comportándose como
muestra la siguiente gráfica, conocida como la trompeta de Horwitz.
MÉTODO DE LA PRUEBA F
Prueba en la que el estadístico utilizado sigue una distribución F si la hipótesis nula no
puede ser rechazada. En estadística aplicada se prueban muchas hipótesis mediante el
test F, entre ellas: La hipótesis nula=Ho de que las medias de múltiples poblaciones
normalmente distribuidas y con la misma desviación estándar son iguales. Esta es, quizás,
la más conocida de las hipótesis verificadas mediante el test F y el problema más simple
del análisis de varianza. Y la hipótesis de que las desviaciones estándar de dos poblaciones
normalmente distribuidas son iguales.
𝑘
2
(𝑂𝑖 − 𝐸𝑖 )2
𝑥 =∑
𝐸𝑖
𝑖=1
Este estadístico tiene una distribución Chi-cuadrado con k-1 grados de libertad si n es
suficientemente grande, es decir, si todas las frecuencias esperadas son mayores que 5.
En la práctica se tolera un máximo del 20% de frecuencias inferiores a 5.
Si existe concordancia perfecta entre las frecuencias observadas y las esperadas el
estadístico tomará un valor igual a 0; por el contrario, si existe unas grandes discrepancias
entre estas frecuencias el estadístico tomará un valor grande y, en consecuencia, se
rechazará la hipótesis nula. Así pues, la región crítica estará situada en el extremo
superior de la distribución Chi-cuadrado con k-1 grados de libertad.
PRUEBA DE MC – NEMAR
La prueba de McNemar se utiliza para decidir si puede o no aceptarse que determinado
''tratamiento'' induce un cambio en la respuesta dicotómica o dicotomizada de los elementos
sometidos al mismo, y es aplicable a los diseños del tipo ''antes-después'' en los que cada
elemento actúa como su propio control.
Antes/Después - +
- a b
+ c d
Por tanto, b+c es el número total de elementos cuyas respuestas han cambiado, y son los únicos
que intervienen en el contraste. La hipótesis nula es que el ''tratamiento'' no induce cambios
significativos en las respuestas, es decir, los cambios observados en la muestra se deben al azar,
de forma que es igualmente probable un cambio de + a - que un cambio de - a +. Así pues, si H0 es
cierta, de los b+c elementos cuya respuesta ha cambiado es de esperar que (b+c)/2 hayan pasado
de + a -, y (b+c)/2 hayan pasado de - a +. En otras palabras, si H0 es cierta, la frecuencia esperada
en las correspondientes celdas es (a+b)/2.
La hipótesis alternativa puede ser no direccional, cuando postula que la probabilidad de un
cambio de + a - tiene distinta probabilidad que un cambio de - a +, o direccional, cuando predice
que un cambio de - a + es más (o menos) probable que un cambio de + a -.
El estadístico de prueba que permite contrastar si existen diferencias significativas entre las
frecuencias esperadas y las observadas es:
𝑘
2
(𝑂𝑖 − 𝐸𝑖 )2
𝑥 =∑
𝐸𝑖
𝑖=1
Oi= frecuencia observada en la i-ésima celda
Ei = frecuencia esperada en la i-ésima celda si H0 es cierta
k = número de celdas
Para contrastar la significación de los cambios interesan sólo las celdas que recogen
cambios, por tanto el estadístico puede expresarse como
𝑏+𝑐 2 𝑏+𝑐 2
[𝑏 − 2 ] [𝑐 − 2 ] (𝑏 − 𝑐)2
𝑥2 = + =
𝑏+𝑐 𝑏+𝑐 𝑏+𝑐
2 2
La hipótesis nula, de que ambos tipos de cambio son igualmente probables, se rechaza si el valor
del estadístico se encuentra en la región crítica.
El método que resuelve ambos problemas es el anova, aunque es algo más que esto: es un
método que permite comparar varias medias en diversas situaciones; muy ligado, por tanto, al
diseño de experimentos y, de alguna manera, es la base del análisis multivariante.
Un método de ensayo se valida cuando es necesario verificar que los parámetros ejecutados son
los adecuados para resolver un problema analítico en particular.
El laboratorio puede validar:
Los métodos de ensayo no normalizados.
Los métodos de ensayo normalizados, modificados, ampliados o aplicados a un alcance diferente
al originalmente establecido en la norma.
Cuando se requiera demostrar la equivalencia entre dos métodos de ensayo.
PARÁMETROS DE VALIDACIÓN:
Consistencia (estadística de Mandel h,k)
Validez (prueba de Cochran y grubbs)
Normalidad (prueba de Anderson-Darling Normality test)
Homogeneidad
Precisión (repetibilidad y reproducibilidad) (ISO 5725-1)
Exactitud (sesgo) (ISO 5725-1)
Veracidad (ISO 5725-1)
Selectividad/especificidad (Eurachem)
Rango de trabajo (para métodos instrumentales)
Sensibilidad (para métodos instrumentales)
Linealidad (coeficiente de sensibilidad), (para métodos instrumentales) (Eurachem)
Robustez (variación interna)
Incertidumbre (falta de exactitud)
Límite de detección LDM, límite de cuantificación LCM (Eurachem)
EXACTITUD
Indica la desviación de la concentración medida respecto a la concentración verdadera. Es la
mayor aproximación al valor verdadero o más probable de la propiedad medida, está relacionada
íntimamente con el error sistemático
PRECISIÓN
Indica la dispersión de los valores de las mediciones entre si. Cuando hay concordancia de los
valores de las diferentes mediciones. Cuanto menor es el error estadístico, mayor será la
precisión.
GRADO DE CONFIABILIDAD
Generalmente aunque no siempre una gran exactitud implica una gran precisión; la teoría de
errores da específicamente una medida de la precisión, no de la exactitud, pero como se busca es
la exactitud al efectuar mediciones se tendrá mucho cuidado de eliminar los errores sistemáticos
y entonces se obtendrá un grado de confiabilidad o de confianza que nos dé un índice de lo
cercana que está nuestra medida al valor verdadero, a la medida que obtengamos de esta forma
la llamamos “valor más probable “
REPETITIVIDAD
Es la más pequeña precisión esperada. Da una idea del tipo de variabilidad que se puede esperar
cuando el método es desarrollado por un mismo analista en un mismo equipo a lo largo de un
periodo de tiempo corto(análisis por duplicado) Ej., la variabilidad esperada entre los resultados
cuando la muestra es analizada por Duplicado
Es la precisión bajo las condiciones de repetibilidad, es decir, condiciones donde los resultados de
análisis independientes se obtienen con el mismo método en items de análisis idénticos en el
mismo laboratorio por el mismo operador utilizando el mismo equipamiento dentro de intervalos
cortos de tiempo.
Se puede determinar registrando a lo menos 6 mediciones bajo las mismas condiciones (mismo
operador, mismo aparato, mismo laboratorio y en corto intervalo de tiempo) de un analito en un
Material de Referencia. Calcular la Desviación Estándar (Sr) y el porcentaje de coeficiente de
variación (CVr%).
REPRODUCIBILIDAD
Es la precisión bajo las condiciones de reproducibilidad, es decir, condiciones donde los resultados
de los análisis se obtienen con el mismo método en item idénticos de análisis en condiciones
diferentes ya sea de laboratorio, diferentes operadores, usando distintos equipos, entre otros.
Para determinar la precisión de la reproducibilidad intralaboratorio (Ri) (es decir, la precisión
dentro de un laboratorio), se sugiere realizar 3 mediciones de un Material de Referencia (MRC o
material control) una vez por cada semana o el comportamiento de la curva de calibración en 3
días distintos.
La precisión más grande esperada. Una muestra analizada por varios laboratorios. Formalmente,
excluye la variación respecto del tiempo.
SELECTIVIDAD / ESPECIFICIDAD
En todo método analítico hay un paso fundamental en el que se produce la medida de una señal
relacionada con la concentración (análisis cuantitativo) o la presencia (análisis cualitativo) de un
determinado analito. A veces, la presencia de otros compuestos, química o físicamente similares
al analito, pueden contribuir a dicha señal, pudiendo causar un error sistemático en la
determinación del analito. Estos compuestos pasan a denominarse interferencias. Es por tanto
necesario asegurarse de donde procede la señal que se está midiendo. De aquí surge en concepto
de selectividad, entendiéndose esta como el parámetro que define de forma cualitativa la
extensión en que otras sustancias interfieren en la determinación de un analito usando un
método determinado. Al máximo de selectividad se le denomina especificidad, es decir, un
método será específico cuando la señal medida solo proviene del analito de interés. Un estudio de
selectividad implica investigar la capacidad del método para medir al analito en presencia de
interferencias añadidas a la muestra , no siendo esto objeto del presente texto. Hasta ahora, solo
hemos considerado las interferencias que pueden producir un error sistemático constante, es
decir, sustancias que contribuyen a la señal medida con un valor determinado. Pero existen otro
tipo de interferencias, relacionadas con efectos inespecíficos, que pueden producir errores
proporcionales. Estas son las designadas como efecto matriz y, aunque no existe ninguna
aplicación en Excel específica para cuantificar este efecto, hablaremos de el más adelante.
SELECTIVIDAD
La exactitud da cuenta de la proximidad entre el resultado obtenido por un método y el valor
“real”. Como se trata de un parámetro cualitativo (un método será muy o poco exacto) para
describir el error asociado a un resultado, hace falta un parámetro que permita medir la exactitud
cuantitativamente. Este parámetro es el error que, según la guía para validación de métodos de la
EURACHEM [1], se divide en dos componentes, la veracidad y la precisión. La veracidad es un
parámetro que expresa la proximidad de la media de una serie de resultados obtenidos con el
método al valor real. Generalmente se expresa en términos de error o bias, definido como la
diferencia entre el resultado de medida y el valor real [2]. La precisión da cuenta de la proximidad
entre sí de esta serie de resultados. Si expresamos la exactitud en función del error Ei, para una
determinada medida i:
𝐸𝑖 = 𝑥𝑖 − 𝜇 = (𝑥𝑖 − 𝑥̅ ) + (𝑥̅ − 𝜇)
En el caso de tener un replicado consistente en n medidas, el error cuadrático se
calcularía como:
𝑖=𝑛 𝑖=𝑛
2
∑ 𝐸𝑖 = ∑(𝑥𝑖 − 𝑥̅ )2 + 𝑛(𝑥̅ − 𝜇)2
𝑖=1 𝑖=1
Si dividimos por n, obtenemos el error cuadrático medio:
𝑖=𝑛 2
∑ (𝑥𝑖 − 𝑥̅ )
〈𝐸 2 〉 = 𝑖=1 + (𝑥̅ − 𝜇)2
𝑛
Si n es suficientemente grande, el primer término tiende a la varianza de la medida
(dividiendo entre n-1 en vez de n) y podría expresarse:
〈𝐸 2 〉 = 𝑠 2 + (𝑥̅ − 𝜇)2
Con lo cual vemos como el error cuadrático medio correspondiente a la exactitud se
equipara a la suma de la varianza de repetición pura (error aleatorio) más el cuadrado de
la veracidad (error sistemático).
La exactitud es máxima cuando el sesgo es nulo y la dispersión aleatoria es mínima.
ESPECIFIDAD
Como se ha dicho anteriormente, la veracidad da cuenta de lo cercano del resultado medio
obtenido con el método y el valor real. Para asegurar la veracidad es necesario compara el valor
medio medido con un valor de referencia (que será el valor real o el considerado como tal). Esto
se realiza, generalmente comparando los resultados obtenidos por el método con el valor de un
material de referencia certificado o comparando con un método ya validado (que suele haber sido
sometido a un ejercicio de intercomparación). En caso de no existir materiales de referencia o no
tener posibilidad de aplicar el método de referencia, se puede simular la matriz de la muestra
añadiendo al analito en una cantidad conocida y efectuar un ensayo de recuperación.
Como última instancia, se pueden realizar dichos ensayos de recuperación añadiendo al analito
sobre la propia muestra.
Como se explicará más adelante, para compara dos valores será necesario conocer la precisión
con la que este ha sido obtenido, por ello la exactitud se evalúa a partir de la veracidad en
conjunto con la precisión.
Límite de detección: cantidad más pequeña de analito en una muestra que puede ser detectada
por una única medición, con un nivel de confianza determinado, pero no necesariamente
cuantificada con un valor exacto. Es comúnmente expresado como concentración del analito.
LINEALIDAD
La linealidad es la capacidad de un método de análisis, dentro de un determinado intervalo, de
dar una respuesta o resultados instrumentales que sean proporcionales a la cantidad del analito
que se habrá de determinar en la muestra de laboratorio.
Con el fin de determinar el rango lineal se puede realizar mediante un gráfico de concentración
versus respuesta, que se conoce como Función Respuesta (normalmente llamada recta de
calibrado). Ésta se establece cada día con una cierta cantidad de valores formados por un blanco y
los patrones de trabajos limpios de valor teórico conocido, que cubran el intervalo de trabajo. En
este sentido se recomienda abarcar valores desde cercano al cero y valores superiores al LMP o al
valor de interés. El número de puntos a analizar deberá ser establecido por el analista (en general,
se utiliza un mínimo de 4 valores).
Luego de realizar el grafico se puede observar el comportamiento de la curva y establecer
cualitativamente el rango lineal (fig. a). Después de establecer el comportamiento lineal del
método se deberá realizar la Curva de trabajo o curva de calibración (fig. b). Graficar los datos de
concentración de los estándares de calibración estimados (X) v/s la lectura observada (Y).
Fig. a Fig. b
Evaluar los estimadores de regresión lineal del gráfico: la pendiente (m), el coeficiente de
correlación (r ó ϒ) y el punto de corte (intercepto) con el eje de las Y (L0).
𝑌 = 𝑋 ∙ 𝑚 + 𝐿𝑜
En general el criterio de aceptación cualitativo que se usa para determinar la linealidad es el
coeficiente de correlación:
El coeficiente de correlación indica el grado de relación entre la variable concentración (X) y la
variable respuesta (Y) de la curva de calibración. Los valores máximos que puede alcanzar son –1 y
1. El valor máximo de 1 indica una correlación positiva perfecta (entre X e Y) con una pendiente
positiva. Cuando r=0, no existe correlación alguna, independencia total de los valores X e Y.
SENSIBILIDAD
Según la IUPAC la sensibilidad se define como el cociente entre la señal medida y la concentración
de analito. Cuando trabajamos con curvas de calibrado, la sensibilidad es la pendiente de la curva
a una concentración dada. En caso de ser una recta, coincide con la pendiente de la misma.
ROBUSTEZ
La robustez es una medida de la capacidad de un procedimiento analítico de no ser afectado por
variaciones pequeñas pero deliberadas de los parámetros del método; proporciona una indicación
de la fiabilidad del procedimiento en un uso normal. En este sentido el objetivo de la prueba de
robustez es optimizar el método analítico desarrollado o implementado por el laboratorio, y
describir bajo que condiciones analíticas ( incluidas sus tolerancias), se pueden obtener a través
de este resultados confiables.
Un método de ensayo es más robusto entre menos se vean afectados sus resultados frente a una
modificación de las condiciones analíticas.
Entre las condiciones analíticas que podrían afectar a un método se encuentran:
• Analistas
• Equipos
• Reactivos
• pH
• Temperatura.
• Tiempo de reacción.
• Estabilidad de la muestra.
• Otros.
Para esta determinación se aplica el Test de Youden y Steiner para la evaluación de la robustez de
un método químico analítico. Este procedimiento permite evaluar el efecto de siete variables con
sólo ocho análisis de una muestra.
Para proceder a realizar el estudio de robustez se deben identificar aquellos factores del método
que posiblemente afectarían los resultados finales obtenidos a través de este.
Estas factores están presentes habitualmente en el método (ejemplo: temperatura, composición
de fase móvil o soluciones reactivas, pH de solución, tamaño de celda espectrofotométrica, flujo
gas carrier, split, etc.). Para estudiar la robustez se procede a exponer a cada factor a un estudio
de variable, es decir se expone a una variación respecto de la establecida en el método, es decir,
cada variable se estudia mediante un valor alto (A, B,...,G) y otro bajo (a,b,...,g)
INCERTIDUMBRE
La incertidumbre de una medición es el parámetro asociado al resultado, es decir, caracteriza la
dispersión de los valores que razonablemente pueden ser atribuidos al mesurando.
En este sentido, es importante que para un método validado o verificado por el laboratorio, se
realice la determinación de las diferentes fuentes o componentes de la incertidumbre de la
medición presentes:
1) Muestreo
2) Efectos de la muestra: tipo de matriz, almacenamiento, etc.
3) Sesgos Instrumentales: Las debidas a las características de los equipos utilizados para
realizar las medidas tales como: deriva, resolución, magnitudes de influencia.
Ejemplo: temperatura
4) Pureza de Reactivos: materiales de referencia, preparación de estándares.
5) Analista: Las debidas a la serie de mediciones: variaciones en observaciones
repetidas bajo condiciones aparentemente iguales. Ejemplo: paralelaje
6) Condiciones de medición: Las debidas al certificado de calibración: en él se
establecen las correcciones y las incertidumbres asociadas a ellas, para un valor de k
determinado, en las condiciones de calibración. Ejemplo: material volumétrico, etc.
7) Condiciones de medición: temperatura, humedad, etc.
8) Otras: Método (por ejemplo al interpolar en una recta), tablas (por ejemplo las
constantes), pesada, alícuota, efectos computacionales, etc.
PARTE EXPERIMENTAL
Se ha calculado la estadística de la consistencia entre las pruebas realizadas, para cada etapa.
Aplicando el estadístico de la prueba de Mandel (h). De los datos de la tabla N° 2-2. Promedio
estadístico de las 4 Etapas.
Calculo de la estadística de la consistencia entre analistas, para cada etapa. Aplicándola fórmula
para calcular la media general aritmética y la desviación estándar.
4
1 1
√ ∑(𝑦
̅̅̅̅ 𝑦1 2 = √
𝑖1 − ̿̿̿) [(54.33 − 53.322)2 + ⋯ (54.33 − 53.322)2 ] = 0.008
(𝑝1−1 ) 4−1
𝑖=1
En la tablas N°4-4 y 4-5, observamos que los valores críticos para el estadístico de Mandel, h son:
1% = 1,49 y 5% = 1.42
(54.33 − 54.322)
ℎ11 = = 0.5883
0.0080
ℎ21 = 0.3524;
ℎ31 = −1.4919
ℎ41 = 0.5513
∑ 𝑆2 0.1293
√ 𝑖1 = √ = 0.1797
𝑝1 4
En las tablas N° 4-4 y 4-5, observamos que los valores críticos para el estadístico de Mandel, k con
6 repeticiones serán:
1% = 1,55 y 5% = 1.40
0.1642
𝑘11 = = 0.9137
0.1797
𝑘21 = 0.9253;
𝑘31 = 1.0045
𝑘41 = 1.1401
4
1 1
√ ∑(𝑦
̅̅̅̅ 𝑦1 2 = √
𝑖1 − ̿̿̿) [(54.33 − 54.322)2 + ⋯ (54.33 − 54.322)2 ] = 0.00577
(𝑝1−1 ) 4−1
𝑖=1
(54,33 − 54,322)
𝐺4= = 0,9449 (Simple Alto)
0,00577
(54,322 − 54,32)
𝐺4= = 1,3228 (Simple Bajo)
0,00577
DISTRIBUCIÓN NORMAL
Si x es una variable aleatoria que tiene una distribución normal con media 𝜇 y una varianza 𝜎 2 ;
luego la variable aleatoria 𝑍 = (𝑥 − 𝜇)⁄𝜎 tiene una distribución normal con media 0 y varianza1,
y su función de densidad es:
𝑍2
1
𝑓(𝑧) = 2𝜋 𝑒 − 2 ,
Si −∞ < 𝑍 < ∞
Dónde:
𝜇𝑍 = 𝐸[𝑍] = 0 𝜎𝑍2 = 𝑉𝑎𝑟 [𝑧] = 1
Esta distribución es usada para determinar la probabilidad de ocurrencia de una variable que
tiene una distribución normal cualquiera. Para esto es necesario hacer una transformación del
intervalo de análisis mediante un proceso llamado estandarización.
Residuales:
Ho: La muestra aleatoria tiene una distribución normal, con media y varianza no especificada.
PLOTEO DE RESIDUALES
Para ver gráficamente si el conjunto de datos se ajusta o no a una distribución normal, se
compara el gráfico de los cuantiles de los datos versus los valores de 𝑃𝑣𝑎𝑙𝑢𝑒 contra el gráfico de
los cuantiles teóricos de la distribución normal con la media y varianza iguales a la media y
varianza muestral de los datos versus sus probabilidades acumulativas correspondientes. La
escala de 𝑃𝑣𝑎𝑙𝑢𝑒 estará determinada de modo que el gráfico de los cuantiles teóricos resulte una
línea recta.
Para determinar el ploteo de residuales se tomara en cuenta dos fases, la primera compuesta por
las Etapas I –III y la segunda conformada por las Etapas II – IV.
En la tabla 4-9 se muestra los resultados obtenidos del 𝑃𝑣𝑎𝑙𝑢𝑒 de la prueba de Anderson- Darling
los cuales, son mayores a 0,05, comparando los valores con la tabla N°4-8 las fases cumplen con
una Distribución Normal.
DETERMINACIÓN DE VERACIDAD
Este parámetro se determina para obtener el grado de concordancia existente entre el valor
obtenido de los resultados de las cuatro etapas y un valor aceptado como referencia (MCR). Se
desarrolla según ISO 5725-1.
OBJETIVO:
Verificar la tendencia central (𝑋̅media aritmetica) con el valor de referencia (𝜇1 = 54,32% 𝑍𝑛)
Hipotesis:
Ho: 𝜇1 = 𝜇2
Ha: 𝜇1 ≠ 𝜇2
𝑋̅ ≅ 𝜇2
El ploteo del estadístico t – Student se representará en los siguientes gráficos donde el valor de
MRC (54,32 %) se contrasta frente con los datos de las fases y etapas.
Para determinar la veracidad del método se realizó las pruebas de verificación usando el
estadístico de t – Student en el Minitab para las cuatro etapas y las dos fases, cuyos resultados
son los siguientes:
Tabla N°4-10: Resultado de 𝑷𝒗𝒂𝒍𝒖𝒆 de la prueba de t - Student
Etapas/Fases Valor de 𝑷𝒗𝒂𝒍𝒖𝒆 de la Prueba t - Student
I 0,800
II 0,888
III 0,772
IV 0,881
I-III 0,964
II-IV 0,835
Fuente: Facultad de Ingeniería Química de la U.N.C.P
En la tabla N°4-10 observamos los resultados de 𝑃𝑣𝑎𝑙𝑢𝑒 obtenidos de la prueba de t-Student para
la determinación de la veracidad, según el criterio de decisión de la tabal N 4-11, el valor de
𝑷𝒗𝒂𝒍𝒖𝒆 ≥ 0,05, entonces las repeticiones reportan resultados con diferencias no significativas.
Por lo tanto, los resultados obtenidos son veraces al 95% de confianza. Se confirma la hipótesis
alterna Ha: 𝜇1 ≠ 𝜇2 ; 𝜇1 = 54,32
Tabla N° 4-11: Criterio de Decisión para Verificar la Veracidad de la metodología
Tipo de resultados pruebas Criterio de decisión decisión
Resultados con t-Student (prueba de 𝑃𝑣𝑎𝑙𝑢𝑒 ≥ 0,05 Los laboratorios
distribución normal diferencias de reportan resultados
medias) (software con diferencias no
Minitab) significativas.
𝑃𝑣𝑎𝑙𝑢𝑒 < 0,05 Los laboratorios
reportan resultados
con diferencias
significativas.
Resultados sin Mann-Whitney 𝑃𝑣𝑎𝑙𝑢𝑒 ≥ 0,05 Los laboratorios
distribución normal (prueba de reportan resultados
diferencias de con diferencias no
medianas) (software significativas.
Minitab) 𝑃𝑣𝑎𝑙𝑢𝑒 < 0,05 Los laboratorios
reportan resultados
con diferencias
significativas.
Fuente: Facultad de Ingeniería Química de la U.N.C.P
En el gráfico N° IV-17 se observa que los datos plotedos siguen una uniformidad y no una alta
dispersión, por lo tanto se acepta que el conjunto de datos son homogéneos.
Al igual que la técnica grafica de homogeneidad otra prueba para determinar la homogeneidad,
es la prueba de Bartlett´s y Levene´s que es una prueba numérica que determina la
homogeneidad muestral de las repeticiones.
En el grafico N° IV-18 se observa que los valores obtenidos 𝑃𝑣𝑎𝑙𝑢𝑒 en la prueba de Bartlett´s y
Levene´s son: 0,612 y 0,315 respectivamente, mayores a 0,05, que indican que se tiene una
igualdad de varianza poblacional, por lo tanto los datos son homogéneos.
DETERMINACIÓN DE PRECISIÓN
La medición de la precisión es expresad en términos de imprecisión o calculada como una
desviación estándar de los resultados de ensayo. Una mayor desviación estándar refleja una
menor precisión. Se desarrollara según ISO 5725-1
La desviación estándar de repetibilidad a calcular es:
𝑝 2
∑𝑖=1(𝑛𝑖𝑗 −1)𝑆𝑖𝑗
𝑆𝑟𝑗 = √ 𝑝
∑𝑖=1(𝑛𝑖𝑗 −1)
1 𝑝
Dónde: 𝑆𝑖𝑗2 = 𝑝−1 ∑𝑖=1(𝑦̅ − 𝑦̿)2
𝑝
1 𝑝 ∑𝑖=1 𝑛𝑖𝑗 2
𝑛̿𝑗 = 1−𝑝 [∑𝑖=1 𝑛𝑖𝑗 − 𝑝
∑𝑖=1 𝑛𝑖𝑗
]
Ratio de precisión:
𝑆.𝐷
𝑅𝑎𝑡𝑖𝑜 =
𝑆𝑟
En la tabla N° 4-12, los resultados obtenidos de la prueba de RSD Horwitz de cada etapa nos
muestran, que son datos precisos.
REPETIBILIDAD Y REPRODUCIBILIDAD DE LOS RESULTADOS DE ENSAYOS DE CADA FASE
Para la determinación de repetibilidad y reproducibilidad se calculara la desviación estándar de
cada uno respectivamente.
Desviación estándar de Repetibilidad:
𝑝 𝑝
𝑆𝑟 = √∑𝑖=1(𝑛𝑖 − 1)𝑆𝑖2⁄∑𝑖=1(𝑛𝑖 − 1)
Dónde:
Dónde:
𝑆𝑖2 = Desviación estándar de los resultados de ensaye obtenidos de cada analista.
𝑛𝑖 = Número de repeticiones.
𝑝 = Número de analistas
𝑦̅𝑖 = Promedio
Los datos referenciales se tomaran de las etapas I y III primera fase y la segunda de las etapas II y
IV con resultados del análisis de 60 repeticiones.
Donde la desviación relativa de la reproducibilidad y repetibilidad están denotado por por las
desviaciones estándares respectiva entre el promedio por el 100%.
𝑆
𝑅𝑆𝐷𝑍 = ̅𝑍 ∗ 100%
𝑚
𝑅𝑆𝐷𝑅 = 0,3%
𝑅𝑆𝐷𝑟 = 0,3%
PRUEBA DE ESPECIFIDAD
Se realiza muy frecuentemente en técnicas instrumentales como: espectrofotometría de UV o
Cromatografía liquida.
PRUEBA DE SELECTIVIDAD
Las interferencias pueden aumentar o reducir la señal. La prueba consiste en verificar que las
interferencias no afectan significativamente la señal.
PRUEBA DE CHI CUADRADO: Para la determinación de esta prueba se toma como referencia los
valores de la tabla N°IV-19, que es la cantidad de repeticiones que se reproducen en la
determinación del analito en las etapas. Para la prueba se utilizará el siguiente estadístico:
(𝑂𝑖 −𝐸𝑖 )2
𝑋 2 = ∑𝑘𝑖=1 𝐸𝑖
Gráfico N° IV-20 Resultado de valores Repetitivos
Siendo:
𝑋 2 = 7,042 (Chi − Sq)
Donde los valores de la tabla de la distribución Chi _ Cuadrado con 𝑣 = (ℎ − 1)(𝑘 − 1) = 3
(grados de libertad), al 95% de confianza es:
𝑋 2 (95) = 7,81
Siendo el método selectivo y no específico al comparar los resultados observados que el valor de
chi-cuadrado de tablas es mayor con el valor parcial de chi- cuadrado obtenido.
DETERMINACIÓN DE LINEALIDAD
El parámetro de linealidad se aplica con mayor frecuencia a métodos analíticos que utilizan
equipos de instrumentación, ya que cuentan con dos variables por ejemplo la concentración y
absorbancia. Los métodos gravimétricos y volumétricos (conocidos como vía clásica), no
requieren de la evaluación de linealidad, por lo que cuenta solo con una variable.
SENSIBILIDAD
La sensibilidad se cuantifica mediante un coeficiente que es determinado por la siguiente manera:
𝜕𝑅𝑒𝑠𝑝𝑢𝑒𝑠𝑡𝑎 𝑑𝑦
𝑆𝑒𝑛𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 = 𝜕𝐶𝑜𝑛𝑐𝑒𝑛𝑡𝑟𝑎𝑐𝑖ó𝑛 = 𝑑𝑥 (4.23)
DETERMINACIÓN DE ROBUSTEZ
Los factores que se toman en cuenta para la verificación de la robustez del método se muestran
en la tabla N° 4-14.
Para determinar la robustez del método, se verifica la distribución normal de los resultados de la
tabla N°4-1 con la prueba de Anderson-Darling.
En el gráfico N° IV-22 observamos que los resultados de dos 𝑃𝑣𝑎𝑙𝑢𝑠 0,788 y 0,484; obtenidos del
estadístico de Kruskal-Wallis; comparados con el criterio de decisión de la tabla N° 4-15; los
valores son mayores a 0,05, lo cual indica que el método es robusto.
Gráfico N° IV-22 Estadístico de Kruskal - Walls
DETERMINACIÓN DE INCERTIDUMBRE
Existen dos formas para determinar la incertidumbre. El primero que hace una estimación
incertidumbre (Incertidumbre Global) mediante métodos y técnicas estadísticas, normalmente
halladas a partir de los resultados de las repeticiones. El segundo estima la incertidumbre
(Incertidumbre Expandida) la cual toma en cuenta otras informaciones tales como certificados de
calibración, especificaciones de los fabricantes, especificaciones de cálculos e informaciones
publicadas sobre la determinación de incertidumbre.
Incertidumbre Expandida
2 2 2 2
𝑈(%𝑍𝑛) = √𝑢(𝑇) + 𝑢(𝐵) + 𝑢(𝑏) + 𝑢(𝐴) (4.26)
Donde:
𝑈(%𝑍𝑛) : Incertidumbre estándar.
𝑈(𝑇) ∶ Incertidumbre de la titulación.
𝑈(𝐵) : Incertidumbre de Bureta.
𝑈(𝑏) : Incertidumbre de Balanza.
𝑈(𝐴) ∶ Incertidumbre entre analistas. (Desviación estándar de reproducibilidad)
Para un nivel de confianza del 95% y para un factor de cobertura K=2.
𝑈𝐸𝑥𝑝𝑎𝑛𝑑𝑖𝑑𝑜 = ±𝑈(%𝑍𝑛) (4.27)
Incertidumbre Global
𝜎
𝑈 = 𝐶𝑖 ∗ (4.28)
√𝑛
Dónde:
𝑈 : Incertidumbre global.
𝐶𝑖 : Coeficiente de incertidumbre.
𝑛 : Número de repeticiones.
𝜎 : Desviación estándar.
De la ecuación anterior podemos determinar el Coeficiente de incertidumbre entonces la
incertidumbre global estará denotado por:
𝜎
𝑈(𝐺𝑙𝑜𝑏𝑎𝑙) = 𝑥̅ ± 𝑡(𝑛−1; 𝛼) ∗ 𝑛 (4.29)
2 √
Dónde:
𝑈(𝐺𝑙𝑜𝑏𝑎𝑙) : Incertidumbre global.
𝑛 : Número de repeticiones.
𝜎 : Desviación estándar.
𝛼 : Nivel de confianza (95%)
𝑥̅ ∶ Promedio Global.
𝑡 : Distribución t-Student Inversa que esta como función de la probabilidad frente a los
grados de libertad.
Gráfico N° IV-26 Resumen Estadístico
El valor 𝑡 es un valor determinado por la función estadística del Excel DISTR.INV (probabilidad;
grado de libertad).
Dónde:
𝜎
𝑡∗ = 0,03688736
√𝑛
𝜎
El Límite de Inferior es: 𝑥̅ − 𝑡 ∗ 𝑛 = 54,30
√
𝜎
El Límite de Superior es: 𝑥̅ + 𝑡 ∗ = 54,36
√𝑛
𝑈(𝐺𝑙𝑜𝑏𝑎𝑙) = 54,322 +/−0,03699.
BIBLIOGRAFIA
Murray R. Spigel, Larry J. Stephens, Estadística, Editorial Mc Graw Hill, Tercera edición
José Camero Jiménez, Curso Taller – validación de ensayos analíticos, Cerper , certificaciónes
del perú S.A., diciembre – 2005
http://www.uclm.es/profesorado/mdsalvador/58109/teoria/anova_un_factor-lectura.pdf
http://www.ispch.cl/sites/default/files/documento_tecnico/2010/12/Guia%20T%C3%A9cnic
a%201%20validaci%C3%B3n%20de%20M%C3%A9todos%20y%20determinaci%C3%B3n%20d
e%20la%20incertidumbre%20de%20la%20medici%C3%B3n_1.pdf [CONSULTA 12/11/2012
5:00pm]
http://www.uclm.es/profesorado/mdsalvador/58109/teoria/anova_un_factor-lectura.pdf
[CONSULTA 13/11/2012 8:00pm]
http://www.slideshare.net/carlosroquehn/introduccion-a-la-validacion-de-metodos-de-
ensayo-13500574 [CONSULTA 12/11/2012 7:30pm]
http://www.ema.org.mx/descargas/guias_tecnicas/ensayos_clinicos/laboratoriosclinicosv00.
pdf [CONSULTA 13/11/2012 2:00am]
http://www.suelos.org.ar/adjuntos/validacion_metodos_analiticos.pdf [CONSULTA
13/11/2012 5:00am]
http://www.galenica.cl/QC/2008/eventos/taller3/validacion_metodos_analiticos.pdf
[CONSULTA 13/11/2012 10:00pm]
ANEXOS