Está en la página 1de 62

TEMA 10: HERRAMIENTAS PARA ASEGURAR LA

COMPARABILIDAD DE DATOS ANALÍTICOS


- Introducción
- Contrastes de significación
- Hipótesis nula
- Errores  y : hipótesis alternativa
- Contrastes de una cola y dos colas
- Tipos de contrastes de significación
- Contrastes para detectar datos anómalos
- Contraste de Dixon
- Contraste de Grubbs
- Contraste para la comparación de varianzas
- Contrastes para la comparación de dos medias:
- Comparación de una media experimental con un valor conocido
- Comparación de dos medias experimentales
- Comparación de datos emparejados
- ANOVA (análisis de la varianza) para la comparación de varias medias
INTRODUCCIÓN

Una de las propiedades más importantes de un método analítico es


que esté libre de errores sistemáticos

Aún en ausencia de errores sistemáticos, los errores aleatorios


hacen poco probable que la cantidad medida sea exactamente la
verdadera

Para evaluar si la diferencia entre la cantidad medida y la cantidad


conocida es significativa (errores sistemáticos) o si se puede justificar
sólo por variaciones aleatorias (errores aleatorios)

Contraste de significación
(proceso en el que se aplica una prueba estadística)
CONTRASTES DE SIGNIFICACIÓN
Se trata de una prueba estadística que evalúa si la diferencia observada entre
un descriptor muestral (“ x“ o “s”) con un valor de referencia o con otro/s
descriptor/es muestrales (“ x“ o “s”) es significativa. Para ello, se establece una
hipótesis de partida (hipótesis nula, Ho) y se prueba la veracidad de dicha
hipótesis
La Ho establece que los valores comparados son iguales y que las
únicas diferencias que se observan entre ellos son debidas al azar

Paso 1 Establecer Ho

Comparación de dos varianzas muestrales, Ho: s12 = s22


Comparación de dos medias muestrales, Ho: x1  x 2
Comparación de una media muestral y un valor de referencia, Ho: x1  x r

Calcular la probabilidad de que la diferencia observada entre


Paso 2
los valores comparados sea debida a errores aleatorios

Aplicación de una prueba estadística: obtención de estadístico “t”, “F” o “Q”


Establecer un nivel de significación (α)
Paso 3 VALOR CRÍTICO
o nivel de confianza

Probabilidad o riesgo de que, siendo cierta la hipótesis


nula, ésta se rechace incorrectamente.

Normalmente, la hipótesis nula se rechaza cuando la probabilidad de que la


diferencia entre los valores comparados pueda ser justificada por los errores
aleatorios sea menor al 5% y  = 0.05

Para estar aún más seguro de que estamos tomamos la decisión adecuada, se
puede utilizar un nivel de significación más pequeño, 1% ( = 0.01) o 0.1% ( =
0.001)
El nivel de significación ()

proporciona la probabilidad de rechazar una Ho siendo cierta


De aquí deriva, conceptualmente, la expresión
si las diferencias son significativas al nivel 0.05 o 5%

El nivel de confianza (1-) = P


IZQUIERDA DEL VALOR CRÍTICO

proporciona la probabilidad de aceptar una Ho siendo cierta


De aquí deriva, conceptualmente, la expresión si hay o no hay
diferencias estadísticamente significativas con un grado de
IZQUIERDA DEL DERECHA DEL confianza del 0.95 o 95%
VALOR CRÍTICO VALOR CRÍTICO

Nivel de significación: 5%
Nivel de Nivel de
confianza (P ) significación (α)
Nivel de confianza: 95%
Paso 4 Comparar el parámetro estadístico calculado con el correspondiente
al nivel de significación establecido (VALOR CRÍTICO/TABULADO)

Si el parámetro estimado no supera el Si el parámetro estimado supera el


parámetro establecido (VALOR parámetro establecido (VALOR
CRÍTIVO/TABULADO) para un CRÍTICO/TABULADO) para un
determinado nivel de significación (α) determinado nivel de significación (α)

Se mantiene la Se rechaza la
hipótesis nula hipótesis nula

Se acepta Se rechaza Ho
Ho

Nivel de Nivel de
confianza significación (α)
Valor crítico
(tabulado)
Rechazar la hipótesis nula es aseverar que la hipótesis no es cierta,
es decir, que hay errores sistemáticos

Aceptar la hipótesis nula es dejar en el aire la certeza o no de la


hipótesis nula, solamente no se ha podido demostrar que sea falsa
Errores  y : hipótesis alternativa
Error tipo I (error α): es la tolerancia que se establece antes de realizar
el test y se define como el error que se produce cuando se rechaza
una Ho aún siendo cierta.
La probabilidad de cometer un error
de Tipo I es “α” y se le llama nivel o
ACEPTO: no hay error tamaño de significación
Ho verdadera α = P(error Tipo I) = P(rechazar H0 |
RECHAZO: error tipo I/ H0 es verdadera)

ACEPTO Ho RECHAZO Ho
Ho: x = μ

Error
tipo I o error 

x cri
ACEPTO: error tipo II
Ho falsa
RECHAZO: no hay error

Error tipo II (error ß): es el error que se produce al mantener una Ho aún
siendo falsa y rechazar una H1 siendo verdadera.
H1: x ≠ μ

HIPÓTESIS ALTERNATIVA (H1) H1: x = μ*

RECHAZO Ho
ACEPTO Ho
ACEPTO H1
Existe interdependencia
entre los errores tipo I y
II

μ x cri μ*
La única forma de disminuir
ambos errores es aumentar el
tamaño de la muestra

Al aumentar el número de
datos, la desviación estándar
de la media disminuirá y la
campana se hará más
pequeña, es decir, los datos
estarán más concentrados
alrededor del valor central
disminuyendo ambos errores
Contrastes de una cola y dos colas

Las pruebas estadísticas pueden contrastar dos cosas sin tener una idea
preconcebida de si la diferencia entre ellas es positiva o negativa o si es en
cualquier dirección.

Contraste de dos colas o bilateral

Si al aplicar una prueba estadística para comparar dos parámetros ya se sabe


que la diferencia solo puede ser en una sola dirección.

Contraste de una cola o unilateral

Para un valor dado de muestras (n) y un nivel de probabilidad concreto (), el


valor crítico para un contraste unilateral difiere del de un contraste bilateral
-¿Existe diferencia entre un valor dado (µ1) y la media aritmética (X1) de un
conjunto de resultados?

En este caso no se especifica si la diferencia es mayor o menor y el riesgo


podrá darse en ambos extremos TEST DE DOS COLAS
El riesgo es el mismo
pero en el contraste de -¿Es la media de un conjunto de resultados
una cola está a un solo (X1) mayor que un valor determinado (µ1) ?
lado y en el de dos
colas está repartido a
ambos lados Solo se plantea la posibilidad de si es
mayor y el riesgo solo se establece en un
extremo.
TEST DE UNA COLA

La H1 en un contraste de una cola son


diferentes a las establecidas si el
contraste es de dos colas

Ho H1
Una cola x1 = x2 x1 < o > x2
Dos colas x1 = x2 x1 ≠ x2
Ejemplo

Una muestra de un lote de Na2CO3 dio los siguientes resultados:

100.3% 99.5% 100.1% 100.0% 99.4%


99.9% 99.7% 100.1% 99.4% 99.5%

¿Sé puede garantizar que el lote de Na2CO3 es puro (100% )?

La Ho : μ = media = 100%. Lógicamente la media no podrá ser nunca mayor de


100% que es la máxima pureza, por lo que se tratará de una prueba de una cola.

Con los datos citados anteriormente, determinar la pureza del lote de Na2CO3

En este caso, se trataría de una prueba de dos colas.


Tipos de contrastes de significación

Contrastes de significación

Es una prueba estadística que contrasta si son significativas las diferencias


entre dos resultados (es decir, además de los errores aleatorios hay errores
sistemáticos) o si se pueden justificar solo por variaciones aleatorias.

Tipos

Comparación de una media experimental con un valor conocido (test-t)


Comparación de dos medias experimentales (test-t)
Comparación de datos emparejados o pareados (test-t)
Comparación de desviaciones estándar (test-F)

Contraste de Dixon (test-Q)

Contraste de Grubbs (test-G)


Análisis de la varianza (ANOVA de un factor)
Análisis de la regresión (Tema 11)
Tipos de contrastes de significación

Comparan Comparan Comparan Estimación


dos medias distancias desviaciones datos
estándar anómalos

test-F test Q-Dixon


¿Errores ¿Errores test Grubbs
sistemáticos? sistemáticos?

- Comparación de una
media con un valor
conocido Comparación de
datos pareados
- Comparación de dos
medias

test-t
CONTRASTES PARA DETECTAR DATOS ANÓMALOS
En el trabajo analítico es muy frecuente que uno o más resultados que se
obtienen de un conjunto de medidas difiera del resto de forma
inexplicable.

Datos anómalos obvios


(Error humano)
12.12 12.15 12.13 13.14 12.12

Resultados anómalos o “outliers”

¿Debemos conservar los datos anómalos o debemos buscar algún procedimiento


para comprobar estadísticamente si deben ser rechazados o no?

Con fines a comprobar si un dato anómalo puede ser rechazado o no se


puede utilizar el contraste estadístico de Dixon (o contraste Q) y el contraste
estadístico de Grubbs
Contraste de Dixon (contraste “Q”)
¿Cuándo se utiliza?

- Este contraste estadístico nos permite estimar si un dato anómalo es


rechazable.

Procedimiento
1. Se establece la hipótesis nula:

Ho: todas las medidas proceden de la misma población.


H1: alguna de las medidas no pertenece a la población.

2. Se aplica la prueba estadística correspondiente en este caso para calcular el


estadístico “Q”. La expresión a utilizar variará en función del número de datos:

Ivalor
valorsospecho  valor sospechoso
cercano – más cercano I x 2  x1
Q3 / 7  
(valor más grande  valor más pequeño) x n  x1

x 2  x1 x  x1 x3  x1
Q8 / 10  Q11 / 13  3 Q14 / 30 
x n 1  x1 x n 1  x1 x n  2  x1
3. Se establece un “Qcri” ó “Qtab” para un nivel de significación o probabilidad
dado y para un tamaño de muestra “n”.

4. Se compara el valor estimado del estadístico “Q” con el “Qtab”. Si el


parámetro estimado supera ese “Qtab” entonces la Ho se rechaza y es posible
rechazar el valor sospechoso.
Ejemplo 1
Se obtuvieron los siguientes valores para la concentración de nitrito (mg/L) en
una muestra de agua de río:

0.403 0.410 0.401 0.380

La última medida es sospechosa, ¿debería ser rechazada?


0.380 0.401 0.403 0.410 (se colocan en orden)

1. Ho: todas las medidas pertenecen a la misma población


H1: alguna medida no pertenece a la población.

2. Prueba estadística
valor sospecho  valor más cercano 0.380  0.401
Qcal    0.7
(valor más grande  valor más pequeño) (0.410  0.380)
3. Para un nivel de significación de 0.05, el Q4= 0.831

4. Comparación Qest con Q4: como Qcal < 0.831, se acepta la hipótesis nula y no
se puede rechazar el valor anómalo.

Si se incluyen los siguientes datos: 0.400, 0.413 y 0.411, la nueva Qcal = 0.606
que es mayor que el Qtab = 0.570 y ahora si se puede rechazar el dato anómalo.
Ejemplo 2
Determinar si alguno de los siguientes datos es rechazable:
X1 X2 X3 X4 X5 X6 X7 X8 X9 X10 X11 X12
4.3 5.7 5.9 6.0 6.0 6.4 6.6 6.8 7.1 7.2 8.4 9.7

1. Ho: todas las medidas pertenecen a la misma población.


H1: alguna medida no pertenece a la población.

2. Prueba estadística
x3  x1
Q11 / 13 
x n 1  x1

X1 = 4.3 X12 = 9.7


5.9  4.3 7.2  9.7
Q11 / 13   0.390 Q11 / 13   0.625
8.4  4.3 5.7  9.7

3. Para un nivel de significación de 0.05, el Q12= 0.479

4. Comparación Qcal con Qtab:

Se conserva el dato de “4.3” y se rechaza el dato de “9.7”


Contraste de Grubbs

¿Cuándo se utiliza?
Este contraste estadístico permite estimar si un dato anómalo es rechazable.
Recomendado por ISO.

Procedimiento

1. Establecer Ho: todas las medidas proceden de la misma población.


H1: alguna medida no pertenece a la población.

2. Aplicar la prueba estadística correspondiente en este caso para calcular el


estadístico “G”

valor sospechoso  x
G
s
3. Se establece un “Gtab” para un nivel de significación dado.
4. Se compara el valor estimado de “G” con “Gtab”. Si el parámetro estimado
supera ese “Gtab” la Ho se rechaza y es posible rechazar el valor sospechoso.
Ejemplo 1
Se obtuvieron los siguientes valores para la concentración de nitrito (mg/L) en
una muestra de agua de río:

0.403 0.410 0.401 0.380 0.400 0.413 0.411

La última medida es sospechosa, ¿debería ser rechazada?

1. Ho: todas las medidas pertenecen a la misma población


H1: alguna medida no pertenece a la población.

2. Prueba estadística

valor sospechoso  x
G = (0.403 – 0.380)/0.0112 = 2.02
s

3. Para un nivel de significación de 0.05, el G7 (α = 0.05)= 1.94

4. Comparación Gcal con G7: Gcal > 1.94, la hipótesis nula no se cumple y se
puede rechazar el dato anómalo.
CONTRATE PARA LA COMPARACIÓN DE VARIANZAS
¿Cuándo se utiliza?
- Para comparar las varianzas de dos métodos, condiciones, muestras, etc.
distintos.
Procedimiento
1. Se establece la hipótesis nula: Ho: s12 = s22
2. Se aplica la prueba estadística correspondiente en este caso para calcular
el estadístico “F”
s12
F 2 F≥1
s2
3. Se establece un “Fcri” para un nivel de significación o probabilidad dado y
“n1-1” grados de libertad del numerador y “n2 -1” grados de libertad del
denominador.

Ejem., para un α = 0.05, 6 grados de libertad del numerador y 5 grados de


libertad del denominador, el Ftab= 6.978 si el contraste es de dos colas y Ftab=
4.950 si el contraste es de una cola.
4. Se compara el valor estimado del estadístico “F” con el “Ftab” Si el parámetro
estimado no supera ese “Ftab” entonces la Ho se acepta.
Ejemplo 3
El Fe (III) en un citrato férrico amónico se determina por tratamiento con KI y valorando el I2 liberado
con S2O32-, usando almidón como indicador. Se recomienda que la mezcla permanezca en reacción un
cierto tiempo antes de ser valorada. Para investigar la influencia de este tiempo de espera se hicieron 2
series de determinaciones: A, valorando inmediatamente después de la mezcla y B, valorando al cabo
de 30 min. Los resultados obtenidos fueron:

A (% Fe): 13.36 13.33 13.56 13.53 13.43 13.30 13.43

B (% Fe): 13.86 13.99 13.88 13.91 13.89 13.94 13.80 13.89


¿Existen diferencias significativas entre las varianzas obtenidas en el experimento A y B?

x A  13.42 s A2  9.667 x10 3 nA = 7

x B  13.895 s B2  3.114 x10 3 nB = 8


Hacer un test para
1. Ho: sA2 = sB2 H1: sA2 ≠ sB2
comparar las varianzas

2. Prueba estadística

Fcal = S12/S22 = (9.667x10-3)/(3.114x10-3) = 3.10


Fcal < Ftab
Ftab (0.05, contraste de dos colas) = 5.12

Se puede considerar que las varianzas no difieren estadísticamente


CONTRASTES PARA LA COMPARACIÓN DE MEDIAS
Comparación de una media experimental con un valor conocido

¿Cuándo se utiliza?

- Demostración de la exactitud de resultados obtenidos en el


laboratorio.

- Demostración de la trazabilidad de un material de referencia.

- Comparación de resultados obtenidos con una muestra con un


valor de la legislación o con un material de referencia certificado.

Requisito

- Los datos deben mostrar una distribución normal: dibujar el


histograma, el gráfico de probabilidad normal o obtener datos de
asimetría estadística y curtosis (Statgraphics).

- Comprobar que no hay datos anómalos: test Q o test de Grubbs.


Procedimiento

1. Se establece la hipótesis nula y la alternativa: Ho: x1   H1: ?


2. Se aplica la prueba estadística correspondiente en este caso para calcular
el estadístico “t”
(x  ) n
t
s
3. Se establece un “tcri” o “ttab” para un nivel de significación () o
probabilidad dado y “n-1” grados de libertad

Ejemplo. Para un tamaño muestral de 10 (9 grados de libertad) y un nivel de


significación α = 0.01, el valor crítico para el parámetro estimado “t” es t9 =
3.25.
4. Se compara el valor estimado del estadístico “t” con el “tcri” Si el parámetro
estimado no supera ese “ttab” entonces la Ho se acepta.

Los programa estadísticos permiten también hacer este cálculo pero en vez de
estimar un “t” que comparan con un “tcri” de las tablas, lo que hacen es dar la
probabilidad (p-valor) de que el “tcri” sea mayor al ”t “ calculado. Si esa
probabilidad es grande, Ho se cumple pero si la probabilidad es inferior al nivel
de significación () establecido, entonces, la Ho se tiene que rechazar.
Ejemplo 4
En un nuevo método para determinar selenourea en agua, se obtuvieron los
siguientes valores para muestras de agua de grifo adicionadas con 50 ng/mL de
selenourea:

50.4 50.7 49.1 49.0 51.1 ng/mL μ


¿Hay alguna evidencia de error sistemático?

1. Ho: μ = x H1 : µ ≠ x Contraste de dos colas!!!

2. Prueba estadística: test t para comparar un valor medio con un valor de


referencia.
3. Se comprueba si hay datos anómalos y la normalidad de los mismos
x = 50.06 valor sospechoso  x
S = 0.955
G = (51.5 – 50.06)/0.955 = 1.51
s
G5 (α = 0.05)= 1.67 No se rechaza el valor!!!!

Sesgo Estandarizado -0,283159


Datos normales!!!!
Curtosis Estandarizada -1,28132
4. Cálculo de “tcal”

x = 50.06% ( x   ) n (50.06  50) 5


t cal    0.14
s = 0.956 s 0.956

5. Para un nivel de significación de 0.05 y 4 grados de libertad (contraste de dos


colas),
t4= 2.78

4. Comparación tcal con t4:

Como tcal < 2.78, se acepta la hipótesis nula para un nivel de significación de 0.05
(se asume un riesgo del 5% de que estemos rechazando la Ho siendo cierta).

El método mide sin evidencia de error sistemático la selenourea en agua


Una manera de notificar los resultados de una prueba de hipótesis
es establecer si la hipótesis nula fue o no rechazada con un nivel
especificado (α) de significación

Una alternativa es especificar el nivel de significación más


pequeño al que conduce el rechazo de la hipótesis nula dar el p-
valor
ZONA ZONA
ACEPTACIÓN RECHAZO
SE ACEPTA Ho

tcal< ttab
ttab p-valor p-valor > α
tcal α
x

ZONA
ZONA SE RECHAZA Ho
RECHAZO
ACEPTACIÓN
tcal > ttab

ttab p-valor < α


tcal
α p-valor

x
Resolución del ejemplo 4 con Statgraphics
(descripción  datos numéricos  análisis de una variable)

Tamaño de muestra = 5
Media = 50.06
Desviación típica = 0.95551

contraste t
-----------
Hipótesis nula: media = 50.0
Alternativa: no igual

Estadístico t = 0.140411
p-valor = 0.895122

No se rechaza la hipótesis nula para alpha = 0.05 SE ACEPTA Ho


Ejemplo 5
Se sospecha que un método de valoración ácido-base tiene un error de
indicador significativo y, por tanto, tiende a dar resultados con un error
sistemático positivo. Para comprobar esto se utiliza una disolución
exactamente 0.1 M de ácido para valorar 25.00 mL de otra disolución
exactamente 0.1 M de una base con los siguientes resultados (mL):

25.06 25.18 24.87 25.51 25.34 25.41

Contrastar la existencia de sesgo positivo en estos casos. Suponer que los


datos no son anómalos y pertenecen a distribución normal.
1. Ho: μ = x = 25.00 H1 : x > µ Contraste de una cola!!!
2. Prueba estadística
   
Media: 25.23 mL 2.35
Desviación estándar: 0.24 mL
3. Para un nivel de significación dado de 0.05, contraste de una cola) y 5
grados de libertad,
t5= 2.02

4. Comparación tcal con t5: como tcal > 2.02, se rechaza la hipótesis nula.
El método de valoración muestra un error sistemático
Resolución del ejemplo 5 con Statgraphics
(descripción  datos numéricos  análisis de una variable)

Tamaño de muestra = 6
Media = 25.2283
Desviación típica = 0.238279

contraste t
-----------
Hipótesis nula: media = 25.0 Cambiar en
Alternativa: mayor que (H1: ẋ > µ) “Opciones de ventana”

Estadístico t = 2.34725
p-valor = 0.0328925

Se rechaza la hipótesis nula para alpha = 0.05. SE RECHAZA Ho


SE ACEPTA H1
Comparación de dos medias experimentales

¿Cuándo se utiliza?
- Comparar si los resultados que se obtienen cuando una misma
muestra se analiza por dos métodos diferentes, dos analistas
diferentes, etc. coinciden estadísticamente (solo se varía una
variable)
- Comparación de dos métodos analíticos diferentes
- Comparación de nuestro método analítico con uno de referencia
- Comparación de nuestro método analítico con uno oficial
- Comparación de dos muestras distintas analizadas con un mismo
método
Requisitos

- Los datos correspondientes a ambas medias deben mostrar


distribuciones de probabilidad normal: dibujar el histograma, el
gráfico de probabilidad normal o obtener datos de asimetría
estadística y curtosis (Statgraphics).
- Comprobar que no hay datos anómalos: test Q o test de Grubbs.
Procedimiento
1. Se establece la hipótesis nula: Ho: x1  x 2 H1: ?
2. Se aplica la prueba estadística correspondiente en este caso para calcular
el estadístico “t”.

s21 ≠ s22
s2 1 = s2 2

( x1  x2 ) ( x1  x2 ) Test de
t t Cochran
1 1 s12 s22
s  
n1 n2 n1 n2
s2 s2 2
(n1  1) s  (n2  1) s
2 2
( 1  2)
s2  1 2 n
1
n
2
(n1  n2  2) grados libertad 
s 4 s4
( 1  2 )
Grados libertad “t”: n1 + n2 -2 n 2 ( n  1) n 2 (n  1)
1 1 2 2

3. Se establece un “ttab” para un nivel de significación o probabilidad dado y


unos grados de libertad determinados.
4. Se compara el valor estimado del estadístico “t” con el “ttab” Si el parámetro
estimado no supera ese “ttab” entonces la Ho no se rechaza.
Ejemplo 6
Para la determinación de estaño en productos alimenticios, las muestras fueron llevadas
a ebullición con HCl durante diferentes tiempos. Los resultados fueron:

Tiempo de reflujo (min) Estaño (mg/Kg)


30 55, 57, 59, 56, 56, 59
75 57, 55, 58, 59, 59, 59

¿Es significativamente diferente la cantidad de estaño encontrada a los dos tiempos?


Suponer que los datos no son anómalos y pertenecen a distribución normal.
1. Ho: ̅x1 = ̅x2 H1 : x1 ≠ x2 Contraste de dos colas!!!
2. Prueba estadística: test-t de comparación de 2 medias

Hay que hacer un test “t” para comprar las medias. Para elegir el test “t” adecuado, hay que
comparar previamente las varianzas de ambos métodos  utilizar un test F

3. Se comprueba la normalidad de los datos y la ausencia de datos anómalos


x = 50.06 valor sospechoso  x = (57.83 – 55)/1.60 = 1.77
S = 0.955
G
s
G6 (α = 0.05)= 1.82 No se rechaza el valor!!!!

Sesgo Estandarizado 0,384181 -1,35376


Datos normales!!!!
Curtosis Estandarizada -0,892857 0,619835
Test-F

30 min x
̅ 1 = 57.00 s1 = 2.80
2 Ho: σ2 = σ2  1 2 2.80
1 2 FCAL  2   1.09
75 min x̅ 2 = 57.83 s22 = 2.57 H1: σ21 ≠ σ22  2 2.57

Para α = 0.05 (contraste de dos cola) y 5 g. l. en numerador y denominador, FTAB = 7.15


Como el FCAL < FTAB, se acepta la hipótesis nula, las varianzas son iguales

Test-t ( x1  x 2 ) 57.00  57.83


t   0.88
1 1 1 1 OJO, error
s  1.64 
n1 n 2 6 6 habitual!!!

(n1  1) s12  (n2  1) s22 5 x 2.80  5 x 2.57


s 
2
  2.685 s  2.658  1.64
(n1  n2  2) 10

3. Para un nivel de significación dado de 0.05, (contraste de dos colas) y 10


grados de libertad, t10= 2.23

4. Comparación tcal con tcrit: como 0.88 < 2.23, se acepta la hipótesis nula.

En el ensayo para determinar el contenido en estaño, el


tiempo de ebullición no afecta al resultado
Resolución del ejemplo 6 con Statgraphics
(comparar  dos muestras  muestras independientes)
Tamaño de muestra 6 6
Media 57.0 57.8333
Varianza 2.8 2.56667
Desviación típica 1.67332 1.60208

Comparación de Desviaciones Típicas


-----------------------------------
GL 5 5
95.0% Intervalos de Confianza

Hipótesis nula: sigma1 = sigma2


(1) Hipótesis alt.: sigma1 <> sigma2

F = 1.09091 p-valor = 0.926281: No existen diferencias significativas entre


las varianzas
Comparación de medias
Especificar en
Hipótesis nula: media1 = media2 “Opciones de ventana” que las
varianzas son iguales
Hipótesis alt.: media1 <> media2
t = -0.881134 p-valor = 0.398928 SE ACEPTA LA Ho
Ejemplo 7
Los datos de la siguiente tabla proporcionan la concentración de tiol (mM) en el
lisado sanguíneo de dos grupos de voluntarios, siendo el primero sano y el
segundo con artritis reumatoide:

Sano 1.84, 1.92, 1.94, 1.92, 1.85, 1.91, 2.07 (n = 7)


Reumatoide 2.81, 4.06, 3.62, 3.27, 3.27, 3.76 (n = 6)

¿Existen diferencias significativas entre las concentraciones de tiol observadas


en los dos grupos? Suponer que los datos no son anómalos y pertenecen a
distribución normal.
1. Ho: ̅xsano = x
̅ reumatoide H1 : xsano ≠ xr eumatoide Contraste de dos colas!!!
2. Prueba estadística
Hay que hacer un test “t” para comprar las medias. Para elegir el test “t” adecuado, hay que comparar previamente
las varianzas de ambos métodos  utilizar un test F

sano x
̅ 1 = 1.92 s21= 0.006
reumatoide x
̅ 2 = 3.46 s22= 0.194

Test-F
 1 2 0.194
Ho: σ2 1 = σ2 2 FCAL  2   32
2 0 .006
H1: σ21 ≠ σ22
Para un nivel de significación dado de 0.05 (contraste de dos cola) y 5 grados de
libertad en el numerador y 6 en el denominador, Ftab= 5.99

Como el Fcal > Ftab, se rechaza la hipótesis nula, las varianzas son diferentes!!!!

Test-t
s2 s2 2
( 1  2)
( x1  x 2 ) (1.921  3.465) n
1
n
2
t cal    8.48 grados libertad 
4 4
 5.3
s s
s 2
s 2
0.0057 0.1940 1  2

1 2  (
2 2
n ( n  1) n (n  1)
)
n1 n 2 7 6 1 1 2 2

3. Para un nivel de significación dado de 0.05 (contraste de dos cola) y 5


grados de libertad, t5= 2.57

4. Comparación tcal con t5: como tcal > 2.57, se rechaza la hipótesis nula.

Existe diferencia significativa entre la concentración de tiol


encontrada en la sangre de personas sanas y la encontrada
en la sangre de personas con artritis reumatoide
Resolución del ejemplo 7 con Statgraphics
(comparar  dos muestras muestras independientes)
Tamaño de muestra 7 6
Media 1.92143 3.465
Varianza 0.00571429 0.19403
Desviación típica 0.0755929 0.440488

Comparación de Desviaciones Típicas


-----------------------------------
GL 6 5
95.0% Intervalos de Confianza

Hipótesis nula: sigma1 = sigma2


(1) Hipótesis alt.: sigma1 <> sigma2

F = 0.0294505 p-valor = 0.000502101; existen diferencias significativas


entre las varianzas
Especificar en
Comparación de Medias “Opciones de ventana” que las
--------------------- varianzas son diferentes
Hipótesis nula: media1 = media2
Hipótesis alt.: media1 <> media2 SE RECHAZA LA Ho
t = -8.47724 p-valor = 0.000293656 SE ACEPTA H1
COMPARACIÓN DE DATOS EMPAREJADOS/PAREADOS
¿Cuándo se utiliza?
- Esta prueba de significación nos permite comparar dos métodos diferentes a
través de la comparación de los resultados obtenidos con diferentes muestras
analizadas por ambos métodos.

En la comparación de medias no se tienen en cuenta las variaciones debidas al


propio individuo sino las derivadas únicamente de métodos, condiciones, etc.
distintos. En la comparación de datos pareados se tienen en cuenta ambas
variaciones, las del individuo y las del métodos, condiciones, etc.

Requisitos

- Las diferencias, d, deben seguir una distribución normal.


- Los datos originales deben pertenecer a un intervalo pequeño de
concentraciones/medidas: errores independientes de la concentración.
- Deben realizarse el mismo número de medidas sobre cada muestra con el
primer y el segundo método.
- Comprobar que no hay datos anómalos: test Q o test de Grubbs.
MUESTRA 1 MUESTRA 2 MUESTRA 3 MUESTRA 4

Método A XA1 XA2 XA3 XA4

Método B XB1 XB2 XB3 XB4

XA1-XB1 XA2-XB2 XA3-XB3 XA4-XB4

d1 d2 d3 d4

Si la diferencia entre los valores de “d” no son


significativos y se pueden justificar por los d 0
errores aleatorios, se debe cumplir que
Procedimiento
1. Se establece la hipótesis nula: Ho: d 0 H1: ?
2. Se aplica la prueba estadística correspondiente en este caso para calcular
el estadístico “t”

d n
t
sd
3. Se establece un “tcri” o “ttab” para un nivel de significación o probabilidad
dado y “n-1” grados de libertad.
4. Se compara el valor estimado del estadístico “t” con el “tcri” Si el parámetro
estimado no supera ese “tcri” entonces la Ho no se rechaza.
Ejemplo 8
Se quiere comparar si un fármaco produce un descenso de Fe(III) en sangre.
Para ello, se determina el contenido en Fe antes y después del tratamiento sobre
una muestra de 6 individuos:

Pre: 10.20 12.50 11.80 14.70 11.80 10.80

Post: 10.15 12.42 11.10 14.10 11.74 10.10


La diferencia (d) entre cada par de valores es: Cada par de
resultados procede
0.05 0.08 0.70 0.60 0.06 0.70 de un mismo
individuo
1. Ho: d 0 H1 : d > 0

2. Prueba estadística: d n 0.365 6


t cal    2.69
d  0.365 sd = 0.33 sd 0.3326

3. Para un nivel de significación dado de 0.05 (contraste de una cola) y 5


grados de libertad, t5= 2.02

4. Comparación tcal con t5: como tcal > 2.02, se rechaza la hipótesis nula.
El fármaco disminuye el contenido de Fe (III) en sangre
Resolución del ejemplo 8 con Statgraphics
(comparar  dos muestras  muestras pareadas)

Tamaño de muestra = 6
Media = -0.365 Media de las diferencias
Varianza = 0.11063
Desviación típica = 0.332611

contraste t
-----------
Hipótesis nula: media de las diferencias = 0.0
Alternativa: mayor que Cambiar en
“Opciones de ventana”

Estadístico t = -2.68802
p-valor = 0.0217

Se rechaza la hipótesis nula para alpha = 0.05.

SE RECHAZA LA Ho
SE ACEPTA H1
ANOVA (ANÁLISIS DE LA VARIANZA) PARA LA
COMPARACIÓN DE VARIAS MEDIAS
¿Cuándo se utiliza?
permite comprobar si dos medias
Test-t
difieren significativamente
Análisis de la Varianza
permite comprobar si muchas medias
(ANOVA)
difieren significativamente
Ejem.

- Comparación de la concentración media de un analito en muestras


almacenadas en condiciones diferentes.

- Comparación de los resultados medios obtenidos de la concentración de un


analito utilizando diferentes métodos.

- Comparación de la media de los resultados obtenidos por diferentes


operadores bajo las mismas condiciones.

En todos estos ejemplos existen dos posibles fuentes de variación


Ejem. de prácticas: concentración de polifenoles en un mismo vino tinto
determinada por diferentes grupos de laboratorio

-
Grupo 1: X11 X12 X13 X14 X15 X1 s1
-
Grupo 2: X21 X22 X23 X24 X25 X2 s2
-
Grupo 3: X31 X32 X33 X34 X35 X3 s3
-
Grupo 4: X41 X42 X43 X44 X45 X4 s4
-
Grupo 5: X51 X52 X53 X54 X55 X5 s5

……….

2 fuentes de variación: - El grupo


- Variabilidad dentro de cada grupo
Dos posibles fuentes de variación

Errores
aleatorios de la Factor controlado
medida o de efecto fijo

- condiciones de almacenamiento
- método de análisis
- operadores

Variabilidad de datos El grupo


dentro de cada grupo

Ejem. determinación de polifenoles


El análisis de la varianza (ANOVA) es una prueba estadística que se
utiliza para separar y estimar las diferentes causas de variación de las
medias

Separar y estimar la variación debida al error aleatorio de cualquier


otra variación que venga provocada al cambiar:

- un factor controlado
- un factor de efecto aleatorio

Supuestos establecidos al realizar los cálculos de ANOVA:


 Cada conjunto de datos es independiente de los demás.
 Los resultados para cada conjunto siguen distribuciones normales
se puede emplear el contraste F.
 Las varianzas de cada grupo de datos no difieren significativamente
son homogéneas (homocedásticas): test de Levene/Bartlett
 La variación incontrolada es aleatoria.
Ensayo de homogeneidad de Barlett

Nos permite evaluar si existen diferencias significativas entre las


varianzas de diferentes (más de dos) grupos de datos.

1. Ho: todas las varianzas son iguales (σ21 = σ22 = σ23 =………)
H1: al menos dos varianzas son diferentes

2. Prueba estadística

si = varianza de los datos o laboratorio “i” con “ni” determinaciones y “ni – 1” grados de
libertad.
N = número total de datos
k = número de series
Sp = varianza promedio
Ensayo de homogeneidad de Levene

- El ensayo de Levene es más robusto que el de Barlett y tiene una menor


dependencia del supuesto de normalidad.

- No obstante, si las muestras son normales debe utilizarse el ensayo de


Barlett que es más sensible frente a la falta de homogeneidad.

1. Ho: todas las varianzas son iguales (σ21 = σ22 = σ23 =………)
H1: al menos dos varianzas son diferentes

2. Prueba estadística
(diferencia entre cada dato de
una serie y su mediana)

(media de las diferencias para


cada serie)

N = número de datos de cada serie.


N = número total de datos.
h = número de series
Ejemplo 9: Aplicación del test ANOVA de un factor a la separación y
estimación de la variación debida al error aleatorio de la provocada
por un factor controlado (condiciones de almacenamiento).
Estabilidad de reactivo fluorescente
Condiciones Medidas repetidas Media CASO PARTICULAR
A: preparada recientemente 102, 100, 101 101
B: almacenada 1 h en la oscuridad 101, 101, 104 102
C: almacenada 1 h con luz tenue 97, 95, 99 97
D: almacenada 1 h con luz brillante 90, 92, 94 92 105 B
A
A B
100 A
Generalización a “h” C
C

Señal
muestras 95 C D
D
90 D

85
0 1 2 3 4
Condiciones

CASO GENERAL
Procedimiento

1. Establecer la Ho y la H1:

Todas las medias son estadísticamente


  x1  x 2  ....  x h iguales a la media de la población

Todas las varianzas son estadísticamente


      .....  
2
0
2
1
2
2
2
h iguales a la varianza de la población (son
homocedásticas)

La varianza observada dentro de cada


laboratorio/muestra (σ2dm) es igual a la varianza
observada entre los laboratorios/muestras (σ2em)

Ho: σ2dm = σ2em


¡¡¡¡OJO, EL TEST ANOVA SIEMPRE ES
DE UNA COLA!!!! H1: σ2dm < σ2em
Varianza dentro de laboratorios/muestras/series (σ2dm): estas
variaciones son debidas a ERRORES ALEATORIOS (factor no
controlado)

 ( xij  xi ) 2
Expresión utilizada para determinar la
 oi 2 j
varianza dentro de cada muestra
(n  1)
  oi 2 Expresión utilizada para calcular la
 odm 
2 i varianza promedio dentro de muestras
h
SUMA DE CUADRADOS
( xij  x i ) 2
DENTRO DE MUESTRAS
 2
dm
0 
i j h (n  1) Grados de libertad: h (n -1)

Condiciones Medidas repetidas Media


A: preparada recientemente 102, 100, 101 101 σ2A= 1
B: almacenada 1 h en la oscuridad 101, 101, 104 102 σ2B= 3 σ2dm = (1 +3 + 4 + 4)/4 = 3
C: almacenada 1 h con luz tenue 97, 95, 99 97 σ2C= 4
D: almacenada 1 h con luz brillante 90, 92, 94 92 σ2D= 4
Varianza entre laboratorios/muestras/series (σ2em): estas variaciones
son debidas a ERRORES SISTEMÁTICOS (factor controlado)

SUMA DE CUADRADOS
( x i  x) 2
  n
2 ENTRE MUESTRAS
0em
i (h  1) Grados de libertad: h -1

Condiciones Medidas repetidas Media


A: preparada recientemente 102, 100, 101 101
B: almacenada 1 h en la oscuridad 101, 101, 104 102
C: almacenada 1 h con luz tenue 97, 95, 99 97
D: almacenada 1 h con luz brillante 90, 92, 94 92

98

σem2 = 3 [(101-98)2 + (102-98)2 + (97-98)2 + (92-98)2] / (4-1) = 62


Resumen de sumas de cuadrados y grados de libertad

SSem =

SSdm =

SST =

SST = SS entre muestra + SS dentro muestras

σ2em = SSem / (h-1) σ2dm = SSdm / h (n-1)


2. Se aplica la prueba estadística para contrastar las varianzas: estadístico
“F” de una cola.

𝒆𝒏𝒕𝒓𝒆 𝒎𝒖𝒆𝒔𝒕𝒓𝒂𝒔

𝒅𝒆𝒏𝒕𝒓𝒐 𝒅𝒆 𝒎𝒖𝒆𝒔𝒕𝒓𝒂𝒔

Fcal = 62 / 3 = 20.7

3. Se establece un “Fcri” o “Ftab” para un nivel de significación y “h-1” grados


de libertad del numerador y “h (n -1)” grados de libertad del denominador.

α (3,8) = 0.05 Ftab = 4.066 Fcal > Ftab Rechazo Ho

Hay diferencias significativas entre las medias comparadas


- Si la hipótesis nula es correcta, estas dos estimaciones de σ2 no
debería diferir significativamente.

- Si la hipótesis nula es incorrecta, la estimación entre muestras será


mayor que la estimación dentro de las muestras.

¿Cómo detectar donde esta el resultado discrepante?

Colocar las medias en orden creciente y comparar la diferencia entre los valores
adyacentes con una cantidad llamada mínima diferencia significativa

s: desviación estándar calculada


dentro de las muestras
2 (promedio)
MÍNIMA DIFERENCIA SIGNIFICATIVA: s x t h ( n 1)
n h: número de muestras

n: número de medidas
realizadas para cada muestra ( x1  x2 )
t
Esta expresión procede de esta otra 1 1
para determinar si hay diferencia s 
significativa entre dos medias n1 n2
En nuestro ejemplo:
5 4 1

x D  92 x C  97 x A  101 x B  102
Raíz cuadrada de la
varianza dentro muestras

2 2
s x t h ( n 1)  3 x x t8 (2.31)  3.26
n 3 2 colas!!!
Condiciones Medidas repetidas Media
A: preparada recientemente 102, 100, 101 101
B: almacenada 1 h en la oscuridad 101, 101, 104 102
C: almacenada 1 h con luz tenue 97, 95, 99 97
D: almacenada 1 h con luz brillante 90, 92, 94 92

Comparando estos resultados se puede afirmar que lo que


afecta realmente a la estabilidad del reactivo es la luz
Resolución del ejemplo 9 con Statgraphics
(comparar  análisis de varianza  ANOVA simple)
Verificación de la homocedasticidad de las varianzas

Contraste de Barlett: 0.866 p-valor: 0.833 (HOMOCEDASTICIDAD)


Contraste de Levene: 0.4 p-valor: 0.756 (HOMOCEDASTICIDAD)

Frecuencia Media Varianza Desviación típica


---------------------------------------------------------------------------------------------------------
A 3 101.0 1.0 1.0
B 3 102.0 3.0 1.73205
C 3 97.0 4.0 2.0
D 3 92.0 4.0 2.0
---------------------------------------------------------------------------------------------------------
Total 12 98.0 19.0909 4.36931

Tabla del test ANOVA


------------------------------------------------------------------------------
Fuente Sumas de cuad. Gl Cuadrado Medio Cociente-F p-Valor
------------------------------------------------------------------------------
Entre grupos 186.0 3 62.0 20.67 0.0004
Intra grupos 24.0 8 3.0
------------------------------------------------------------------------------
Total (Corr.) 210.0 11
Puesto que el p-valor del test F es inferior a 0.05, hay diferencia
estadísticamente significativa entre las medias

Prueba de rangos múltiples

Col_2 Frec. Media Grupos homogéneos


--------------------------------------------------------------------------------
D 3 92.0 X
C 3 97.0 X
A 3 101.0 X
B 3 102.0 X
--------------------------------------------------------------------------------
Contraste Diferencias +/- Límites
--------------------------------------------------------------------------------
A-B -1.0 3.26119
A-C *4.0 3.26119
A-D *9.0 3.26119
B-C *5.0 3.26119
B-D *10.0 3.26119
C-D *5.0 3.26119
--------------------------------------------------------------------------------
* indica una diferencia significativa.

También podría gustarte