Está en la página 1de 52

Estadı́stica II

ESTG1037

PhD. Andrea Garcı́a Angulo 1

1 FCNM - ESPOL
Tabla de Contenidos

5. Experimentos de un factor
5.1 Análisis de un factor a efectos fijos
5.2. Pruebas múltiples
5.3 Análisis de un factor a efectos aleatorios
Objetivo

▶ Realizar y analizar un diseño experimental de un factor para


determinar la influencia que tiene sobre la respuesta de salida
de un sistema
Modelo general

▶ Variable respuesta: variable continua


▶ Una variable explicativa x categórica con r categorı́as.
Modelo de regresión:
(1) (r −1)
yi = β0 + β1 xi + . . . + βr −1 xi + ϵi , i = 1, . . . , nT

Modelo ANOVA (modelo de celdas)

yij = µi + ϵij , j = 1, . . . , ni ; i = 1, . . . , r
r
X
nT = ni
i=1
Modelo general: ejemplo

ANOVA de un factor es utilizado para investigar el efecto de este


factor comparando dos o más grupos (niveles o tratamientos) en
un diseño completamente aleatorio.
Ejemplo:

▶ Variable respuesta: resistencia a la


torsión
▶ Una variable explicativa x con 5
categorı́as: Lotes de láminas de
metal
▶ Pregunta cientı́fica: ¿Difiere la
resistencia a la torsión de las
láminas de metal por lotes?
Estimación

▶ Los parámetros pueden ser estimados usando cualquier


método de estimación. Los más comunes son, el método de
los mı́nimos cuadrados ordinarios (MCO o OLS) y la
estimación por máxima verosimilitud (EMV o MLE)
Efectos fijos vs efectos aleatorios

▶ Los factores a efectos fijos son factores donde sus niveles


representan una población de interés especı́fica
▶ Los factores a efectos aleatorios son factores donde sus niveles
son aleatoriamente elegidos de todos los posibles niveles de la
población y son usados como representaciones aleatorias de la
población
Terminologı́a y conceptos claves

▶ Réplicas: observaciones realizadas bajo las mismas condiciones


experimentales.
▶ Diseño balanceado: un diseño experimental donde todas las
celdas tienen el mismo número de réplicas. ni = n
▶ Factor: Fuente controlada de variación. (variable explicativa)
▶ Nivel: cada uno de los diferentes valores de el factor
Terminologı́a y conceptos claves

▶ Concepto clave: aleatorización.


▶ Fundamental para establecer la relación causa-efecto.
▶ Garantiza la independencia de los errores.
▶ Elimina el sesgo de tal manera que no se desfavorezca o
discrimine a los tratamientos y permite cancelar los efectos de
factores extraños que pudieran estar presentes.
Outline

5. Experimentos de un factor
5.1 Análisis de un factor a efectos fijos
5.2. Pruebas múltiples
5.3 Análisis de un factor a efectos aleatorios
Ejemplo: El efecto de las gafas de cerveza (beer-goggles
effect)

El problema de la atracción fı́sica:


Una psicóloga está interesada en el efecto del alcohol sobre la se-
lección de parejas en las discotecas. El sentido común le dice que
después de consumir alcohol, la percepción subjetiva de atracción
fı́sica será más imprecisa (beer-goggles effect).
Método: Ella escoge 48 estudiantes: 24 hombres y 24 mujeres. Los
llevó a una discoteca y aleatoriamente dividió los hombres de las
mujeres en 3 grupos de 8 estudiantes. Cada grupo en total tenı́a
16 estudiantes.
▶ Grupo 1: cervezas 0% alcohol.
▶ Grupo 2: 2 cervezas 6% alcohol.
▶ Grupo 3: 4 cervezas 6% alcohol.
Al final de la noche, tomó fotos de las personas con las que el
participante estaba conversando/coqueteando. Estas fotos fueron
después analizadas y punteadas por personas independendientes
respecto al nivel de atractivo (0-100).
Data:
▶ install.packages(”WRS2”)
▶ library(WRS2)
▶ data(”goggles”)
Beer goggles: Efecto de la cerveza

▶ Parece que la dosis de


alcohol afecta la percepción
de atractivo: la variabilidad
por grupos es distinta
▶ ¿Las diferencias son
significativas?
Modelo general: efectos fijos

Modelo ANOVA (modelo de celdas)

yij = µi + ϵij , i = 1, . . . , r ; j = 1, . . . , ni

Modelo ANOVA (modelo de efectos)

µi = µ + αi

yij = µ + αi + ϵij

r
X
αi = 0
i=1
Modelo general: efectos fijos

Modelo ANOVA
▶ µ y αi son constantes
▶ ϵij = variable aleatoria

Supuestos Gauss–Markov:
(A1) E [ϵij ] = 0
(A2) Var[ϵij ] = σ 2
(A3) Errores mutuamente independientes.
Supuesto adicional:
(A4) ϵij ∼ N(0, σ 2 )
Beer goggles: Efecto de la cerveza

Yij = µi + ϵij , i = 1, . . . , 3; j = 1, . . . , 16.

Atractividad promedio
0% alcohol (n1 = 16) µ1
2 cervezas (n2 = 16) µ2
4 cervezas (n3 = 16) µ3

ϵij ∼ N(0, σ 2 )
nT = n1 + n2 + n3
Modelo general: efectos fijos, estimación por MCO

Modelo ANOVAP Pni


r
i=1 j=1 yij
▶ µ̂ = ȳ.. = nT
Pni
yij
▶ µ̂i = ȳi. = j=1 ni
▶ α̂i = ȳi. − ȳ..
Pr Pni 2
j=1 (yij −ȳi. )
▶ σ̂ 2 = ECM = i=1
nT −r
Modelo general: efectos fijos, estimación por MCO

Modelo ANOVA (modelo de celdas)


▶ En base a los supuestos:
Pr
nT µ + i=1 ni αi
E (Ȳ ) = =µ
nT
Pr Pni
yij
▶ Por lo tanto ȳ = i=1 n j=1 es un estimador insesgado µ. (ȳ
T
es el estimado por MCO.)
Modelo general: efectos fijos, estimación por MCO

Estimación de la media de los tratamientos µi


Pni
y
ij
▶ ȳi. = j=1
ni es un estimador insesgado de µi .
▶ Por lo que α̂i = ȳi. − ȳ es un estimador insesgado del efecto
de los tratamientos αi
Beer goggles: Efecto de la cerveza

Atractividad promedio
0% alcohol (n1 = 16) Ȳ1. =63.750
2 cervezas (n2 = 16) Ȳ2. =64.688
4 cervezas (n3 = 16) Ȳ3. =46.563

ȳ.. = 58.333 ECM = 125.208


ANOVA de un factor fijo: Estimación e inferencia

Intervalo de confianza para la media del tratamiento i-ésimo µi


▶ Suponiendo que los errores siguen una distribución normal,
cada ȳi. es una variable normal con media µi y varianza σ 2 /ni .
▶ Si la varianza fuera conocida, podrı́a usarse la distribución
normal para definir el intervalo de confianza
▶ Como la varianza se puede estimar con el ECM, el intervalo de
confianza se basarı́a en la distribución t
s
ECM
ȳi. ± tα/2,nT −r
ni

▶ Estos intervalos de confianza no deben utilizarse para


comparar varios tratamientos. Para ello se debe realizar
correcciones múltiples o post-hoc.
Beer goggles: Efecto de la cerveza

Intervalos de confianza del 95%


Atractividad promedio
0% alcohol (n1 = 16) [58.116, 69.384]
2 cervezas (n2 = 16) [59.053, 70.322]
4 cervezas (n3 = 16) [40.928, 52.196]

Cuidado al comparar los intervalos. Mejor utilizar pruebas


post-hoc.
ANOVA de un factor fijo

Descomposición de la variabilidad: Notación


▶ MSE = ECM = MSR
▶ SSB = SSTR (Sum of squares between treatments)
▶ SSR = SSE = SCE (Sum of squares of residuals = Sum of
squares of errors = Suma cuadrática del error)
ANOVA de un factor fijo

Descomposición de la variabilidad
ANOVA de un factor fijo: Tabla ANOVA
ANOVA de un factor fijo

Descomposición de la variabilidad e inferencias


▶ La hipótesis nula en una ANOVA de un factor a efectos fijos
es que no existe diferencia entre las medias de los grupos de la
población.
H0 : α1 , = . . . = αr = 0
vs H1 : al menos un αi ̸= 0, i = 1, . . . , r
▶ Lo que equivale a:

H 0 : µ1 , = . . . = µr

vs H1 : al menos una µi es diferente al resto, i = 1, . . . , r


ANOVA de un factor fijo

Descomposición de la variabilidad e inferencias


▶ Bajo la hipótesis nula de todas las medias son iguales.
▶ E[MSE]=E[MSTR]=σ 2
▶ F-test: F0 = MSTR/MSE
▶ Bajo la hipótesis nula F0 ∼ F(r −1)(nT −r )
▶ Se rechaza H0 si F0 >∼ Fα,(r −1)(nT −r ) o si el valor p de la
prueba PH0 (F > F0 ) es menor que α.
Beer goggles: Efecto de la cerveza

Atractividad promedio
0% alcohol (n1 = 16) Ȳ1. =63.750
2 cervezas (n2 = 16) Ȳ2. =64.688
4 cervezas (n3 = 16) Ȳ3. =46.563

Df Sum Sq Mean Sq F value Pr(>F)


Alcohol 2 3332.29 1666.15 13.31 0.0000
Residuals 45 5634.38 125.21

El alcohol tiene un efecto en la percepción subjetiva de atractivo


fı́sico.
Pero, ¿qué grupos son diferentes?: Comparaciones de pares
Outline

5. Experimentos de un factor
5.1 Análisis de un factor a efectos fijos
5.2. Pruebas múltiples
5.3 Análisis de un factor a efectos aleatorios
Pruebas múltiples

▶ Si se rechaza la hipótesis nula general que todas las medias de


los tratamientos son iguales, la siguiente pregunta es ¿qué
tratamientos no son iguales?
▶ Contrastes post hoc:
- Prueba del rango múltiple de Duncan
- Procedimiento de Tukey
- Corrección de Bonferroni
Pruebas múltiples: Prueba del rango múltiple de Duncan
▶ Los r promedios de los tratamientos se arreglan en orden
ascendente, y el error estándar de cada promedio se determina
como s
MSE
Sȳi. =
nh
r
nh = Pr
i=1 (1/ni )
▶ Tabla de rangos significativos rα (p, f ), donde p = 2, 3, . . . , r y
f el número de grados de libertad del error.
▶ Estos rangos se convierten en un conjunto de r − 1 rangos
mı́nimos de significación (por ejemplo, Rp ) para
p = 2, 3, . . . , a calculando

Rp = rα (p, f )Sȳi.
Pruebas múltiples: Prueba del rango múltiple de Duncan

▶ Entonces, se prueban las diferencias observadas entre las


medias, empezando con la más grande contra la menor, la
cual se compararı́a con el rango mı́nimo de significación Rr
▶ Después se calcula la diferencia de la mayor y la segunda
menor y se compara con el rango mı́nimo de significación Rr −1
▶ Estas comparaciones se continúan hasta que todas las medias
se han comparado con la media mayor.
Pruebas múltiples: Prueba del rango múltiple de Duncan

▶ Por último, se calcula la diferencia entre la segunda media


mayor y la menor y se compara con el rango mı́nimo de
significación Rr −1
▶ Este proceso se continúa hasta que se han considerado las
diferencias entre todos los r (r − 1)/2 pares de medias posibles
▶ Si una diferencia observada es mayor que el rango de
significación mı́nima correspondiente, se concluye que el par
de medias en cuestión es significativamente diferente.
Pruebas múltiples: Prueba del rango múltiple de Duncan
Pruebas múltiples: Prueba del rango múltiple de Duncan
Pruebas múltiples: Prueba del rango múltiple de Duncan

▶ Cuando se comparan dos medias que están p pasos aparte, el


nivel de protección es (1 − α)p−1 donde α es el nivel de
significación especificado para dos medias adyacentes.
▶ Por lo tanto, el ı́ndice de error de reportar al menos una
diferencia significativa incorrecta entre dos medias es
1 − (1 − α)p−1 ,cuando el tamaño del grupo es p.
▶ En general, si el nivel de protección es α, las pruebas de las
medias tienen un nivel de significación que es mayor o igual
que α. Por consiguiente, el procedimiento de Duncan tiene
una gran potencia.
Pruebas múltiples: Procedimiento de Tukey

▶ El procedimiento de Tukey efectúa un control sobre el ı́ndice


de error global (para todas las posibles comparaciones de
medias).

H0 (global) : ∩ri,i ′ =1 µi − µi ′ = 0; i ̸= i ′
H1 (global) : ∪ri,i ′ =1 µi − µi ′ ̸= 0; i ̸= i ′
Pruebas múltiples: Procedimiento de Tukey

Estadı́stico de rango studentizado


ȳmax − ȳmin
q=s  
1 1
MSE nmax + nmin

▶ q(α;r ,nT −r ) es el 1 − α cuantil de una distribucion de rango


estudentizado, con nT − r el número de grados de libertad del
error.
Pruebas múltiples: Procedimiento de Tukey

Di,i ′ = µi − µi ′ ; i ̸= i ′

D̂i,i ′ = ȳi. − ȳi ′ .

H0 : ∩ri,i ′ =1 Di,i ′ = 0 i ̸= i ′
▶ La prueba de Tukey declara que dos medias son
significativamente diferentes si
s
q(α;r ,nT −r )
 
ˆ 1 1
|Di,i ′ | > √ MSE +
2 ni ni ′
▶ ó equivalentemente si

2|D̂|
s   > q(α;r ,nT −r ) .
1 1
MSE ni + ni ′
Pruebas múltiples: Procedimiento de Tukey

Intervalo de confianza para D


s  
1 1 1
D̂ ± √ q(1−α;r ,nT −r ) MSE +
2 ni ni ′
Pruebas múltiples: Corrección de Bonferroni

▶ Para a comparaciones de pares de medias


s  
1 1
D̂ ± tα/(2a),nT −r MSE +
ni ni ′
Comparaciones múltiples

¿Cuál usar?
- Depende del interés
- Tukey es recomendado cuando el interés son las
comparaciones de todos los pares de tratamientos.
- Cuando el interés son las comparaciones de algunos pares de
tratamientos: Comparar Bonferroni y Tukey
- Duncan aunque con más potencia, no controla la probabilidad
global del error tipo I, especialmente cuando r es grande.
Beer goggles: Efecto de la cerveza

Atractividad promedio
0% alcohol (n1 = 16) Ȳ1. =63.750
2 cervezas (n2 = 16) Ȳ2. =64.688
4 cervezas (n3 = 16) Ȳ3. =46.563

Diferencias:
2 cervezas - 0 4 cervezas - 0 4 cervezas - 2 cervezas
0.9375 -17.1875 -18.1250

▶ Duncan:
▶ 18.125 ¿ R3 ≈ 8.42: Verdadero
▶ 0.9375 ¿ R2 ≈ 8.00: Falso
▶ 17.1875 ¿ R2 ≈ 8.00: Verdadero
Beer goggles: Efecto de la cerveza

Atractividad promedio
0% alcohol (n1 = 16) Ȳ1. =63.750
2 cervezas (n2 = 16) Ȳ2. =64.688
4 cervezas (n3 = 16) Ȳ3. =46.563

Diferencias:
2 cervezas - 0 4 cervezas - 0 4 cervezas - 2 cervezas
0.9375 -17.1875 -18.1250

▶ Intervalos del 95% de confianza de Tukey:


▶ 2 cervezas - 0: [-8.650654, 10.525654]
▶ 4 cervezas - 0: [-26.775654, -7.599346]
▶ 4 cervezas - 2 cervezas: [-27.713154, -8.536846]
Beer goggles: Efecto de la cerveza

Atractividad promedio
0% alcohol (n1 = 16) Ȳ1. =63.750
2 cervezas (n2 = 16) Ȳ2. =64.688
4 cervezas (n3 = 16) Ȳ3. =46.563

Diferencias:
2 cervezas - 0 4 cervezas - 0 4 cervezas - 2 cervezas
0.9375 -17.1875 -18.1250

▶ Intervalos del 95% de confianza de Bonferroni:


▶ 2 cervezas - 0: [-8.900551, 10.775551]
▶ 4 cervezas - 0: [-27.025551, -7.349449]
▶ 4 cervezas - 2 cervezas: [-27.963051, -8.286949]
Outline

5. Experimentos de un factor
5.1 Análisis de un factor a efectos fijos
5.2. Pruebas múltiples
5.3 Análisis de un factor a efectos aleatorios
Modelo general: efectos aleatorios

yij = µ + αi + ϵij , i = 1, . . . , r ; j = 1, . . . , ni
▶ µ: promedio general de la población.
▶ αi ∼ N(0, σα2 ): efecto aleatorio del grupo i.
▶ ϵij ∼ N(0, σ 2 ): error aleatorio
▶ αi y ϵij son independientes.
▶ Bajo estos supuestos:
- E [Yij ] = µ
- VAR(Yij ) = σα2 + σ 2
- COV (Yij , Yij ′ ) = σα2
- COV (Yi ′ j , Yij ′ ) = 0, i ̸= i ′
Análisis de un factor a efectos aleatorios

Descomposición de la variabilidad e inferencias


▶ La hipótesis nula en una ANOVA de un factor a efectos
aleatorios es los tratamientos son indénticos, lo que implica:

H0 : σα2 = 0

vs H1 : σα2 > 0
dado que si σα2 > 0 los tratamientos son distintos.
Análisis de un factor a efectos aleatorios
Análisis de un factor a efectos aleatorios

▶ Notación MSTR = MSB


Pr Pr Pr
ni −( ni2 )/ ni
- E [MSB] = σϵ2 + ñσα2 , (ñ = i=1 i=1
r −1
i=1
)
- E [MSE ] = σϵ2

F0 = MSB/MSE ∼ Fr −1,nT −r

▶ Bajo la hipótesis nula F0 ∼ F(r −1)(nT −r )


▶ Se rechaza H0 si F0 > Fα,(r −1)(nT −r ) o si el valor p de la
prueba P0 (F > F0 ) es menor que α.
Comparación del valor esperado de las medias cuadráticas
Estimación de los componentes de la varianza

Estimación de σα2
▶ σα2 = E [MSB]−E

[MSE ]

▶ Estimador insesgado de σα2 es

MSB − MSE
sα2 =

- Diseño balanceado: ñ = n Pr
ni −( ri=1 ni2 )/ ri=1 ni
P P
i=1
- Diseño no balanceado: ñ = r −1
Estimación de σ 2
▶ MSE (también denominado como MSR)

También podría gustarte