Está en la página 1de 20

ANALISIS DE VARIANZA

Estadística Inferencial

Profesor: Manuel Ricardo Contento


Introducción
Una empresa que fabrica muebles necesita
determinar cuál de cuatro marcas de
pintura debe aplicar a un producto de tal
manera que se disminuya el tiempo que se
debe esperar para embalar los muebles con
destino a los puntos de venta.
 Variable: Tiempo de secado (horas)
 Factor: Pintura (A, B, C, D)
 Pregunta: Cual pintura elegir?
 Requisito: Datos experimentales.
Introducción
En la producción avícola se requiere que
los pollos al final del ciclo de engorde
proporcionen la mayor cantidad de carne
en canal. Dicha variable es influenciada
por la dieta a la cual se someten los
animales.
 Variable: Peso en canal / animal
 Factor: Dieta (A, B, C)
 Pregunta: Cual programa de alimentación
elegir?
 Requisito: Datos experimentales.
Presidential Address to the First Indian Statistical Congress, 1938.
Principio del diseño de investigaciones

 Toda actividad asociada con planear y realizar estudios de


investigación tienen implicaciones estadísticas.
 Los principios estadísticos del diseño de investigaciones
tienen que ver con: diseño de tratamientos, control local
de la variabilidad, el numero de replicas, la aleatorización
y la eficiencia de los experimentos.
 En general se desea recolectar aquellas observaciones que
proporcionen la mayor cantidad de información posible
para el estudio de una manera eficiente.
Legado de sir Ronald Fisher.
 Ronald Aylmer Fisher. Londres,17 de
febrero de 1890 - Adelaida, Australia 1962.
 1913. recibe grado en Matemáticas y
Astronomía en Cambridge.
 1915-1919. profesor de Matemática y
Física.
 Octubre de 1919. Contratado en Rothamsted Experimental
Station, cerca de Harpenden, Inglaterra, de 6 meses a 1 año, para
analizar datos recolectados sobre la reproducción de plantas. Su
contrato se extendió hasta 1933.
 1919-1925. estudio experimentos en trigo desarrollados desde
1843.
Legado de sir Ronald Fisher.
 1925. Publica Statistical Principles for Research Workers. con
13 ediciones posteriores.
 1926. “The Arrangement of Field Experiments”. Este artículo
describe tres componentes fundamentales del diseño: control
local de las condiciones de campo para reducir el error
experimental. Replicación, para estimar la varianza del error
experimental y Aleatorización para lograr una estimación
valida de esta varianza.
 Trasladó sus investigaciones al campo de la genética en The
Genetical Theory of Natural Selection (1930)
 1933. Ocupa la cátedra Galton de eugenesia en la Universidad
de Londres, como sucesor de Karl Pearson (1857-1936).
 1935 se edita Design of Experiments con 7 ediciones
subsecuentes.
Legado de sir Ronald Fisher.
 1943 – 1957. Se incorpora a la cátedra Balfour de genética en la
Universidad de Cambridge.
 1957-1962. Trabaja para la Commonwealth Scientific and
Industrial Research Organization -CSIRO- en Adelaida,
Australia. El 29 de julio 1962 muere de cáncer.
Fue probablemente el más brillante y productivo de los miembros del
pequeño grupo de estadísticos ingleses: Francis Galton (1822-1911),
Karl Pearson (1857-1936) , William Gosset (1876-1937) y Ronald
Fisher (1890-1962).
Publicó alrededor de 300 trabajos y siete libros, en los cuales desarrolló
muchos de los conceptos de la estadística: la importancia de la
aleatorización, la varianza, el análisis de varianza, la distinción entre
estadística (medida de muestra) y parámetro (medida de población), la
hipótesis nula, los niveles de significación, y las ideas fundamentales
del diseño de investigación.
Anova a una Vía
Y=f(X)
Y: variable respuesta (numérica)
X: factor con k niveles (categórica)
Objetivo: comparar los niveles.

Diseño Completamente aleatorizado.

Ejemplo: Determinar el efecto de tres métodos de


capacitación diferentes sobre el tiempo de ensamble
de un artefacto electrónico.

Objetivo del D.E.: métodos de muestreo para reducir o


controlar la variación, a costo mínimo.
Supuestos del Anova a una vía
 La respuesta (v. dependiente) sigue una
distribución normal dentro de cada nivel.

 La varianza de cada población es similar


(homodedasticidad).

 La observaciones son independientes y


conforman una muestra aleatoria.
Supuestos del Anova a una vía
Seleccionar muestras aleatorias independientes
de k poblaciones con promedios 1, 2,…, k y
varianza común ².

Se puede considerar tamaños iguales o


diferentes de muestra en cada grupo.

Hipótesis: Existe alguna diferencia en el


promedio de las k poblaciones?
Supuestos: expresión grafica
Y: Inversión/sem. ($000) en fotocopias de estudiantes de tres carreras.
X: carrera (economía, mercadeo y contaduría)
Disposición de las observaciones y notación
yij la j-ésima observación del i-ésimo tratamiento (grupo)
Grupo 1 Grupo 2 … Grupo k
𝑦11 𝑦21 … 𝑦𝑘1
𝑦12 𝑦22 … 𝑦𝑘2
⋮ ⋮ … ⋮
𝑦1𝑛 𝑦2𝑛 … 𝑦𝑘𝑛
Total 𝑦1∎ 𝑦2∎ … 𝑦𝑘∎ 𝑦∎∎
Media 𝑦1∎ 𝑦2∎ … 𝑦𝑘∎ 𝑦∎∎

𝑛
𝑦𝑖∎
𝑦𝑖∎ = 𝑦𝑖𝑗 𝑦𝑖∎ =
𝑛
𝑗 =1

𝑘 𝑛 𝑘 𝑦∎∎
𝑦∎∎ = 𝑦𝑖𝑗 = 𝑦𝑖∎ 𝑦∎∎ =
𝑘𝑛
𝑖=1 𝑗 =1 𝑖=1
Especificación del modelo
 yij = i + ij i=1,2,…, k; j=1,2,…, n
Parámetros: ( i , ² )

 Ho: 1 = 2 =…= k
 Ha:  i  j  i  j , i , j =1,2,…,k

 Método: Análisis de Varianza


Fundamento del ANOVA
𝑘 𝑛
2
 Suma de cuadrados total: 𝑆𝑆𝑇 = 𝑦𝑖𝑗 − 𝑦∎∎
𝑖=1 𝑗=1
𝑘 𝑛 𝑘 𝑛
2 2
𝑦𝑖𝑗 − 𝑦∎∎ = 𝑦𝑖∎ − 𝑦∎∎ + 𝑦𝑖𝑗 − 𝑦𝑖∎
𝑖=1 𝑗 =1 𝑖=1 𝑗 =1

𝑘 𝑛 𝑘 𝑛 𝑘 𝑛
2 2
= 𝑦𝑖∎ − 𝑦∎∎ + 𝑦𝑖𝑗 − 𝑦𝑖∎ +2 𝑦𝑖∎ − 𝑦∎∎ 𝑦𝑖𝑗 − 𝑦𝑖∎
𝑖=1 𝑗 =1 𝑖=1 𝑗 =1 𝑖=1 𝑗 =1

pero 𝑛

𝑦𝑖𝑗 − 𝑦𝑖∎ =
𝑛

𝑦𝑖𝑗 −
𝑛

𝑦𝑖∎ = 𝑦𝑖∎ − 𝑛𝑦𝑖∎ = 𝑦𝑖∎ − 𝑛


𝑦𝑖∎
=0
𝑛
𝑗 =1 𝑗 =1 𝑗 =1

𝑘 𝑛 𝑘 𝑛 𝑘 𝑛
2 2
Entonces 𝑦𝑖𝑗 − 𝑦∎∎ = 𝑦𝑖∎ − 𝑦∎∎ 2
+ 𝑦𝑖𝑗 − 𝑦𝑖∎
𝑖=1 𝑗 =1 𝑖=1 𝑗=1 𝑖=1 𝑗=1
Partición de la SCT
𝑘 𝑛 𝑘 𝑛 𝑘 𝑛
2 2 2
𝑦𝑖𝑗 − 𝑦∎∎ = 𝑦𝑖∎ − 𝑦∎∎ + 𝑦𝑖𝑗 − 𝑦𝑖∎
𝑖=1 𝑗 =1 𝑖=1 𝑗=1 𝑖=1 𝑗=1

SST = SSTr + SSE

 SST : suma de cuadrados total


 SSTr : suma de cuadrados de tratamientos (suma
de cuadrados entre tratamientos)
 SSE: suma de cuadrados del error (suma de
cuadrado dentro de los tratamientos)
Partición de los grados de libertad

gl(total) = gl (tratamientos) + gl (error)

 gl(total) = nk -1 (nk = N total de observaciones)


 gl (tratamientos) = k - 1
 gl (error) = k(n-1)=N - k
Cuadrado medio (MS = SS/gl ) y tabla ANOVA
 MSTr = SSTr / ( k - 1 ) MSE = SSE / [k(n-1)]

 Ho: 1 = 2 =…= k

Estadística de prueba : fc= MSTr / MSE ~ F[ k - 1 ; k(n-1)]

Rechazar Ho si fc > f  [ k - 1 ; k(n-1)] (Rechazar Ho si valor-p<)

Fuente de Suma de Grados de Cuadrado Medio f calculada (fc) valor-p


variacion cuadrados libertad
Tratamientos SSTr k -1 MSTr = SSTr / (k -1) MSTr / MSE
Error SSE k (n-1) MSE = SSE / k (n -1)
Total SST nk-1
Disposición para tamaños de
muestra diferente

Grupo 1 Grupo 2 … Grupo k


𝑦11 𝑦21 … 𝑦𝑘1
𝑦12 𝑦22 … 𝑦𝑘2
⋮ ⋮ … ⋮
𝑦1𝑛 1 ⋮ … 𝑦2𝑛 𝑘
𝑦2𝑛 2

N= n1 + n2 + … + nk
Tamaños de muestra diferente
𝑘 𝑛𝑖 𝑘 𝑘 𝑛
2 2 2
𝑦𝑖𝑗 − 𝑦∎∎ = 𝑛𝑖 𝑦𝑖∎ − 𝑦∎∎ + 𝑦𝑖𝑗 − 𝑦𝑖∎
𝑖=1 𝑗 =1 𝑖=1 𝑖=1 𝑗=1

SST = SST r + SSE


 gl(total) = N -1 (N: total de observaciones)
 gl (tratamientos) = k-1
 gl (error) = (N -1) - ( k - 1 ) = N - k
Fuente de Suma de Grados de Cuadrado Medio f calculada (fc) valor-p
variacion cuadrados libertad
Tratamientos SSTr k -1 MSTr = SSTr/ (k-1) MSTr / MSE
Error SSE N-k MSE = SSE / (N-k)
Total SST N-1

También podría gustarte