Está en la página 1de 5

Tarea:

¿Qué es ANOVA?

Con frecuencia es necesario resolver diferentes tipos de problemas que implican un conjunto de
variables, y se necesita saber si existe una relación inherente entre ellas, por ejemplo en un caso
industrial saber si hay una relación en la producción de salida de un producto con la demanda que
tiene la empresa con cierto producto.

Para la regresión lineal muy a menudo se tiene una variable dependiente o una respuesta Y, la cual
no se controla el experimento, a esto se le llama variables independientes o regresión las cuales
son x1, x2, …. Xn. Las cuales miden un error despreciable y en la vida real son errores que se
controlan.

El término de una regresión lineal implica que esta linealmente relacionado con x con una
ecuación de regresión lineal poblacional.

μY /x =α + βx

En caso de la regresión lineal simple existen diferentes métodos donde el más utilizado es el
método de mínimos cuadrados, en este método hay que realizar estimaciones de α y β de tal
forma que los residuos sean mínimos, con frecuencia estos residuos se le conocen como errores
alrededor de la linea de regresión y se representan por SSE.

Esto sirve por que el procedimiento de minimización, donde:

SSE=s yy −bS xy

Nota: b es el parámetro ya estimado de beta.

También hay que tener en claro que el en varios libros o en la estadística es necesario tener los
dos errores donde:

SST =s yy SSR=bs xy

Pero entonces la pregunta es que es s yy y S xy. Para esto hay que realizar 3 estimaciones que son
los resultados de la parametrización de los valores de error del modelo donde nos dan como
resultado la varianza de los datos en y de las muestras y así mismo podemos calcular la varianza en
las muestras en x e y y la S xyes la covarianza que hay entre los 2, donde se calculan de la
siguiente manera:
n n n
S xx =∑ (xi −x́)2 S yy =∑ ( yi − ý)2 S xy =∑ ( x i−x́)( y i− ý)
i=1 i=1 i=1
Para este tema es bien importante saber las pruebas de hipótesis H o y H 1 donde como hemos
visto en el curso llamaremos hipótesis nula (H0) a la hipótesis que se supone cierta de partida, y
llamaremos hipótesis alternativa (H1) a la que reemplazará a la hipótesis nula cuando ésta es
rechazada. Debemos tener en cuenta que, a la hora de plantear un contraste, siempre existe una
hipótesis que se supone cierta (hipótesis H0), bien por experiencias pasadas o bien por interés.

También hay que tener en cuenta el tipo de curva que tomaremos, generalmente la curva que
predomina en estos tipos de muestras es la distribución de Fisher siempre y cuando nuestras
muestras sean menores a 30 datos si tenemos muestras mayores a 30 entonces usaremos una
distribución normal, el cual es necesario en cada problema que apliquemos un nivel de confianza.

Ahora para realizar nuestro análisis de varianza se calculará de la siguiente manera y con la
siguiente tabla:

Ejemplo: Se realizan las observaciones de una reacción química a diferentes temperaturas y se


registran de la siguiente manera:

Estime un modelo de regresión lineal y determine si hay una regresión lineal con los grados:

Entonces como nos pide estimar primero realizamos nuestras pruebas de hipótesis donde:

Ho: existe una regresión lineal en x

H1: No existe una regresión lineal en x

Dado que el problema no nos dice el nivel de confianza nosotros optaremos por tomar un 99% de
confiabilidad
Entonces se tiene que n1= n2= n3 = n4= 3 por lo tanto calculamos S xx, S yy y S xy

Donde x́=225 y ý=86.48


4
S xx =∑ (xi −x́)2=3( ( 150−225 )2 + ( 200−225 )2 + ( 250−225 )2+ ( 300−225 )2 )= 37500
i=1

12
S yy =∑ ( yi −86.48)2=(77.4−86.48)2 (76.7−86.48)2( 78.2−86.48)2….= 513.1167
i=1

12
S xy =∑ (xi−225)( yi−86.48)= (150−225 ) ( 77.4−86.48 ) + ( 150−225 )( 76.7−86.48 ) …=4370
i=1

Ahora bien como ya tenemos los valores entonces podemos encontrar nuestros coeficientes de
regresión donde

S xy 4370
β= = =0.1165 y α = ý −β x́=86.4833−( .1165 ) ( 225 )=60.27
S xx 37500
Por lo tanto nuestra ecuación de regresión estimada es:

^y =60.2708+ 0.1165 x
Por los cálculos obtenidos antes entonces

SST= 513.1167 SSR=b S xy =0.1165*4370=509.1050 SSE= S yy - b S xy = 4.0117

Para calcular la suma de cuadrados del error puro, se escribe primero:

X1= 150 T1=232.3

X2 =200 T2=252.3

X3 =250 T3=267.8

X4 = 300 T4= 285.4

Nota las T es la suma de las 3 temperaturas de las Xi.

Por lo tanto tenemos que el error puro SSE(puro)=2.66

Con estos datos podemos hacer un análisis de varianza el cual nos da el rendimiento y la
temperatura:

Donde n=12-2=10 y k=4

Al tener estos datos podemos calcular lo siguiente:

SSE−SSE ( PURO) = (4.0117-2.66)/2 =0.6758


k−2
SSE(PURO)
S2= =2.66/8=0.3325
n−k
SSR = 509.105/.3325=1531.6
2
S ¿
¿
SSE−SSE ( PURO) = (4.0117 -2.66)/(.3325*2)=2.03
S2 ( k−2)

Al final la tabla nos queda de la siguiente manera:

Por lo tanto podemos asegurar que la prueba es nula.

Por lo tanto hay una relación entre las 2 tablas.

Referencias bibliográficas

Libro: Probabilidad y estadística; Autor Warpole

Libro: Pronósticos, series de tiempo y regresión Bruce L. Bowerman

https://www.tcmetrologia.com/blog/el-metodo-anova-en-el-diseno-de-experimentos/

https://es.slideshare.net/hepatopatias/estadistica-descriptiva-1712666

https://blog.minitab.com/es/comprension-del-analisis-de-varianza-anova-y-la-prueba-f

https://www.ugr.es/~jsalinas/apuntes/Anova.pdf

https://www.dmae.upct.es/~mcruiz/Telem06/Teoria/contrastes_06b.pdf

También podría gustarte