Está en la página 1de 15

INSTITUTO TECNOLÓGICO

SUPERIOR DE MISANTLA

MAESTRIA EN INGENIERÍA
INDUSTRIAL

DISEÑO DE EXPERIMENTOS

Ejemplo 11.10

P R E S E N T A

MELISSA LETICIA MERIDA BALDERRABANO

DOCENTE
DR. YODAIRA BORROTO PENTON

MISANTLA, VERACRUZ. MARZO, 2022.


Es importante que los investigadores científicos del área de productos forestales sean
capaces de estudiar la correlación entre la anatomía y las propiedades mecánicas de los
árboles. Para el estudio Quantitative Anatomical Characteristics of Plantation Grown
Loblolly Pine (Pinus Taeda L.) and Cottonwood (Populus deltoides Bart. Ex Marsh.) and
Their Relationships to Mechanical Properties, realizado por el Departamento de Bosques
y Productos Forestales de Virginia Tech, se seleccionaron al azar 29 pinos de Arkansas
para investigarlos. En la tabla 11.9 se presentan los datos resultantes sobre la gravedad
específica en gramos/cm3 y el módulo de ruptura en kilo pascales (kPa). Calcule e
interprete el coeficiente de correlación muestral.

Tabla 11.9: Datos de 29 pinos de Arkansas para el ejemplo 11.10

Gravedad Módulo de ruptura


especifica Y(kPa)
X(g/cm3)
0.414 29186
0.383 29266
0.399 26215
0.402 30162
0.442 38867
0.422 37831
0.466 44576
0.500 46097
0.514 59698
0.530 67705
0.569 66088
0.558 78486
0.577 89869
0.572 77369
0.548 67095
0.581 85156
0.557 69571
0.550 84160
0.531 73466
0.550 78610
0.556 67657
0.523 74014
0.602 87291
0.569 86836
0.544 82540
0.557 81699
0.530 82096
0.547 75657
0.585 80490
Declaración de variables:
X= Gravedad especifica (g/cm3)
Y= Módulo de ruptura (kPa)

A. DIAGRAMA DE DISPERSION
Correlación: X, Y

DIAGRAMA DE DISPERSION
Y=Módulo de ruptura (kPa)

100000
80000
60000
40000
20000
0
0.35 0.4 0.45 0.5 0.55 0.6 0.65

X=Gravedad especifica (g/cm3)

La grafica de dispersión muestra una relación lineal positiva, con lo que podemos suponer
que la relación entre las variables es fuerte.
B. COEFICIENTE DE CORRELACIÓN MUESTRAL DE PEARSON

Método mediante el software Excel se realizó mediante la función Pearson, la cual arrojo
el siguiente valor.

Coeficiente
0.943498716

El cual se puede redondear a 0.9435

Se observa que el coeficiente de correlación utilizando Pearson es de 0.9435 lo que nos


indica que la variable tiene una fuerte de relación ya que se acerca a 1. Esto se
comprueba con el valor de correlación: Pearson r = 0.9435 y los puntos se ubican cerca
de la línea, lo que indica que existe una relación lineal fuerte entre las variables y la
relación es positiva porque a medida que una variable aumenta, la otra variable también
aumenta.
C. CONSTRUIR LA ECUACIÓN DE REGRESIÓN LINEAL SIMPLE

Para construir la ecuación de regresión lineal simple se utilizó el software Excel de la


siguiente manera:

Para la obtención de b1 se utilizó la función pendiente la cual dio el siguiente valor:

b1
305346.3846

El mismo caso para b0, pero utilizando la función intersección. Eje la cual dio el valor:

b0
-93319.303

Con la cual construimos la ecuación de regresión que queda de la siguiente manera:


Y = -93319.303+ 305346.3846X
D. ESTIMAR LOS VALORES DE Y PARA CADA VALOR DE X

Para la estimación de los valores de y para cada valor de x se remplazó la x de la


ecuación por cada valor de la gravedad específica y se realizó mediante la siguiente
formula de Excel =($D$2+($C$2*A2)), donde D2 es el valor de b0, C2 es el valor de b 1 y
A2 será cada valor de sustitución de la gravedad especifica X, todos los valores de y para
cada valor de x están en columna ^y de color azul.

Gravedad ^y
especifica X b1 b0 =($D$2+
(g/cm3) ($C$2*A2))
0.414 305346.384 -
6 93319.30
3 33094.1002
0.383 23628.3623
0.399 28513.9044
0.402 29429.9436
0.442 41643.799
0.422 35536.8713
0.466 48972.1122
0.5 59353.8893
0.514 63628.7387
0.53 68514.2808
0.569 80422.7898
0.558 77063.9796
0.577 82865.5609
0.572 81338.829
0.548 74010.5158
0.581 84086.9465
0.557 76758.6332
0.55 74621.2085
0.531 68819.6272
0.55 74621.2085
0.556 76453.2868
0.523 66376.8561
0.602 90499.2205
0.569 80422.7898
0.544 72789.1302
0.557 76758.6332
0.53 68514.2808
0.547 73705.1694
0.585 85308.332
E. CALCULAR LOS ERRORES O RESIDUOS DE LA REGRESIÓN

Para el cálculo de errores se estimaron con la base de la formula e i= y1- ^y i, apoyo del
software Excel mediante la fórmula =B2-E2, donde B2 tienden a ser los valores de módulo
de ruptura Y, donde E2 son los valores obtenidos de y para cada valor de x o ^y , se obtuvo
los valores de los errores o residuos de la regresión se encuentran en la columna de ei
color azul.

Módulo de ruptura Y
(kPa) Y^ ei
29186 33094.1002 -3908.10022
29266 23628.3623 5637.637705
26215 28513.9044 -2298.90445
30162 29429.9436 732.0563963
38867 41643.799 -2776.79899
37831 35536.8713 2294.128703
44576 48972.1122 -4396.11222
46097 59353.8893 -13256.8893
59698 63628.7387 -3930.73868
67705 68514.2808 -809.280839
66088 80422.7898 -14334.7898
78486 77063.9796 1422.020391
89869 82865.5609 7003.439083
77369 81338.829 -3969.82899
67095 74010.5158 -6915.51576
85156 84086.9465 1069.053545
69571 76758.6332 -7187.63322
84160 74621.2085 9538.791469
73466 68819.6272 4646.372777
78610 74621.2085 3988.791469
67657 76453.2868 -8796.28684
74014 66376.8561 7637.143854
87291 90499.2205 -3208.22053
86836 80422.7898 6413.21016
82540 72789.1302 9750.869776
81699 76758.6332 4940.366776
82096 68514.2808 13581.71916
75657 73705.1694 1951.830622
80490 85308.332 -4818.33199
F. VERIFICAR LOS REQUISITOS

 La grafica de probabilidad normal:


La impresión general que surge al examinar esta representación es que la distribución de
los errores puede tener un pequeño sesgo, con la cola derecha siendo más larga que la
izquierda, la tendencia de la gráfica de probabilidad normal al curvearse hacia arriba del
lado izquierdo, implica que la cola izquierda de la distribución de los errores sea un tanto
más delgada de lo que se anticiparía con una distribución normal, es decir, los residuales
negativos no son tan grandes como se esperaban, sin embargo esta grafica no muestra
una desviación marcada de la distribución normal. Pero se supone que sigue una
distribución normal debido a que el95% de los errores estandarizados se encuentran en
±2.
 Histograma:
Se puede observar en este grafico que los datos están cargados a la derecha, también
que el pico se encuentra entre -1 y 0 y no muestra valores atípicos, se puede observar
que tiene un ajuste adecuado a la campana, como se muestra a continuación:

Para comprobar los supuestos de normalidad ya mencionada en los gráficos de


normalidad, se realiza una prueba de normalidad donde:
(1-α).100=95%
H0= Los residuos estandarizados se distribuyen según una distribución normal.
H1= Los residuos estandarizados no se distribuyen según una distribución normal.
Estadístico AD=0.200
Valor p= 0.871
RC: si valor de p de AD ≤α
0.871> 0.05
Por lo que no se cumple la región critica, por lo tanto, no hay evidencia de rechazar H 0,
por lo que se acepta H0 y se dice que efectivamente sigue una distribución normal.

 VS ajustes
En este grafico no es evidente ninguna estructura inusual, también se puede observar que
los residuos estandarizados están distribuidos mayormente entre 60000 y 10000, se
puede suponer que son valores independientes.

 Vs orden
Se aprecia que los errores no presentan un patrón, están distribuidos de manera aleatoria
lo que implica un supuesto de que son independientes (no correlacionados)
No hay un patrón, no repiten los datos, no se sobreponen.
Para comprobar los supuestos de independencia se realiza la prueba de Durbin Watson,
la cual arrojo el siguiente resultado:
 Prueba de independencia

H0=P=0

H1=P≠0

H0 =(hipótesis nula): No existe correlación entre los residuos. (Son independientes)


H1 =(hipótesis alternativa): Los residuos están autocorrelacionados. (Son dependientes)
α=5%
Durbin-Watson: 1.83769
Regla de decisión
Si d>du y d<4-du no se rechaza H0
Si d <dl o d >4-dl se rechaza H0.
Se estimaron de la siguiente tabla:

du= 1.483 4-du=2.517 1.483 1.8376 2.517


3
dl=1.341 4-dl=2.659

REGIÓN DE ACEPACIÓN

De acuerdo la prueba Durbin wantson son el estadístico se encuentra entre du= 1.483 y
4-du=2.517, con un valor de 1.83763, por lo que no se rechaza la hipótesis nula, por lo
que no es evidente correlación entre los residuos (son independientes), por lo que se
comprueban los supuestos establecidos en las gráficas.
 Prueba de hipótesis sobre la pendiente
H0=B1=0
H1=B1≠0
H0 = (hipótesis nula): No existe una relación lineal significativa entre las variables-
H1 = (hipótesis alternativa):  Existe una relación lineal significativa entre las variables.
α=5%

b1−B10
t=
s/ √ S xx

305346.3846−1.0
t= =14.7944
6929.70/ √ 0.112731862
Con n-2 = 27 grados de libertad (P=1.70)
Decisión:

Como 14.7944>1.70 se rechaza H0 y se concluye que, a un nivel de significancia de 0,01,


β no es cero. La evidencia estadística es suficiente para concluir que hay una relación
importante entre las variables.
Por lo que se rechaza la hipótesis nula y se acepta la alternativa, por lo tanto, existe una
relación lineal significativa
 Prueba de la regresión lineal simple
H0: β1=0 en el modelo µy/x= β0+ β1X
H1: β1≠0 en el modelo µy/x= β0+ β1X
H0 = No existe una relación lineal significativa entre las variables
H1 = Existe una relación lineal significativa entre las variables
Regla de decisión:
Rechazar H0 si F > Fα (1, n − 2)
Aceptar H0 si F < Fα (1, n − 2)

α=95%=0.05
F= 218.878861
F en tablas
Con n-2 = 27 grados de libertad (F= 4.210)
Como 218.878861 >4.210 se rechaza H0,
Valor de p
También se comprueba con el valor p
Donde p<α, 0< 0.05 y se rechaza la H0
Se concluye que a un nivel de significancia de 0.05 B 1 no es cero y existe una relación
lineal significativa entre las variables, concluimos que hay una cantidad significativa de
variación en la respuesta justificada por el modelo postulado, que es la función de la línea
recta.
 Prueba de hipótesis para la linealidad de la regresión con observaciones
repetidas

H0: µy/x= β0+ β1X


H1: µy/x= β0+ β1X
H0 = No existe una relación lineal significativa entre las variables
H1 = Existe una relación lineal significativa entre las variables

F=0.08
α= 95%= 0.05
p= 0.940
0.940 > 0.05
No se cumple la región critica por lo cual no existe evidencia para rechazar la H0 porque
es adecuado y ofrece un buen ajuste justificado por la función de línea recta.
 Coeficiente de Determinación

2 SCReg
R= × 100(%)
SCT

R2=0.89(100)=
El r cuadrado es un estadístico y explica que porciento de la variabilidad es explicado por
la regresión

También podría gustarte