Está en la página 1de 61

UNIVERSIDAD AUTÓNOMA DE NUEVO LEÓN

FACULTAD DE INGENIERÍA MECÁNICA Y ELÉCTRICA


COORDINACIÓN GENERAL DE CIENCIAS BÁSICAS

UNIDAD DE APRENDIZAJE: ESTADISTICA INFERENCIAL


SEMESTRE: AGOSTO – DICIEMBRE 2023
ACTIVIDAD FUNDAMENTAL: Tarea Especial #5
CATEDRÁTICO: M.C. Rigoberto Américo Garza López

OP. MATRÍCULA NOMBRE (COMPLETO) HORA GRUPO CARRERA

1 1986724 Jorge Luis Mondragon Hernandez M5 007 IMA


TEMARIO
Tema 1: Regresión lineal simple y correlación
Diagrama de flujo
Mejor estimación de la recta
Relación entre ŷ = 𝜶 + 𝒃𝒙 y ŷ = 𝜷 + 𝒃𝒙
Error estándar en la mejor estimación de la recta
Coeficiente de correlación de Pearson.
Coeficiente de correlación de Spearman.
Relación entre el coeficiente de correlación de Pearson y Spearman.
Varianza y desviación estándar
Relación entre desviación estándar y el error estándar en la mejor estimación de la recta.
Coeficiente de determinación.
Relación entre el coeficiente de determinación y el coeficiente de correlación de Pearson.
TEMARIO
Intervalos de confianza
Intervalo de confianza para 𝜶
Intervalo de confianza para 𝜷
Intervalo de confianza para 𝜇𝑦Τ𝑥0
Intervalo de confianza para 𝑦0
Prueba de hipótesis para β
Prueba de hipótesis para α
GLOSARIO
• Regresión lineal: En estadística la regresión lineal homónimos de la otra: si tenemos dos variables
o ajuste lineal es un modelo matemático usado (A y B) existe correlación entre ellas si al disminuir
para aproximar la relación de dependencia entre los valores de A lo hacen también los de B y
una variable dependiente Y, las variables viceversa. La correlación entre dos variables no
independientes Xi y un término aleatorio ε. implica, por sí misma, ninguna relación de
causalidad.
• Correlación: En probabilidad y estadística, la
correlación indica la fuerza y la dirección de una
relación lineal y proporcionalidad entre dos
variables estadísticas. Se considera que dos
variables cuantitativas están correlacionadas
cuando los valores de una de ellas varían
sistemáticamente con respecto a los valores
PLANTEAMIENTO Presión Lectura en
(X) la escala (Y)
10 13
10 18
Para fines de calibración se
10 16
recabaron las siguientes datos , los
10 15
cuales permitirían determinar la
10 20
presión y la lectura
correspondiente en la escala. 50 86
50 90
50 88
50 88
50 92
Lectura en la
Presión (X)
escala (Y) DIAGRAMA DE FLUJO
10 13

10 18
Aplicación en mi problema:
10 16 Al realizar los cálculos nos
encontramos con que la proyección
10 15 de la recta se mantiene de manera
ascendente y coincide con el
10 20
diagrama de flujo
50 86

50 90

50 88

50 88

50 92

∑x=300 ∑y=526
MEJOR ESTIMACION DE LA RECTA
X Y (XY) X2 Y2 FORMULAS
10 13 130 100 169
∑X2 ∑𝑦 − (∑𝑥)(∑𝑥𝑦)
𝑎=
10 18 180 100 324 𝑛 ∑𝑥2 − ∑𝑥 2
10 16 160 100 256 𝑛 ∑Xy − (∑𝑥)(∑𝑦)
𝑏=
10 15 150 100 225 𝑛 ∑𝑥2 − ∑𝑥 2
ŷ = 𝜶 + 𝒃𝒙
10 20 200 100 400
50 86 4300 2500 7396 INTERPRETACION
50 90 4500 2500 8100 𝑎=
13000 526 −(300)(23020)
=-1.7
2
10 13000 − 300
50 88 4400 2500 7744 10 23020 −(300)(526)
𝑏= =1.81
10 13000 − 300 2
50 88 4400 2500 7744
50 92 4600 2500 8464 ŷ = −𝟏. 𝟕𝟕 + 𝟏. 𝟖𝟏𝒙
Relación entre: ŷ=𝜶+𝒃𝒙 y Lectura en la
Presión (X)
ŷ=𝜷+𝒃𝒙 escala (Y)
Se espera que la recta ajustada
esté mas cerca de la verdadera 10 13
línea de regresión cuando se
dispone de una gran cantidad
10 18
de datos esto en comparación
a cada formula de la recta
10 16

10 15
Aplicación en mi problema: 10 20
Una vez realizados los cálculos
se mantiene la misma recta 50 86
“ascendente”.
50 90
Diagrama de flujo

50 88

50 88

50 92
∑x=300 ∑y=526
ERROR ESTÁNDAR EN LA MEJOR ESTIMACIÓN DE LA RECTA
x y y' y-y'2
10 13 16.33 216.09
10 18 16.33 388.09
10 16 16.33 313.29 FORMULA
10 15 16.33 278.89 2
∑ 𝑦−ŷ
10 20 16.33 470.89 S𝑦𝑥 =
50 86 88.73 7691.29 𝑛−2
50 90 88.73 8408.89 SUSTITUCIÓN
50 88 88.73 8046.09 42639.3
50 88 88.73 8046.09 S𝑦𝑥 =
10−2
50 92 88.73 8779.69
42639.3
Sumatoria (y-y')2 42639.3 S𝑦𝑥 = = 5329.91
Aplicación en mi problema:
8
Indica que tanto se desvían los datos de la media, si el
dato es grande la variación o diferencia (error) puede S𝑦𝑥 = 5329.91 = 73.006
ser proporcional a esta.
COEFICIENTE DE CORRELACIÓN DE PEARSON
X Y (XY) X2 Y2
10 13 130 100 169 Formulas
∑ 2∑ 2
10 18 180 100 324 2 𝑦 𝑦
𝑆𝑦𝑦 𝑆𝑦𝑦∑=
= 2
𝑦 −∑𝑦[ − [ ] ]
10 16 160 100 256 𝑛 𝑛
∑ 2
∑ 2
10 15 150 100 225 𝑥 𝑥
𝑆𝑥𝑥 𝑆=𝑥𝑥∑=𝑥2∑−𝑥2[ − [ ] ]
10 20 200 100 400 𝑛 𝑛
50 86 4300 2500 7396
𝑆(Ʃ𝑥)(Ʃ𝑦)
Sxy= 𝑟Ʃxy=− [ 𝑥𝑦 ]
50 90 4500 2500 8100 𝑛
50 88 4400 2500 7744
𝑆𝑥𝑥𝑆𝑦𝑦
𝑆𝑥𝑦
50 88 4400 2500 7744 𝑟= (Ʃ𝑥)(Ʃ𝑦)
50 92 4600 2500 8464 Sxy= Ʃ𝑆xy𝑥𝑥−𝑆𝑦𝑦
[ ]
𝑛
300 526 23020 13000 40822
Interpretación
2
526
𝑆𝑦𝑦 = 40822 − [ 10 ]=13154.4

2
300
𝑆𝑥𝑥 = 13000 − [ 10 ]=4000

(300)(526)
Sxy= 23020− [ ]=7240
10

7240
𝑟= =0.998≅ 1
4000∗13154.4
Aplicación en mi problema:

Por el valor obtenido, nos indica


que se tiene una correlación
positiva perfecta, esto nos indica
que hay una buena relación entre
las variables.

r = 0.998≅ 1.00 Positiva perfecta


COEFICIENTE DE RELACIÓN DE SPEARMAN
Rango (x) Rango (Y)
Y
X Rx Ry dR di2 Formula
10 3 13 1 2 4
6Ʃdi2
10 3 18 4 -1 1 𝑟𝑠 = 1-
𝑛(𝑛2 −1)
10 3 16 3 0 0
10 3 15 2 1 1
10 3 20 5 -2 4 Sustitución
50 8 86 6 2 4
(6)(19.5)
50 8 90 9 -1 1 𝑟𝑠 = 1-
50 8 88 7.5 0.5 0.25
10(100 −1)
50 8 88 7.5 0.5 0.25
50 8 92 10 -2 4
𝑟𝑠 = 0.8818
Ʃdi2= 19.5
Aplicación en mi problema:
Por el valor obtenido, nos indica que
se tiene una correlación positiva
muy alta, esto nos indica que hay
una buena relación entre las
variables.

𝑟𝑠 = 0.8818 ≅0.9 positiva muy fuerte


RELACIÓN ENTRE EL COEFICIENTE DE PEARSON Y SPEARMAN
X y=-1.77+1.81x
10 16.33
10 16.33
10 16.33
10 16.33
10 16.33
En las variables podemos observar que son proporcionales en la mayoría.
50 88.73 Con estos valores se puede comprobar que la relación entre ambos
50 88.73 coeficientes (Spearman y el de Pearson) son exactamente iguales.
Las 2 interpretaciones son similares ya que los valores son próximos a 1
50 88.73 ya que indican una correlación fuerte y positiva.
Si la relación es variable una aumenta cuando la otra lo hace, esto nos
50 88.73
dice que son proporcionables dependientes de manera directa, viéndolo
50 88.73 de la manera algebraica.
VARIANZA Y DESVIACIÓN ESTÁNDAR
X Y (XY) X2 Y2
10 13 130 100 169 Formulas
FORMULAS
∑ 2
10 18 180 100 324 (Ʃ𝑦)2
2 𝑦
𝛿 = Ʃ𝑦𝑆2𝑦𝑦− =
[ ∑𝑦 ]− [ 𝛿𝑥𝑦 ] (Ʃ𝑥)(Ʃ𝑦)
𝑛= Ʃ𝑥𝑦 - [ 𝑛 ]
10 16 160 100 256 𝑛

10 15 150 100 225


10 20 200 100 400 𝛿𝑦𝑦 − 𝑏𝛿𝑥𝑦 𝑛 Ʃ𝑥𝑦 −(Ʃ𝑥)(Ʃ𝑦)
𝛿= 𝑏=[ ]
50 86 4300 2500 7396 𝑛−2 𝑛 Ʃ𝑥2 − Ʃ𝑥 2

50 90 4500 2500 8100


50 88 4400 2500 7744
𝛿𝑦𝑦 − 𝑏𝛿𝑥𝑦
50 88 4400 2500 7744 𝑥2 =
𝑛−2
50 92 4600 2500 8464
300 526 23020 13000 40822
SUSTITUCIÓN
526 2
𝛿 = 40822 − [ ] = 13154.4
10 Aplicación en mi problema:
(300)(526) Al dar un valor de 42.45 como
𝛿𝑥𝑦= 23020 - [ ] = 7240 desviación estándar, se interpreta que
10 los datos pueden presentar un riesgo
de cambio.
13154.4 − 1.77(7240)
𝛿= = 6.51
10 − 2
10 23020 −(300)(526)
b=[ 2 ]
= 1.81
10 13000 − 300
13154.4 − 1.77(7240)
𝑥2 = = 42.45
10 − 2
COEFICIENTE DE DETERMINACIÓN

FORMULAS SUSTITUCIÓN
526 2
𝛿𝑦𝑦 = 40822 − [ ] = 13154.4
10
2
300
𝑆𝑥𝑥 = 13000 − [ 10 ]=4000

(300)(526)
Sxy= 23020− [ ]=7240
10

Sxy2 = (7240)2 = 52,417,600

52417600
𝑟2 = = 0.996
4000 ∗ 13154.4
𝑟 = 0.996 = 0.998
RELACIÓN ENTRE EL COEFICIENTE DE DETERMINACIÓN EL
COEFICIENTE DE CORRELACIÓN DE PEARSON

Datos Comprobado Conclusión


Coeficiente de correlación de Pearson 0.998 En el caso de la regresión lineal el
coeficiente de correlación de Pearson
es simplemente el cuadrado del
coeficiente de determinación:

Coeficiente de determinación 0.996 0.9982 ≈ 0.996


INTERVALOS DE CONFIANZA
FORMULAS
INTERVALOS DE CONFIANZA PARA 𝛼

DATOS FORMULAS

𝐻0 : 𝛽 = 1
𝐻1 : 𝛽 < 1
𝑏 = 1.81
𝑛 = 10
𝛼 = 0.05 Sustitución
SUSTITUCIÓN
𝑆𝑥𝑥 = 4000
𝑆 = 6.51
𝐼. 𝐶 = 95%
Conclusión Interpretación
Valores críticos de El intervalo de confianza para β y con un 95%
la distribución "𝑡" nos indica que se H0 rechaza debido a que la
Y 0.025 pendiente se encuentra por encima de 1 o es igual
a 1 tal y como se muestra en la grafica inferior.
8 2.306
α = 0.025
H0 𝑦 = 2.306

Se rechaza H0. Grafica


La pendiente es igual o
mayor que 1.
INTERVALOS DE CONFIANZA PARA Β

DATOS FORMULAS

𝐻0 : 𝛽 = 1 𝒕𝜶ൗ 𝑺 𝒕𝜶ൗ 𝑺
𝐻1 : 𝛽 < 1 𝒃− 𝟐 <𝜷<𝒃+ 𝟐
𝑺𝒙𝒙 𝑺𝒙𝒙
𝑏 = 1.81
𝑛 = 10
𝛼 = 0.05 Sustitución
SUSTITUCIÓN
𝑆𝑥𝑥 = 4000
𝑆 = 6.51
𝐼. 𝐶 = 95%
Valores críticos de la Conclusión
El intervalo de confianza para β y con un 95%
distribución "𝑡" nos indica que la pendiente es menor a 1 como se
Y 0.025 puede apreciar en la gráfica que está debajo.
8 2.306
α = 0.025
H0 𝑦 = 2.306

Se rechaza H0
La pendiente es menor a 1
Relacion entre los intervalos de confianza para a y
b
Datos Fórmulas y'=-
𝑛 = 10
1 𝑥0 − 𝑥 2 1 𝑥0 − 𝑥 2 x 1.77+1.81
𝑎 = −1.77 𝜇0
𝑦ො0 − 𝑡𝛼Τ2 𝛿 + < ൗ𝑥0 < 𝑦ො0 + 𝑡𝛼Τ2 𝛿 + x
𝛽 = 1.81 𝑛 𝑆𝑥𝑥 𝑛 𝑆𝑥𝑥
𝑆𝑥𝑥 = 4000
𝑦ො = 𝑎 + 𝑏𝑥 𝛼=
1 − 𝐼𝐶
𝑦 =𝑛−2
10 16.33
𝑆 = 6.51 2
𝐼. 𝐶 = 95% 10 16.33
𝛼 = 0.05 10 16.33
Valores críticos de 1 − 0.95 ∑ 𝑥 300 10 16.33
𝛼= = 0.025 𝑥ҧ = =
la distribución "𝑡" 2 𝑛 10 10 16.33
𝛾 = 10 − 2 = 2 𝑡𝛼Τ2 = 2.306
𝜸 0.025 50 88.73
8 2.306
50 88.73
𝜇𝑦 50 88.73
Intervalos de confianza para 50 88.73
𝑥0
50 88.73
Sustitución

1 10 − 30 2
525.3 − 2.306 6.51 + = 510.2879
10 4000

1 10 − 30 2
525.3 + 2.306 6.51 + = 532.0136
10 4000

1 10 − 30 2 1 10 − 30 2
𝜇
525.3 − 2.306 6.51 + < 0ൗ𝑥0 < 525.3 + 2.306 6.51 +
10 4000 10 4000

𝑦ො = −1.77 + 1.81 10
𝜇
510.2879 < 0ൗ𝑥0 < 532.0136
Datos Fórmulas y'=-
𝑛 = 10 1 𝑥0 − 𝑥 2 𝜇0 1 𝑥0 − 𝑥 2 x 1.77+1.81
𝑎 = −1.77 𝑦ො0 − 𝑡𝛼Τ2 𝛿 1 + + < ൗ𝑥0 < 𝑦ො0 + 𝑡𝛼Τ2 𝛿 1 + +
𝑛 𝑆𝑥𝑥 𝑛 𝑆𝑥𝑥 x
𝛽 = 1.81
1 − 𝐼𝐶
𝑆𝑥𝑥 = 4000 𝑦ො = 𝑎 + 𝑏𝑥 𝛼= 𝑦=𝑛−2 10 16.33
2
𝑆 = 6.51
𝐼. 𝐶 = 95% 10 16.33
𝛼 = 0.05 10 16.33
Valores críticos de 1 − 0.95 ∑ 𝑥 300 10 16.33
𝛼= = 0.025 𝑥ҧ = =
la distribución "𝑡" 2 𝑛 10 10 16.33
𝛾 = 10 − 2 = 2 𝑡𝛼Τ2 = 2.306
𝜸 0.025 50 88.73
8 2.306
50 88.73
50 88.73
Intervalos de confianza para 𝜇𝑦 50 88.73
50 88.73
Sustitución

1 10 − 30 2
525.3 − 2.306 6.51 + = 558.992
10 4000

1 10 − 30 2
525.3 + 2.306 6.51 + = 591.882
10 4000

1 10 − 30 2 1 10 − 30 2
𝜇
525.3 − 2.306 6.51 1+ + < 0ൗ𝑥0 < 525.3 + 2.306 6.51 1+ +
10 4000 10 4000

𝑦ො = −1.77 + 1.81 10
𝜇
558.992 < 0ൗ𝑥0 < 591.882
Prueba de hipótesis para 𝜶

• Si usted rechaza la hipótesis nula cuando es verdadera, comete un error de


tipo. La probabilidad de cometer un error de tipo I es α, que es el nivel de
significancia que usted establece para su prueba de hipótesis. Un α de 0.05
indica que usted está dispuesto a aceptar una probabilidad de 5% de estar
equivocado al rechazar la hipótesis nula.
• Para reducir este riesgo, debe utilizar un valor menor para α. Sin embargo,
usar un valor menor para alfa significa que usted tendrá menos
probabilidad de detectar una diferencia si ésta realmente existe.
Datos Fórmulas Sustitución
𝑛 = 10 𝑎−𝛼 t=
−1.77 − 0.05
= −0.490
𝑎 = −1.77 t= 6.51
13000 Valores críticos de
𝛽 = 1.81 10(4000) la distribución "𝑡"
𝑆𝑥𝑥 = 4000 ∑ 𝑥2 𝐻1 = −0.490
𝛿 𝜸 0.05
𝑆 = 6.51 𝑛(𝑆𝑥𝑥 ) 8 2.306
2
෍ 𝑥 = 13000
𝐻0 = 2.306
𝐼. 𝐶 = 95%
𝛼 = 0.05
1 − 0.95
𝛼= = 0.025
2
𝛾 = 10 − 2 = 8
𝑡𝛼Τ2 = 2.306

PLANTEAMIENTO
𝐻0: 𝛼 = 0
𝐻1: 𝛼 ≠ 0
PRUEBA DE HIPÓTESIS PARA 𝜷
Datos Fórmulas Sustitución
1.81 − 1
𝑛 = 10 𝑏−𝛽
𝑎 = −1.77 t = 6.51 =
t= 𝛿
Cuando la hipótesis nula es falsa y usted 4000
𝛽 = 1.81 𝐻1 = −0.490
no la rechaza, comete un error de tipo II.
𝑆𝑥𝑥 = 4000
La probabilidad de cometer un error de
𝑆 = 6.51
𝛿𝑥𝑥
tipo II es β, que depende de la potencia de
𝐼. 𝐶 = 95%
la prueba. Puede reducir el riesgo de
𝛼 = 0.05
cometer un error de tipo II al asegurarse
de que la prueba tenga suficiente
potencia. Para ello, asegúrese de que el 1 − 0.95
PLANTEAMIENTO
tamaño de la muestra sea lo 𝛼= = 0.025 Valores críticos de
𝐻0: 𝛼 = 0 2
suficientemente grande como para 𝛾 = 10 − 2 = 8 la distribución "𝑡"
𝐻1: 𝛼 ≠ 0
detectar una diferencia práctica cuando 𝑡𝛼Τ2 = 2.306
ésta realmente exista. 𝜸 0.05
8 2.306
𝐻0 = 2.306
MÉTODO DE ANÁLISIS DE LA VARIANZA
•Análisis de la Varianza ( ANOVA ) es una fórmula estadística que se utiliza para comparar las
varianzas entre las medias (o el promedio) de diferentes grupos. Una variedad de contextos lo
utilizan para determinar si existe alguna diferencia entre las medias de los diferentes grupos.
•Este método permite contrastar la hipótesis nula de que la media de más de dos poblaciones es
igual, frente a la hipótesis alternativa de que por lo menos una es diferente.
Analisis de Varianza para la classification unilateral
Fuente de Suma de Cuadrados Grados de Cuadrados de medios Calculada
Variación libertad
Tratamientos SCR(Tratamiento) K-1 𝐶M(tratameinto) 𝐶M(tratameinto)
𝑓=
Error SCE N-k 𝐶𝑀(𝐸𝑟𝑟𝑜𝑟) 𝐶𝑀(𝐸𝑟𝑟𝑜𝑟)

Total STCC n -1

SST Suma Total de Cuadrados


SSA Suma de Cuadrados de Tratamientos
SSE Suma de Cuadrados de Error
𝑆𝑖2 Cuadrado Medio del Tratamiento
𝑆2 Cuadrado Medio del Error
PLANTEAMIENTO Presión Lectura en
(X) la escala (Y)
10 13
10 18
Para fines de calibración se
10 16
recabaron las siguientes datos , los
10 15
cuales permitirían determinar la
10 20
presión y la lectura
correspondiente en la escala. 50 86
50 90
50 88
50 88
50 92
Datos Formulas
𝑌ത𝑖
ത 2
𝑆𝑆𝑇 = ෍ ෍(𝑌𝑖𝑗 −𝑌) ത 2
𝑆𝑆𝐴 = ෍( − 𝑌)
H0: 𝛽1 = 0 𝑛
𝑗=1 𝑖=1 𝑖=1
H1: 𝛽1 ≠ 0
𝑆𝑖 2
α=0.01 𝑆𝑆𝐸 = 𝑆𝑆𝑇 − 𝑆𝑆𝐴 𝑓= 2
n=10 𝑆
∑𝑖=1(𝑌𝑖𝑗 ) 𝑆𝑆𝐴 𝑆𝑆𝐸
k=2 𝑌ത = 𝑆𝑖2 = 𝑆2 =
𝑛𝑘 𝑘−1 𝑘(𝑛 − 1)

Sustitución
826
𝑌ത = = 41.3
(10)(2)
2 2 2 2
8262
𝑆𝑆𝑇 = 6 + 7 + 11 + ⋯ 9 − = 19708.2
20
3002 + 5262 8262
𝑆𝑆𝐴 = − = 2553.8
10 10 2
𝑆𝑆𝐸 = 19708.2 − 2553.8 = 17154.4
2553.8 17154.4 2553.80
𝑆𝑖 2 = = 2553.80 𝑆2 = = 953.02 𝑓= = 2.679
1 2(10 − 1) 953.02
Analisis de Varianza para la classification unilateral
Fuente de Suma de Cuadrados Grados de Cuadrados de medios Calculada
Variación libertad
Tratamientos 2553.4 2-1=1 2553.4 2553.4
𝐶𝑀𝑡𝑟𝑎𝑡 = 2553.4 𝑓= = 2.679
1 953.02
Error 17154.4 20-2=18 17154.4
𝐶𝑀𝐸 = = 953.02
2(10 − 1)
Total 19708.2 10 -1=9

Valor Critico 𝐻0 Formula Sustitución Valor Critico


Se entra con tablas 𝑉1 = 2 − 1 𝑉1 = 2 − 1 = 1 𝑓∝ = 𝑓0.05 = 2.679
de distribución f 𝑉2 = 2(10 − 1) 𝑉2 = 2 10 − 1 = 18

Conclusión

Se rechaza la hipótesis nula 𝐻0 .


REGRESIÓN LINEAL MÚLTIPLE Y CORRELACIÓN

• Regresión polinomial

• Coeficiente de determinación y correlación.


REGRESION POLINOMIAL
• La regresión polinomial es una técnica utilizada en
estadística para modelar la relación entre una
variable independiente (X) y una variable
dependiente (Y) cuando esta relación no es lineal,
es decir, cuando los datos no siguen una tendencia
recta.

• La idea básica es que, en lugar de ajustar una línea


recta, usamos un polinomio de grado superior para
ajustar la relación entre X e Y. El grado del
polinomio se determina según la complejidad de
los datos.

• La regresión polinomial permite capturar relaciones


más complejas entre las variables. Esto es útil
cuando los datos muestran una curvatura, un
aumento o disminución no lineal en Y a medida que
X cambia.
COEFICIENTE DE DETERMINACION Y
CORRELACION.
• El coeficiente de determinación, a menudo denotado como R²,
es una medida que indica cuánta variabilidad en una variable
dependiente (la que estamos tratando de predecir) puede ser
explicada por una variable independiente (la que estamos
utilizando para hacer la predicción).

• La correlación es una medida que evalúa la relación entre dos


variables. En estadística, comúnmente se utiliza el coeficiente de
correlación de Pearson (r) para cuantificar esta relación. La
correlación de Pearson se encuentra entre -1 y 1.

• El coeficiente de determinación R² se utiliza para medir cuánta • Ambos conceptos son fundamentales
variación en una variable dependiente puede explicarse por una en estadística inferencial y son útiles
variable independiente en un modelo de regresión, mientras en la ingeniería para comprender y
que la correlación (r) evalúa la relación lineal entre dos modelar relaciones entre variables.
variables.
PLANTEAMIENTO Presión Lectura en
(X) la escala (Y)
10 13
10 18
Para fines de calibración se
10 16
recabaron las siguientes datos , los
10 15
cuales permitirían determinar la
10 20
presión y la lectura
correspondiente en la escala. 50 86
50 90
50 88
50 88
50 92
FORMULAS

𝑦ො = 𝑏0 + 𝑏1 𝑥 + 𝑏2 𝑥 2
REGRESION POLINOMIAL

𝒏 𝑿 Y 𝑿𝒀 𝑿𝟐 𝑿𝟑 𝑿𝟐 𝒀 𝑿𝟒

1 10 13 130 100 1000 1300 10000

2 10 18 180 100 1000 1800 10000

3 10 16 160 100 1000 1600 10000

4 10 15 150 100 1000 1500 10000

5 10 20 200 100 1000 2000 10000

6 50 86 4300 2500 125000 215000 6250000

7 50 90 4500 2500 125000 225000 6250000

8 50 88 4400 2500 125000 220000 6250000

9 50 88 4400 2500 125000 220000 6250000

10 50 92 4600 2500 125000 230000 6250000


Sumatoria 300 526 23020 13000 630000 1118200 31300000
METODO DE ELIMINACION DE GAUS

El Método de Eliminación de Gauss consiste en


utilizar reiteradas veces las propiedades de los
sistemas lineales, que hemos visto anteriormente,
para transformar un sistema de ecuaciones
lineales en otro equivalente (con las mismas
soluciones) pero que sea triangular.
𝑦ො = 𝑏0 + 𝑏1 𝑥 + 𝑏2 𝑥 2
Calculos para resolver matriz 3x3
10 300 13000 526 𝑎0
300 13000 630000
63000 23020 𝑎1 Fila 1
13000 630000 31300000 1118200 𝑎2 10 300
=1 = 30
10 10
13000 526
= 13000 = 52.6
10 10
Fila 2
1 ∗ 13000 − 30 ∗ 300 =4000
1 30 1300 52.6 𝑎0 1 ∗ 630000 − (1300 ∗ 300) = 240000
300 13000 630000 23020 𝑎1 1 ∗ 23020 − 52.6 ∗ 300 = 7240
13000 630000 31300000 1118200 𝑎2
Fila 3
1 ∗ 630000 − 30 ∗ 13000 = 240000
1 ∗ 31300000 − 1300 ∗ 13000 = 14400000
1 ∗ 1118200 − 56.2 ∗ 13000 = 434400
1 30 1300 52.6 𝑎0
0 4000 240000 7240 𝑎1
0 240000 14400000 434400 𝑎2
Calculos para resolver matriz 3x3
1 30 1300 52.6 𝑎0
0 4000 240000 7240 𝑎1 Fila 2
0 240000 14400000 434400 𝑎2 4000 240000
=1 = 60
4000 4000
7240
= 1.81
4000

1 30 1300 52.6 𝑎0 Fila 1


0 1 60 1.81 𝑎1
0 240000 14400000 434400 𝑎2 1 ∗ 13000 − 30 ∗ 60 = −500
1 ∗ 52.6 − 30 ∗ 1.81 = −1.7

Fila 3
1 ∗ 14400000 − 60 ∗ 240000 = 0
1 0 −500 −1.7 𝑎0 1 ∗ 434400 − 0 = 434400
0 1 60 1.81 𝑎1
0 0 0 434400 𝑎2
𝑎0 Calculos para resolver matriz 3x3
1 0 −500 −1.7
0 1 60 1.81 𝑎1
𝑎2 Fila 3
0 0 0 434400
0 434400
= 𝑖𝑛𝑑𝑡. = 𝑖𝑛𝑑𝑡.
0 0
𝑦ො = 𝑏0 + 𝑏1 𝑥 + 𝑏2 𝑥 2
Entonces, la ecuación de regresión estimada
𝑦ො = −1.7 − 1.81𝑥 + 𝑥 2
TEMA #3: REGRESIÓN NO LINEAL MÚLTIPLE
TEMARIO
• Regresión No Lineal Múltiple

• Ecuación de Potencia

• Coeficiente de determinación y gráfica

• Ecuación Exponencial

• Coeficiente de determinación y gráfica

• Ecuación logarítmica

• Coeficiente de determinación y gráfica


REGRESIÓN NO LINEAL MÚLTIPLE
• La regresión no lineal genera una ecuación para describir la relación no lineal entre una variable de
respuesta continua y una o más variables predictoras y predice nuevas observaciones.
• Utilice la regresión no lineal en lugar de la regresión de mínimos cuadrados ordinarios cuando no pueda
modelar adecuadamente la relación con parámetros lineales. Los parámetros son lineales cuando cada
término del modelo es aditivo y contiene solo un parámetro que multiplica el término.

DEFINICION
REGRESIÓN LINEAL MÚLTIPLE
•Como la el modelo de regresión lineal es un modelo que explica la relación entre variables, a
diferencia de la primera esta utiliza más variables independientes llamadas regresores para
explicar la relación de la variable dependiente denominada como regresión.
•Esta es lineal debido a que las variables independientes siguen ese mismo orden.
•Es múltiple porque su ecuación es única compuesta de varias variables independientes.
SIMILITUDES
•Describen matemáticamente la relación entre una variable de
respuesta y una o más variables predictoras.
•Pueden modelar una relación curva.
•Minimizan la suma de los cuadrados del error residual (SSE).
•Tienen los mismos supuestos que usted puede verificar utilizando las
gráficas de residuos.
DIFERENCIAS
La diferencia fundamental entre las regresiones lineal y no lineal, y la base para los nombres de
los análisis, son las formas funcionales aceptables del modelo. Específicamente, la regresión
lineal requiere parámetros lineales mientras que la no lineal no. Utilice la regresión no lineal en
lugar de la regresión lineal cuando no pueda modelar adecuadamente la relación con
parámetros lineales.
REGRESIÓN POTENCIAL
Problema No. 1 X Y
Sea el siguiente conjunto de 10 13
valores, las lecturas de un
experimento donde X es la
10 18
variable independiente e Y la 10 16
variable resultante. 10 15
10 20
50 86
50 90
50 88
50 88
50 92
Formulas:
𝑦ො = 𝑎𝑥 𝑏
𝑛 ∑ log 𝑋 log 𝑌 − (∑ log 𝑋)(∑ log 𝑌)
𝑏=
𝑛 ∑ log 𝑋 2 − ∑ log 𝑋 2

𝑎=
∑ log 𝑌 − (𝑏)(∑ log 𝑋) ECUACION POTENCIAL
𝑛
n x y log(x) log(y) log(x*y) log(x2)
∑ log 𝑌
log 𝑦 = = 1 10 13 1 1.11 1.11 1
𝑛
∑ log X 10 18 1 1.26 1.26 1
log 𝑥 = 2
𝑛
3 10 16 1 1.20 1.20 1
Sustitución:
15.79 4 10 15 1 1.18 1.18 1
log 𝑦 = = 1.579
10 5 10 20 1 1.30 1.30 1
13.49
log 𝑥 = = 1.349 50 86 1.70 1.93 3.29 2.89
10 6
10 22.60 − (13.49)(15.79) 7 50 90 1.70 1.95 3.32 2.89
𝑏= = 1.054
10(19.43) − 19.43 50 88 1.70 1.94 3.30 2.89
8
15.79 − (1.054)(13.49)
𝑎= = −0.1571 50 88 1.70 1.94 3.30 2.89
10 9
𝑦ො = 0.1571𝑥 1.054
10 50 92 1.70 1.96 3.34 2.89

Sum 300 526 13.49 15.79 22.60 19.43


GRÁFICA
COEFICIENTE DE DETERMINACIÓN
Formula: x y yො ഥ
𝒚 ෝ−𝒚
(𝒚 ഥ)𝟐 ഥ)𝟐
(𝒚 − 𝒚
10 13 1.75 52.6 2585.3 1568.16
∑ 𝑦ො − 𝑦ത 2 10 18 1.75
2 52.6 2585.3 1197.16
𝑅 = 2
∑ 𝑦 − 𝑦ത 10 16 1.75 52.6 2585.3 1339.56
10 15 1.75 52.6 2585.3 1413.76
Sustitución: 10 20 1.75 52.6 2585.3 1062.76
50 86 1.98 52.6 2562.8 1115.56
25740.9
𝑅2 = = 1.956 50 90 1.98 52.6 2562.8 1398.76
13154.4
50 88 1.98 52.6 2562.8 1253.16
Definición: El coeficiente de
determinación es una medida 50 88 1.98 52.6 2562.8 1253.16
estadística de la bondad del 50 92 1.98 52.6 2562.8 1552.36
ajuste o fiabilidad del modelo
estimado a los datos 300 526 18.65 526 25740.9 13154.4
REGRESIÓN EXPONENCIAL
Problema No. 1 X Y
Sea el siguiente conjunto de 10 13
valores, las lecturas de un
experimento donde X es la
10 18
variable independiente e Y la 10 16
variable resultante. 10 15
10 20
50 86
50 90
50 88
50 88
50 92
x y X*log(y) Y*log(y) y2 Formulas
10 13 11.14 14.48 169
𝑎 = 𝑒 ln 𝑦−𝑏𝑥ҧ
10 18 12.55 22.59 324
∑ xln 𝑦 − ∑ 𝑙𝑛𝑦 ∑ 𝑥
10 16 12.04 19.27 256 𝑏=
ത ∑ 𝑥)2
∑ 𝑥 2 − 𝑋(
10 15 11.76 17.64 225 ∑ ln 𝑥
l𝑛 𝑥 =
10 20 13.01 26.02 400 𝑛
∑ ln 𝑦
50 86 96.72 166.37 7396 l𝑛 𝑦 =
𝑛
50 90 97.71 175.88 8100 𝑦ො = 𝑎𝑒 𝑏𝑥

50 88 97.22 171.11 7744 Sustitución


50 88 97.22 171.11 7744 10 22.6 − (13.49)(15.79)
𝑏=
50 92 98.19 180.67 8464 10(19.43) − 13.492
300 526 547.58 965.15 40822 = 1.054

𝑎 = 101.579−(1.054)(1.349) = 1.436
15.79
log 𝑦 = = 1.579
10
13.49
log 𝑥 = = 1.349
10
𝐴′ = 𝑌´ഥ − 𝐵 𝑋ത
𝑛 ∑ 𝑥𝑦´ −( ∑ 𝑋 ∗ ∑ 𝑌´ ) 547.58 300
𝐵= 𝐴′ = 10 − −0.4858 ∗ 10
𝑛 ∑ 𝑥 2 − (∑ 𝑥)2
𝐴′ = 40.184
10 965.15 − (300 ∗ 547.58) 𝐴′ = 𝐿𝑛𝐴′
𝐵= 𝐿𝑛𝐴′ = 40.184
10(40822) − (300)2
𝑒 𝐿𝑛𝐴´ = 𝑒 40.184
−26.041 𝐴 = 𝑒 −.14795
𝐵= 𝐴 = 2.82𝑥1017
−747.7925
𝐵 = −0.4858 𝑌 = 𝐴 ∗ 𝑒 𝐵𝑥
Nomenclatura Referencias
X̅= Media =Desviación Libro -Probabilidad y estadística para ingeniería y ciencias.
muestra. estándar. 9na edición. Ronald E. Walpole, Raymond Myers.
=Media de n=  30 = Media
población. grande.
Libro -Probabilidad y estadística para ingenieros.
N=  30 = Media 8va edición. Miller y Freud.
=Nivel de pequeña
significación.
Libro -Probabilidad y aplicaciones estadísticas.
6ta edición. Paul Meyer.

Libro –Introducción a la probabilidad y estadística.


13va edición. Mendenhall y Beaver.

También podría gustarte