Documentos de Académico
Documentos de Profesional
Documentos de Cultura
16 de julio de 2020
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 3 / 111
Introducción
Introducción
Introducción
Predicción
El objetivo aquı́ es pronosticar valores de la variable de respuesta
para valores futuros de la variables predictoras, es decir para va-
lores más allá de rango de valores de las variables predictoras en
la muestra de entrenamiento.
Descripción
La idea es establecer una ecuación lineal que describa la relación
entre la variable dependiente y las variables predictoras.
Control
Se busca controlar el comportamiento o variación de la variable
de respuesta de acuerdo a los valores que asumen las variables
predictoras. Por ejemplo, cuántas horas deberı́a estudiar como
mı́nimo para sacar 90 puntos o más en un examen.
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 6 / 111
Modelo de regresión Generalidades
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 7 / 111
Modelo de regresión Generalidades
xi yi
85 2.3
65 1.2
73 1.5
90 1.9
82 1.8
80 2.0
68 1.3
88 2.1
E (Y |x) = β0 + β1 x
Y = β0 + β1 x + ε
Propiedades
Valor esperado
E (Y ) = E (β0 + β1 x + ε) = β0 + β1 x + E (ε) = β0 + β1 x
Varianza
Propiedades
La pendiente β1 representa el cambio en la respuesta promedio de Y para un
cambió unitario en x.
La ordenada β0 representa la respuesta promedio de Y cuando el valor de x
es igual a cero.
La variabilidad de Y en el valor particular de x está determinada por la
varianza del error σ 2 .
Existe una distribución de valores de Y para cada x.
La varianza de la distribución es la misma en cada x.
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 13 / 111
Modelo de regresión Estimación por mı́nimos cuadrados
yi = β0 + β1 xi + εi , i = 1, 2, . . . , n
n
∂L X
= −2 yi − βb0 − βb1 xi = 0
∂β0 i=1
n
∂L X
= −2 yi − β0 − β1 xi xi = 0
b b
∂β1 i=1
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 16 / 111
Modelo de regresión Estimación por mı́nimos cuadrados
Definición
Los estimadores mı́nimos cuadrados de la ordenada al origen y
lapendiente del modelo de regresión lineal simple son
βb0 = y − βb1 x
( ni=1 xi ) ( ni=1 yi )
P P
Pn
i=1 xi yi −
Pn
n xi yi − nxy Sxy
βb1 = Pn 2 = Pi=1
n 2 2 =
Pn 2 ( i=1 xi ) i=1 xi − nx Sxx
i=1 xi −
n
Pn Pn
yi xi
donde y = i=1 y x = i=1
n n
yi = βb0 + βb1 xi + ei , i = 1, 2, . . . , n
Ejemplo 1
Considere los datos de la cantidad de reactivo y el nivel de pureza en
la página 8. Se estimará el modelo de regresión para estos datos.
n
X
Sxy = xi yi − nxy = 1134,8 − 8 (78,875) (1,7625) = 22,6625
i=1
n
X
Sxx = x2i − nx2 = 50371 − 8 (78,875)2 = 600,875
i=1
Interpretación
El valor 0,0377 de la pendiente indica que si la candidad de reac-
tivo se incrementa en una unidad, se consigue un incremento del
grado de pureza en 0,0377 unidades.
El valor -1,2111 de la ordenada indica que cuando la cantidad de
reactivo es nula, se estima que el grado de pureza del frasco es
de -1.2111. Este valor puede o no tener sentido dependiento de
la situación.
Para un contenido de reactivo de 75 mg, el grado de pureza de
frasco se estima en 1,6164. Este valor puede interpretarse como
la verdadera pureza promedio cuando x = 75 mg.
Ejemplo 2
En un artı́culo de Concrete Research (“Caracterı́sticas del concreto cerca de la
superficie: Permeabilidad intrı́nseca” Vol 41), se presentaron los datos sobre la
resistencia a la compresión x y la permeabilidad intrı́nseca y de varias mezclas y
curados de concreto. Las cantidades resumidas son:
yi2 = 23530 x2i = 157,42
P P P P P
n = 14 yi = 572 xi = 43 xi yi = 1697,80
Solución
43 572
x= = 3,07 y y=
= 40,86
14 14
n
( ni=1 xi ) ( ni=1 yi )
P P
X (43) (572)
Sxy = x i yi − = 1697,80 − = −59,06
n 14
i=1
n
( ni=1 xi )2 432
X P
Sxx = x2i − = 29,29 − = 25,35
n 14
i=1
Sxy −59,06
βb1 = = = −2,33
Sxx 25,35
y
βb0 = y − βb1 x = 40,86 − (−2,33) (3,07) = 48,01
El modelo estimado es
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 29 / 111
Modelo de regresión Propiedades de los estimadores de mı́nimos cuadrados
Recordar
Se ha supuesto que los errores εi en el modelo Yi = β0 + β1 xi + εi son
variables aleatorias no correlacionadas con media cero y varianza σ 2 .
Se estudiarán las propiedades de sesgo y varianza de los estimadores
mı́nimos cuadrados βb0 y βb1 .
Pn
i=1 xi yi − nxy
E β1 = E Pn
b
2 2
i=1 xi − nx
Pn
xi E (yi ) − nxE (y)
= i=1Pn 2 2
i=1 xi − nx
Pn
xi (β0 + β1 xi ) − nx (β0 + β1 x)
= i=1 Pn 2 2
i=1 xi − nx
Pn Pn
β0 i=1 xi + β1 i=1 x2i − nβ0 x − nβ1 x2
= Pn 2 2
i=1 xi − nx
Pn
x2 − nx2
β1
= Pn i=1 2 i 2
i=1 xi − nx
= β1
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 31 / 111
Modelo de regresión Propiedades de los estimadores de mı́nimos cuadrados
E βb0 = E y − βb1 x
= E (y) − E βb1 x
= β0 + β1 x − β1 x
= β0
Conclusiones
βb0 es un estimador insesgado para β0
βb1 es un estimador insesgado para β1
Varianza de βb0
La varianza de βb0 esta dada por
2
2 1 x
V βb0 = σ +
n Sxx
Varianza de βb1
La varianza de βb1 esta dada por
σ2
V βb1 =
Sxx
Estimación de la varianza de los errores σ 2
La varianza del error, representada por σ 2 es desconocida y debe ser estimada
usando los residuales ei = yi − ybi . Ası́, la suma de cuadrados de los residuales
es
X n Xn
2
SCE = e2i = (yi − ybi )
i=1 i=1
E (SCE) = (n − 2) σ 2
Definición
Un estimador insesgado de σ 2 es
SCE
b2 =
σ
n−2
Estimación de la varianza de los errores σ 2
con n n
yi2 − ny 2
P P
Sxy = xi yi − nxy y Syy =
i=1 i=1
Estimación de la varianza de los errores σ 2
Estimación de la varianza de los errores σ 2
Ejemplo 3
La estimación de la varianza de los errores para los datos de la cantidad
de reactivo (ejemplo 1) es la siguiente
n
X
Syy = yi2 − n (y)2 = 25,93 − 8 (1,7625)2 = 1,0788
i=1
1
b2 =
σ [1,0788 − 0,0377 (22,6625)] = 0,0374
6
Definición
En el modelo de regresión lineal simple, el error estándar estimado
de la pendiente es s
b2
σ
ee βb1 =
Sxx
el error estándar estimado de la ordenada al origen es
s
x2
2
1
ee β0 = σ
b b +
n Sxx
Ejemplo 4
b2 = 0,0374
Para los datos de la cantidad de reactivo (ejemplo 1) se tiene σ
Sxx = 600,875 x = 78,875
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 40 / 111
Pruebas de hipótesis en la regresión lineal simple Hipótesis parciales
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 41 / 111
Pruebas de hipótesis en la regresión lineal simple Hipótesis parciales
b2 /Sxx
βb1 tiene distribución normal con media β1 y varianza σ
b2
σ
β1 ∼ N β1 ,
b
Sxx
b2
(n − 2) σ
∼ χ2n−2
σ2
b2 .
βb1 es independiente de σ
Estadı́stico de prueba
Como resultado de las propiedades anteriores, el estadı́stico
βb1 − β10
T0 = p
σ 2 /Sxx
Criterio de rechazo
Con un nivel de significancia predefinido α, se rechazará H0 si
|T0 | > t(α/2,n−2)
x2
2 1
βb0 ∼ N β0 , σ +
n Sxx
b2 .
βb0 es independiente de σ
Estadı́stico de prueba
Como resultado de las propiedades anteriores, el estadı́stico
βb0 − β00
T0 = s
x2
2
1
σ +
n Sxx
Criterio de rechazo
Con un nivel de significancia predefinido α, se rechazará H0 si
|T0 | > t(α/2,n−2)
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 47 / 111
Pruebas de hipótesis en la regresión lineal simple Hipótesis parciales
Ejemplo 5
Valor crı́tico para α = 0,01
Decisión
|T0 | = 1,9347 < 3,71, por lo tanto no se puede rechazar H0 .
Ejemplo 5
Se verificará la significancia del parámetro β1 .
Hipótesis. (
H0 : β1 = 0
H1 : β1 6= 0
Ejemplo 5
Valor crı́tico para α = 0,01
Decisión
|T0 | = 4,7722 > 3,71, por lo tanto se debe rechazar H0 .
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 52 / 111
Pruebas de hipótesis en la regresión lineal simple Hipótesis general (Análisis de varianza)
Análisis de varianza
Análisis de varianza
Observación
La SCT tiene n − 1 grados de libertad, SCR tiene 1 grado de
libertad y la SCE tiene n − 2 grados de libertad. Además
SCE/σ 2 ∼ χ2n−2
SCR/σ 2 ∼ χ21
Análisis de varianza
Estadı́stico de prueba
Con base en las propiedades anteriores, el estadı́stico
SCR/1 CM R
F0 = =
SCE/ (n − 2) CM E
Criterio de rechazo
Para un nivel de significancia predeterminado α. Se rechazará la
hipótesis nula H0 si F0 > f(α,1,n−2)
Análisis de varianza
Tabla ANAVA
Los cálculos del análisis de varianza se resumen en una tabla como la
que sigue
Fuente de Grados de Sumas de Cuadrados
variación libertad cuadrados medios F
Regresión 1 SCR = βb1 Sxy SCR/1 CM R/CM E
Error n−2 SCE = SCT − SCR SCE/ (n − 2)
Total n−1 SCT = Syy
Cuadrados medios
CM R = SCR/1 se conoce como el cuadrado medio de la regresión.
CM E = SCE/ (n − 2) se conoce como el cuadrado medio del error.
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 56 / 111
Pruebas de hipótesis en la regresión lineal simple Hipótesis general (Análisis de varianza)
Ejemplo 6
Significancia de la regresión para los datos de la cantidad de reactivo del
ejemplo 1, usando análisis de varianza.
De los ejemplos 1, 3 y 4 se tiene
βb1 = 0,0377, n = 8 Syy = 1,0788 y Sxy = 22,6625
Sumas de cuadrados
SCT = Syy = 1,0788
Cuadrados medios
Análisis de varianza
Estadı́stico de prueba
Conclusión
De estos resultados se concluye que β1 es difernete de cero, pues
22,8449 > 13,745
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 59 / 111
Intervalos de confianza Intervalos de confianza para β
b0 y β
b1
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 60 / 111
Intervalos de confianza Intervalos de confianza para β
b0 y β
b1
βb − β1 βb0 − β0
p1 y p
σ 2 /Sxx σ 2 [1/n + x2 /Sxx ]
tienen ambos una distribución t con n − 2 grados de libertad. Esto
conduce a la definición de los intervalos de confianza del
100 (1 − α) % para βb0 y βb1 .
Definición
Bajo el supuesto de que las observaciones tienen una distribución normal e inde-
pendiente, un intervalo de confianza del 100 (1 − α) % para βb1 en el modelo
de regresión lineal simple es
s s
b2
σ b2
σ
βb1 − t( α ,n−2) ≤ β1 ≤ βb1 + t( α ,n−2)
2 Sxx 2 Sxx
| {z } | {z }
ee(β
b1 ) ee(β
b1 )
Ejemplo 8
Intervalos de confianza del 99 % para la ordenada y la pendiente del modelo
estimado usando los datos de la cantidad de reactivo.
De los ejemplos 1, 4 y5 se tiene
βb1 = 0,0377, ee βb1 = 0,0079, βb0 = −1,2111, ee βb0 = 0,626,
t(α/2,n−2) = t(0,005,6) = 3,71
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 64 / 111
Intervalos de confianza Intervalos de confianza para la respuesta media
Definición
un intervalo de confianza del 100 (1 − α) % para la respuesta media cuando
x = x0 , denotado por µ
bY |x=x0 , es
v " # v " #
2
(x0 − x)2
u u
u
2
1 (x 0 − x) u
2
1
bY |x0 −t( α ,n−2) σ
µ t b + ≤ µY |x0 ≤ µ
bY |x0 +t( α ,n−2) σ
t b +
2 n Sxx 2 n Sxx
| {z } | {z }
ee µbY |x ee µbY |x
0 0
Ejemplo 9
Se construye un intervalo del 95 % para la respuesta media usando
los datos del ejemplo 1.
El modelo estimado para este ejemplo es
Para α = 0,05
t( α ,n−2) = t(0,025;6) = 2,45
2
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 70 / 111
Predicción de nuevas observaciones
b2 para estimar σ 2 , se
Como Yf y Ybf son independientes, al usar σ
puede demostrar que
Yf − Ybf
s
2
1 (xf −x)
b2
σ 1+ n
+ Sxx
Definición
un intervalo de predicción del 100 (1 − α) % para la observación futura yf
cuando x = xf , esta dado por
v " v "
u 2 # u 2 #
u 1 x f − x u 1 xf − x
ybf − t( α ,n−2) σ
t b2 1 + + ≤ yf ≤ ybf + t( α ,n−2) tσb2 1 + +
2 n Sxx 2 n Sxx
| {z } | {z }
ee(Y
bf ) ee(Y
bf )
El valor ybf se calcula a partir del modelo de regresión ybf = βb0 + βb1 xf .
Ejemplo 10
Se construye un intervalo de predicción del 95 % para el grado de
pureza cuando la cantidad de reactivo es xf = 85
El valor futuro estimado es
Para α = 0,05
t( α ,n−2) = t(0,025;6) = 2,45
2
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 77 / 111
Prueba de falta de ajuste
La suma de cuadrados del error puro es una suma ponderada de las varianzas de
los grupos, donde las ponderaciones son el número de observaciones menos uno y
se calcula mediante
r
X
SCEp = (n1 − 1) S12 + (n2 − 1) S22 + · · · + (nr − 1) Sr2 = (ni − 1) Si2
| {z } | {z } | {z }
i=1
Syy grupo 1 Syy grupo 2 Syy grupo r
SCEf a
La SCEf a se calcula por diferencia
Cuadrados medios
CM Ep = SCEp / (n − r) es el cuadrado medio del error puro.
CM Ef a = SCEf a / (r − 2) es el cuadrado medio del error por falta de ajuste.
Estadı́stico de prueba
El cociente
CM Ef a
F0 (F A) =
CM Ep
tiene distibución F con r − 2 y n − r grados de libertad.
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 80 / 111
Prueba de falta de ajuste
Hipótesis
Las hipótesis para este caso son
(
H0 : El modelo de regresión lineal simple es correcto
H1 : El modelo de regresión lineal simple no es correcto
Criterio de rechazo
Se compara F0 (F A) calculado con f(α,r−2,n−2) y se rechaza H0 si
F0 (F A) > f(α,r−2,n−2)
El rechazo de la hipótesis nula indica que el modelo es inadecuado porque
proporciona una estimación de σ 2 que está muy alejada de la estimación que se
obtiene independiente del modelo.
Tabla ANAVA
Los cálculos del análisis de varianza se resumen en una tabla como la
que sigue
Fuente de Grados de Sumas de Cuadrados
variación libertad cuadrados medios F
Regresión 1 SCR CM R CM R/CM E
Error n−2 SCE CM E
fa r−2 SCEf a CM Ef a CM Ef a /CM Ep
p n−r SCEp CM Ep
Total n−1 SCT
Ejemplo 11
Para los datos de la tabla de la página 78, se usa el procedimiento visto anterior-
mente para contruir la tabla ANAVA común, la cual es
Fuente de Grados de Sumas de Cuadrados
variación libertad cuadrados medios F
Regresión 1 82,36 82,36817 28,054
Error 10 29,36 2,93610
Total 11 111,72
Para realizar la partición de la sua de cuadrados del error debemos calcular las
varianzas para cada valor de x.
Realizados los cálculos tenemos S12 = 3,25, S22 = 10,2633, S32 = 0,520, S42 = 0,37
y la suma de cuadrados del error puro es
Ejemplo 11
La suma de cuadrados del error por falta de ajuste es
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 85 / 111
Coeficiente de determinación R2
Coeficiente de determinación R2
R2 Otra formula
A la cantidad
2
Sxy
2 SCR SCE R2 =
R = =1− Sxx Syy
SCT SCT
se le llama coeficiente de determinación
Caracterı́sticas y propiedades
Se usa para juzgar la adecuación de un modelo de regresión.
0 ≤ R2 ≤ 1
El valor de R2 indica la proporción de variabilidad de los datos que está
explicada o que es considerada por el modelo de regresión.
Coeficiente de determinación R2
Ejemplo 12
Para el ejemplo de la cantidad de ractivo
SCR = 0,8544 y SCT = 1,0788
SCR 0,8544
R2 = = = 0,7919
SCT 1,0788
Coeficiente de determinación R2
Ejemplo 13
Para los datos del ejemplo 2, se tiene que Sxy = −59,06, Sxx = 25,35
y Syy = 159,7143
2
Sxy (−59,06)2
R2 = = = 0,8615
Sxx Syy 25,35 × 159,7143
es decir que el modelo de regresión ajustado, explica el 86,15 % de la
variabilidad de los datos.
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 89 / 111
Correlación Coeficiente de correlación de Pearson
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 90 / 111
Correlación Coeficiente de correlación de Pearson
Patrones de correlación
Patrones de correlación
Ejemplo
Para los datos del ejemplo 2, se tiene que
Sxy = −59,06, Sxx = 25,35 y Syy = 159,7143
Sxy −59,06
rxy = √ p =√ √ = −0,9282
Sxx Syy 25,35 159,7143
Note que
2
rxy = (−0,9282)2 = 0,8615 = R2
x y
Número de Costos de
sucursales comunicación
3 2
5 3
3 5
2 4
4 6
1 2
5 5
2 1
6 3
3 5
n
d2i
P
6
i=1 6(96, 50)
rs = 1 − =1− = 0,4152
n (n2 − 1) 10(102 − 1)
rs = 0,4152
Tabla de Contenido
1 Modelo de regresión
Generalidades
Estimación por mı́nimos cuadrados
Propiedades de los estimadores de mı́nimos cuadrados
2 Pruebas de hipótesis en la regresión lineal simple
Hipótesis parciales
Hipótesis general (Análisis de varianza)
3 Intervalos de confianza
Intervalos de confianza para βb0 y βb1
Intervalos de confianza para la respuesta media
4 Predicción de nuevas observaciones
5 Prueba de falta de ajuste
6 Coeficiente de determinación R2
7 Correlación
Fernando Madera (fermadera85@gmail.com) Regresión lineal simple 100 / 111
Ejercicios
Ejercicios
Ejercicios
Ejercicios
5) En un proceso de extracción se estudia la relación entre tiempo de
extracción y rendimiento. Los datos obtenidos se muestran en la siguiente
tabla.
Tiempo (minutos) 10 15 20 8 12 13 15 12 14 20 19 18
Rendimiento ( %) 64 81.7 76.2 68.5 66.6 77.9 82.2 74.2 70 76 83.2 85.3
Ejercicios
Ejercicios
7) Al observar el número de sucursales (X) y los costos mensuales (Y ) en
comunicación telefónica con la casa central, en millones de $ para 10
empresas se encontró:
x y
Número de Costos de
sucursales comunicación
3 2
5 3
3 5
2 4
4 6
1 2
5 5
2 1
6 3
3 5
Ejercicios
8) En una industria se desea investigar cómo influye la temperatura (◦ C) en la
presión del vapor de B-trimetilboro, los datos obtenidos para tal propósito
se muestran en la siguiente tabla.
Ejercicios
Ejercicios
Ejercicios
Ejercicios
Bibliografı́a