Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Unidad 2. Regresion Lineal Simple
Unidad 2. Regresion Lineal Simple
Licenciatura en Matemáticas
Estadística II
4° semestre
Clave:
05142421/06142421
1
Estadística II
Unidad 2. Regresión lineal simple
Índice
Unidad 2. Regresión lineal simple 3
Presentación de la unidad 3
Propósitos de la unidad 3
Competencia específica 4
Cierre de la unidad 28
Fuentes de consulta 28
2
Estadística II
Unidad 2. Regresión lineal simple
Presentación de la unidad
El análisis de regresión es una técnica estadística que se utiliza para estudiar las relaciones de
dependencia entre variables.
La relación entre los gastos en publicidad y las ventas de una empresa, el cambio en el nivel de
colesterol cuando una persona cambia sus hábitos alimenticios, y si esto sucede ¿los cambios
observados también dependen de factores como: sexo, edad o cantidad de ejercicio que realiza
la persona?
Se puede observar que en el primer caso los gastos en publicidad implican un cambio en los
gastos en ventas.
En el segundo caso, cambiar los hábitos alimenticios implica un cambio en el nivel de colesterol.
El objetivo del análisis de regresión será entender cómo cambia 𝑦 a medida de que 𝑥 va
tomando cada uno de los valores posibles dentro de su rango.
Propósitos de la unidad
3
Estadística II
Unidad 2. Regresión lineal simple
Competencia específica
Competencia específica
Describir cada uno de los valores que toma 𝑦 de forma exacta a partir de la relación que x e y
tienen es muy difícil, poco práctico y poco realista. Sin embargo, si se ven las cosas en términos
de distribuciones, es decir, si nuestro interés se centra en determinar cómo cambia la
distribución de y a medida que x varía, las cosas cambian, entonces se puede utilizar la
esperanza condicional para explicar la relación de dependencia que existe. Ésta se define de la
siguiente forma:
E(y|X = x)…(2.1)
Supone que en promedio lo valores y al fijar X = x están descritos por una recta. Formalmente
se escribe como:
𝐸(𝑦|𝑋 = 𝑥) = 𝛽0 + 𝛽1 ∗ 𝑥…(2.2)
𝑦 = 𝛽0 + 𝛽1 ∗ 𝑥…(2.3)
Ahora bien, aunque exista una relación lineal los datos no caen exactamente sobre una recta ya
que existen causas externas que en ocasiones no se pueden medir por lo que se debe de tomar
en cuenta un error aleatorio (𝜀𝑖 ) que será calculado como la diferencia entre el valor observado
y el valor de predicción, es decir:
4
Estadística II
Unidad 2. Regresión lineal simple
𝜀 = 𝑦 − (𝛽0 + 𝛽1 ∗ 𝑥)…(2.4)
Se supone que los errores tienen 𝐸(𝜀) = 0 y 𝑉𝑎𝑟(𝜀) = 𝜎 2 desconocida, además se suele
suponer que los errores no están correlacionados o que tienen alguna distribución simétrica, por
ejemplo, Normal. Así un modelo más plausible para los datos es:
𝑦 = 𝛽0 + 𝛽1 ∗ 𝑥 + 𝜀…(2.3)
Ejemplo 1
5
Estadística II
Unidad 2. Regresión lineal simple
En la Gráfica 2.1.a se observa con claridad que hay una relación lineal entre la variable 𝑥 e 𝑦.
La Grafica 2.1.b (siguiente gráfica) muestra la relación lineal mediante una línea recta.
Propósito
Se llama modelo lineal porque los parámetros están linealizados. Por ejemplo:
𝑦 = 𝑐 ∗ 𝑥 𝛽 …(2.4)
6
Estadística II
Unidad 2. Regresión lineal simple
ln 𝑦 = ln 𝑐 + 𝛽 ∗ ln 𝑥
Sea
𝑦 ′ = ln 𝑦, 𝛽0 = ln 𝑦 y 𝑥 ′ = ln 𝑥
𝑦 ′ = 𝛽0 + 𝑥 ′ ∗ 𝛽1
Ecuación del
Nombre del modelo Transformación Modelo Linealizado
Modelo
Exponencial 𝑦 = 𝛽0 ∗ 𝑒 𝛽1 ∗𝑥 𝑦 ′ = ln 𝑦 𝑥′ = 𝑥 𝑦′ = ln 𝛽0 ∗ 𝛽1 ∗ 𝑥’
Doblemente
𝑦 = 𝛽0 ∗ 𝑥 𝛽1 𝑦′ = 𝑦 𝑥 ′ = ln 𝑥 𝑦′ = 𝛽0 + 𝛽1 ∗ 𝑥’
Logarítmico
Hiperbólico 𝑦 = 𝛽0 ∗ 𝛽1⁄𝑥 𝑦′ = 𝑦 𝑥 ′ = 1⁄𝑥 𝑦′ = 𝛽0 + 𝛽1 ∗ 𝑥′
Inverso 𝑦 = 1⁄(𝛽0 + 𝛽1 ∗ 𝑥) 𝑦 ′ = 1⁄𝑦 𝑥′ = 𝑥 𝑦′ = 𝛽0 + 𝛽1 ∗ 𝑥′
Para predecir el valor de 𝑦 usando el modelo linealizado hay que aplicar la inversa de la
transformación correspondiente al mismo.
7
Estadística II
Unidad 2. Regresión lineal simple
Figura 2.2.a
Figura 2.2.b
8
Estadística II
Unidad 2. Regresión lineal simple
Supóngase que se tienen 𝑛 pares de datos, los cuales se obtuvieron de manera experimental,
Donde 𝜀̂𝑖 es un estimador del error y se denomina residuo. Geométricamente 𝜀̂𝑖 mide la
distancia vertical desde el punto 𝑃𝑖 (𝑥𝑖 , 𝑦𝑖 ) a la recta ajustada 𝑦
̂ como se muestra en la figura
2.3ª.
9
Estadística II
Unidad 2. Regresión lineal simple
Lo que se quiere es que la suma de los cuadrados de las diferencias entre las observaciones 𝑦𝑖
e𝑦̂𝑖 sea mínima. Como criterio de optimización se tomará aquel procedimiento de estimación
que minimice la suma de cuadrados de los residuos:
𝑛 𝑛
2 2
𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑎𝑟 𝑆𝑆𝐸(𝛽) = ∑ 𝜀̂𝑖 = ∑(𝑦𝑖 − [𝛽̂0 + 𝛽̂1 ∗ 𝑥𝑖 ])
𝑖=1 𝑖=1
𝑛
𝜕 𝑆𝑆𝐸(𝛽)
= −2 ∑ 𝑦𝑖 − [𝛽̂0 + 𝛽̂1 ∗ 𝑥𝑖 ] = 0
𝜕 𝛽̂0 𝑖=1
𝑛
𝜕 𝑆𝑆𝐸(𝛽)
= −2 ∑(𝑦𝑖 − [𝛽̂0 + 𝛽̂1 ∗ 𝑥𝑖 ]) ∗ 𝑥𝑖 = 0
𝜕 𝛽̂1 𝑖=1
𝑛
∑ 𝑦𝑖 ∗𝑥𝑖 −𝑛∗𝑦̅∗𝑥̅
𝛽̂1 = 𝑖=1
∑ 𝑛 2 2
(2.10)
𝑖=𝑖 𝑥𝑖 −𝑛∗𝑥̅
10
Estadística II
Unidad 2. Regresión lineal simple
Ejemplo 1
Una empresa que genera energía eléctrica está interesada en desarrollar un modelo que
relacione la demanda en horas pico (𝑦𝑖 , en kw) con el consumo mensual total de energía
durante el mes (𝑥𝑖 , en kwh). Los datos de 50 consumidores residenciales se muestran en la
tabla:
11
Estadística II
Unidad 2. Regresión lineal simple
Se observa que los datos aparentemente siguen un comportamiento lineal por lo que se
procede a ajustar un modelo de regresión lineal simple por mínimos cuadrados.
50 𝑛
745525.2−(50∗1911.14∗6.532)
𝛽̂1 = 2)
= 0.002481
231523963−(50∗1911.14
𝑦̂ = 1.789559 + 0.002481 ∗ 𝑥
La pendiente es positiva lo que dice que el consumo de energía afecta de manera positiva la
demanda de energía y por cada unidad de consumo de energía la demanda crece en 0.002481.
La siguiente figura muestra la gráfica de dispersión junto con la recta de regresión ajustada por
mínimos cuadrados.
12
Estadística II
Unidad 2. Regresión lineal simple
Supón que se quiere conocer la demanda de energía cuando el consumo fue de 2500 kwh
(𝑥0 ). Este dato no se encontraba con los datos originales, pero se puede utilizar la recta de
regresión y predecir la nueva observación de 𝑦 que se denotará por 𝑦
̂0
Por lo tanto con un consumo de energía de 2500 kwh se espera una demanda de 7.992050 kw.
Un resultado importante acerca de la calidad de los estimadores por mínimo cuadrados 𝛽̂0 y 𝛽̂1
es el Teorema de Gauss Markov, que establece que para el modelo de regresión lineal (2.6)
con las hipótesis 𝐸(𝜀) = 0 y 𝐸𝑎𝑟(𝜀) = 𝜎 2 y con errores no correlacionados, los estimadores por
mínimos cuadrados son insesgados y tienen varianza mínima en comparación con todos los
demás estimadores insesgados que sean combinaciones lineales de las 𝑦𝑖 .
𝑦𝑖 ~𝑁(𝛽0 + 𝛽1 ∗ 𝑥𝑖 , 𝜎 2 )
𝑛
2
1 (𝑦𝑖 − 𝛽0 − 𝛽1 ∗ 𝑥𝑖 )2
ℒ(𝛽0 , 𝛽1 , 𝜎 , 𝑦) = ∏ 𝑒𝑥𝑝 {− }
√2 ∗ 𝜋 ∗ 𝜎 2 2 ∗ 𝜎2
𝑖=1
De donde:
𝑛
2 2 )𝑛/2
(𝑦𝑖 − 𝛽0 − 𝛽1 ∗ 𝑥𝑖 )2
ℒ(𝛽0 , 𝛽1 , 𝜎 , 𝑦) = (2 ∗ 𝜋 ∗ 𝜎 𝑒𝑥𝑝 {− ∑ }
2 ∗ 𝜎2
𝑖=1
13
Estadística II
Unidad 2. Regresión lineal simple
𝑛
𝑛 1
ln ℒ(𝛽0 , 𝛽1 , 𝜎 , 𝑦) = − ln(2 ∗ 𝜋 ∗ 𝜎 2 ) −
2
∑(𝑦𝑖 − 𝛽0 − 𝛽1 ∗ 𝑥𝑖 )2
2 2 ∗ 𝜎2
𝑖=1
Para encontrar los estimadores máximo verosímil se aplican las derivadas parciales a la función
ln ℒ(𝛽0 , 𝛽1 , 𝜎 2 , 𝑦) y se obtiene:
𝑛
𝜕 ln ℒ
= ∑(𝑦𝑖 − 𝛽0 − 𝛽1 ∗ 𝑥𝑖 ) = 0
𝜕 𝛽0
𝑖=1
𝑛
𝜕 ln ℒ
= ∑(𝑦𝑖 − 𝛽0 − 𝛽1 ∗ 𝑥𝑖 ) ∗ 𝑥𝑖 = 0
𝜕 𝛽1
𝑖=1
Observe que las ecuaciones (2.11) y (2.12) coinciden con las ecuaciones normales. Por lo
tanto, los estimadores máximo verosímil y los estimadores de mínimos cuadrados son los
mismos.
2
2
∑𝑛𝑖=1(𝑦𝑖 − 𝛽̂0 − 𝛽̂1 ∗ 𝑥𝑖 )
𝜎̂ =
𝑛
2
∑𝑛𝑖=1(𝑦𝑖 − 𝑦̂𝑖 )2 ∑𝑛𝑖=1 𝑒𝑖 2
𝜎̂ = =
𝑛 𝑛
14
Estadística II
Unidad 2. Regresión lineal simple
2
∑𝑛𝑖=1 𝑒𝑖 2 2
𝜎̂ = ~ 𝜒(𝑛−2)
𝑛−2
𝑛
A la cantidad ∑𝑖=1 𝑒𝑖 2 se llama cuadrado medio residual (MSE).La raíz cuadrada de 𝜎 ̂ 2 se
le conoce como: error estándar de la regresión y tiene las mismas unidades que la variable
de respuesta.
Como los estimadores 𝛽̂0 y 𝛽̂1 pueden expresarse como combinaciones lineales de variables
normales, entonces se concluye que ambos también se distribuyen normalmente:
1 𝑥̅ 2
𝛽̂0 ~ 𝑁 (𝛽0 , 𝜎 2 ∗ [ + ])
𝑛 𝑆𝑥𝑥
𝜎2
𝛽̂1 ~ 𝑁 (𝛽1 , )
𝑆𝑥𝑥
Donde:
𝑆𝑥𝑥 = ∑(𝑥𝑖 − 𝑥̅ )2
𝑖=1
2
𝑊~𝑁(0,1) y 𝑉~𝜒(𝑟)
𝑊
𝑇= ~ 𝑡(𝑟)
𝑉
√
𝑟
15
Estadística II
Unidad 2. Regresión lineal simple
𝛽̂0 − 𝛽0
𝑧= ~𝑁(0,1)
1 𝑥̅ 2
√𝜎 2 ∗ [𝑛 + ]
𝑆𝑥𝑥
̂0 −𝛽0
𝛽
𝑡0 = 1 ̅2
𝑥
~𝑡𝑛−2 (2.13)
√𝑀𝑆𝐸∗[ + ]
𝑛 𝑆𝑥𝑥
1 𝑥̅ 2 1 𝑥̅ 2
(𝛽̂0 − 𝑡𝛼,𝑛−2 ∗ √𝑀𝑆𝐸 ∗ [ + ] ≤ 𝛽0 ≤ 𝛽̂0 + 𝑡𝛼,𝑛−2 ∗ √𝑀𝑆𝐸 ∗ [ + ])
2 𝑛 𝑆𝑥𝑥 2 𝑛 𝑆𝑥𝑥
𝑀𝑆𝐸 𝑀𝑆𝐸
(β̂1 − 𝑡𝛼,𝑛−2 ∗ √ ≤ β1 ≤ β̂1 + 𝑡𝛼,𝑛−2 ∗ √ )
2 Sxx 2 Sxx
(𝑛 − 2) ∗ 𝑀𝑆𝐸 (𝑛 − 2) ∗ 𝑀𝑆𝐸
( ≤ 𝜎2 ≤ )
𝜒𝛼2,𝑛−2 2
𝜒1− 𝛼
,𝑛−2
2 2
Ejemplo 1
Con los datos del consumo de energía de la sección 2.3 se calculan los intervalos a 95% de
̂ 0 , β̂1 y 𝜎̂ 2 . Se tienen los siguientes resultados:
confianza para β
16
Estadística II
Unidad 2. Regresión lineal simple
2 2
Para el intervalo de 𝜎 2 se necesita el cuantil 𝜒0.05 = 𝜒0.025,48 buscando en la tabla de la
,50−2
2
Ji-cuadrada se observa que no se encuentra el cuantil exacto con 48 grados de libertad, así que se
2 2
toma el cuantil más próximo, en este caso es 𝜒0.025,40 = 59.342 y 𝜒0.975,40 = 24.433
48 ∗ 4.47123589 48 ∗ 4.47123589
≤ 𝜎2 ≤
59.342 24.433
3.616651326 ≤ 𝜎 2 ≤ 8.7839939
Ésos son los intervalos a 95% de confianza, se observa que ninguno cruza por el 0, así que se
puede suponer que los estimadores son significativos para el modelo.
Es importante poder dar una referencia sobre la validez de las nuevas predicciones, es por ello
que un intervalo de confianza es de utilidad.
1 (𝑥0 − 𝑥̅ )2 1 (𝑥0 − 𝑥̅ )2
(𝑦̂0 − 𝑡𝛼,𝑛−2 ∗ √𝑀𝑆𝐸 ∗ [1 + + ] ≤ 𝑦0 ≤ 𝑦̂0 + 𝑡𝛼,𝑛−2 ∗ √𝑀𝑆𝐸 ∗ [1 + + ])
2 𝑛 𝑆𝑥𝑥 2 𝑛 𝑆𝑥𝑥
17
Estadística II
Unidad 2. Regresión lineal simple
Ejemplo 1
Con los datos del consumo de energía de la sección 2.3 se calcula el intervalo de confianza a
95% de confianza para la nueva observación 𝑦̂0 = 7.992059 cuando 𝑥0 = 2500
El intervalo es de gran amplitud, debido a que el intervalo de predicción depende tanto del error
del modelo ajustado como del error asociado con observaciones futuras.
Hipótesis
𝐻0 : β0 = 0 𝑣𝑠 𝐻1 : β0 ≠ 0
Estadística de prueba
𝛽̂0 − 𝛽0
𝑡0 =
1 𝑥̅ 2
√𝑀𝑆𝐸 ∗ [𝑛 + 𝑆𝑥𝑥
]
Regla de decisión
Rechaza 𝐻0 si |𝑡0 | > 𝑡𝛼⁄2,𝑛−2 . En caso de que 𝐻0 no se rechace, significa que el parámetro
β0 no es significativo para el modelo, en tal caso, se puede omitir.
Hipótesis:
𝐻0 : β1 = 0 𝑣𝑠 𝐻1 : β1 ≠ 0
Estadística de prueba
𝛽̂1 − 𝛽1
𝑡0 =
𝑀𝑆𝐸
√S
xx
18
Estadística II
Unidad 2. Regresión lineal simple
Regla de decisión
Figura 2.6a
Ejemplo 1
Con los datos del consumo de energía de la sección 2.3 se prueban las hipótesis de los
parámetros con un nivel de significancia 𝛼 = 0.05.
Hipótesis
𝐻0 : β0 = 0 𝑣𝑠 𝐻1 : β0 ≠ 0
Estadística de prueba
1.789559 − 0
𝑡0 = = 2.7503
1 3′ 652,456.1
√4.47123589 ∗ [ + ]
50 48′ 901,158
19
Estadística II
Unidad 2. Regresión lineal simple
Regla de decisión
Rechaza 𝐻0 si |𝑡0 | > 𝑡0.025,48 . Como 2.7503 > 2.0106 se rechaza 𝐻0 y por lo tanto β0 es
significativo para el modelo.
Hipótesis:
𝐻0 : β1 = 0 𝑣𝑠 𝐻1 : β1 ≠ 0
Estadística de prueba
0.002481 − 0
𝑡0 = = 6649
4.47123589
√ 48′ 901,158
Regla de decisión
Rechaza 𝐻0 si |𝑡0 | > 𝑡0.025,48 . Como 6649 > 2.0106 se rechaza 𝐻0 y por lo tanto β1 es
significativo para el modelo.
∑𝑛𝑖=1(𝑦𝑖 − 𝑦̅)2 Es la suma de cuadrados del total. Mide la variabilidad total en las
observaciones (𝑆𝑆𝑇)
∑𝑛𝑖=1(𝑦𝑖 − 𝑦̂𝑖 )2 Es la suma de cuadrados del error (𝑆𝑆𝐸) y es la cantidad que queda sin
explicar por la línea de regresión
20
Estadística II
Unidad 2. Regresión lineal simple
𝐻0 : β1 = 0 𝑣𝑠 𝐻1 : β1 ≠ 0
𝑆𝑆𝑅 ⁄1 𝑀𝑆𝑅
𝐹0 = =
𝑆𝑆𝐸 ⁄(𝑛 − 2) 𝑀𝑆𝐸
Cuando las sumas de cuadrados se dividen entre sus grados de libertad se obtienen 𝑀𝑆𝑅 y
𝑀𝑆𝐸 , cuadrado medio de la regresión y cuadrado medio del error respectivamente.
𝐹0 > 𝐹1−𝛼,1,𝑛−2
Ejemplo 1
21
Estadística II
Unidad 2. Regresión lineal simple
Hipótesis
𝐻0 : β1 = 0 𝑣𝑠 𝐻1 : β1 ≠ 0
Regla de decisión:
Se debe buscar en tablas el cuantil de una 𝐹0.95,1,48 , como no se encuentra, se busca con
los grados de libertad más próximos
𝐹0.95,1,50 = 4.034
Dado que 67.3201613 > 4.034 se rechaza 𝐻0 , por lo tanto existe evidencia estadística para
suponer que β1 ≠ 0.
Propósitos.
Resolver un problema de regresión lineal simple, así como construir su gráfica, ajustarla
mediante mínimos cuadrados, calcular el estadístico, construir tablas de análisis de varianza
y prueba.
La cantidad
𝑆𝑆𝐸
𝑅2 = 1 −
𝑆𝑆𝑇
22
Estadística II
Unidad 2. Regresión lineal simple
El estadístico 𝑅 2 se debe usar con precaución, porque siempre es posible conseguir que 𝑅 2
sea grande agregando términos suficientes al modelo. Por ejemplo, si no hay puntos repetidos
(más de un valor de 𝑦 con el mismo valor de 𝑥 ), un polinomio de grado 𝑛 − 1 producirá un
2
𝑛 puntos de datos. Cuando hay puntos repetidos, 𝑅2
ajuste “perfecto”, con 𝑅 = 1, de los
nunca puede ser exactamente igual a1, porque el modelo no puede explicar la variabilidad
relacionada con el error “puro”.
Ejemplo 1
214.619323
𝑅2 = 1 − = 0.5838599
515.7382
23
Estadística II
Unidad 2. Regresión lineal simple
Es importante hacer un chequeo de estos supuestos para que los resultados tengan validez
𝑛
estadística. No se verifica el supuesto 𝐸(ε̂𝑖 ) = 0, porque por construcción ∑𝑖=1 ε
̂𝑖 = 0.
Varianza constante 𝛔𝟐
Para verificar este supuesto se construye una gráfica de los residuos ε ̂𝑖 en función de los
valores correspondientes ŷ 𝑖 . Si la gráfica se parece a la de la figura 2.9a, indica que los
residuos se pueden encerrar en una banda horizontal, entonces no hay defectos obvios del
modelo. Las gráficas de ε̂𝑖 en función de ŷ𝑖 que se parezcan a cualquiera de los patrones de
las partes 2.90b a 2.9d son síntomas de deficiencias del modelo.
Figura 2.9
24
Estadística II
Unidad 2. Regresión lineal simple
Residuos no correlacionados
Para poder observar si los residuos son no correlacionados se realiza una gráfica de los
residuos en secuencia temporal para tener una idea si los errores en un período se
correlacionan con los de otros períodos. Si este supuesto no se cumple, los estimadores
pierden la eficiencia, también existe la posibilidad de que se sobre-estime el 𝑅 2 y de que las
pruebas 𝑡 y 𝐹 dejen de ser validas, si se aplica, es probable que conduzcan a conclusiones
erróneas. Se debe tener cuidado al realizar este tipo de gráficas ya que cuando las
observaciones tienen cierto orden en particular, por ejemplo, si los datos fueron tomados en el
tiempo, si esto ocurre, entonces se pueden obtener gráficas diferentes para diferentes órdenes.
La correlación entre los errores del modelo en distintos períodos se llama autocorrelación. Una
gráfica como la figura a) indica una correlación de los residuos, mientras que la figura b)
muestra no correlación de los mismos, esto último es lo que se desea.
Ejemplo 1
Para los datos del consumo de energía. Se procede hacer un análisis gráfico
Gráficamente la distribución de los residuos no aparenta ser la de una normal, pero se observa
25
Estadística II
Unidad 2. Regresión lineal simple
En la gráfica de tiempo con los residuos no se observa ningún patrón. Se considera que los
residuos no se encuentran correlacionados.
26
Estadística II
Unidad 2. Regresión lineal simple
Propósito
El supuesto de varianza constante es el más difícil de conseguir. En estos casos es útil realizar
transformaciones ya sea a la variable regresora o a la variable respuesta como puede ser
elevar a una potencia o una transformación como un seno o un logaritmo.
Debes tener cuidado al realizar una transformación, puedes lograr el mejor modelo
matemáticamente, pero no obtener una buena interpretación acerca de la relación entre 𝑥 e 𝑦.
2
𝑦 ′ = 𝑠𝑖𝑛−1 √𝑦 (se utiliza cuando los datos
𝜎 ∝ 𝐸(𝑦)[1 − 𝐸(𝑦)]
provienen de una binomial 0 ≤ 𝑦𝑖 ≤ 1)
𝜎2 ∝ [𝐸(𝑦)]2 𝑦 ′ = ln 𝑦
𝜎2 ∝ [𝐸(𝑦)]3 𝑦 ′ = 𝑦 −1⁄2
𝜎2 ∝ [𝐸(𝑦)]4 𝑦 ′ = 𝑦 −1
27
Estadística II
Unidad 2. Regresión lineal simple
Propósito
Aplicar los conocimientos adquiridos durante la unidad, empleando los métodos de regresión
lineal.
Cierre de la unidad
Durante la unidad 2 has aprendido como relacionar mediante un modelo matemático dos
variables que están correlacionadas. Además el modelo de regresión lineal simple tiene
propiedades estadísticas deseables ya que al estimar los parámetros mediante el método de
mínimos cuadrados se obtienen aquellos estimadores que son los de mínima varianza, es decir,
los mejores estimadores. Si a esto se le añade el supuesto distribucional de normalidad se
puede hacer inferencia sobre los estimadores y sobre observaciones futuras, pues el plus de
ajustar un modelo matemático es que se pueda predecir nuevos datos.
Te sugiero la siguiente liga donde encontrarás los códigos en R para ajustar un modelo de
regresión lineal.
Fuentes de consulta
Neter, J., Wasserman, W. y Kunter, M.H. (1990) Applied Linear Statistical Models (3a ed.).
Boston: Irwin.
28