Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2 Regresión Simple II
2 Regresión Simple II
𝑟𝑒𝑛𝑑𝑖𝑚𝑖𝑒𝑛𝑡𝑜 = 𝛽0 + 𝛽1 𝑓𝑒𝑟𝑡𝑖𝑙𝑖𝑧𝑎𝑛𝑡𝑒 + 𝑢
𝑠𝑎𝑙𝑎𝑟𝑖𝑜 = 𝛽0 + 𝛽1 𝑒𝑑𝑢𝑐𝑎𝑐𝑖𝑜𝑛 + 𝑢
1.1 Definición del modelo de regresión simple
Supuestos sobre la perturbación:
En tanto el intercepto 𝛽0 aparezca en la ecuación, nada se altera al
suponer que el valor promedio de 𝑢 en la población, es cero:
𝐸 𝑢 =0
El valor promedio de 𝑢 no depende del valor de 𝑥, es decir que 𝑢 es
media independiente de 𝑥:
𝐸 𝑢𝑥 =𝐸 𝑢
Combinando ambos supuestos, se tiene que la media condicional de
𝑢 dado 𝑥 es igual a cero:
𝐸 𝑢𝑥 =0
1.1 Definición del modelo de regresión simple
En el modelo lineal simple:
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝑢
Si tomamos la esperanza condicional:
𝐸 𝑦 𝑥 = 𝛽0 + 𝛽1 𝑥
Esta es la función de regresión poblacional (FRP), que nos indica que
la esperanza condicional de 𝑦 dado 𝑥 es una función lineal de 𝑥.
Esta linealidad significa que por cada aumento de una unidad en 𝑥, el
valor esperado de 𝑦 se modifica en la cantidad 𝛽1 .
1.1 Definición del modelo de regresión simple
Dado el supuesto de media condicional cero, la ecuación:
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝑢
se puede ver como una que divide a 𝑦 en dos componentes:
Parte sistemática de 𝑦: 𝛽0 + 𝛽1 𝑥
Parte no sistemática (que no es explicada por 𝑥): 𝑢
1.2 El método de mínimos cuadrados ordinarios
(MCO)
Sea 𝑥, 𝑦 : 𝑖 = 1, … , 𝑛 una muestra
aleatoria de tamaño 𝑛 tomada de la
población.
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝑢𝑖
Donde 𝑢𝑖 es el término del error de la
observación 𝑖 que contiene todos los
demás factores distintos de 𝑥𝑖 que afectan
a 𝑦𝑖 .
1.2 El método de mínimos cuadrados ordinarios
(MCO)
Dados los supuestos sobre la perturbación:
𝐸 𝑢 =0 → 𝐸 𝑦 − 𝛽0 − 𝛽1 𝑥1 = 0
𝐸 𝑥𝑢 = 0 → 𝐸 𝑥 𝑦 − 𝛽0 − 𝛽1 𝑥1 = 0
Si se tiene una muestra de datos, se eligen los estimadores 𝛽0 y 𝛽1 que resuelven las
contrapartes muestrales:
𝑛
1
𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1𝑖 = 0
𝑛
𝑖=1
𝑛
1
𝑥𝑖 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1𝑖 = 0
𝑛
𝑖=1
(este es un ejemplo del método de momentos para la estimación)
1.2 El método de mínimos cuadrados ordinarios
(MCO)
Estimadores:
𝒙𝒊 − 𝒙 𝒚𝒊 − 𝒚
𝜷𝟏 =
𝒙𝒊 − 𝒙 𝟐
𝜷𝟎 = 𝒚 − 𝜷𝟏 𝒙
𝒙𝒊 − 𝒙 𝒚𝒊 − 𝒚
𝜷𝟏 =
𝒙𝒊 − 𝒙 𝟐
𝟐
Para que el problema tenga solución, es necesario que 𝒙𝒊 − 𝒙 >𝟎
Si la condición no se cumple, es decir, si 𝒙𝒊 − 𝒙 𝟐 = 𝟎, no se ha tenido
suerte al obtener la muestra de la población o se ha planteado un problema
que no es interesante (𝒙 no varía)
1.2 El método de mínimos cuadrados ordinarios
(MCO)
Los estimadores obtenidos con el método de momentos coinciden con los
estimadores de mínimos cuadrados ordinarios.
El residual de la observación 𝑖 es
la diferencia entre el verdadero
valor 𝑦𝑖 y su valor ajustado 𝑦𝑖 :
𝑢𝑖 = 𝑦𝑖 − 𝑦𝑖
𝑢𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1𝑖
1.2 El método de mínimos cuadrados ordinarios
(MCO)
𝛽0 y 𝛽1 se eligen de tal manera que se minimice la suma de residuales al
cuadrado:
𝑛 𝑛
2 2
min 𝑢𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1𝑖
𝑖=1 𝑖=1
Una vez hallados los estimadores por MCO se obtiene la línea de regresión,
conocida como la Función de Regresión Muestral:
𝒚 = 𝜷𝟎 + 𝜷𝟏 𝒙
1.2 El método de mínimos cuadrados ordinarios
(MCO)
𝒚 = 𝜷𝟎 + 𝜷𝟏 𝒙
𝑢𝑖 = 0
𝑖=1
La covarianza muestral entre los regresores y los residuales de MCO es cero.
𝑥𝑖 𝑢𝑖 = 0
𝑖=1
El punto 𝑥, 𝑦 se encuentra siempre sobre la línea de regresión de MCO.
1.3 Propiedades de MCO en cualquier muestra de
datos
𝑦𝑖 = 𝑦𝑖 + 𝑢𝑖
Como el promedio de los residuales es cero, entonces: 𝑦𝑖 = 𝑦
Definiciones:
𝒏 𝟐
Se define la suma total de cuadrados (STC) como: 𝑺𝑻𝑪 = 𝒊=𝟏 𝒚𝒊 − 𝒚
𝒏 𝟐
Se define la suma explicada de cuadrados (SEC) como: 𝑺𝑬𝑪 = 𝒊=𝟏 𝒚𝒊 − 𝒚
𝒏 𝟐
Se define la suma residual de cuadrados (SRC) como: 𝑺𝑹𝑪 = 𝒖
𝒊=𝟏 𝒊
𝑺𝑬𝑪 𝑺𝑹𝑪
𝑹𝟐= =𝟏−
𝑺𝑻𝑪 𝑺𝑻𝑪
𝑹𝟐 es el cociente de la variación explicada entre la variación total: es la
proporción de la variación muestral de 𝑦 que es explicada por 𝑥.
𝟎 ≤ 𝑹𝟐 ≤ 𝟏
1.4 Valores esperados y varianzas de los
estimadores MCO
Supuestos:
Supuesto RLS.1: Linealidad de los parámetros
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝑢
Supuesto RLS.2: Muestreo aleatorio
Se cuenta con una muestra aleatoria de tamaño 𝑛, que sigue el modelo
poblacional de la ecuación.
Supuesto RLS.3: Variación muestral de la variable explicativa
No todos los valores muestrales de 𝑥 son iguales.
Supuesto RLS.4: Media condicional cero.
𝑬 𝒖𝒙 =𝟎
1.4 Valores esperados y varianzas de los
estimadores MCO
Teorema:
Utilizando los supuestos RLS.1 a RLS.4:
𝐸 𝛽0 = 𝛽0 y 𝐸 𝛽1 = 𝛽1
Los estimadores son insesgados
1.4 Valores esperados y varianzas de los
estimadores MCO
Varianza de los estimadores de mínimos cuadrados ordinarios:
Es importante saber qué tanto puede esperarse que 𝛽1 se aleje, en
promedio, de 𝛽1 .
Esto permitirá, entre otras cosas, elegir el mejor estimador de todos.
La medida de dispersión con la que se trabajará es con la varianza o
desviación estándar.
1.4 Valores esperados y varianzas de los
estimadores MCO
Supuesto RLS.5: Homocedasticidad
El error u tiene la misma varianza para cualquier valor de la variable
explicativa: 𝑽𝒂𝒓 𝒖 𝒙 = 𝝈𝟐
Con frecuencia es útil escribir los supuestos RLS.4 y RLS.5 en términos de la
media condicional y de la varianza condicional de 𝑦:
𝐸 𝑦 𝑥 = 𝛽0 + 𝛽1 𝑥
𝑉𝑎𝑟 𝑦 𝑥 = 𝜎 2
1.4 Valores esperados y varianzas de los
estimadores MCO
Homocedasticidad Heterocedasticidad
1.4 Valores esperados y varianzas de los
estimadores MCO
Teorema:
Bajo los supuestos RLS.1 a RLS.5:
𝜎2
𝑉𝑎𝑟 𝛽1 = 𝑛 2
𝑖=1 𝑥𝑖 − 𝑥
𝑛 2
𝜎2 𝑥
𝑖=1 𝑖
𝑉𝑎𝑟 𝛽0 = 𝑛 2
𝑛 𝑖=1 𝑥𝑖 − 𝑥
1.4 Valores esperados y varianzas de los
estimadores MCO
Cuanto mayor es la varianza del error, mayor será la varianza del estimador.
Cuanto mayor es la varianza de la variable independiente, menor será la
varianza del estimador.
Para la obtención de los intervalos de confianza y para la obtención de las
pruebas de hipótesis, será necesario trabajar con las desviaciones estándar
de los estimadores:
𝑠. 𝑒. 𝛽1 = 𝑉𝑎𝑟 𝛽1
𝑠. 𝑒. 𝛽0 = 𝑉𝑎𝑟 𝛽0
1.4 Valores esperados y varianzas de los
estimadores MCO
Estimación de la varianza del error:
𝑢𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝑢𝑖 − 𝛽0 − 𝛽1 𝑥𝑖
𝑢𝑖 = 𝑢𝑖 − 𝛽0 − 𝛽0 − 𝛽1 − 𝛽1 𝑥𝑖
Sabemos que 𝜎 2 = 𝐸 𝑢2 y, por lo tanto, un estimador insesgado de la varianza
1 𝑛 2
sería
𝑛 𝑖=1 𝑖 . Sin embargo, los errores 𝑢𝑖 no son conocidos.
𝑢
Por lo tanto, un verdadero estimador de la varianza del error sería:
𝑛
1 2 𝑆𝑅𝐶
𝑢𝑖 =
𝑛 𝑛
𝑖=1
Pero este estimador es sesgado.
1.4 Valores esperados y varianzas de los
estimadores MCO
Estimación de la varianza del error:
El estimador anterior es sesgado porque no toma en cuenta dos restricciones
que deben satisfacer los residuales de MCO:
𝑛 𝑛
𝑖=1 𝑢𝑖 =0 y 𝑖=1 𝑥𝑖 𝑢𝑖 =0
Entonces el estimador insesgado de la varianza del error es:
𝑛
2
1 2 𝑆𝑅𝐶
𝜎 = 𝑢𝑖 =
𝑛−2 𝑛−2
𝑖=1
(existen 𝑛 − 2 grados de libertad para los residuales MCO)
1.4 Valores esperados y varianzas de los
estimadores MCO
Teorema:
Bajo los supuestos RLS.1 a RLS.5:
𝐸 𝜎2 = 𝜎2
Entonces:
𝜎2
𝑉𝑎𝑟 𝛽1 = 𝑛 2
𝑖=1 𝑥𝑖 − 𝑥