Está en la página 1de 28

Econometría Aplicada

UNIDAD 1: ANÁLISIS DE REGRESIÓN SIMPLE


1.1 Definición del modelo de regresión simple
 Se cuenta con dos variables:
 Variable explicada o dependiente (𝑦)
 Variable explicativa o independiente (𝑥)

 Para establecer un modelo que explique 𝑦 en términos de 𝑥, se


debe tomar en consideración tres aspectos:
 ¿Cómo pueden tenerse en cuenta otros factores que afecten a y?
 ¿Cuál es la relación funcional entre 𝑦 y 𝑥?
 ¿Cómo se puede estar seguro de que la relación entre las variables sea una
relación ceteris paribus?
1.1 Definición del modelo de regresión simple
 Ecuación que define el modelo de regresión lineal simple:
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝑢

 La variable 𝑢 es el término de error o perturbación en la relación y


representa factores distintos a 𝑥 que afectan a 𝑦 (factores no
observados)
 Si los demás factores en 𝑢 permanecen constantes (∆𝑢 = 0), entonces
𝑥 tiene un efecto lineal sobre 𝑦:
∆𝑦 = 𝛽1 ∆𝑥
1.1 Definición del modelo de regresión simple
∆𝑦 = 𝛽1 ∆𝑥
 𝛽1 es el parámetro de la pendiente, cuando todos los demás
factores en 𝑢 permanecen constantes; es decir, mide el impacto
marginal de 𝑥 sobre 𝑦.
 𝛽0 es el parámetro del intercepto (término constante)
1.1 Definición del modelo de regresión simple
Ejemplo 1: rendimiento del frejol de soya y el fertilizante

𝑟𝑒𝑛𝑑𝑖𝑚𝑖𝑒𝑛𝑡𝑜 = 𝛽0 + 𝛽1 𝑓𝑒𝑟𝑡𝑖𝑙𝑖𝑧𝑎𝑛𝑡𝑒 + 𝑢

Ejemplo 2: una ecuación sencilla para el salario

𝑠𝑎𝑙𝑎𝑟𝑖𝑜 = 𝛽0 + 𝛽1 𝑒𝑑𝑢𝑐𝑎𝑐𝑖𝑜𝑛 + 𝑢
1.1 Definición del modelo de regresión simple
Supuestos sobre la perturbación:
 En tanto el intercepto 𝛽0 aparezca en la ecuación, nada se altera al
suponer que el valor promedio de 𝑢 en la población, es cero:
𝐸 𝑢 =0
 El valor promedio de 𝑢 no depende del valor de 𝑥, es decir que 𝑢 es
media independiente de 𝑥:
𝐸 𝑢𝑥 =𝐸 𝑢
 Combinando ambos supuestos, se tiene que la media condicional de
𝑢 dado 𝑥 es igual a cero:
𝐸 𝑢𝑥 =0
1.1 Definición del modelo de regresión simple
En el modelo lineal simple:
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝑢
Si tomamos la esperanza condicional:
𝐸 𝑦 𝑥 = 𝛽0 + 𝛽1 𝑥
Esta es la función de regresión poblacional (FRP), que nos indica que
la esperanza condicional de 𝑦 dado 𝑥 es una función lineal de 𝑥.
Esta linealidad significa que por cada aumento de una unidad en 𝑥, el
valor esperado de 𝑦 se modifica en la cantidad 𝛽1 .
1.1 Definición del modelo de regresión simple
Dado el supuesto de media condicional cero, la ecuación:
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝑢
se puede ver como una que divide a 𝑦 en dos componentes:
 Parte sistemática de 𝑦: 𝛽0 + 𝛽1 𝑥
 Parte no sistemática (que no es explicada por 𝑥): 𝑢
1.2 El método de mínimos cuadrados ordinarios
(MCO)
Sea 𝑥, 𝑦 : 𝑖 = 1, … , 𝑛 una muestra
aleatoria de tamaño 𝑛 tomada de la
población.

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝑢𝑖
Donde 𝑢𝑖 es el término del error de la
observación 𝑖 que contiene todos los
demás factores distintos de 𝑥𝑖 que afectan
a 𝑦𝑖 .
1.2 El método de mínimos cuadrados ordinarios
(MCO)
Dados los supuestos sobre la perturbación:
𝐸 𝑢 =0 → 𝐸 𝑦 − 𝛽0 − 𝛽1 𝑥1 = 0
𝐸 𝑥𝑢 = 0 → 𝐸 𝑥 𝑦 − 𝛽0 − 𝛽1 𝑥1 = 0
Si se tiene una muestra de datos, se eligen los estimadores 𝛽0 y 𝛽1 que resuelven las
contrapartes muestrales:
𝑛
1
𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1𝑖 = 0
𝑛
𝑖=1

𝑛
1
𝑥𝑖 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1𝑖 = 0
𝑛
𝑖=1
(este es un ejemplo del método de momentos para la estimación)
1.2 El método de mínimos cuadrados ordinarios
(MCO)
Estimadores:

𝒙𝒊 − 𝒙 𝒚𝒊 − 𝒚
𝜷𝟏 =
𝒙𝒊 − 𝒙 𝟐

𝜷𝟎 = 𝒚 − 𝜷𝟏 𝒙

Nota: si en la muestra 𝑥 y 𝑦 están correlacionadas positivamente, entonces 𝜷𝟏


es positiva; si 𝑥 y 𝑦 están correlacionadas negativamente, entonces 𝜷𝟏 es
negativa.
1.2 El método de mínimos cuadrados ordinarios
(MCO)
Estimadores:

𝒙𝒊 − 𝒙 𝒚𝒊 − 𝒚
𝜷𝟏 =
𝒙𝒊 − 𝒙 𝟐

𝟐
 Para que el problema tenga solución, es necesario que 𝒙𝒊 − 𝒙 >𝟎
 Si la condición no se cumple, es decir, si 𝒙𝒊 − 𝒙 𝟐 = 𝟎, no se ha tenido
suerte al obtener la muestra de la población o se ha planteado un problema
que no es interesante (𝒙 no varía)
1.2 El método de mínimos cuadrados ordinarios
(MCO)
Los estimadores obtenidos con el método de momentos coinciden con los
estimadores de mínimos cuadrados ordinarios.
El residual de la observación 𝑖 es
la diferencia entre el verdadero
valor 𝑦𝑖 y su valor ajustado 𝑦𝑖 :

𝑢𝑖 = 𝑦𝑖 − 𝑦𝑖

𝑢𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1𝑖
1.2 El método de mínimos cuadrados ordinarios
(MCO)
𝛽0 y 𝛽1 se eligen de tal manera que se minimice la suma de residuales al
cuadrado:

𝑛 𝑛
2 2
min 𝑢𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1𝑖
𝑖=1 𝑖=1

Una vez hallados los estimadores por MCO se obtiene la línea de regresión,
conocida como la Función de Regresión Muestral:

𝒚 = 𝜷𝟎 + 𝜷𝟏 𝒙
1.2 El método de mínimos cuadrados ordinarios
(MCO)
𝒚 = 𝜷𝟎 + 𝜷𝟏 𝒙

 𝜷𝟎 es el intercepto: el valor predicho de 𝑦 cuando 𝑥 = 0.


 𝜷𝟏 es la pendiente: indica la cantidad en la que cambia 𝒚 cuando 𝒙 se
incrementa en unidad.
∆𝒚 = 𝜷𝟏 ∆𝒙
1.3 Propiedades de MCO en cualquier muestra de
datos
 La suma, y por tanto el promedio muestral de los residuales de MCO, es
cero.
𝑛

𝑢𝑖 = 0
𝑖=1
 La covarianza muestral entre los regresores y los residuales de MCO es cero.

𝑥𝑖 𝑢𝑖 = 0
𝑖=1
 El punto 𝑥, 𝑦 se encuentra siempre sobre la línea de regresión de MCO.
1.3 Propiedades de MCO en cualquier muestra de
datos
𝑦𝑖 = 𝑦𝑖 + 𝑢𝑖
 Como el promedio de los residuales es cero, entonces: 𝑦𝑖 = 𝑦
Definiciones:
𝒏 𝟐
 Se define la suma total de cuadrados (STC) como: 𝑺𝑻𝑪 = 𝒊=𝟏 𝒚𝒊 − 𝒚
𝒏 𝟐
 Se define la suma explicada de cuadrados (SEC) como: 𝑺𝑬𝑪 = 𝒊=𝟏 𝒚𝒊 − 𝒚
𝒏 𝟐
 Se define la suma residual de cuadrados (SRC) como: 𝑺𝑹𝑪 = 𝒖
𝒊=𝟏 𝒊

𝑺𝑻𝑪 = 𝐒𝐄𝐂 + 𝐒𝐑𝐂


1.3 Propiedades de MCO en cualquier muestra de
datos
Bondad de ajuste:
 Puede ser útil calcular un número que resuma qué tan bien se ajusta la línea
de regresión de MCO a los datos..

𝑺𝑬𝑪 𝑺𝑹𝑪
𝑹𝟐= =𝟏−
𝑺𝑻𝑪 𝑺𝑻𝑪
 𝑹𝟐 es el cociente de la variación explicada entre la variación total: es la
proporción de la variación muestral de 𝑦 que es explicada por 𝑥.

𝟎 ≤ 𝑹𝟐 ≤ 𝟏
1.4 Valores esperados y varianzas de los
estimadores MCO
Supuestos:
 Supuesto RLS.1: Linealidad de los parámetros
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝑢
 Supuesto RLS.2: Muestreo aleatorio
Se cuenta con una muestra aleatoria de tamaño 𝑛, que sigue el modelo
poblacional de la ecuación.
 Supuesto RLS.3: Variación muestral de la variable explicativa
No todos los valores muestrales de 𝑥 son iguales.
 Supuesto RLS.4: Media condicional cero.
𝑬 𝒖𝒙 =𝟎
1.4 Valores esperados y varianzas de los
estimadores MCO
Teorema:
 Utilizando los supuestos RLS.1 a RLS.4:
𝐸 𝛽0 = 𝛽0 y 𝐸 𝛽1 = 𝛽1
Los estimadores son insesgados
1.4 Valores esperados y varianzas de los
estimadores MCO
Varianza de los estimadores de mínimos cuadrados ordinarios:
 Es importante saber qué tanto puede esperarse que 𝛽1 se aleje, en
promedio, de 𝛽1 .
 Esto permitirá, entre otras cosas, elegir el mejor estimador de todos.
 La medida de dispersión con la que se trabajará es con la varianza o
desviación estándar.
1.4 Valores esperados y varianzas de los
estimadores MCO
 Supuesto RLS.5: Homocedasticidad
El error u tiene la misma varianza para cualquier valor de la variable
explicativa: 𝑽𝒂𝒓 𝒖 𝒙 = 𝝈𝟐
 Con frecuencia es útil escribir los supuestos RLS.4 y RLS.5 en términos de la
media condicional y de la varianza condicional de 𝑦:

𝐸 𝑦 𝑥 = 𝛽0 + 𝛽1 𝑥

𝑉𝑎𝑟 𝑦 𝑥 = 𝜎 2
1.4 Valores esperados y varianzas de los
estimadores MCO

Homocedasticidad Heterocedasticidad
1.4 Valores esperados y varianzas de los
estimadores MCO
Teorema:
 Bajo los supuestos RLS.1 a RLS.5:

𝜎2
𝑉𝑎𝑟 𝛽1 = 𝑛 2
𝑖=1 𝑥𝑖 − 𝑥

𝑛 2
𝜎2 𝑥
𝑖=1 𝑖
𝑉𝑎𝑟 𝛽0 = 𝑛 2
𝑛 𝑖=1 𝑥𝑖 − 𝑥
1.4 Valores esperados y varianzas de los
estimadores MCO
 Cuanto mayor es la varianza del error, mayor será la varianza del estimador.
 Cuanto mayor es la varianza de la variable independiente, menor será la
varianza del estimador.
 Para la obtención de los intervalos de confianza y para la obtención de las
pruebas de hipótesis, será necesario trabajar con las desviaciones estándar
de los estimadores:
𝑠. 𝑒. 𝛽1 = 𝑉𝑎𝑟 𝛽1

𝑠. 𝑒. 𝛽0 = 𝑉𝑎𝑟 𝛽0
1.4 Valores esperados y varianzas de los
estimadores MCO
Estimación de la varianza del error:
𝑢𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝑢𝑖 − 𝛽0 − 𝛽1 𝑥𝑖
𝑢𝑖 = 𝑢𝑖 − 𝛽0 − 𝛽0 − 𝛽1 − 𝛽1 𝑥𝑖
Sabemos que 𝜎 2 = 𝐸 𝑢2 y, por lo tanto, un estimador insesgado de la varianza
1 𝑛 2
sería
𝑛 𝑖=1 𝑖 . Sin embargo, los errores 𝑢𝑖 no son conocidos.
𝑢
Por lo tanto, un verdadero estimador de la varianza del error sería:
𝑛
1 2 𝑆𝑅𝐶
𝑢𝑖 =
𝑛 𝑛
𝑖=1
Pero este estimador es sesgado.
1.4 Valores esperados y varianzas de los
estimadores MCO
Estimación de la varianza del error:
 El estimador anterior es sesgado porque no toma en cuenta dos restricciones
que deben satisfacer los residuales de MCO:
𝑛 𝑛
𝑖=1 𝑢𝑖 =0 y 𝑖=1 𝑥𝑖 𝑢𝑖 =0
 Entonces el estimador insesgado de la varianza del error es:
𝑛
2
1 2 𝑆𝑅𝐶
𝜎 = 𝑢𝑖 =
𝑛−2 𝑛−2
𝑖=1
(existen 𝑛 − 2 grados de libertad para los residuales MCO)
1.4 Valores esperados y varianzas de los
estimadores MCO
Teorema:
 Bajo los supuestos RLS.1 a RLS.5:

𝐸 𝜎2 = 𝜎2
 Entonces:

𝜎2
𝑉𝑎𝑟 𝛽1 = 𝑛 2
𝑖=1 𝑥𝑖 − 𝑥

También podría gustarte