Está en la página 1de 26

Análisis de regresión múltiple

Pontificia Universidad Javeriana

Sergio Andrés Arango Bobadilla


•Consideremos
  el siguiente modelo:

Donde:
Porcentaje de estudiantes en la escuela i que aprobaron el examen de
matemáticas.
Porcentaje de estudiantes beneficiarios en la escuela i con el programa
de desayunos escolares.
Término de error o perturbación
• 

N=408

Para discutir…
Es un estimador insesgado del parámetro poblacional?
Ventajas de un modelo de regresión múltiple
1. Permite controlar de manera explícita por muchos otros factores
que afecta en forma simultánea a la variable dependiente.

2. Agregar otros factores que afecten a la variable dependiente


conlleva a que una mayor variación de esta sea explicada.

3. Incorpora relaciones con formas funcionales muy generales.


Modelo con dos variables independiente
•Consideremos
  el siguiente modelo:

Donde
Salario mensual del individuo i
Años de educación del individuo i
Años de experiencia del individuo i
Efecto ceteris paribus de los años de educación sobre el salario
Efecto ceteris paribus de los años de experiencia sobre el salario
Modelo con dos variables independientes
•Considere
  el siguiente modelo:

Donde
es el consumo de la familia i en bienes y servicios
es el ingreso disponible de la familia i

¿Cuál es el efecto ceteris paribus del ingreso sobre el consumo?


Modelo con k variables independientes

• 

• El modelo contiene k+1 parámetros poblacionales


• En u siempre existirán factores que no podemos incluir en nuestro
modelo.
Estimación por el método de MCO
•Dada
  una muestra aleatoria: , elegimos de manera que:
Multicolinealidad perfecta
•Si  una variable independiente es una combinación lineal exacta de las
otras variables independientes, el modelo sufre de colinealidad
perfecta y no puede ser estimado por el método de MCO.

Considere el siguiente modelo:

¿Este modelo viola el supuesto de multicolinealidad?


•Por
  ignorancia, especificamos un modelo como:
Propiedades algebraicas de los estadísticos de MCO

• 

1.
Estimador de MCO
 

•  Relación muestral entre y después


de descontar los efectos parciales de
para toda diferente de .
Donde:
Bondad de Ajuste

•  Proporción de la variación
muestral de y que es explicada
por la variación muestral de las
variables explicativas.
Donde:

IMPORTANTE: nunca disminuye y en general, aumenta cuando se


agrega otra variable independiente a la regresión.
Estimamos el siguiente modelo:
 
Estimamos el siguiente modelo:
 
Insesgamiento
•Empleando
  los cuatro supuestos, debemos demostrar que:

Nota: El insesgamiento no se cumple cuando no se satisface alguno de


los cuatro supuestos.
Sesgo de variable omitida
• 
Aparece cuando uno o más variables explicativas incluidas están correlacionadas con una
variable omitida.

Asumamos que el verdadero modelo poblacional establece que:

Por ignorancia o falta de datos estimamos la siguiente ecuación

es sesgado y

Donde proviene de la regresión auxiliar


  Sesgo en cuando es omitido de la estimación
Eficiencia

•Supuesto
  5: Homocedasticidad

Dado cualquier valor de las variables explicativas, el error u tiene la


misma varianza.
Varianza de los estimadores de MCO
•Bajo
  los supuestos de 1 a 5, se puede demostrar que:

Donde:

de la regresión auxiliar de contra el resto de variables explicativas.


Estimación de : Errores estándar de los
 
estimadores de MCO
• 

Donde:
Errores estándar de los estimadores de MCO
• 

IMPORTANTE: La presencia de heterocedasticidad no causa sesgo en


las , pero si conduce a un sesdo en y en
  depende de tres factores:
•1.  Varianza del error
Una forma de reducirlo es agregando más variables
explicativas, siempre y cuando estas sean relevantes.

2. Varianza muestral de las


Una forma de aumentarlo es incrementando el tamaño de la
muestra
3. R-cuadrada de la regresión auxiliar de versus el resto de variables explicativas
Teorema de Gauss-Markov
•Sean
  , los estimadores de MCO del modelo . Dado cualquier estimador
que sea lineal e insesgado.

Entre los estimadores lineales insesgados, los estimadores de MCO


tienen la mínima varianza bajo los cinco supuestos de Gauss-Markov, es
decir; son estimadores MELI.
¿Por qué es importante el Teorema de G-M?

Justifica el uso del método de MCO para estimar los modelos de


regresión simple.

También podría gustarte