0% encontró este documento útil (0 votos)
56 vistas15 páginas

Fundamentos de Regresión Múltiple en Econometría

El documento presenta los conceptos básicos de la regresión múltiple. 1) Explica que la regresión múltiple permite modelar una variable dependiente en función de múltiples variables independientes. 2) Describe el método de mínimos cuadrados ordinarios para estimar los coeficientes de la regresión. 3) Proporciona ejemplos numéricos para ilustrar los cálculos matemáticos involucrados.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
56 vistas15 páginas

Fundamentos de Regresión Múltiple en Econometría

El documento presenta los conceptos básicos de la regresión múltiple. 1) Explica que la regresión múltiple permite modelar una variable dependiente en función de múltiples variables independientes. 2) Describe el método de mínimos cuadrados ordinarios para estimar los coeficientes de la regresión. 3) Proporciona ejemplos numéricos para ilustrar los cálculos matemáticos involucrados.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Tema 8:Regresión múltiple

Fuente: Capítulo 8 (Basic Econometrics, D. Gujarati)

8.1 Regresión Múltiple

Y i= β1 + β 2 X 2 +.. .+ β K X i K + ε i
 i

Matricialmente:

Y nx1 =X nxK β Kx 1 +ε nx 1 FRP: Función de Regresión Poblacional

Y nx1 =X nxK^ β Kx1 +e nx 1 FRM: Función de Regresión Muestral

Gráficamente:
Proyección de Y en espacio columna de X

β^ 2 Mide la variación del valor de E(Y ) por variación unitaria de X 2 manteniendo a X 3 constante.
β^ 3 Mide la variación del valor de E(Y ) por variación unitaria de X 3 manteniendo a X 2 constante.
Notas:

β^ 1 , β^ 2 , . .. β^ K
Coeficientes de regresión parcial

8.2 Método de OLS: Enfoque Matricial

Dada la ecuación de regresión muestral: Y nx1 =X nxK β Kx 1 +ε nx 1

[] [ ]
y1 1 x12 x 13 ⋯ x 1 K
Y= ⋮ X= ⋮ ⋮ ⋮ ⋱ ⋮
yn nx 1 1 x n2 xn 3 … xnk nxK

[] []
β1 ε1
β= ⋮ ε= ⋮
βK Kx 1 εn nx1

Definamos:

S 1 x1 =ε ´ nx1 ε nx1 ε=Y −Xβ


El problema puede re-expresarse como:

min β S=[ (Y nx 1 −X nxK β Kx1 )´ ] [ (Y nx1 − X nxK β Kx 1 )]


=Y´1 xn Y nx1 −Y´1 xn X n×K β Kx 1−β´1 xK X ´ Kxn Y nx 1 + β' 1 xK X' Kxn X nxK β Kx 1
Todos son escalares

=Y'1 xn Y nx1 −2 β '1 xK X´Kxn Y nx1 + β1 xK X' Kxn X n×K β Kx1


Así, el problema de minimización es:
'
min β S=Y'1 xn Y nx 1−2 β 1 xK X´Kxn Y nx1 + β1 xK X' Kxn X n× K β Kx1
CPO:

δS
δβ
=−2 X´ Kxn Y nx 1 + 2X´ Kxn X nxK β Kx 1=0

X´ Kxn Y nx 1= X' Kxn X nxK β Kx1

( X' Kxn X nxK )−1 X' Kxn Y nx1 = β^ Kx 1


^ X' X )−1 X' Y
β=( Kxn nxK Kxn nx1

Estimadores de MCO-OLS

CSO:

δ2S
=2 X'Kx 1 X nxK ¿ 0
δβδβ ´ Semi-definida Positiva (Mínimo)

Notas:

i)Reglas de Diferenciación de Matrices

δ(C´β ) δ( β ' C )
δβ
= δβ =C
δβ´Aβ )
δβ
=( A+A´ )β
Si A es una Matriz Simétrica

∂ β'Aβ
=2 Aβ
∂β

ii) Demostración de que ( X'X )−1 existe


∃ ( X'X )−1 ⇔r [ ( X'X )−1 ]=K

Dado que r ( X )=K ⇒ r ( X ' )=K


r ( Aβ )=min { r ( A ) ,r ( β ) }

⇒r [ ( X'X )−1 ] =K
−1
∴∃ ( X'X )

Ejemplo 8.2:

Dado
Y i= β1 + β 2 X i2 + ε i Modelo de Regresión Simple

[] [ ]
Y1 1 X1
Y= ⋮
Yn nx 1
X= ⋮ ⋮
1 Xn nx2
β=
[]
β1
β2 2x 1

Dado β^ =(X'X )−1 X'Y


−1
Calculamos (X'X )

][ ]
1 X1
X'X = 1
[
.. . 1
X 1 .. . X n
∗⋮ ⋮
1 Xn

[ ]
n
n ∑i=1 X i
= n n
∑i =1 X i ∑i=1 X 2i
[ ]
n n
−1 1 ∑i=1 X 2i −∑i =1 X i
( X'X ) = ∗
det ( X'X ) − n X
∑i=1 i n

n 2
det( X'X)=n ∑ X
i=1 i
2
− (∑ X i )

[ ]
n n
−1 1 ∑i =1 X 2i −∑ i=1 X i
( X'X ) = n 2
∗ n
n ∑i=1 X i −(∑ X i ) −∑i=1 X i
2
n

Ahora calculamos X' Y

][ ][ ]
n
Y1
∑i=1 Y i
X' Y =
[ 1 . ..
X 1 . ..
1
Xn
∗ ⋮ =
Yn
n
∑i=1 Y i X i 2×1

Ahora calculamos β^ =(X'X )−1 X'Y

[] [ ][ ]
n n n
^
^ β1 = 1 ∑i =1 X 2i −∑i=1 X i ∑i=1 Y i
β= ∗
β^ 2
n
n ∑i =1 X 2i −( ∑ X i )
2 n
−∑ i=1 X i n
n
∑i=1 Y i X i

( ∑ Y i ) (∑ X 2i )−(∑ X i )( ∑ Y i X i )
β^ 1= 2
n ∑ X 2i −( ∑ X i )

−(∑ Y i )(∑ X i ) +n (∑ Y i X i )
β^ 2=
n ∑ X 2i −(∑ X i )
2
Ejemplo 8.3:

Dado
Y i= β1 + β 2 X i +β 3 X i 3 + ε i Modelo de Regresión Múltiple

[ ]
1 x 12 x 13

[]
y1 1 … x 23
X=
Y= ⋮ ⋮ ⋮
yn nx 1 1 x n2 x n 3 nx 3

[]
β1
β= β 2
β^ =(X'X ) X'Y
β3 −1
3 x1

Obtener: (X'X )−1


Solución

[ ] [ ]
1 ⋯ 1 1 X 12 X 13
X'X= X 12 ⋯ X n2 ⋅¿ ¿ ⋮ ⋮ ⋮
X 13 ⋯ X n3 3 xn 1 X 2n X n 3 nx 3

=¿ ¿
Donde
a=∑ ¿ X i 2 ¿ b=∑ ¿ X i3 ¿ c=∑ ¿ X 2i 2 ¿d=∑ ¿ X i3 X i2 ¿ e= ∑ ¿ X i23 ¿

Ahora calculamos:

1
(X'X )−1= det( X'X ) adj(X'X )
Notas:

−1 1
A =| A | adj A
Adjunta de A "Transpuesta de la matriz de cofactores"

[ ]
c
d [ ] [ ] [ ]
d
e

a
b
d
e
a
b
c
d
=−a
d [ ] [ ] [ ]
b
e
n
b
b
e

n
b
a
d

Matriz de Cofactores
a
c [ ] [ ] [ ]
b
d
−n
a
b
d
n
a
a
c

[ ]
T
(ce−d 2 ) −(ae−bd ) (ad −bc )
Adj (X'X )= −(ae−bd ) (ne−b 2 ) −(nd−ab)
(ad−bc ) −(nd−ab ) (nc−a 2 )

[ ]
(ce−d 2 ) −(ae−bd ) (ad −bc )
Adj(X'X )= −(ae−bd ) (ne−b 2 ) −(nd−ab)
(ad−bc ) −(nd−ab ) (nc−a 2 )

n a b
det( X'X)=|a c d |=( nce+abd+ bad )−( b 2 c+ a2 e +nd 2 ) =
b d e
2 2 2
det( X'X )=nce+2 abd−(b c+ a e+ nd )=

[ ]
(ce−d 2 ) −(ae−bd ) (ad−bc )
1
(X'X )−1= det −(ae−bd ) (ne−b2 ) −( nd−ab )
( ad−bc ) −(nd−ab ) (nc−a2 )
Ahora calculamos X'Y

[ ][]
1 ⋯ 1 Y1
X'Y = X 12 ⋯ X n2 ⋅ ⋮ =¿ ¿
X 13 ⋯ X n3 kxn Y n nx 1

Donde
f =∑ ¿ Y i ¿ g=∑ ¿ Y i X i2 ¿ h=∑ ¿ Y i X i 3 ¿

^ X'X)−1 X'Y
β=(
Ahora trabajamos

[] [ ] []
β^ 1 (ce−d 2 ) −(ae−bd ) (ad −bc ) f
β^ 2 = det −( ae−bd ) ( ne−b 2 ) −(nd−ab)
1
⋅g
β^ 3 (ad−bc ) −(nd−ab ) (nc−a 2 ) 3x 3
h 3 x1

[ ]
(ce−d2 )f −(ae−bd )g +(ad−bc )h
1 2
= det −( ae−bd )f +(ne−b )g −(nd −ab )h +
(ad −bc )f −(nd−ab )g +(nc−a2 )h

Así:

( ce−d 2 ) f −( ae−bd ) g+( ad−bc) h


β^ 1= 2 2 2
nce +2 bad−(a e +nd +b c )
−( ae−bd )f +( ne−b 2 ) g−( nd−ab )h
β^ 2= 2 2 2
nce +2 bad−( a e+nd +b c )
( ad−bc )f −( nd−ab ) g+( nc−a 2 )h
β^ 3= 2 2 2
nce +2 bad−( a e+nd +b c )

∴ Sólo queda efectuar la sustitución.


a=∑ ¿ X i 2 ¿ b=∑ ¿ X i3 ¿ c=∑ ¿ X 2i 2 ¿d=∑ ¿ X i3 X i2 ¿ e= ∑ ¿ X i23 ¿

^
β 1= ( ¿ ¿ ¿ ¿ ¿
^ = −( ¿ ¿ ¿ ¿ ¿
β 2
^
β =( ¿ ¿ ¿ ¿ ¿
3

8.3 Varianza y Errores Estándar (Expresión Matricial)

 varcov( β^ )=σ 2 ( X'X)−1 Matriz de varianzas y covarianzas

2 e´e [ Y − X β^ ] ´ [ Y −Xβ ]
S = n−K = n−K
 Estimador Muestral de la Varianza

 S= √ S2 Error Estándar de la Regresión

β^ k
1


se ( β^ k )=[ ( S 2 ( X'X)−1 ) ]kk
2
Error Estándar de

k=1,..., K

8.4 Bondad de Ajuste de F y R


2

 Coeficiente de Determinación
e´e
R2 =1−
y´ε0 y
1
Siendo
ε 0 =I − n i´i

 Prueba F
R 2 /( K −1)
F= ∼F K−1, n−K
(1−R2 )/(n−K )

H 0 : β2 =. ..=β K =0 “El conjunto de variables no son significativas”

Criterio de Decisión:

Si
F≥F K−1 ,n−K ⇒ Rechazamos
H0

 R cuadrada ajustada

R2a =1− ( )
n−1
n−k
( 1−R 2 )

Sirve para comparar estimaciones econométricas

Propiedades:

i)
R2asirve para comparar modelos que tienen la misma variable dependiente pero diferente
número de regresores.

ii)
R2a
puede ser negativa
2
iii) Si ↑ K ⇒↑ R siempre
2
iv) Cuando comparemos R
2 Ra
y de un modelo contra otro, deben tener la misma forma
funcional.

Ejemplo

Y i= β1 + β 2 X i2 + β3 X i3 + β 4 X i4 + β 5 X i5 +β 6 X i 6 + β 7 X i7 +β 8 X i8 +ε i

H 0 : β 2 =β 3=β 4 =β5 =β 6 =β 7 =β 8 =0 ¨El conjunto de variables no es significativo”


2
R =0 . 84
K=8
n=181
2
R /( K −1)
F= ∼F k −1, n−K
(1−R2 )/(n−K )

0 . 84 /(8−1)
F= =129 .75
(1−0 . 84 )/(181−8 )

F∼ F7 , 173

Criterio de Decisión:

Si
F≥F K−1 ,n−K ⇒ Rechazamos
H 0 (poner asteriscos)

{
0.10 1.77 ¿
α 0.05 2.09 **
0.01 2.79 ***
F=129. 75 ***
Al 1 por ciento de nivel de significancia, el conjunto de variables sí es estadísticamente significativo.

Ejemplo 8.4:

2 2
Modelo Especificación R Ra F

1 Y ↵CTE 0 0 0

2 Y ↵ X 2, X 3 0.53 0.51 34.17

3 Y ↵ X2, X 4 0.15 0.12 5.50


4 Y ↵ X2 , X 3 , X4 0.89 0.88 118.05

Análisis:
2
- Regresión 4 es la mejor de todas, porque
Ra =0 . 88
2 2
-Regresión 2 es mejor que la 3, porque
Ra =0 . 51> R a =0 .12

8.5 Mínimos Cuadrados Restringidos

i)
H 0 : β2 =β 3 =⋯=β K =0 (La regresión no ajusta)

R 2 /( K −1)
F STAT = 2
∼F K−1, n−K
(1−R )/(n−K )
Criterio de decisión
F STAT≥ F K −1 , n− K ⇒ Rechazo
H0 (las variables son necesarias)

H 0 : β K =β K−1 =.. .=β K−(m +1 )=0


ii)

Las últimas m β´ s no son significativas (m restricciones)


2 2
( RU −R R )/m
F= 2
∼ F m ,n− K
(1−RU )/(n−K )

¿Cómo evaluamos?

i)
Y ↵ X K ,X K −1 ,. .. , X 2 ⇒ R 2U
Sin restringir

2
ii)
Y ↵ X K−m , X K−( m+1 ) ,. ., X 2 , ; R R Restringida
Si
F≥Fm , n−K ⇒ Rechazo
H0 Las variables sí son necesarias

Ejemplo

Y i= β1 + β 2 X i2 + β3 X i3 + β 4 X i4 + β 5 X i5 +β 6 X i 6 + β 7 X i7 +β 8 X i8 +ε i

H 0 : β 7 =β 8 =0 ¨Las 2 últimas variables no son significativas”

2
RU =0 . 60 Regresión sin restringir (tiene todas las variables)
2
R R=0 .59 Regresión restringida (elimino las variables)

K=8
n=177
m=2

( R2U −R 2R )/m
F= 2
∼ F m ,n− K
(1−RU )/(n−K )

(0 . 60−0. 59 )/2
F= =2. 1125
(1−0 . 60)/(177−8 )

F ∼ F 2,169
Criterio de Decisión:

Si
F≥Fm,n−K ⇒ Rechazamos
H 0 (poner asteriscos)

{
0.10 2.35 ¿
α 0.05 3.07 **
0.01 4.79 ***
F=2. 1125
Aceptamos la Ho (las 2 últimas no son significativas) “El modelo restringido es mejor”

Ejemplo 8.5:

Dados:
2
Y ⇒ X2 , X3 RU =0 .89 n=32 K =3
Y ⇒ X3 R2R =0 .15 m=1
Solución

H 0 : β 2 =0 La variable no es significativa
( 0. 89−0 .15 )/ 1
F= ( 1−0. 89 )/( 32−3) = 00..11
74 /1
/ 29
=195 . 1

Criterio de Decisión:

Si
F≥Fm,n−K ⇒ Rechazamos
H 0 (poner asteriscos)

{
0.10 2.88 ¿
α 0.05 4.17 **
0.01 7.56 ***
F=195. 1 ***
Al 1 por ciento de nivel de significancia rechazo H0 (La variable si es significativa)

∴ X
2 Sí es necesaria en la regresión

REFERENCIAS
Gujarati, D.N. (2006), Principios de Econometría, Tercera edición, McGraw-Hill, México DF.
Gujarati, D.N. & Porter, D.C. (2008), Basic Econometrics, Quinta edición, McGraw-Hill/Irwin, Estados
Unidos.

También podría gustarte