Está en la página 1de 15

Tema 8:Regresión múltiple

Fuente: Capítulo 8 (Basic Econometrics, D. Gujarati)

8.1 Regresión Múltiple

Y i= β1 + β 2 X 2 +.. .+ β K X i K + ε i
 i

Matricialmente:

Y nx1 =X nxK β Kx 1 +ε nx 1 FRP: Función de Regresión Poblacional

Y nx1 =X nxK^ β Kx1 +e nx 1 FRM: Función de Regresión Muestral

Gráficamente:
Proyección de Y en espacio columna de X

β^ 2 Mide la variación del valor de E(Y ) por variación unitaria de X 2 manteniendo a X 3 constante.
β^ 3 Mide la variación del valor de E(Y ) por variación unitaria de X 3 manteniendo a X 2 constante.
Notas:

β^ 1 , β^ 2 , . .. β^ K
Coeficientes de regresión parcial

8.2 Método de OLS: Enfoque Matricial

Dada la ecuación de regresión muestral: Y nx1 =X nxK β Kx 1 +ε nx 1

[] [ ]
y1 1 x12 x 13 ⋯ x 1 K
Y= ⋮ X= ⋮ ⋮ ⋮ ⋱ ⋮
yn nx 1 1 x n2 xn 3 … xnk nxK

[] []
β1 ε1
β= ⋮ ε= ⋮
βK Kx 1 εn nx1

Definamos:

S 1 x1 =ε ´ nx1 ε nx1 ε=Y −Xβ


El problema puede re-expresarse como:

min β S=[ (Y nx 1 −X nxK β Kx1 )´ ] [ (Y nx1 − X nxK β Kx 1 )]


=Y´1 xn Y nx1 −Y´1 xn X n×K β Kx 1−β´1 xK X ´ Kxn Y nx 1 + β' 1 xK X' Kxn X nxK β Kx 1
Todos son escalares

=Y'1 xn Y nx1 −2 β '1 xK X´Kxn Y nx1 + β1 xK X' Kxn X n×K β Kx1


Así, el problema de minimización es:
'
min β S=Y'1 xn Y nx 1−2 β 1 xK X´Kxn Y nx1 + β1 xK X' Kxn X n× K β Kx1
CPO:

δS
δβ
=−2 X´ Kxn Y nx 1 + 2X´ Kxn X nxK β Kx 1=0

X´ Kxn Y nx 1= X' Kxn X nxK β Kx1

( X' Kxn X nxK )−1 X' Kxn Y nx1 = β^ Kx 1


^ X' X )−1 X' Y
β=( Kxn nxK Kxn nx1

Estimadores de MCO-OLS

CSO:

δ2S
=2 X'Kx 1 X nxK ¿ 0
δβδβ ´ Semi-definida Positiva (Mínimo)

Notas:

i)Reglas de Diferenciación de Matrices

δ(C´β ) δ( β ' C )
δβ
= δβ =C
δβ´Aβ )
δβ
=( A+A´ )β
Si A es una Matriz Simétrica

∂ β'Aβ
=2 Aβ
∂β

ii) Demostración de que ( X'X )−1 existe


∃ ( X'X )−1 ⇔r [ ( X'X )−1 ]=K

Dado que r ( X )=K ⇒ r ( X ' )=K


r ( Aβ )=min { r ( A ) ,r ( β ) }

⇒r [ ( X'X )−1 ] =K
−1
∴∃ ( X'X )

Ejemplo 8.2:

Dado
Y i= β1 + β 2 X i2 + ε i Modelo de Regresión Simple

[] [ ]
Y1 1 X1
Y= ⋮
Yn nx 1
X= ⋮ ⋮
1 Xn nx2
β=
[]
β1
β2 2x 1

Dado β^ =(X'X )−1 X'Y


−1
Calculamos (X'X )

][ ]
1 X1
X'X = 1
[
.. . 1
X 1 .. . X n
∗⋮ ⋮
1 Xn

[ ]
n
n ∑i=1 X i
= n n
∑i =1 X i ∑i=1 X 2i
[ ]
n n
−1 1 ∑i=1 X 2i −∑i =1 X i
( X'X ) = ∗
det ( X'X ) − n X
∑i=1 i n

n 2
det( X'X)=n ∑ X
i=1 i
2
− (∑ X i )

[ ]
n n
−1 1 ∑i =1 X 2i −∑ i=1 X i
( X'X ) = n 2
∗ n
n ∑i=1 X i −(∑ X i ) −∑i=1 X i
2
n

Ahora calculamos X' Y

][ ][ ]
n
Y1
∑i=1 Y i
X' Y =
[ 1 . ..
X 1 . ..
1
Xn
∗ ⋮ =
Yn
n
∑i=1 Y i X i 2×1

Ahora calculamos β^ =(X'X )−1 X'Y

[] [ ][ ]
n n n
^
^ β1 = 1 ∑i =1 X 2i −∑i=1 X i ∑i=1 Y i
β= ∗
β^ 2
n
n ∑i =1 X 2i −( ∑ X i )
2 n
−∑ i=1 X i n
n
∑i=1 Y i X i

( ∑ Y i ) (∑ X 2i )−(∑ X i )( ∑ Y i X i )
β^ 1= 2
n ∑ X 2i −( ∑ X i )

−(∑ Y i )(∑ X i ) +n (∑ Y i X i )
β^ 2=
n ∑ X 2i −(∑ X i )
2
Ejemplo 8.3:

Dado
Y i= β1 + β 2 X i +β 3 X i 3 + ε i Modelo de Regresión Múltiple

[ ]
1 x 12 x 13

[]
y1 1 … x 23
X=
Y= ⋮ ⋮ ⋮
yn nx 1 1 x n2 x n 3 nx 3

[]
β1
β= β 2
β^ =(X'X ) X'Y
β3 −1
3 x1

Obtener: (X'X )−1


Solución

[ ] [ ]
1 ⋯ 1 1 X 12 X 13
X'X= X 12 ⋯ X n2 ⋅¿ ¿ ⋮ ⋮ ⋮
X 13 ⋯ X n3 3 xn 1 X 2n X n 3 nx 3

=¿ ¿
Donde
a=∑ ¿ X i 2 ¿ b=∑ ¿ X i3 ¿ c=∑ ¿ X 2i 2 ¿d=∑ ¿ X i3 X i2 ¿ e= ∑ ¿ X i23 ¿

Ahora calculamos:

1
(X'X )−1= det( X'X ) adj(X'X )
Notas:

−1 1
A =| A | adj A
Adjunta de A "Transpuesta de la matriz de cofactores"

[ ]
c
d [ ] [ ] [ ]
d
e

a
b
d
e
a
b
c
d
=−a
d [ ] [ ] [ ]
b
e
n
b
b
e

n
b
a
d

Matriz de Cofactores
a
c [ ] [ ] [ ]
b
d
−n
a
b
d
n
a
a
c

[ ]
T
(ce−d 2 ) −(ae−bd ) (ad −bc )
Adj (X'X )= −(ae−bd ) (ne−b 2 ) −(nd−ab)
(ad−bc ) −(nd−ab ) (nc−a 2 )

[ ]
(ce−d 2 ) −(ae−bd ) (ad −bc )
Adj(X'X )= −(ae−bd ) (ne−b 2 ) −(nd−ab)
(ad−bc ) −(nd−ab ) (nc−a 2 )

n a b
det( X'X)=|a c d |=( nce+abd+ bad )−( b 2 c+ a2 e +nd 2 ) =
b d e
2 2 2
det( X'X )=nce+2 abd−(b c+ a e+ nd )=

[ ]
(ce−d 2 ) −(ae−bd ) (ad−bc )
1
(X'X )−1= det −(ae−bd ) (ne−b2 ) −( nd−ab )
( ad−bc ) −(nd−ab ) (nc−a2 )
Ahora calculamos X'Y

[ ][]
1 ⋯ 1 Y1
X'Y = X 12 ⋯ X n2 ⋅ ⋮ =¿ ¿
X 13 ⋯ X n3 kxn Y n nx 1

Donde
f =∑ ¿ Y i ¿ g=∑ ¿ Y i X i2 ¿ h=∑ ¿ Y i X i 3 ¿

^ X'X)−1 X'Y
β=(
Ahora trabajamos

[] [ ] []
β^ 1 (ce−d 2 ) −(ae−bd ) (ad −bc ) f
β^ 2 = det −( ae−bd ) ( ne−b 2 ) −(nd−ab)
1
⋅g
β^ 3 (ad−bc ) −(nd−ab ) (nc−a 2 ) 3x 3
h 3 x1

[ ]
(ce−d2 )f −(ae−bd )g +(ad−bc )h
1 2
= det −( ae−bd )f +(ne−b )g −(nd −ab )h +
(ad −bc )f −(nd−ab )g +(nc−a2 )h

Así:

( ce−d 2 ) f −( ae−bd ) g+( ad−bc) h


β^ 1= 2 2 2
nce +2 bad−(a e +nd +b c )
−( ae−bd )f +( ne−b 2 ) g−( nd−ab )h
β^ 2= 2 2 2
nce +2 bad−( a e+nd +b c )
( ad−bc )f −( nd−ab ) g+( nc−a 2 )h
β^ 3= 2 2 2
nce +2 bad−( a e+nd +b c )

∴ Sólo queda efectuar la sustitución.


a=∑ ¿ X i 2 ¿ b=∑ ¿ X i3 ¿ c=∑ ¿ X 2i 2 ¿d=∑ ¿ X i3 X i2 ¿ e= ∑ ¿ X i23 ¿

^
β 1= ( ¿ ¿ ¿ ¿ ¿
^ = −( ¿ ¿ ¿ ¿ ¿
β 2
^
β =( ¿ ¿ ¿ ¿ ¿
3

8.3 Varianza y Errores Estándar (Expresión Matricial)

 varcov( β^ )=σ 2 ( X'X)−1 Matriz de varianzas y covarianzas

2 e´e [ Y − X β^ ] ´ [ Y −Xβ ]
S = n−K = n−K
 Estimador Muestral de la Varianza

 S= √ S2 Error Estándar de la Regresión

β^ k
1


se ( β^ k )=[ ( S 2 ( X'X)−1 ) ]kk
2
Error Estándar de

k=1,..., K

8.4 Bondad de Ajuste de F y R


2

 Coeficiente de Determinación
e´e
R2 =1−
y´ε0 y
1
Siendo
ε 0 =I − n i´i

 Prueba F
R 2 /( K −1)
F= ∼F K−1, n−K
(1−R2 )/(n−K )

H 0 : β2 =. ..=β K =0 “El conjunto de variables no son significativas”

Criterio de Decisión:

Si
F≥F K−1 ,n−K ⇒ Rechazamos
H0

 R cuadrada ajustada

R2a =1− ( )
n−1
n−k
( 1−R 2 )

Sirve para comparar estimaciones econométricas

Propiedades:

i)
R2asirve para comparar modelos que tienen la misma variable dependiente pero diferente
número de regresores.

ii)
R2a
puede ser negativa
2
iii) Si ↑ K ⇒↑ R siempre
2
iv) Cuando comparemos R
2 Ra
y de un modelo contra otro, deben tener la misma forma
funcional.

Ejemplo

Y i= β1 + β 2 X i2 + β3 X i3 + β 4 X i4 + β 5 X i5 +β 6 X i 6 + β 7 X i7 +β 8 X i8 +ε i

H 0 : β 2 =β 3=β 4 =β5 =β 6 =β 7 =β 8 =0 ¨El conjunto de variables no es significativo”


2
R =0 . 84
K=8
n=181
2
R /( K −1)
F= ∼F k −1, n−K
(1−R2 )/(n−K )

0 . 84 /(8−1)
F= =129 .75
(1−0 . 84 )/(181−8 )

F∼ F7 , 173

Criterio de Decisión:

Si
F≥F K−1 ,n−K ⇒ Rechazamos
H 0 (poner asteriscos)

{
0.10 1.77 ¿
α 0.05 2.09 **
0.01 2.79 ***
F=129. 75 ***
Al 1 por ciento de nivel de significancia, el conjunto de variables sí es estadísticamente significativo.

Ejemplo 8.4:

2 2
Modelo Especificación R Ra F

1 Y ↵CTE 0 0 0

2 Y ↵ X 2, X 3 0.53 0.51 34.17

3 Y ↵ X2, X 4 0.15 0.12 5.50


4 Y ↵ X2 , X 3 , X4 0.89 0.88 118.05

Análisis:
2
- Regresión 4 es la mejor de todas, porque
Ra =0 . 88
2 2
-Regresión 2 es mejor que la 3, porque
Ra =0 . 51> R a =0 .12

8.5 Mínimos Cuadrados Restringidos

i)
H 0 : β2 =β 3 =⋯=β K =0 (La regresión no ajusta)

R 2 /( K −1)
F STAT = 2
∼F K−1, n−K
(1−R )/(n−K )
Criterio de decisión
F STAT≥ F K −1 , n− K ⇒ Rechazo
H0 (las variables son necesarias)

H 0 : β K =β K−1 =.. .=β K−(m +1 )=0


ii)

Las últimas m β´ s no son significativas (m restricciones)


2 2
( RU −R R )/m
F= 2
∼ F m ,n− K
(1−RU )/(n−K )

¿Cómo evaluamos?

i)
Y ↵ X K ,X K −1 ,. .. , X 2 ⇒ R 2U
Sin restringir

2
ii)
Y ↵ X K−m , X K−( m+1 ) ,. ., X 2 , ; R R Restringida
Si
F≥Fm , n−K ⇒ Rechazo
H0 Las variables sí son necesarias

Ejemplo

Y i= β1 + β 2 X i2 + β3 X i3 + β 4 X i4 + β 5 X i5 +β 6 X i 6 + β 7 X i7 +β 8 X i8 +ε i

H 0 : β 7 =β 8 =0 ¨Las 2 últimas variables no son significativas”

2
RU =0 . 60 Regresión sin restringir (tiene todas las variables)
2
R R=0 .59 Regresión restringida (elimino las variables)

K=8
n=177
m=2

( R2U −R 2R )/m
F= 2
∼ F m ,n− K
(1−RU )/(n−K )

(0 . 60−0. 59 )/2
F= =2. 1125
(1−0 . 60)/(177−8 )

F ∼ F 2,169
Criterio de Decisión:

Si
F≥Fm,n−K ⇒ Rechazamos
H 0 (poner asteriscos)

{
0.10 2.35 ¿
α 0.05 3.07 **
0.01 4.79 ***
F=2. 1125
Aceptamos la Ho (las 2 últimas no son significativas) “El modelo restringido es mejor”

Ejemplo 8.5:

Dados:
2
Y ⇒ X2 , X3 RU =0 .89 n=32 K =3
Y ⇒ X3 R2R =0 .15 m=1
Solución

H 0 : β 2 =0 La variable no es significativa
( 0. 89−0 .15 )/ 1
F= ( 1−0. 89 )/( 32−3) = 00..11
74 /1
/ 29
=195 . 1

Criterio de Decisión:

Si
F≥Fm,n−K ⇒ Rechazamos
H 0 (poner asteriscos)

{
0.10 2.88 ¿
α 0.05 4.17 **
0.01 7.56 ***
F=195. 1 ***
Al 1 por ciento de nivel de significancia rechazo H0 (La variable si es significativa)

∴ X
2 Sí es necesaria en la regresión

REFERENCIAS
Gujarati, D.N. (2006), Principios de Econometría, Tercera edición, McGraw-Hill, México DF.
Gujarati, D.N. & Porter, D.C. (2008), Basic Econometrics, Quinta edición, McGraw-Hill/Irwin, Estados
Unidos.

También podría gustarte