Está en la página 1de 17

Tema 7: Modelos de 2 variables y contrastación de hipótesis

Fuente: Capítulo 7 (Basic Econometrics, D. Gujarati)

7.1 Supuestos del modelo de regresión lineal clásico


i) Linealidad de los parámetros

Y i= β1 + β 2 X i +ε i

ii) Las variables x´s no están correlacionadas No multicolinealidad

iii) E(ε | x )=0

2
iv)
Var ( ε i )=σ Homocedasticidad

v)
cov (ε i , ε j )=0 i≠ j No autocorrelación

vi) El modelo está correctamente especificado

2
vii)
εi ∼ N ( 0 , σ ) Normalidad

7.2 Esperanzas de los estimadores de MCO-OLS

E( β^ 1 )=β 1
E( β^ 2 )=β 2

7.3 Varianzas y covarianzas de los estimadores de MCO-OLS


os los estimadores
β^ 1 , β^ 2 del modelo de regresión lineal simple, ocurre que
Dad

∑ ¿ X 2i
β^ 1
σ2
var( β^ 1 )= ¿¿¿
n ∑ ¿ X 2i −( ∑ ¿ X i )2 Varianza de
σ 2n
var( β^ 2 )=
n ∑ ¿ X 2i −( ∑ ¿ X i )2
¿¿
Varianza de
β^ 2
∑ ¿ Xi
σ2
cov( β^ 1 β^ 2 )=
n( ∑ ¿ X i )2−( ∑ ¿ X i )2
¿¿¿
Covarianza de
β^ 1 y
β^ 2

Matricialmente, estas varianzas y covarianzas se expresan como

varcov ( β^ ) =σ 2 ( X ´ X )−1

7Dado que no conocemos σ2 , sustituimos su valor con la varianza muestral S2 . A


dicho estimador se le conoce como el estimador de la varianza de la regresión:

2 e´e e´e ∑ ¿ ( Y i − β^ 1− β^ 2 X i )2
S = n−K = n−2 = ¿
n−2

Sustituyendo en las varianzas se obtienen los estimadores de las varianzas de los


estimadores de MCO-OLS
∑ ¿ X 2i
S2
v a^ r( β^ 1 )= ¿ ¿¿
n ∑ ¿ X 2i −(∑ ¿ X i )2
S2 n
v a^ r ( β^ 2 )= ¿¿
n ∑ ¿ X 2i −(∑ ¿ X i )2

Ahora bien, calculando las raíces, se obtienen los errores estándares de los estimadores de
MCO-OLS

se( β^ 1 )=√ v a^ r( β^ 1 ) Error Estándar de


β^ 1
se( β^ 2 )=√ v a^ r( β^ 2 ) Error Estándar de
β^ 2
Los errores estándar equivalen a los estimadores de las desviaciones estándar de los
estimadores de MCO-OLS.

7.4 Teorema de Gauss-Markov y MCO-OLS


Si asumimos los supuestos del modelo de regresión lineal clásico, los estimadores de MCO-
OLS son MELI-BLUE (Mejores Estimadores Linealmente Insesgados)

Propiedades:

i)
β^ 1 , β^ 2 son lineales

^ )=β ; E( β
E( β ^ )=β
ii) 1 1 2 2 son insesgados

iii) E( S2 )=σ 2

iv)
β^ 1 , β^ 2 son eficientes

7.5 Distribuciones muestrales de los estimadores MCO-OLS

Dado
Y i =β1 + β 2 X i +ε i Modelo de regresión
2
ε i ∼ N (0 , σ ) Normalidad de errores
Tenemos que:
β^ 1 ∼ N ( β1 ,var ( β^ 1 ))
^ ∼ N ( β ,var ( β
β ^ 2) )
2 2

7.6 Contrastación de Hipótesis (Gujarati 5.3)

Dado
Y i =β1 +β 2 X i +ε i Modelo de regresión

¿Sirven los estimadores de MCO-OLS (y las variables independientes X) para explicar a la


variable dependiente?

Eso lo averiguamos con una prueba de hipótesis

Dado k =1,2
H 0 : β k=0 Hipótesis nula (X no es significativa)
H 1 : β k ≠0 Hipótesis alternativa (X sí es significativa)

Adviértase: Si el parámetro no es significativo, X no sirve para explicar a Y

¿Cómo aplicamos el criterio de decisión?


Idealmente dado que los estimadores de MCO-OLS se distribuyen normalmente, podemos
normalizar a fin de analizar su comportamiento estadístico
^β −β
k k
Z= ∼ N (0, 1 )
√ var( β^ ) k

2
Sin embargo, como sabemos, √ var ( β^ k ) depende de σ que es desconocida

∴ Usamos
se ( β^ k )
como sustituto a √ var ( β^ )
k

Así ocurre que tenemos una aproximación a Z. Esta aproximación se denomina el


estadístico t que se distribuye siguiendo una distribución t de Student

β^ k −β k
t= ∼ t n−2
se ( β^ ) k Estadístico t en el modelo de regresión lineal simple

En general, tenemos que

β^ k −β k
t= ∼ t n− K
^
se ( β ) k Estadístico t en el modelo de regresión lineal múltiple
Donde:


se( β^ k )= v a^ r( β^ k ) β^k
Error estándar de
Criterio de Decisión

| t |>t α
2 entonces Rechazo
H0

A veces nos interesa saber en dónde se puede ubicar β k . Esto lo podemos saber con un
intervalo de confianza

[
P −t α <t < t α =1−α
2 2 ]
Dado

Sustituyendo

[ ]
^ k− β k
β
P −t α < ¿ t α =1−α
2 ^ K)
se( β 2

[ ^ k )< β
P −t α se ( β
2
^ k − β k ¿ t α se ( β^ k ) =1− α
2
]

[
P − β^ k −t α se ( β^ k )<−β k ¿− β^ k +t α se ( β^ k ) =1−α
2 2
]
[
P β^ k +t α se( β^ k )> βk ¿ β^ k −t α se ( β^ k ) =1−α
2 2
]
[
P β^ k −t α se ( β^ k )< β k ¿ β^ k +t α se ( β^ k ) =1−α
2 2
]
Intervalo de Confianza al 1−α para
β^ k
Nota; Recuérdese que

{
0 .10 ¿
α 0 .05 **
0 .01 *** Niveles de significancia más usados en econometría

Ejemplo 1:
β^ 2=0. 05
t=0 .26 K=9 n=174
¿Es significativa la variable X?

Solución:
Dada la hipótesis nula
H 0 : β 2 =0 Hipótesis nula (La variable “no sirve”)

Ocurre que

β^ 2
t= ~t 174−9
^
se ( β 2 )
t ~ t 165

Criterio de Decisión

| t |>t α
2 entonces Rechazo
H0
Sustituyendo, ocurre que

0 .26 <t tablas ⇒ Acepto Ho (X no es significativa)

Adviértase que los valores de tablas son:


{
0.10 1.65 ¿
α 0.05 1.97 **
0.01 2.61 *** Nivel de significancia y valores críticos de t (t tablas)
^
Así concluimos que X no es significativa, β 2=0. 05=0

Ejemplo 2:
β^ 2=1 . 18
t=5 .95 K=9 n=174
¿Es significativa la variable X?

Solución:
Dada la hipótesis nula
H 0 : β 2 =0 Hipótesis nula (La variable “no sirve”)

Ocurre que

β^ 2
t= ~t 174−9
^
se ( β 2 )
t ~ t 165

Criterio de Decisión

|t|>t tablas ⇒ Rechazo Ho


Sustituyendo, ocurre que

5 .95>ttablas ⇒ Rechazo Ho (X sí es significativa)

Adviértase que los valores de tablas son:


{
0.10 1.65 ¿
α 0.05 1.97 **
0.01 2.61 *** Nivel de significancia y valores críticos de t (t tablas)

^
Así concluimos que X es significativa, β 2=1 . 18***

7.7 Bondad de Ajuste


¿Qué tan buena es la regresión?
Dados

Y i =β1 + β 2 X i + ε i Modelo econométrico

Y^ i = β^ 1 + β^ 2 X i Pronóstico del modelo econométrico

Y i=Y^ i +e i FRM estocástica para la observación i

Re-expresamos la FRM estocástica en términos de desviaciones con respecto a la media:

(Y i−Y )=( Y^ i−Y )+e i


y i= ^yi +e i
2 2 2
y i = ^y i +e i +2 ^y i e i Binomio cuadrado perfecto

y i ei ¿
^
ei
2
¿ Porque
e i=0 ¿
2
y i ¿¿ ¿ ¿ Dividiendo entre
2
yi ¿
Despejando, se obtienen los estimadores de bondad de ajuste

2
y ¿¿¿¿¿
i Coeficiente de determinación
2
1−R Coeficiente de alineación

R= √ R2 Coeficiente de correlación
2
Propiedades de R :
2
i) R ≥0

2
ii) 0≤R ≤1

Nota: La R2 sólo sirve cuando hay una constante en la regresión y cuando los datos tienen un
comportamiento lineal.

7.8 Prueba de Normalidad Jarque-Bera


MCO-OLS funciona suponiendo que los residuales se distribuyen normalmente.
¿Cómo lo verificamos?
i) Graficando los residuales (Histograma de Residuos)

ii) Prueba de Jarque-Bera

Estadístico Jarque-Bera

JB = n
6 [ SK 2+
( K − 3 )2
6 ]∼ χ 2
2

Donde:
SK=sesgo y K=curtosis
En muestras grandes:

JB ∼ χ 22 Asintóticamente

Si hay Normalidad JB→ 0

¿Cómo hacemos la prueba de hipótesis?


i) Estimamos los residuales y calculamos el estadístico de Jarque-Bera
ii) Prueba de hipotesis

H : JB=0
0 Normalidad de los residuales (La regresión sí sirve)

Criterio de Decisión:

2
JB> χ ⇒ 2 Rechazo
H 0 (No hay normalidad, ponemos asteriscos)

Ejemplo:
Dado JB=2.72
¿La regresión sirve? ¿Los residuales son normales?
Ho: JB=0 Normalidad

Criterio de decisión
2
JB> χ 2 ⇒ Rechazo Ho
Sustituyendo, ocurre que
2
2. 72< χ 2 ⇒ Acepto Ho (Si hay normalidad)

Adviértase que los valores de tablas son:


{
0.10 4.61
α 0.05 5.99
0.01 9.21

Así concluimos que los residuales sí se distribuyen normalmente y, por tanto, que la

regresión sí sirve, porque JB=2 .72=0

Ejemplo7.7:
Dado JB=2.877
¿La regresión sirve? ¿Los residuales son normales?
Ho: JB=0 Normalidad

Criterio de decisión
2
JB> χ 2 ⇒ Rechazo Ho
Sustituyendo, ocurre que
2
2. 877< χ 2 ⇒ Acepto Ho (Si hay normalidad)

Adviértase que los valores de tablas son:

{
0.10 4.61
α 0.05 5.99
0.01 9.21

Así concluimos que los residuales sí se distribuyen normalmente y, por tanto, que la

regresión sí sirve, porque JB=2 .877=0


7.9 P-valores e hipótesis nula

Si me interesa rechazar H 0 debiera tener un p-value pequeño (menor a 0.10)

Si me interesa aceptar H 0 debiera tener un p-value grande (mayor a 0.01)

7.10 Calidad de la predicción (Basic Econometrics 5.10)

Supongamos que tenemos el pronóstico


Y^ i= β^ 1 + β^ 2 X i
X0 ^ +β
Y^ 0 = β ^ X
Dado , valor numérico especificado, ocurre que 1 2 0

Donde

Y^ 0 Estimador de
E [ Y|X o ]

¿Cómo puedo obtener la predicción media de Y asociada a


X0 ?

En general
Y^ 0 se distribuye como:

Y^ 0 ∼ N ¿ ¿
Dado que la distribución de
Y^ 0 es continua, la probabilidad de que un valor especifico del
pronóstico describa al verdadero valor es cero. Por esta razón, la calidad del pronóstico no
se avala con base en los aciertos. Se evalúa en términos de intervalos de confianza
asumiendo una distribución normal. Así, y con fines de estimar el mencionado intervalo,
construimos la variable normalizada Z

Y^ 0 −( β 1 +β 2 X 0 )
z= ¿¿
√ σ ¿¿¿2

Estadísticamente, el intervalo de confianza no es estimable de manera directa porque σ2

es desconocido. El desconocimiento de σ2 hace que tengamos que usar el estimador de la


2 2 2
varianza de la regresión, S . Así sustituimos S en vez de σ .

Adviértase que la sustitución hace que ya no tengamos una variable que se distribuye
normalmente. Ahora tenemos una variable que se distribuye como una t de Student.

Y^ 0− ( β 1 + β 2 X 0 )
t= ¿¿
√ ¿¿¿
S 2

Dado este valor, y un nivel de significancia, definimos el intervalo de confianza de la


siguiente manera:

[
P Y^ 0 −t α se ( Y^ 0 )≤ β1 + β 2 X 0 ¿ Y^ 0 +t α se( Y^ 0 ) =1− α
2 2
]
¿Cómo podemos ver este intervalo?

E [ Y| X 0 =20 ]
Supongamos que queremos obtener la predicción media

Sabiendo que
Y^ i=−0 .0144 +0 .7240 X i y que
se ( Y^ 0 ) =0 .6185
,

n=13 , K=2 , α =0 . 05

Podemos estimar
Y^ 0 =−0 . 0144+0 . 7240 ( 20 )=14 . 4656

Así ocurre que

[
P 14 . 4656−t α 0 . 6185≤ β 1 + β 2 X 0 ¿ 14 . 4656 +t α 0. 6185 =1−α
2 2 ]
Adviértase que si
t ∼t 11 , los valores de tablas son

{
0.10 1. 80
α 0. 05 2. 20
0. 01 3.11

Particularmente, si sustituimos para α=0 . 05 , ocurre que


P [ 14 . 4656− (2 . 2 ) 0 . 6185≤β 1 + β2 X 0 ≤14 . 4656+ ( 2 . 2 ) 0 . 6185 ]=0. 95

Si sustituimos para α=0 . 05 , queda el siguiente intervalo:


P [ 13 . 1049≤β 1 + β 2 X 0 ≤15. 8263 ]=0 . 95

Así, el intervalo de confianza para la predicción media de Y queda como:

P [ 13. 1049≤E [ Y |X 0=20 ]≤15 . 8263 ]=0. 95


Donde

Y^ 0 + t α se ( Y^ 0 )=13 .1049
Límite Superior: 2

Y^ 0 −t α se( Y^ 0 )=15 . 8263


Límite Inferior: 2

REFERENCIAS
Gujarati, D.N. (2006), Principios de Econometría, Tercera edición, McGraw-Hill, México
DF.
Gujarati, D.N. & Porter, D.C. (2008), Basic Econometrics, Quinta edición,
McGraw-Hill/Irwin, Estados Unidos.

También podría gustarte