Está en la página 1de 18

Notas de Clases Practicas #3:

TEST DE SIGNIFICATIVIDAD CONJUNTA Y


DE RESTRICCIONES LINEALES.
El objetivo de estas notas es resumir los principios subyacentes a
los test sobre conjuntos de coeficientes y de restricciones
lineales, su interpretacion e implementacion en Pc Give. De
ninguna manera reemplaza a los contenidos correspondientes de
un libro de econometria, solo sirve como un summary de los
conceptos de clases teoricas y practicas referentes a restricciones
lineales.
PRIMERA PARTE: FUNDAMENTOS TEORICOS
1.TESTS DE VARIABLES REDUNDANTES:
1.1 Modelo restricto e irrestricto
Hasta ahora consideramos un modelo teorico donde las k variables explicativas
(incluyendo la constante) estaban incluidas en una matriz de n*k, que la llamabamos X.
Y=X+u.
Para ver los efectos de agregar variables en un modelo, ahora vamos a particionar
matriz de variables explicativas en dos:
X, que incluye k-g variables explicativas; es decir X es una matriz de de n*(k-g)
Z, que incluye g variables explicativas, es decir Z es una matriz de n*g.
Consideremos los siguientes modelos teroricos alternativos:
MODELO RESTRICTO:
Y=X+u
con su contraparte empirica
Y=Xb+e,
MODELO IRRESTRICTO: Contiene mas informacion que el irrestricto (a las X se
agregan como explicativas las Z)
Y=X+Z+ u
y su contraparte empirica

Y = X + Z + u
Nosotros derivamos que, si se cumplen los supuestos sobre los u, los X y los Z,
incluyendo la distribucion normal independiente de los u, sabiamos que
~ N (, 2u (X' M z X) 1 )
~ N ( , 2u (Z' M x Z) 1 )
donde
Mx=(I-X(XX)-1X)
Mz=(I-Z(ZZ)-1Z)
NOTA: Es muy importante que todos los supuestos sobre los errores (incluida la
distribucion Normal) y la no aleatoriedad de los X y Z son los que nos van a permitir
justificar la distribucion de los estadisticos de prueba.

1.2 IMPLEMENTANDO TESTS F SOBRE COEFICIENTES.


Como llegamos de la distribucion de los estimadores de y a construir test que sean
implementables en una muestra? Necesitamos recordar algunas definiciones para
distribuciones de una variable aleatoria, extenderlo al caso de un conjunto de variables
aleatorias (el vector de estimadores de o de ) y luego llegar estadisticos de prueba
que se basen solo en informacion muestral (es decir, por ejemplo, necesitamos un
estadistico de prueba que no dependa de 2, pues este es no observable).Esos pasos los
emprendemos a continuacion.
RECORDANDO ALGUNOS CONCEPTOS SOBRE DISTRIBUCION DE
VARIABLES ALEATORIAS:
Si teniamos una variable aleatoria normal x con media y varianza 2 sabiamos que
z=

x
~ N (0,1)

Y si considerabamos el expermiento de sacar n valores (z1,....,zn) de esta distribuciom

z
i =1

~ 2n

EXTENSION A NOTACION MATRICIAL


Este concepto puede extenderse a vectores de variables aleatorias. Supongamos que
ahora Q es un vector columna de n variables aleatorias que satisface
Q~N(,)

En este caso no es un escalar que refleja la varianza sino una matriz de varianzas y
covarianzas de las variables aleatorias incluidas en Q y es un vector de n*1 que
contiene las medias de las variables aleatorias incluidas en Q. Puede mostrarse que
(Q-)-1(Q-) ~ 2(n).
En analogia , sabemos que

~ N( , 2u ( Z' M x Z) 1 )
Entonces
( )' ( Z' M x Z) 1 ( )
~ 2g
2
u
Si quisiera hacer un test de hipotesis sobre , por ejemplo =0, podria hacerlo si
conociera 2u. Aunque este test no podamos implementarlo tal como esta (asumiendo
que sabemos 2u), es util analizarlo. Si conocieramos 2u, entonces, si es cierta Ho: =0,
' ( Z' M x Z) 1
~ 2g
2
u
es decir, cuando tome muestras los valores estimados de deberian estar cerca de los
valores que supone la hipotesis Ho: =0, si esta ultima fuera cierta. La interpretacion es
la misma que cuando haciamos un test t sobre un coeficiente, nada mas que estendido
a un conjunto de coeficientes: nuestra intuicion en aquel caso es que si Ho fuera cierta,
el valor estimado (bj) deberia estar cerca del j* de la hipotesis. Dicho de otra manera,
para no rechazar Ho en ese caso, queriamos que la diferencia entre bj y j* (corregida
por el error standard de bj) fuera cercana a 0.
En el caso de una hipotesis sobre un vector de coeficientes, la idea de distancia entre
bj y j* se extiende a la distancia entre la estimacion de y la hipotesis Ho: =0. Pero
la idea es la misma. Antes, la diferencia se media por el t-value, ahora se mide por el
estadistico 2. Entonces, en el caso que ahora nos ocupa, para no rechazar Ho el
estadistico de prueba de la ecuacion de arriba deberia ser cercano a 0 (y positivo porque
2 no toma valores negativos) , indicando que la distancia entre los valores estimados
y la hipotesis bien podria deberse a la variabilidad muestral. El valor critico que divide
la zona de rechazo de la de aceptacion , para una prueba con un nivel se significacion
es el valor en la distribucion 2g que deja a la derecha un *100% de probabilidad
acumulada.
Graficamente, si, por ejemplo =0.05 y g=4, entonces el valor critico se determinaria
buscando en una distribucion 24 el valor que acumula 95% de la probabilidad, o
alternativamente, el valor que deja a la derecha de la 24 un 5% de probabilidad.
Esto se detalla en el proximo grafico:

0.6

Funcion de densidad de una


distribucion chi-cuadrado
con 4 grados de libertad.

0.5

0.4

Si =0.05 el valor critico que


deja 5% de la probabilidad a
la derecha es 9.48

0.3

0.2

0.1

0
0

10

12

14

16

18

Pero como 2u es un parametro desconocido, no podemos implementar este test. Sin


embargo, sabemos que
u ' u
~ n2 k
2
u
Entonces, sabiendo que el la distribucion del cociente entre una variable aleatoria 2m y
otra variable aleatoria 2n , cada una dividida por sus grados de libertad es una
distribucion F con m y n grados de libertad en el numerador y denominador,
respectivamente, podemos aplicar esto a nuestro caso, formando una nueva variable
aleatoria
( )' (Z' M x Z) 1 ( )
g
2u
~ Fngk
u ' u
(n k )
2u
Como queriamos, 2 se cancelan, permitiendonos implementar el test a partir de una
muestra.
Entonces, si quisieramos testear Ho:=0, el estadistico de prueba seria, precisamente
' ( Z' M x Z) 1 g
~ Fngk
u ' u (n k )

Si el valor del estadistico superara el valor critico (dado un y los grados de libertad g
y n-k) se rechazaria Ho. Alternativamente, si el p-valor de la prueba resulta menor a
se rechazaria la hipotesis nula y si lo excediese no se podria rechazar la misma. De esta
manera, teniendo el p-valor se puede tomar la decision sin necesidad de mirar a la tabla.
Veamos el siguiente ejemplo sobre como determinar el valor critico. Supongamos que
g=3 y n-k=40. Entonces la distribucion del estadistico bajo Ho seria una F de 3 grados
de libertad en el numerador y 40 en el denominador (o F(3,40)). El siguiente grafico nos
muestra dicha distribucion y la determinacion del valor critico.
0.8

Funcion de densidad de una


distribucion Fcon 3 y 40 grados de
libertad.Se abrevia F(3,40)

0.7

0.6

0.5

Si =0.05 el valor critico que deja


5% de la probabilidad a la derecha
es 2.84. Ademas divide la Zona de
Aceptacion de la de Rechazo

0.4

0.3

0.2

0.1

ZONA DE RECHAZO

ZONA DE ACEPTACION

0
0

0.5

1.5

2.5

3.5

4.5

Si obtenemos un valor Fc y este es menor al F (2.84 en este caso) no podriamos


rechazar Ho con un nivel de significacion =0.05, caso contrario rechazamos. Aqui, el
p-valor de la prueba seria el area acumulada a la derecha del valor Fc. (Porque?). Si este
es menor al rechazamos Ho, y de lo contrario no podemos rechazar. Es importante a
fines teoricos saber contrsuir areas de aceptacion y de rechazo, mientras que en la
practica resulta mas comodo mirar el p-valor (el Pc-Give lo provee).
El ultimo estadistico ( Fgn-k) tambien puede expresarse en este caso (es decir solo donde
Ho:=0) como
F=

(e' e u ' u ) g
u ' u (n k )

Si definimos

e' e = RSS R
u ' u = RSS I
donde RSSR es el RSS del modelo restricto y RSSI es el RSS del modelo irrestricto.
Entonces

F=

(RSS R RSS I ) g
RSS I (n k )

Sabemos que
e' e u ' u
por lo que F siempre va a ser un mumero mayor o igual a 0. Es decir, si queremos
testear alguna restriccion Ho:=0, F siempre tomara un valor no negativo. Esto ultimo
va a ser valido para todo test que involucre un estadistico F (sin importar Ho). La
cuestion es que si Fc toma un valor muy grande, la distancia entre las estimaciones
obtenidas de la muestra y la hipotesis formulada es lo suficientemente grande como para
inferir que se deba al efecto de la variabilidad muestral. Si solo se debiera a variabilidad
muestral esa distancia (o diferencia entre estimacion e hipotesis) muy probablemente
seria menor. Por lo tanto, valores grandes de F nos inclinan a rechazar Ho. Hasta que
valor de F tolero vendra dado por y por los grados de libertad (del numerador y
denominador) de la F.
ALGUNOS EJEMPLOS
Ejemplo1:TEST DE SIGNIFICATIVIDAD CONJUNTA DE LA REGRESION
Consideremos el siguiente modelo teorico:
Yt=1+2X2t+3X3t+.....+kXkt+ut
Supongamos que estoy interesado en testear la hipotesis Ho:2= 3=........= k=0 (versus
la alternativa que alguno de los coeficientes es distinto de 0). Esta hipotesis nos dice que
las variables incorporadas X2,....Xk no agregan informacion para explicar a Y en el
modelo teorico considerado. Es decir, la hipotesis estaria expresando que X2,....Xk son
variables redundantes.
Como podria hacer el test? Primero deberia determinar el estadistico de prueba y su
distribucion bajo Ho. Se que bajo Ho:
(RSS R RSS I ) g
~ Fng k
RSS I (n k )
Entonces, si fuera cierta la hipotesis, existiria una probabilidad de 1-% que tome una
muestra y el estadistico F antes mencionado tome valores inferiores al valor critico

Fg,n-k que deja un probabilidad % a la derecha (en la distribucion Fgn-k). Es decir, el


segundo paso es determinar zona de aceptacion y rechazo.
Luego, tomo una muestra y calculo RSSR de una regresion de Y contra la constante (que
resulta de reemplazar Ho en el modelo teorico del ejemplo)y defino RSSI es el como el
RSS de la regresion irrestricta. Luego, computo:
F=

(RSS R RSS I ) g
RSS I (n k )

Si el valor de F excede el valor critico (dado un ) para una F de g y n-k grados de


libertad en el numerador y denominador respectivamente, entonces rechazaria Ho. La
interpretacion es la siguiente: si F excede el valor critico, al aplicar la restriccion
Ho:2= 3=........= k=0, el RSS aumenta demasiado, y este efecto probablemente se
deba a que las X sean CONJUNTAMENTE SIGNIFICATIVAS. Si las X explican en
conjunto el comportamiento de Y, uno esperaria que al agregarlas al modelo irrestricto
el RSS cayera fuertemente. Noten que si yo agrego a una regresion un conjunto de
variables el RSS cae o se mantiene igual. Para poder rechazar la hipotesis de NO
SIGNIFICATIVIDAD CONJUNTA necesito que el RSS caiga mucho, ya que si
agregara variables IRRELEVANTES (es decir, valiera esta hipotesis nula) el RSS se
mantendria igual o caeria poco. Los terminos demasiado, poco, fuertemente,
etc, se usan con fines intuitivos. Una vez realizada la comprension es necesario utilizar
conceptos mas apropiados.
Otra forma de calcular en este caso el estadistico F es notar que en una regresion de Y
contra una constante, el RSS=RSSR=TSS. (Porque?). Si ahora el RSS de la regresion
irrestricta lo consideramos RSS y al de la regresion con la constante como TSS,
entonces
F=

(TSS RSS) g
R2 /g
=
RSS /(n k )
(1 R 2 ) (n k )

y establecemos una relacion entre el estadistico F en este caso (Ho:todas las variables
explicativas excepto la constante son redundantes) y el R2 de dicha regresion. La
expresion ultima nos dice que, cuando mayor sea R2, mayor es el F, y por lo tanto
mayor es el poder explicativo de las Xs. Notar que el hecho de requerir que F exceda el
valor critico F indica que dado , habria un valor de R2 minimo a partir del cual
rechazaria Ho. Si el R2 excede el valor minimo (aquel que se corresponde con el F ),
entonces la decision del test es rechazar Ho.
Ejemplo2: TEST DE SIGNIFICATIVIDAD INDIVIDUAL.
Si , por ejemplo consideramos el modelo teorico
Yt=1+2X2t+3X3t+ut
y partimos el conjunto de regresores como:

1
1

...
X=
1
...

X 21
X 31
X

X 22
32
...
...

; Z =
X 2t
X 3t
...
...

X 2 n
X 3 n

En este caso =3. Si testearamos Ho: 3=0, entonces, el modelo irrestricto es


Yt=1+2X2t+3X3t+ut
mientras que el restricto es
Yt=1+2X2t +ut
Esta era la misma hipotesis del test de significatividad individual. En este caso, el
estadistico de prueba
F=

(RSS R RSS I ) 1
~ Fn13
RSS I (n 3)

Se puede mostrar que una variable aleatoria t(n-k) elevada al cuadrado sigue una
distribucion F1n-k. Entonces, el valor calculado del estadistico t de la variable X3t
elevado al cuadrado sera exactamente igual al valor F que obtengamos de la prueba, ya
que ambos test comparten la misma hipotesis nula y la distribucion F en este caso se
puede obtener como una distribucion derivada de la t de Student.
DEMOSTRACION:
Sea k una variable N(0,1) y q una variable con distribucion 2n.
Entonces sabemos que la variable aleatoria
z
q
n
sigue una distribucion t de Student con n grados de libertad. Si elevamos al cuadrado la
variable aleatoria t obtenemos

z2 1
z2
=
q n q n
Pero z es normal (0,1), entonces z2~21. Ademas, ya dijimos que q~2n.
Entonces, sabiendo que la distribucion del cociente entre una variable aleatoria 2m y
otra variable aleatoria 2n , cada una dividida por sus grados de libertad respectivos es
una distribucion F con m y n grados de libertad en el numerador y denominador,
obtenemos que

z2 1
z2
~ Fn1
=
q n q n
que es lo que queriamos mostrar.
Ejemplo3: TEST DE VARIABLES REDUNDANTES (CASO GENERAL)
Consideremos el siguiente modelo teorico:
Yt=1+2X2t+3X3t+.....+kXkt+ut
Supongamos que queremos testear la hipotesis sobre la nulidad de los coeficientes de
una subconjunto de regresores. Esta hipotesis nos dice que las variables en cuestion no
agregan informacion para explicar a Y en el modelo teorico considerado.
El modelo restricto seria una regresion sin las variables que quiero testear si son
redundantes.

Como podria hacer el test? Primero deberia determinar el estadistico de prueba y su


distribucion bajo Ho. Se que bajo Ho:
(RSS R RSS I ) g
~ Fng k
RSS I (n k )
Entonces, si fuera cierta la hipotesis, existiria una probabilidad de 1-% que tome una
muestra y el estadistico F antes mencionado tome valores inferiores al valor critico
Fg,n-k que deja un probabilidad % a la derecha (en la distribucion Fgn-k). Es decir, el
segundo paso es determinar zona de aceptacion y rechazo.
Luego, estimo el modelo restricto y calculo RSSR y defino RSSI es el como el RSS de
la regresion irrestricta. Luego, computo:
F=

(RSS R RSS I ) g
RSS I (n k )

Si el valor de F excede el valor critico (dado un ) para una F de g y n-k grados de


libertad en el numerador y denominador respectivamente, entonces rechazaria Ho. La
interpretacion es la siguiente: si F excede el valor critico, al eliminar las variables en
cuestion el RSS aumenta demasiado (o la regresion empeora mucho), y este efecto
probablemente se deba a que las variables que yo consideraba en Ho: como redundantes
no lo sean.

2.TESTS DE RESTRICCIONES LINEALES =h:


Vimos como podemos implemetar test para evaluar hipotesis del tipo =0. Que pasa si
nosotros queremos testear un conjunto de restricciones lineales sobre los coeficientes?
Consideremos en esta seccion como modelo irrestricto a
Y=X+u.
y su contrapartida empirica es
Y=Xb+e.

Ahora, las restricciones lineales se pueden escribir matricialmente como H=h, donde H
es una matriz de g*k y h es de g*1.
Ejemplo 4 : TEST DE RESTRICCIONES LINEALES
Consideremos el siguiente modelo teorico:
Yt=1+2X2t+3X3t+4X4t+ut
y dos restricciones lineales Ho: 2+4=5 y 3+24=3. En forma matricial podemos
escribirlo como
1

0 1 0 1 2 5
0 0 1 2 = 3

3

4

donde
0 1 0 1
5
H=
;h =

0 0 1 2
3
Se puede mostrar que si la restriccion fuera valida, entonces podriamos construir un
estadistico F de la misma forma que antes:
El modelo irrestricto es el usual Yt=1+2X2t+3X3t+4X4t+ut, del cual al estimarlo
obtendriamos RSSI.
El modelo restricto a estimar se obtiene con dos pasos:
Paso 1: Reemplazar Ho en el irrestricto. De 2+4=5 obtenemos 2=5-4 y de 3+24=3
obenemos 3=3-24. Reemplazando en el irrestricto obtenemos
Yt=1+(54)X2t+(3-24)X3t+4X4t+ut=1+5X2t+3X3t +4(-X4t)+ut.
Paso 2: Correr la regresion restricta.
Para poder correr la regresion restricta ponemos solo del lado derecho los productos que
tengan coeficientes a estimar, es decir
Yt-5X2t-3X3t=1+4(-X4t)+ut.
La regresion restricta implica correr la nueva variable explicada Yt-5X2t-3X3t contra una
constante y la variable X4t. El RSS de la ultima regresion a estimar es el RSS del
modelo restricto (RSSR).
Entonces, vale que para este tipo de restricciones, considerando el modelo restricto
como dijimos antes
F=

(RSS R RSS I ) g
~ Fng k
RSS I (n k )

y en este caso particular, como Ho comprendia dos restricciones g=2 y sabiamos que
k=4. Ahora basta construir las zonas de acepatacion y de rechazo. Para no rechazar Ho

(que las restricciones sean compatibles con los datos) al poner estas restricciones el RSS
deberia subir poco y el F seria chico (menor al valor critico).Es decir, el modelo
deberia empeorar poco. Valores grandes (mayores al valor critico) de F estan
asociadas a fuertes incrementos del RSS al imponer la restriccion, lo que quiere decir
que las restricciones no son compatibles (no se ajustan bien a los datos) y, por lo tanto
rechazariamos Ho al nivel de seignificacion preestablecido. Alternativamente, si el pvalor de la prueba es menor a rechazamos Ho y caso contrario no podemos rechazar.
Ejemplo 5: TEST SOBRE UN SUBCONJUNTO DE COEFICIENTES.
Una forma mas general del test Ho:=0 es Ho:=0. Este tambien se puede considerar
como un test H=h. Por ejemplo, consideremos el siguiente modelo teorico irrestricto:
Yt=1+2X2t+3X3t+4X4t+ut
Podriamos hacer la siguiente particion del conjunto de regresores:

1
1

...
X=
1
...

X 21
X 31
X

X 22
32
...
...
; Z =
X 2t
X 3t
...
...

X 2 n
X 3 n

X 41
X 42
...

X 4t
...

X 4 n

Y testear la restriccion =0 seria testear en forma conjunta Ho: 3=3*,4=4* puesto


que en este caso

= 3
4
Ademas, se puede mostrar que:
*3
0 0 1 0
H=
;
h
=
*

0 0 0 1
4
Entonces, ya dijimos que el modelo irrestricto es
Yt=1+2X2t+3X3t+4X4t+ut
del cual el RSS de la estimacion es el RSSI, mientras que el modelo restrticto consiste
en reemplazar Ho: en el irrestricto, es decir:
Yt=1+2X2t+3 X3t+4* X4t+ut
donde los parametros que quedan libres para estimar son 1,2 mientrtas que 3 y 4
quedan fijos en los valores preespecificados por Ho: 3=3*,4=4*

Como estimamos el RSS del restricto? En el miembro derecho de la ecuacion deben


quedar parametros a estimar y el resto se reagrupa en el miembro izquierdo. En este
caso:
Yt-3 X3t-4* X4t =1+2X2t +ut, lo que implica correr la regresion donde la variable
explicada es Yt-3 X3t-4* X4t (3* y 4 * son valores fijos) y la explicamos con la
constante y X2t. De este modelo, el RSS es el RSSR.
El estadistico de la prueba
F=

(RSS R RSS I ) g
RSS I (n k )

se distribuye como F con 2 (la hipotesis nula es una restriccion sobre 2 parametros) y
n-4 (k=4 en el irrestricto) grados de libertad.
Eligiendo un , si el estadistico supera el valor critico, o alternativamente, si el p-valor
es menor a se rechaza Ho al nivel de significacion elegido.
Ejemplo 5: TEST SOBRE UN SUBCONJUNTO DE COEFICIENTES.
Con este mismo enfoque puede testearse (y obtener el p-valor) de una prueba sobre un
coeficiente Ho: j=j*, en cuyo caso el estadistico de prueba bajo Ho tendria una
distribucion F con 1 grado de libertad en el numerador y n-k en el denominador(k es la
cantidad de variables explicativas en el irrestricto). El valor de F obtenido seria igual a
bj j

F=
SE(b )
j

SEGUNDA PARTE: APLICACIONES


Vamos a ilustrar con ejemplos en PcGive, como formular test que se corresponden con
los ejemplos arriba sealados. Para ello usaremos el file con los datos del logatirmo del
Capital(k), PBI(y) y Trabajo(l) de EE.UU. (llamado us6089).
Ejemplo 1:Test de significatividad conjunta de la regresion.
Asumamos que nuestro modelo teorico es
yt=1+2 k + 3 l + ut.
y queremos testear Ho: 2=3=0, lo que se llama el test de significatividad conjunta de
la regresion.
Para ello corremos la regresion:
EQ( 1) Modelling y by OLS (using us6089.in7)
The present sample is: 1960 (1) to 1989 (4)

Variable
Constant
k
l

Coefficient
-0.011847
0.19777
0.63350

Std.Error
0.0017372
0.014142
0.025763

t-value
-6.819
13.985
24.590

t-prob PartR^2
0.0000 0.2844
0.0000 0.6257
0.0000 0.8379

R^2 = 0.997596 F(2,117) = 24278 [0.0000] \sigma = 0.00890385


RSS = 0.009275582263 for 3 variables and 120 observations

DW = 0.184

En nuestro caso, el test involucra como irrestricto al modelo


yt=1+2 k + 3 l + ut.
y como restricto al modelo teorico
yt=1 + ut.
Si se cumplieran los supuestos sobre el error y los regresores, entonces
F=

(RSS R RSS I ) g
~ Fng k
RSS I (n k )

donde g=2 y, segun vemos en la regresion n=120, k=3.


El valor del estadistico ya viene en la salida de regresion como
F(2,117) = 24278 [0.0000]

El valor 24278 es el Fc para esta muestra y el valor entre corchetes [0.0000] es el pvalor. A un =0.05 rechazamos la hipotesis planteada. En este caso se dice que las
variables explicativas son conjuntamente significativas. La interpretacion es la
siguiente: si excluimos del modelo a k y l los RSS suben mucho, obligandonos a
pensar que la contribucion de estas variables al modelo estimado no es una mera
casualidad. Dicho de otra manera: el modelo sin k y l empeora tanto, que es altamente
improbable es que en el modelo teorico antes mostrado sus coeficientes sean nulos.
Nosotros habiamos mostrado que para este tipo de test (Ho:2= 3=........= k=0 ) era
valido que
(TSS RSS) g
R2 /g
=
Fc =
RSS /(n k )
(1 R 2 ) (n k )
Como ejercicio pueden chequear estas igualdades. El TSS lo pueden derivar sabiendo
RSS y el R2.
Ejemplo 2:Test de Significatividad Individual como test F
Asumamos otra vez que nuestro modelo teorico es
yt=1+2 k + 3 l + ut.
y pero en este caso queremos testear Ho: 2=0, lo que se llama el test de significatividad
individual de k.

Para ello corremos la regresion:


EQ( 1) Modelling y by OLS (using us6089.in7)
The present sample is: 1960 (1) to 1989 (4)
Variable
Constant
k
l

Coefficient
-0.011847
0.19777
0.63350

Std.Error
0.0017372
0.014142
0.025763

t-value
-6.819
13.985
24.590

t-prob PartR^2
0.0000 0.2844
0.0000 0.6257
0.0000 0.8379

R^2 = 0.997596 F(2,117) = 24278 [0.0000] \sigma = 0.00890385


RSS = 0.009275582263 for 3 variables and 120 observations

DW = 0.184

Este test tenia una distribucion tn-k bajo Ho. Es mas,el valor calculado tc es, como
podemos ver en la salida el t-value: 13.985 y el p-valor esta en la columna t-prob a la
altura de la fila de la variable k. En este caso rechazabamos Ho con los niveles usuales
de significacion. La interpretacion era que el aporte de la variable k en el modelo
estimado muy dificilmente se deba a una casualidad: el valor del coeficiente de
k=0.1977 estaba muy lejos del valor 0 que implicaba Ho.
Ahora, podemos pensar que el vector contiene solamente a 2. Un test del tipo Ho:=0
se implementa en Pc-Give de la siguiente manera.
Primero corremos el modelo irrestricto. Despues, en PcGive vamos a Test>Linear
Restrictions:subset y marcamos las variables sobre las cuales queremos testear la
nulidad de sus coeficientes poblacionales. En nuestro caso marcamos solo a k,
presionamos OK y volvemos a Give-Win>Window>Results, donde leemos
Wald test for linear restrictions: Subset
LinRes F( 1,117) =
195.59 [0.0000] **
Zero restrictions on:
k
Esto quiere decir que testeo Ho: =0 donde en este caso el vector contiene solamente a
2. Entonces en este caso Ho:=0 implica Ho:2=0. Pero esto tambien lo podiamos
testear con el test t que vimos en la regresion. Es mas, si se fijan, el valor de F de esta
prueba 195.59 es igual al valor del estadistico t del capital elevado al cuadrado
(13.985)2! Esto vale porque coinciden en ambos casos las Ho:, el modelo teorico es el
mismo y ademas mostramos que una si una variable aleatoria t(n-k) la elevabamos al
cuadrado obteniamos una F(1,n-k). Esto nos dice que la informacion que nos dieron
ambos test es identica.

Ejemplo 3: Testeando la nulidad de un subconjunto de regresores


Si queremos testear Ho:=0 solo tenemos que
correr el modelo irrestricto.
en PcGive ir a Test>Linear Restrictions:subset y marcamos las variables sobre las
cuales queremos testear la nulidad de sus coeficientes poblacionales. Es decir,
marcar las variables cuyos coeficientes esten incluidos en . Dicho de otra manera,

marcamos las variables sobre las cuales queremos ver si conjuntamente sus
coeficientes son 0. Presionamos OK
Volver a Give-Win>Window>Results, donde ubicamos

Wald test for linear restrictions: Subset


y a continuacion el valor de F calculado y el p-valor y siguientemente
Zero restrictions on:
debajo de la cual estan marcadas las variables sobre las cuales estamos viendo si son
conjuntamente no significativas.
Por ejemplo, otra forma de replicar el test F de significatividad conjunta de la regresion
(el cual salia automaticamente debajo de los coeficientes estimados.) que vimos en el
Ejemplo 1 es seguir los pasos de arriba y testear Ho: 2=3=0 pero esta vez usando el
Test Subset de Pc-Give. En este caso obtenemos
Wald test for linear restrictions: Subset
LinRes F( 2,117) =
24278 [0.0000] **
Zero restrictions on:
k l
Que coincide con lo obtenido en el ejemplo 1. En los ultimos dos ejemplos usamos el
test Subset sobre un subconjunto de coeficientes en casos extremos:

el caso donde el subconjunto incluia un solo coeficiente, en cuyo caso vimos que
brindaba la informacion de un test t.
el caso donde el subconjunto incluye los coeficientes 2 , 3 ..... k, es decir
involucramos a todos los regresores excepto la constante.

Los test Subset pueden usarse en los casos intermedios donde son muy utiles. Uno
podria correr una regresion y ver si un conjunto de sus variables son redundantes. No
las podria eliminar automaticamente, pues si aportaran informacion correriamos el
riesgo de caer en el problema de variables omitidas, arriesgandonos a obtener
estimadores sesgados. Si en el conjunto de interes ninguna de las variables es
INDIVIDUALMENTE SIGNIFICATIVA deberiamos testear si CONJUNTAMENTE
aportan informacion antes de excluirlas del modelo. Este test es el subset que antes
vimos y al que debemos recurrir antes de excluir del modelo a las variables en cuestion.
Si tenemos por ejemplo 3 variables individualmente no significativas, igual deberiamos
testear si son CONJUNTAMENTE no significativas. Si el test correspondiente no nos
permitiera rechazar Ho, entonces recien podemos excluirlas del modelo sin correr
riesgos de caer en el problema de variables omitidas.
Ejemplo 4: Test de Restricciones Lineales
Imaginemos que queremos testear en el modelo teorico
yt=1+2 k + 3 l + ut

si la restriccion Ho: 2 + 3=1.


En la forma H=h se escribiria como
1
H = [0 1 1]; = 2 ; h = [1]
3
Notar que coincide siempre con el del irrestricto y como tal es de k*1.
Entonces H va a ser de g*k, donde g es la cantidad de restricciones (en nuestro caso
una) y h es de g*1.
En nuestro caso, reemplazando en el modelo irrestricto Ho reescrita por ejemplo como
3=1 2 y dejando en el miembro derecho solo los productos que involucren a
coeficientes obtenemos em modelo restricto(chequear).
y t = 1 + 2 k t + (1 2 )l t + u t
y t l t = 1 + 2 ( k t l t ) + u t
Entonces el RSSI se calcula corriendo una regresion de una nueva variable yt-lt contra
una constante y otra variable (kt-lt).
En Pc-Give este test se implementa teniendo en cuenta H y h. Vamos a PcGive>Test>Linear Restrictions Rb=r.
Para Pc-Give H=R y r juega el papel de h.
Ahora escribimos consideremos una matriz nueva donde las primeras k columnas son
los elementos de H=R y la ultima columna contiene a los elementos de h.
En nuestro caso la matriz nueva, que Pc Give llama como (R;r) es
[0 1 1 1].
Es decir es una matriz de 1*4 y en general sera de g*(k+1) (Chequear).
En el cuadro que dice Matrix Editor ingresamos en forma ordenada los numeros como
0 1 1 1 (deben estar separados). Al presionar OK vamos a GiveWin>Window>Results
y observamos:
Wald test for linear restrictions: Rb=r
LinRes F( 1,117) =
194.69 [0.0000] **
R matrix
Constant
k
l
0.00000
1.0000
1.0000
r vector
1.0000

La R matrix es como dijimos H y el r vector lo muestra como h


El test F tiene 1 y 117 grados de libertad pues impisimos una restriccion (g) y el
irrestricto tiene n-k=117.
El valor del test es acompanado por el p-valor entre corchetes. Claramente rechazamos
Ho:. Las ** significa que se rechaza al 1%. Si aparece solo * es que rechazamos al %
pero no al 1. Si no apareciera nada implica que no podemos rechazar ni al 5 ni al 1%.
Entonces la restriccion parece ser incompatible con los datos para el modelo teorico
considerado. Nos inclinamos entonces por la alternativa:
Ha : 2 + 3 1

Ejemplo 5:Otro ejemplo Restricciones Lineales


Partimos del mismo modelo irrestricto pero ahora queremos testear dos restricciones
Ho: 2+63=1 y 21=3.
En este caso, las matrices H=R y h=r serian:
0 1 6
1
H=
;h =

2 0 0
3
y la matriz a introducir en Pc-Give seria
0 1 6 1
2 0 0 3

Escribimos los datos en la matriz como


0161
2003
Y en Give Win leemos:
Wald test for linear restrictions: Rb=r
LinRes F( 2,117) =4.2255e+005 [0.0000] **
R matrix
Constant
k
l
0.00000
1.0000
6.0000
2.0000
0.00000
0.00000
r vector
1.0000

3.0000

Las restricciones se rechazan al 5% y al 1%.

Como ejercicio queda para ustedes evaluar el modelo restricto que deberiamos correr
para obtener el RSSI.