Está en la página 1de 22

INFERENCIA EN EL ANALISIS DE REGRESION MULTIPLE

RECUERDEMOS QUE SI PARA HACER INFERENCIA ESTADISTICA


DEBEMOS ASUMIR NORMALIDAD EN RESIDUOS, DE MODO QUE:

Ui  N(0, 2)

β̂ i  N( , V( β̂ i ))
i

¿QUE POSIBLES SITUACIONES PODRIAMOS ESTAR INTERESADOS EN


ESTUDIAR EN UN MODELO DE REGRESION MULTIPLE?

1) PRUEBAS DE HIPOTESIS SOBRE COEFICIENTES DE REGRESION


INDIVIDUALES

2) PRUEBA DE SIGNIFICACION GLOBAL O CONJUNTA DE PARAMETROS

3) PRUEBA DE CONTRIBUCION MARGINAL DE UNA O MAS VARIABLES

4) PRUEBAS DE RESTRICCIONES LINEALES SOBRE COEFICIENTES

5) PRUEBAS DE ESTABILIDAD DE PARAMETROS A TRAVES DEL TIEMPO


O DE GRUPOS

6) FORMA FUNCIONAL

EN TODO CASO, EL PROCEDIMIENTO ES SIEMPRE EL MISMO:

 ESTABLECER LAS HIPOTESIS NULA Y ALTERNATIVA


 CALCULAR EL ESTADISTICO DE PRUEBA ADECUADO Y
 APLICAR LA REGLA DE DECISION:

RECHAZAR Ho SI Vc > Vt O SI EL P-VALOR < 

J. Ramoni Perazzi Capítulo 8. 1


Econometría I
1.- PRUEBA DE HIPOTESIS INDIVIDUALES : SE REFIERE A LAS
PRUEBAS DE HIPOTESIS QUE YA APRENDIMOS A HACER EN EL
CAPITULO 5.

H0 : i = a
H 1 : i  a

ESTADISTICO PUNTUAL INTERVALO DE CONFIANZA

β̂ i - a β̂ i β̂ i β̂ i
tc = SD (β̂ i ) = SD (β̂ i ) (PARA a=0)  t/2 SE( )
RECHAZAR Ho SI “a” NO CAE
RECHAZAR Ho SI tc > t O p< DENTRO DEL INTERVALO

EJEMPLO 1 (TABLA 8.1): CONSUMO COMO FUNCION DEL INGRESO Y DEL


TIEMPO, EN BILLONES DE DOLARES.

MATRIZ DE CORRELACION
CONS YD TIME
CONS 1.000000 0.998916 0.988474
YD 0.998916 1.000000 0.983923
TIME 0.988474 0.983923 1.000000

UNWEIGHTED LEAST SQUARES LINEAR REGRESSION OF CONS

PREDICTOR
VARIABLES COEFFICIENT STD ERROR STUDENT'S T P VIF
--------- ----------- --------- ----------- ------ -----
CONSTANT 52.6821 13.0791 4.03 0.0017
TIME 2.70501 0.85202 3.17 0.0080 31.4
YD 0.72834 0.04894 14.88 0.0000 31.4

R-SQUARED 0.9988 ADJUSTED R-SQUARED 0.9986

SOURCE DF SS MS F P
---------- --- ---------- ---------- ----- ------
REGRESSION 2(K-1) 65959.8 32979.9 5087.05 0.0000
RESIDUAL 12(N-K) 77.7973 6.48311
TOTAL 14(N-1) 66037.6

CONS_ESTIMADO = 52.682 + 0.7283*YD + 2.7050*TIME

EN OCASIONES ES NECESARIO INTRODUCIR UNA


VARIABLE DE TIEMPO PARA ELIMINAR TENDENCIA EN
LAS SERIES

J. Ramoni Perazzi Capítulo 8. 2


Econometría I
EJEMPLO 2: TASA DE HOMICIDIOS (M, POR 100.000 HAB) EN FUNCION DE
PROPORCION DE POBLACION NO BLANCA EN 1950, INGRESO FAMILIAR
(MILES DE DOLARES) Y SI EXISTE O NO PENA DE MUERTE (D1).

Dependent Variable: M
Method: Least Squares
Sample: 1 44
Included observations: 44

Coefficient Std. Error t-Statistic Prob.

NW 15.27245 5.326993 2.866993 0.0066


Y -4.341434 1.429919 -3.036140 0.0042
D1 2.127321 1.198154 1.775499 0.0834
C 9.748568 2.912797 3.346807 0.0018

R-squared 0.613202 Mean dependent var 5.402909


Adjusted R-squared 0.584192 S.D. dependent var 4.463791
S.E. of regression 2.878393 Akaike info criterion 5.038850
Sum squared resid 331.4060 Schwarz criterion 5.201049
Log likelihood -106.8547 Hannan-Quinn criter. 5.099001
F-statistic 21.13772 Durbin-Watson stat 2.175649
Prob(F-statistic) 0.000000

EXAMPLE: 3 WAGE AS A FUNCTION OF EDUCATION AND EXPERIENCE


. reg lwage exper expersq educ

Source | SS df MS Number of obs = 4360


-------------+------------------------------ F( 3, 4356) = 251.67
Model | 182.664662 3 60.8882206 Prob > F = 0.0000
Residual | 1053.86496 4356 .241934105 R-squared = 0.1477
-------------+------------------------------ Adj R-squared = 0.1471
Total | 1236.52962 4359 .283672774 Root MSE = .49187

------------------------------------------------------------------------------
lwage | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
exper | .1050292 .010175 10.32 0.000 .085081 .1249775
expersq | -.0035763 .0007198 -4.97 0.000 -.0049874 -.0021651
educ | .1021177 .0046816 21.81 0.000 .0929395 .111296
_cons | -.0563691 .0639355 -0.88 0.378 -.1817152 .0689769
------------------------------------------------------------------------------

J. Ramoni Perazzi Capítulo 8. 3


Econometría I
2.- PRUEBA DE SIGNIFICACION GLOBAL O CONJUNTA: TODOS LOS
COEFICIENTES DE REGRESION SON SIMULTANEAMENTE
ESTADISTICAMENTE NO SIGNIFICATIVOS  Y NO ESTA
LINEALMENTE RELACIONADA CON X2 y X3.

H0 : 2 = 3 = 0 (R2=0)

H1 : AL MENOS UN i  0

SCReg/df SCReg/(k  1)
Fc = SCE/df = SCE/(n  k)  Fk-1,n-K

SCReg/(k  1) SCReg/SCT n-k R2 n-k


Fc= SCE/(n  k) = (SCT - SCReg)/SCT k - 1 = (1  R ) k - 1
2

POR TANTO, LA PRUEBA F ES UN TEST DE SIGNIFICACION DEL R2

REGLA DE DECISION: RECHAZAR Ho SI Fc > F, O SI P-VALOR < 

EJEMPLO 1 ( = 5%):

65959.8 / 2
Fc = 77.7973 / 12 = 5087.05 5087.05 > 3.74  RECHACE Ho
O
F2,12= 3.74 p = 0.0 < 0.05  RECHACE Ho

DE IGUAL MANERA:

R2 n-k 0.9988 12
Fc= (1  R ) k - 1 = (1  0.9988) 2 = 4994 > 3.74 (RECHACE Ho)
2

J. Ramoni Perazzi Capítulo 8. 4


Econometría I
EJEMPLO 2: PRECIO DE LOS VEHICULOS EN FUNCION DE SU POTENCIA
Y SU ORIGEN

Dependent Variable: PRECIO


Method: Least Squares
Sample: 1 93
Included observations: 93

Coefficient Std. Error t-Statistic Prob.

C -0.127778 1.837829 -0.069527 0.9447


POTENCIA 0.147522 0.011589 12.72898 0.0000
DOMESTICO -3.061851 1.208065 -2.534508 0.0130

R-squared 0.646517 Mean dependent var 19.50968


Adjusted R-squared 0.638662 S.D. dependent var 9.659430
S.E. of regression 5.806422 Akaike info criterion 6.387532
Sum squared resid 3034.308 Schwarz criterion 6.469229
Log likelihood -294.0203 Hannan-Quinn criter. 6.420519
F-statistic 82.30447 Durbin-Watson stat 1.521892
Prob(F-statistic) 0.000000

EXAMPLE 3: INFANT MORTALITY AS A FUNCTION OF LOWBRT AND


INCOME

Source | SS df MS Number of obs = 100


-------------+------------------------------ F( 2, 97) = 51.34
Model | 108.740285 2 54.3701424 Prob > F = 0.0000
Residual | 102.728804 97 1.05905983 R-squared = 0.5142
-------------+------------------------------ Adj R-squared = 0.5042
Total | 211.469089 99 2.1360514 Root MSE = 1.0291

------------------------------------------------------------------------------
infmort | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lowbrt | .7728683 .0895771 8.63 0.000 .5950825 .9506541
pcinc | -.0001375 .0000339 -4.06 0.000 -.0002047 -.0000702
_cons | 6.543615 .8739834 7.49 0.000 4.809 8.27823
------------------------------------------------------------------------------

NOTA:

 ANALISIS SIMILAR PUEDE EXTENDERSE AL CASO DE UN MODELO


CON K VARIABLES USANDO EL MISMO ESTADISTICO F Y
APLICANDO LA MISMA REGLA DE DECISION:

H0 : 2 = 3 = … = k = 0

H1 : AL MENOS UN i  0
J. Ramoni Perazzi Capítulo 8. 5
Econometría I
 PRUEBA t DE SIGNIFICANCIA INDIVIDUAL  PRUEBA F DE
SIGNIFICANCIA CONJUNTA.

o LAS VARIABLES PUEDEN SER SIGNIFICATIVAS


INDIVIDUALMENTE, MÁS NO CONJUNTAMENTE.

o LAS PRUEBAS DE SIGNIFICACION INDIVIDUAL Y CONJUNTA


NO SON EQUIVALENTES, DADO QUE EN LA PRUEBA DE
SIGNIFICACION CONJUNTA LAS HIPOTESIS INDIVIDUALES
PUEDEN AFECTARSE MUTUAMENTE (COV ( β̂ 2 , β̂ 3 ) PUEDE
SER DIFERENTE DE CERO)

3.- PRUEBA DE CONTRIBUCION MARGINAL (INCREMENTAL) DE UNA


VARIABLE EXPLICATIVA.

ESTA PRUEBA PERMITE DETERMINAR SI UNA VARIABLE (O GRUPO


DE VARIABLES) INCREMENTAN DE MANERA SIGNIFICATIVA EL
PODER EXPLICATIVO DEL MODELO. ELLO PERMITE DECIDIR SI
VALE LA PENA O NO INCLUIRLAS EN EL MODELO.

RECUERDE:

 R2 ES NO-DECRECIENTE CON EL NUMERO DE VARIABLES


EXPLICATIVAS , DADO QUE CADA NUEVA VARIABLE INCREMENTA
LA SCReg (LO QUE IMPLICA  SCE)

 ¿POR QUE? PREFERENCIA POR MODELOS PARSIMONIOSOS

 R2 NO INDICA QUÉ PROPORCION DE LA VARIABILIDAD TOTAL ES


EXPLICADA POR CADA VARIABLE, INDEPENDIENTEMENTE.


SE PODRIAN INTRODUCIR LAS VARIABLES SECUENCIALMENTE A
FIN DE DETERMINAR SI SU CORRESPONDIENTE CONTRIBUCION
MARGINAL ES SIGNIFICATIVA (VALE LA PENA DEJARLA EN EL
MODELO)

OBJETIVO: DETERMINAR SI LA INCORPORACION DE UNA DETERMINADA


VARIABLE EXPLICATIVA EN EL MODELO INCREMENTA
SIGNIFICATIVAMENTE LA SCReg ( R )
2

J. Ramoni Perazzi Capítulo 8. 6


Econometría I
Ho: CONTRIBUCION DE NUEVA VARIABLE NO ES ESTADISTICAMENTE SIGNIFIC. (R2 =
0)

H1: CONTRIBUCION DE LA NUEVA VARIABLE ES ESTADISTICAMENTE SIGNIFICATIVA

ESTADISTICO:

(SCReg AMPLIADO - SCReg REDUCIDO )/numero de nuevos regresores (m)


Fc = SCE AMPLIADO /(n - numero de parametros en el modelo ampliado (k)

(R 2 AMPLIADO - R 2 REDUCIDO )/gl


= (1  R 2 AMPLIADO )/gl  Fm,n_k

REGLA DE DECISION: RECHAZAR Ho SI Fc > F, O SI P-VALUE < 

EJEMPLO 1: DE NUEVO EL MODELO DE CONSUMO CONTRA INGRESO Y


TIEMPO

MODELO REDUCIDO (SIN INCLUIR TIME)


UNWEIGHTED LEAST SQUARES LINEAR REGRESSION OF CONS

PREDICTOR
VARIABLES COEFFICIENT STD ERROR STUDENT'S T P
--------- ----------- --------- ----------- ------
CONSTANT 12.7455 4.66729 2.73 0.0172
YD 0.88122 0.01139 77.36 0.0000

R-SQUARED 0.9978 ADJUSTED R-SQUARED 0.9977

SOURCE DF SS MS F P
---------- --- ---------- ---------- ----- ------
REGRESSION 1 65894.5 65894.5 5984.41 0.0000
RESIDUAL 13 143.143 11.0110
TOTAL 14 66037.6

MODELO AMPLIADO (INCLUYENDO TIME)


UNWEIGHTED LEAST SQUARES LINEAR REGRESSION OF CONS

PREDICTOR
VARIABLES COEFFICIENT STD ERROR STUDENT'S T P VIF
--------- ----------- --------- ----------- ------ -----
CONSTANT 52.6821 13.0791 4.03 0.0017
TIME 2.70501 0.85202 3.17 0.0080 31.4
YD 0.72834 0.04894 14.88 0.0000 31.4

R-SQUARED 0.9988 ADJUSTED R-SQUARED 0.9986


J. Ramoni Perazzi Capítulo 8. 7
Econometría I
SOURCE DF SS MS F P
---------- --- ---------- ---------- ----- ------
REGRESSION 2 65959.8 32979.9 5087.05 0.0000
RESIDUAL 12 77.7973 6.48311
TOTAL 14 66037.6

(65959.8  65894.5) / 1
Fc= 77.7973 / 12 = 10.0723 (USANDO SCE Y SCR)
O
(0.9988  .9978) / 1
Fc= (1  0.9988) / 12 = 10 (USANDO R2: ASEGURESE DE QUE LA Y ES LA
MISMA EN AMBOS MODELOS)

F1,12= 4.75

DECISION: Fc > F RECHACE Ho


NOTA: F1,n-k = t2  77.362 = 5984.57

EXAMPLE 2: CARS´ PRICE BASED ON DISPLACEMENT AND ORIGIN

Ho: THE MARGINAL CONTRIBUTION OF FOREIGN IS NOT SIGNIFICANT

H1: ITS CONTRIBUTION IS SIGNIFICANT


Source | SS df MS Number of obs = 74
-------------+------------------------------ F( 1, 72) = 23.36
Model | 155571304 1 155571304 Prob > F = 0.0000
Residual | 479494092 72 6659640.17 R-squared = 0.2450
-------------+------------------------------ Adj R-squared = 0.2345
Total | 635065396 73 8699525.97 Root MSE = 2580.6

------------------------------------------------------------------------------
price | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
displacement | 15.89588 3.288859 4.83 0.000 9.33966 22.4521
_cons | 3029.042 714.8736 4.24 0.000 1603.968 4454.117
------------------------------------------------------------------------------

Source | SS df MS Number of obs = 74


-------------+------------------------------ F( 2, 71) = 28.39
Model | 282169258 2 141084629 Prob > F = 0.0000
Residual | 352896138 71 4970368.15 R-squared = 0.4443
-------------+------------------------------ Adj R-squared = 0.4287
Total | 635065396 73 8699525.97 Root MSE = 2229.4

------------------------------------------------------------------------------
price | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
displacement | 27.04349 3.598862 7.51 0.000 19.86756 34.21941
foreign | 3624.66 718.2047 5.05 0.000 2192.601 5056.72
_cons | -247.9518 896.1172 -0.28 0.783 -2034.759 1538.855
------------------------------------------------------------------------------
J. Ramoni Perazzi Capítulo 8. 8
Econometría I
(R 2 new - R 2 old)/df
Fc= (1  R new)/df =(0.4443/1)/(0.245/(74-3)) = 128,75
2

F1,71 = 4.00

SINCE Fc > F REJECT Ho. THEREFORE THE CONTRIBUTION OF


“FOREING” IS SIGNIFICANT

4.- COMBINACION LINEAL DE COEFICIENTES (RESTRICCIONES


LINEALES)

ASUMAMOS, A MANERA DE EJEMPLO, UNA FUNCION COBB DOUGLAS, LA


CUAL VIENE DADA POR

Yi = 0Li2Ki3eui

LA CUAL PUEDE SER LINEALIZADA COMO

lnYi = 1+ 2 ln Li + 3 ln Ki + ui

PARA 1 =ln 0

EN ECONOMIA, INTERESA CONOCER SI EXISTEN O NO RENDIMIENTOS


CONSTANTES A ESCALA, EN CUYO CASO LA SUMA DE LAS
ELASTICIDADES ES IGUAL A UNO: 2 + 3 =1.

HIPOTESIS DE ESTE TIPO (RESTRICCIONES LINEALES DE PARAMETROS)


PUEDEN PROBARSE A TRAVES DE DOS METODOS.

a) PRUEBA t (NO RESTRINGIDA O NO LIMITADA):

Ho: 2 + 3 = 1
H1: 2 + 3  1

( βˆ 2  βˆ 3 ) - 1

ESTADISTICO: tc = V(βˆ 2 )  V(βˆ 3 )  2COV(βˆ 2 , βˆ 3 )  tn-k

REGLA DE DECISION: RECHACE Ho SI tc > t O SI P<.

J. Ramoni Perazzi Capítulo 8. 9


Econometría I
b) PRUEBA F (MINIMOS CUADRADOS RESTRINGIDOS, MCR):
Ho: 2 + 3 = 1  2 = 1 - 3 O 3 = 1 - 2

H1: 2 + 3  1

i) REGRESE lnYi = 1 + 2 ln Li + 3 ln Ki + ui Y OBTENGA SCENR O R2NR

ii) INTRODUZCA LA RESTRICCION EN LA FUNCION DE PRODUCCION

lnYi = 1 + 2 ln Li + 3 ln Ki + ui = 1 + (1-3 )ln Li + 3 ln Ki + ui

lnYi = 1 + ln Li + 3 (ln Ki - ln Li )+ ui

lnYi - ln Li = 1 + 3 (ln Ki - ln Li )+ ui

ln(Yi / Li) = 1 + 3 ln (Ki / Li )+ ui

RAZÓN PRODUCTO-TRABAJO RAZÓN CAPITAL-TRABAJO

iii) REGRESE ESTA ECUACION Y OBTENGA LA SCER O R2R

(SCE R  SCE NR )/m ( R 2 NR  R 2 R ) / m


iv) CALCULE Fc = SCE NR /(n  k) = (1  R NR ) /(n  k )  Fm,n_k
2

PARA m= NÚMERO DE RESTRICCIONES LINEALES

REGLA DE DECISION: RECHACE Ho SI Fc > F O SI P<.

J. Ramoni Perazzi Capítulo 8. 10


Econometría I
EJEMPLO 1: FUNCION COBB-DOUGLAS PARA TAIWAN (SECTOR AGRIC.)

MODEL NO RESTRINGIDO
UNWEIGHTED LEAST SQUARES LINEAR REGRESSION OF LY

PREDICTOR
VARIABLES COEFFICIENT STD ERROR STUDENT'S T P VIF
--------- ----------- --------- ----------- ------ -----
CONSTANT -1.44987 1.06381 -1.36 0.1979
LL 1.49877 0.53980 2.78 0.0168 1.9
LK 0.48986 0.10204 4.80 0.0004 1.9

R-SQUARED 0.8890 RESID. MEAN SQUARE (MSE) 0.00106


ADJUSTED R-SQUARED 0.8705 STANDARD DEVIATION 0.03249

SOURCE DF SS MS F P
---------- --- ---------- ---------- ----- ------
REGRESSION 2 0.10148 0.05074 48.07 0.0000
RESIDUAL 12 0.01267 0.00106
TOTAL 14 0.11415
CASES INCLUDED 15 MISSING CASES 0

MODEL RESTRINGIDO:
UNWEIGHTED LEAST SQUARES LINEAR REGRESSION OF LY_L

PREDICTOR
VARIABLES COEFFICIENT STD ERROR STUDENT'S T P
--------- ----------- --------- ----------- ------
CONSTANT 0.74202 0.18062 4.11 0.0012
LK_L 0.61298 0.09330 6.57 0.0000

R-SQUARED 0.7685 RESID. MEAN SQUARE (MSE) 0.00133


ADJUSTED R-SQUARED 0.7507 STANDARD DEVIATION 0.03643

SOURCE DF SS MS F P
---------- --- ---------- ---------- ----- ------
REGRESSION 1 0.05728 0.05728 43.16 0.0000
RESIDUAL 13 0.01725 0.00133
TOTAL 14 0.07454

CASES INCLUDED 15 MISSING CASES 0

MATRIZ DE VARIANZA-COVARIANZA DE LOS COEFICIENTES

CONSTANT LK LL
CONSTANT 1.13169
LK 0.04873 0.01041
LL -0.54746 -0.03843 0.29139

J. Ramoni Perazzi Capítulo 8. 11


Econometría I
(SCE R  SCE NR )/m
F= SCE NR /(n  k) = (0.01725-0.01267)/[0.01267/(15-3)] = 4.34

( R 2 NR  R 2 R ) / m
F= (1  R NR ) /(n  k ) = (0.889-0.8489)/[(1-0.889)/(15-3)]= 4.3
2

i) antilog(LY_L)^=A

ii) multiplique por L=A*L

iii) (corr(AL,GDP))2=R2

DECISION: Fc (4.3) < F (4.75)  NO RECHACE Ho

NOTA: LA IGUALDAD DE PARAMETROS ES TAMBIEN UNA RESTRICCION


LINEAL DONDE H0 : 2 = 3. ESTE TIPO DE HIPOTESIS PUEDE SER
PROBADA POR CUALQUIERA DE LOS DOS METODOS DESCRITOS EN
ESTA SECCION 4.

H0: 2 = 3  2 - 3 = 0
H1: 2  3  2 - 3  0

EJEMPLO 1: PARA NUESTRO MODELO DE CONSUMO DE AZUCAR

SUPONGAMOS QUE DESEAMOS DETERMINAR SI EL EFECTO DEL


PRECIO DEL AZUCAR Y EL DE SU SUSTITUTO, LA PANELA, SON
ESTADISTICAMENTE IGUALES

Dependent Variable: CPAZ


Sample: 1962 1984
Included observations: 23

Coefficient Std. Error t-Statistic Prob.

C 16.39813 1.729171 9.483233 0.0000


PRAZ -2.210757 1.272444 -1.737410 0.0985
PRPA 2.374430 0.821832 2.889192 0.0094
IRPC 0.001101 0.000144 7.638656 0.0000

R-squared 0.886842 Mean dependent var 22.50652


Adjusted R-squared 0.868975 S.D. dependent var 2.480923
S.E. of regression 0.898031 Akaike info criterion 2.779546
Sum squared resid 15.32272 Schwarz criterion 2.977023
J. Ramoni Perazzi Capítulo 8. 12
Econometría I
Log likelihood -27.96477 Hannan-Quinn criter. 2.829211
F-statistic 49.63543 Durbin-Watson stat 1.830908
Prob(F-statistic) 0.000000

METODO 1: PRUEBA t

(β̂ 2  β̂ 3 ) - (β 2 - β 3 ) β̂ 2  β̂ 3
SE(β̂ 2  β̂ 3 ) V(β̂ 2 )  V ( β̂ 3 ) - 2 COV(β̂ 2 , β̂ 3 )  tn-k
tc = =

tc=(-2.21-2.37)/(1.619+0.675-2(0.0866) = -4.78 / 1.211 = -3.78

t0.05;19 = 2.093

DECISION: RECHAZO Ho. SE CONCLUYE QUE LOS EFECTOS DE ESTOS


DOS PRECIOS SON ESTADISTICAMENTE DIFERENTES

Coefficient Covariance Matrix


C PRAZ PRPA IRPC
C 2.990031 -1.85540209 -0.69310387 -3.5140e-05
PRAZ -1.8554020 1.6191137 0.08663569 2.4828e-05
PRPA -0.693103 0.086635 0.675407 -6.4543e-05
IRPC -3.51401e-05 2.4828e-05 -6.4543e-05 2.0790e-08

METODO 2: MINIMOS CUADRADOS RESTRINGUIDOS

SE UTILIZAN LA SCE (O EL R2) DE LOS MODELOS NO RESTRINGIDO

CPAZ = 1 + 2 PRAZ + 3 PRPA + 4 IRPC + u Y RESTRINGIDO

CPAZ = 1 +2 PRAZ +2PRPA+4IRPC+u = 1+2(PRAZ + PRPA)+4IRPC+u

(SCE R  SCE NR )/m ( R 2 NR  R 2 R ) / m


PARA CALCULAR Fc = SCE NR /(n  k) = (1  R NR ) /(n  k )  Fm,n_k
2

EL EVIEWS PERMITE HACER ESTA PRUEBA DE MODO QUE:

Wald Test:
Equation: Untitled

Test Statistic Value df Probability

J. Ramoni Perazzi Capítulo 8. 13


Econometría I
F-statistic 9.911111 (1, 19) 0.0053
Chi-square 9.911111 1 0.0016

Null Hypothesis Summary:

Normalized Restriction (= 0) Value Std. Err.

C(2) - C(3) -4.585187 1.456451

Restrictions are linear in coefficients.

EXAMPLE 2: INFANT MORTALITY AS A FUNCTION OF LOWBIRTH AND


INCOME

. reg infmort lowbrt pcinc


Source | SS df MS Number of obs = 100
-------------+------------------------------ F( 2, 97) = 51.34
Model | 108.740285 2 54.3701424 Prob > F = 0.0000
Residual | 102.728804 97 1.05905983 R-squared = 0.5142
-------------+------------------------------ Adj R-squared = 0.5042
Total | 211.469089 99 2.1360514 Root MSE = 1.0291

------------------------------------------------------------------------------
infmort | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lowbrt | .7728683 .0895771 8.63 0.000 .5950825 .9506541
pcinc | -.0001375 .0000339 -4.06 0.000 -.0002047 -.0000702
_cons | 6.543615 .8739834 7.49 0.000 4.809 8.27823

ASSUME WE WANT TO TEST β2 = β3


. lincom lowbrt- pcinc
( 1) lowbrt - pcinc = 0

------------------------------------------------------------------------------
infmort | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
(1) | .7730058 .0895724 8.63 0.000 .5952294 .9507822
------------------------------------------------------------------------------

5- PRUEBA DE ESTABILIDAD ESTRUCTURAL O PARAMETRICA DE LOS


MODELOS DE REGRESION:

ESTABILIDAD ESTRUCTURAL: EL VALOR DE LOS PARAMETROS DEL


MODELO PERMANECE CONSTANTE A TRAVES DEL TIEMPO O ENTRE LOS
INDIVIDUOS.

ESTA CLARO QUE SI LOS PARAMETROS NO SON ESTABLES, NO TIENE


SENTIDO HACER PRONOSTICOS PUES DICHOS PRONOSTICOS ASUMEN
J. Ramoni Perazzi Capítulo 8. 14
Econometría I
QUE LOS PARAMETROS SIGUEN COMPORTANDOSE DE LA MISMA
MANERA.

LAS CONDICIONES ECONOMICAS Y POLITICAS PUEDEN CAMBIAR A


TRAVES DEL TIEMPO: PROCESOS ELECTORALES, EMBARGO
PETROLERO, GUERRAS, ATAQUES TERRORISTAS…)

¿COMO SE PUEDE DETECTAR LA EXISTENCIA DE CAMBIOS


ESTRUCTURALES?

a) TEST DE CHOW:

Ho: PARAMETROS CONSTANTES EN DISTINTOS PERIODOS O GRUPOS (ESTABLES)

H1: LOS PARAMETROS SON DIFERENTES O INESTABLES

1) ESTIME UN REGRESION CON TODAS LAS OBSERVACIONES (n) Y


OBTENGA LA SCEn, CON n-k GRADOS DE LIBERTAD. EL SUPUESTO DE
PARAMETROS CONSTANTES A TRAVES DEL TIEMPO PUEDE VERSE
COMO UNA RESTRICCION, POR LO QUE LA SCEn TAMBIEN SE
CONOCE COMO SCER.

2) DIVIDA LA DATA EN DOS GRUPOS O PERIODOS, ESTIME UNA


REGRESION PARA GRUPO Y OBTENGA SCEn1 AND SCEn2, CON n1-k Y n2-
k GRADOS DE LIBERTAD RESPECTIVAMENTE.

3) OBTENGA SCENR = SCEn1 + SCEn2 CON gl=n1 + n2- 2k

(SCE R  SCE NR )/k


4) CALCULE Fc = = SCE NR /(n 1  n 2  2k)  Fk, n1+n2-2k

DESVENTAJAS DEL TEST:

EL TEST DE CHOW INDICA SI LAS DOS REGRESIONES SON DIFERENTES,


MAS NO PROPORCIONA INFORMACION ACERCA DEL ORIGEN DE LAS
DIFERENCIAS (INTERCEPTO, PENDIENTE O AMBAS) .

EL TEST ASUME QUE NOSOTROS SABEMOS EL (LOS) PUNTOS DONDE


OCURRE EL CAMBIO ESTRUCTURAL.

EJEMPLO1: (TABLA 8.9) CAMBIO ESTRUCTURAL EN AHORRO-INGRESO

J. Ramoni Perazzi Capítulo 8. 15


Econometría I
SAVINGS

300
250
200
150
100
50
0
1

11

13

15

17

19

21

23

25
1970-1981 1982-1995

2500 6000

5000
2000
4000
INCOME
INCOME

1500
3000
1000
2000
500 1000

0 0
0 100 200 300 150 200 250 300
SAVINGS SAVINGS

Dependent Variable: SAVINGS


Sample: 1970 1995 N=26
Variable Coefficient Std. Error t-Statistic Prob.
C 62.42267 12.76075 4.891772 0.0001
INCOME 0.037679 0.004237 8.893776 0.0000
R-squared 0.767215 Mean dependent var 162.0885
Adjusted R-squared 0.757515 S.D. dependent var 63.20446
S.E. of regression 31.12361 Akaike info criterion 9.787614
Sum squared resid 23248.30 Schwarz criterion 9.884391
Log likelihood -125.2390 F-statistic 79.09925
Durbin-Watson stat 0.859717 Prob(F-statistic) 0.000000

Chow Breakpoint Test: 1982


F-statistic 10.69006 Probability 0.000571
Log likelihood ratio 17.65293 Probability 0.000147

J. Ramoni Perazzi Capítulo 8. 16


Econometría I
EJEMPLO 2: FUNCION COBB-DOUGLAS PARA TAIWAN
4.55 5.0

4.50 4.5

4.45
4.0
4.40
3.5
4.35
3.0
4.30

4.25 2.5

4.20 2.0
2 4 6 8 10 12 14

LY LL LK

Chow Breakpoint Test: 7 (Sample size=15)


F-statistic 14.40319 Probability 0.000879
Log likelihood ratio 26.37062 Probability 0.000008

b) VARIABLES DICOTOMICAS: (CAPITULO 9)

6. PROBANDO FORMA FUNCIONAL (PRUEBA MWD: MACKINNON, WHITE


Y DAVIDSON):
PARA SELECCIONAR ENTRE UN MODELO LINEAL Y, POR EJEMPLO, UN
LOG-LINEAL:
Ho: MODELO LINEAL
H1: MODELO LOG-LINEAL

i) ESTIME EL MODELO LINEAL Y OBTENGA Ŷ


ii) ESTIME EL MODELO LOG-LINEAL Y OBTENGA Ŷln
iii) CALCULE Z1= (LN Ŷ - LN Ŷln )
iv) EFECTUE LA REGRESION DE Y SOBRE X y Z1. RECHACE Ho SI EL
COEFICIENTE DE Z1 ES ESTADISTICAMENTE SIGNIFICATIVO.

EXAMPLE 1: HIGH SCHOOL DROPOUTS

J. Ramoni Perazzi Capítulo 8. 17


Econometría I
. reg drop lunch enrol math4 avgsal math7
Source | SS df MS Number of obs = 3765
-------------+------------------------------ F( 5, 3759) = 66.15
Model | 9524.27203 5 1904.85441 Prob > F = 0.0000
Residual | 108237.555 3759 28.7942418 R-squared = 0.0809
-------------+------------------------------ Adj R-squared = 0.0797
Total | 117761.827 3764 31.2863515 Root MSE = 5.366

------------------------------------------------------------------------------
drop | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lunch | .0742378 .0062552 11.87 0.000 .0619738 .0865017
enrol | .0000612 .0000108 5.65 0.000 .00004 .0000825
math4 | -.0146364 .0071983 -2.03 0.042 -.0287494 -.0005234
avgsal | .0000801 .0000122 6.55 0.000 .0000561 .000104
math7 | -.0289604 .007249 -4.00 0.000 -.0431727 -.0147482
_cons | 1.083839 .4815303 2.25 0.024 .1397528 2.027925
------------------------------------------------------------------------------

. predict yhat

. gen ldrop=log(drop)
. gen llunch=log(lunch)
. gen lenrol=log(enrol)
. gen lmath4=log(math4)
. gen lavgsal=log(avgsal)
. gen lavgsal=log(avgsal)
. gen lmath7=log(math7)

. reg ldrop llunch lenrol lmath4 lavgsal lmath7


Source | SS df MS Number of obs = 3353
-------------+------------------------------ F( 5, 3347) = 141.32
Model | 447.72781 5 89.545562 Prob > F = 0.0000
Residual | 2120.85239 3347 .633657722 R-squared = 0.1743
-------------+------------------------------ Adj R-squared = 0.1731
Total | 2568.5802 3352 .766282877 Root MSE = .79603

------------------------------------------------------------------------------
ldrop | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
llunch | .4365816 .0229184 19.05 0.000 .3916461 .4815172
lenrol | .1114197 .0173719 6.41 0.000 .0773591 .1454803
lmath4 | -.102045 .0558219 -1.83 0.068 -.2114936 .0074036
lavgsal | .5117226 .0774087 6.61 0.000 .3599494 .6634958
lmath7 | -.293705 .0471323 -6.23 0.000 -.3861161 -.201294
_cons | -4.858421 .6982347 -6.96 0.000 -6.227431 -3.489411

. predict yhatlog

. gen lyhat=log(yhat)

. gen Z1=lyhat-yhatlog

J. Ramoni Perazzi Capítulo 8. 18


Econometría I
. reg drop lunch enrol math4 avgsal math7 Z1
Source | SS df MS Number of obs = 3723
-------------+------------------------------ F( 6, 3716) = 61.29
Model | 10531.456 6 1755.24266 Prob > F = 0.0000
Residual | 106415.937 3716 28.6372275 R-squared = 0.0901
-------------+------------------------------ Adj R-squared = 0.0886
Total | 116947.393 3722 31.4205785 Root MSE = 5.3514

------------------------------------------------------------------------------
drop | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lunch | .0747553 .0063616 11.75 0.000 .0622829 .0872278
enrol | .0000604 .0000108 5.58 0.000 .0000392 .0000816
math4 | -.0128954 .0075142 -1.72 0.086 -.0276277 .0018369
avgsal | .0000925 .0000126 7.32 0.000 .0000677 .0001173
math7 | -.0327102 .0076268 -4.29 0.000 -.0476633 -.0177571
Z1 | -3.858535 .6791855 -5.68 0.000 -5.190147 -2.526922
_cons | 1.308242 .4944374 2.65 0.008 .3388464 2.277637

REGRESION CUANTIL
La metodología de regresión cuantil, desarrollada por Koenker y Bassett (1978),
complementa y amplía el análisis clásico de la regresión mínimo cuadrática, en
el sentido de permitir analizar la muestra por subgrupos correspondientes a los
Cuantiles de interés.

Tradicionalmente, el método clásico de regresión permite modelar el valor


esperado condicional de la variable aleatoria Y como una función del vector de
covariables x, E Y / X  x  sujeto a una serie de supuestos. La regresión cuantil,
en cambio, es un procedimiento que permite estimar funciones cuantiles
condicionales. En efecto, esta regresión modela cuantiles condicionales de la
distribución de la variable respuesta y produce una información más completa
acerca de las posibles relaciones que pueden existir entre dicha variable y las
diferentes covariables. Para tales efectos, se pueden utilizar tipos de cuantiles
específicos, como por ejemplo, la mediana o deciles extremos tanto bajos
(inferiores) como altos (superiores). La selección del tipo de cuantiles a utilizar
debe ser tal que el conjunto completo de los mismos caractericen la distribución
de la variable respuesta.

Ejemplo:

J. Ramoni Perazzi Capítulo 8. 19


Econometría I
J. Ramoni Perazzi Capítulo 8. 20
Econometría I
Tabla 1: Coeficientes de Regresión para quintiles, mediana y cuantil extremo 0,90

Estimador
Parámetro
=0,2 =0,4 =0,5 =0,6 =0,8 =0,9

Intercepto 2,19 4,00 4,22 5,32 8,16 13,53

Escalafón: ASISTENTE 2,39 3,64 4,89 7,03 9,46 8,38

Escalafón: AGREGADO 14,81 17,44 19,31 20,30 22,79 23,47

Escalafón: ASOCIADO 33,25 32,96 34,12 33,84 33,71 33,16

Escalafón: TITULAR 59,88 60.77 61.42 60.42 66.72 65.08

Estudios: DOCTORADO 49,52 60,49 62,22 66,01 75,70 81,05

Estudios: ESPECIALIDAD 19,80 21,09 23,66 25,78 29,73 31,25

Estudios: MAESTRIA 21,68 25,96 27,15 29,74 32,59 32,95

Área 1:Ciencias -0,27a 2,15a 3,88 4,82 6,25 4,24a

Área 2: Arq. Forestal. Ing. 2,05a 1,47a 1,92 1,55a 3,77 4,21a

Área 3: Arte Econ. Human 1,75a 2,15 2,66 2,48 3,78 3,45

Jubilable: SI 38,65 49,47 54,20 57,60 59,45 66,13

Fuente: Surendra P. Sinha, Ramoni P. Josefa, Torres R. Elizabeth, Orlandoni M.


Giampaolo, Rivas O. Douglas (2010) “Modelación del Índice de Capacidad Profesional
de Profesores Universitarios por Regresión Cuantil: El caso de la U. L. A.”. Revista
Economía Nº 29: 209-225

J. Ramoni Perazzi Capítulo 8. 21


Econometría I
J. Ramoni Perazzi Capítulo 8. 22
Econometría I

También podría gustarte