Está en la página 1de 51

2

Editado: Legacy academia online

Autor: Marta García

Contacto: legacy.online@gmx.com
Índice

l. Introducción de datos
2. Estadísticos descriptivos
3. Nube de puntos
4. MCO: recta de regresión
• Modelos lineales y no lineales
• Interpretación
S. Valores reales, estimados y residuos
6. Intervalos de confianza
7. Elasticidad
8. Descomposición modelo en Suma de cuadrados
9. Grafico de los residuos
10. Predicción
11. Test
• Coeficientes
• Residuos
• Estabilidad
12. Estudio multicolinealidad 3
Entorno de Eviews

Lo primero que debemos hacer es centrarnos en el entorno de trabajo que vamos a manejar,
es decir, la pantalla de trabajo de Eviews, cómo denominaremos cada sección y la forma en
que aparecerán los elementos a manejar:

Menú principal File Edil: Ob_.leCI v- Pro<: Quid: Opttons Wtndow Hdp
Ventana de
comandos
Barra de
herramientas [ill Wortfile:: MANZANAS. (c:\ unrs\ mart•\dropbax\•iumnos\eco l (,-w ·- - ~ X
' - - - - - - - - '-,!"[ IVitwlProcjObJrrt([,.,n!s..-.tlDrl••h•/·llshowjhtchjStort!~•rltjGtnrls.mp1,1
Ran11• 1i70 201s - '6 otis Filler•
Sampl1 20052015 - 11 otis
11) , Fichero de
Periodo de @ o,
m)datos 1 t rabaio
trabajo l!'l:; Lista de objetos
0 •
@ ftskl

Línea de estado

Introducción de datos

Podemos introducir los datos en Eviews de dos formas diferentes:

Creando un fichero en blanco


Exportando los datos desde un archivo Excel

Nota: los datos para el ejemplo los encontraréis al final del libro.
1. Crear un fichero

Para crear un fichero en blanco e introducir los datos manualmente, debemos abrir el
programa, y seguir los siguientes pasos: File/New/Workfile

Fife E.dit Objcct V"tew Proc Qui<.k Options Window Hclp


M- Workfil~.. Ctrh-N
Qpen J2ttabast...


S.VeAs,••
Ctrl+S E.rogram
I mfilt
'-lose

jmport
f,q,ort

ennt Ctrt•P
PrintSdup...

,Bun... fl0

Nos abre la siguiente pantalla, en ella tenemos que seleccionar la opción adecuada para el
fichero que deseamos crear, nos dan las siguientes opciones:

-Workfile structure type ➔ ¿Qué tipo de datos queremos introducir?


s
• Dated-regular frecuency➔ Para una serie temporal, queremos introducir datos en un
periodo de tiempo Ej. 1990 - 2010
• Unstructured/Undated➔ Datos de corte transversal, queremos introducir un numero de
observaciones que no van referenciadas en el tiempo. Ej. 50 observaciones
• Balanced Panel➔ Datos de panel, queremos introducir un conjunto de observaciones
referenciadas en el tiempo.

Workfile Creatt 1 tl WorlcfileCreate


~

Wortfliestr\Jctl.utw,e Datar.-ioe

ll..nstructlxed ,l.rlda~ . . J ~atlons:

IITegtjar Oated ;,nd Poile! I~DatedandPanel


wor1dlts II\IY be made lrOft'I St«t date: woridRs may be made from
l.hstJuctLndwor1cfrsbylater L.nstruct1.nd workff6 by later
cnd date:
~fylngdateard./Ofother SPt<ifvrlQ date and/ot othtt
idtnbfterser~. idtntifierseries.

Work.flr:narnes(optlorlal) Wo,\& namt,S (optiona)


WF, WF,

Page:
WorldileCreate El J[

lrr~DatrdandP~
workfks may ~ n'llde frcm St.tdate:
lhtructisedworld'les bylater
End date:
~~ daW: end/tx other
dent:JM'~. ,.,,.,.,,,
0'0$$StttlOnS:

Worldle names (opborlal)


WF,

Page:

Frecquency➔ Frecuencia temporal, puede ser anual, mensual, etc


Start date ➔ Fecha de inicio de las observaciones
End date➔ Fecha final de observaciones
Observaciones➔ Numero de observaciones
Worfile names

• WJ➔ Nombre del documento creado


• Page➔ Nombre de la pagina 6

Una vez completado el formato de datos que queremos, se nos crea el fichero de Eviews
siguiente:

[ID Workfilc: NARJ • (c:\use<s\marta\docume:nts\ narj,wfl) - e, X

IVltwl Proc I ObJtct [ 1Print ]Savt j Dtta11s •l·l l 5how 1Fttch ¡ stort [ Dtltlt IGtnr I Samplt l
Range: 20052015 - 11 obs F11ter: •
Sample.20052015 - 11 obs
ll) c
0 resid

' •\ 1 l NewP•~• /

Por defecto siempre aparecen en la lista de objetos la variable C (constante} y resid (residuos}

Esta va a ser nuestra pantalla de trabajo, donde van a aparecer todo lo que guardemos.
Podéis observar que aparece el rango y sample, el rango es la amplitud de datos que tenemos,
todos los que disponemos, mientras que el simple, lo vamos a ir modificando y son los datos
con los que trabajamos, cada acción que llevemos a cabo con Eviews la va a realizar para el
periodo o numero de obs que tengamos en el sample.

Procedemos a introducir las variables, para ello en la página principal: Object/New object

Show Fttch Store: Dtldt Gj


t,!ew Objoct...
,Genera.te Series...

New0bje<1

TypeofobJect N«nefo<ob,ect

co
Equation

'"'°'
G,aph

--_
"'""'
lo,O.
Matr,x.Y«tor<otf

Poa
~

......
Ser~üik

Spooj
SSpa<,
Strl'IQ
SVKID< 7

·-
System
Toble
Text

VAA

Seleccionamos Series, en Name for object introducimos el nombre de la serie que queremos
crear, en este caso nombraremos CO al consumo de naranjas.

Seguimos el mismo procedimiento para crear el resto de variables:

Precio en € de las naranjas (Pl,)


Precio en€ de los plátanos (P21)
Renta nacional (R,)

Una vez creadas aparecerán en nuestra pantalla principal, pero si las abrimos no tienen aun
ningún dato.

CTi] Workfile: EJEMPLO 1 • (c:\usm\mart1\de5lctop\undemy\eviews\bloqu.- _ c::l X


Vitw Proc Objtct Prini Savt Oflails•/· Show Fttch Stort Otlf'tt Gtnt Samplt
Ranoe: 20052015 - 11 obs Filter.·
Sample:20052015 - 11ot>s
ll] c
0 co
0 p1
@ p2
0 ,
@ resld
Para introducir los valores de cada variable, abrimos la variable con un doble clic en el nombre,
en la barra de herramientas de la pantalla con la variable, aparecerá la variable sin ningún dato
{NA), seleccionamos Edit, esta opción nos permite modificar los datos, lo que resta es ir
añadiendo los valores de la variable correspondiente a cada observación.

f2I SffiM.: CO Workfile:: EJEMPL01.::EJttcl5\


Vle-w Proc O bj,ct Properti, s Print Name- Free-u
,11,:w,mr ►uta
Last updated: 10/26115 - 11:13
Modifled: 1970 1990 11 y:cm

40.96910
NA
NA
NA
NA
NA
NA
NA
NA
2014 NA
2015 NA

2. Exportar fichero Excel 8

La segunda forma de introducir los datos en Eviews es a través de un fichero Excel.


Localizamos el fichero Excel, utilizamos la opción de abrir con (botón derecho del ratón) y
seleccionamos el programa Eviews, automáticamente se abre el programa, seguimos tres
etapas:

Etapa 1: Nos pide que seleccionemos la hoja de Excel que queremos importar, en la
opción predefined range, seleccionamos la Hoja correspondiente, y siguiente.

Excel ~ad - Step 1 of 3 &l

·1
Ho¡,l

....., ..
Q.i5tom range
"ee 11

"..
Ht,Ja,1'$AS1::,:$12 IES12 11

200 409'91 112100 2U.970:i


200 JSS896 110240 4:tS749
200 3646B2 1096SO 289980
200 S H 2U 111 HO 34H03
200 30344 1 01650 433417
201 400l9S lH, 470 S0S 4S0 ,
201 3S813S 1 06'180 6102032
2 012 4'88S8 133480 '13'482
201 &00"118 131180 U.71'74
Etapa 2: Rango de observaciones, no hace falta cambiar nada, por tanto, siguiente.

E.wcd R~ad · St~p 2 of 3

,_,,.,_, Columnf'o
Ock fl p r - tD selKtCDUII'\ for Mir.o
Header ines: 1 'vi
"'°""'-'r~--<riy--~
.J Name:
~ b e n:
obs

o Ei <1 ·o1 ro

Dota,_, 1L-~~------~
·I
21S97O:;:
24$70
28'980
34.'1903
•I
U3417
S084S0
'102032
7739482

Etapa 3:
9
-/mport method: donde queremos introducir las variables que importamos, create new worfile
(crear un nuevo doc de Eviews), sería nuestra opción, o introducirlas en uno ya existente.

-Basic structure: Tipo de datos, seleccionamos dated, para conservar el rango de datos del
archivo Excel. Presionamos Finish y ya tenemos nuestro archivo creado con las variables.

Excltl lüad · St~p 3 of 3

Strudl.reoflheO.t1tDbet,,,,porud

J""""'-
Deteseies: obs

200 ',',,,,,! ;,..,,[·


110:i ♦ O H i70

'"
200 36'344
lMUO
1119~0
109 '50
28'990
3 0903
433417
201 115470 &O!IUO
2011 10'710 '102032
2(112 1334!0 '713'482. •
t=::.á.::=i..'....':~-~--~-~~--~-~ '

~
Estadísticos descriptivos

Los estadísticos descriptivos nos sirven para describir una variable, son tales como la media,
mediana, etc. Para obtenerlos debemos abrir la variable (doble clic encima de su nombre) y
seguir el comando: View/descriptive Statistics & Test/ Stats table

@ Smu: CO Workfile: EJEMPLO l ::EjerdS\


VinY Proc Object Propu tie-s

Spr~dShttt
~,1ph, ..

Oesc.riptm ~atistíc s & T~ b .1:!istogro1m and Stats


Qn~Way Tabulation... ~hlable
Suts by ttassrfintion...
.C.o"dog,am...
Long-run Variance... Simple .t:1ypothesis Tests
,Unit Root Test... .Equaíity Tests by Classification ...
Y:anance Ratio Ttst...
Empirical Distri!!ution Tests...
.U.OS lndepa,dence Test...

10

Resultado:

0 Series: CO Worlcfile: EJEMPLO 1::Ej erc15\


IVí•wlProclObj• ct IProp,rtí,s 11PrintINam• IFm zo
co ! l.
Mean 40.82883
Median 40.01959
Maximum 50.07885
Minimum 35.58961
Std. Dev. 5.241597
Skewness 0.479686
Kurtosis 1.766072

Jarque-Bera 1.11 9696


Probability 0.571296

Sum 449.1172
Sum Sq. Dev. 274.7433

Observations 11

- Mean ➔ Media.

- Median ➔ Mediana.

- Maximum ➔ Valor máximo de la variable.


- Mínimum ➔ Valor mínimo de la variable.

- Std.Dev. ➔ Varianza.

- Skewness ➔ Coeficiente de apuntamiento.

- Kurtosis ➔ Coeficiente de Kurtosis.

- Jarque-Bera ➔ Valor del estadístico Jarque-Bera, estudia si la distribución de la variable es


normal.

- Probability➔ Probabilidad asociada al contraste de Normalidad JB.

- Sum ➔ Sumatorio.

- Sum Sq. Dev. ➔ Suma de cuadrados de la variable.

- Observations➔ número de observaciones.

Nube de puntos
11

Para la obtención de la nube de puntos debemos abrir la variable endógena con una de las
exógenas, seleccionando primero la variable exógena, seleccionamos usando la tecla Ctr/ y
abrimos con lntro.

@:) Group: UNTTTLED Workfile: EJEMPLO l ::Ejerc15\


11 I 1 IOelaul
lv i•w l Procl Obj•ct Print Nam, Frooz• 1 ·I
obs P1 co
2005 1.101100 40.96910
2006 1.090000 35.58961
2007 1.090000 36.46826
2008 1.120000 35.82432
2009 1.084900 36.93440
2010 1.121800 40.01959
2011 1.078900 35.81354
1.230000 46.88589
1.156300 50.07885
1.109400 45.81358
1.190700 44.72002

Una vez tengamos el grupo de variables, seguimos el siguiente comando: View/Graph


View Proc Object Print Name Freeze
~ _,_..._
§roup Members co
910
!ipreadsheet
961
Qated Data Table 826
§.raph ... 432
40
Qescriptive Stats ► 959
354
~ovariance Analysis... 589
N-Way Tabulation ... 885

Aparecerá la siguiente pantalla emergente:

--
Graph Options
-- -- - ¡:¡ 1

_,
.,...,_ <

¡:¡ji ...,.,,.....-
OptionP&;H
,ohType
~
Gmeroll:
¡,-.,..., ·1
°'""'
Graohdtta: ,........ _:J

__
~ · obs axis on bottom _:J

-
C)ientation:

"''---" .,, [!'i-


(t) Graph&rnents
@ Q.rl.Fonts
IE T"""'"'"~
..
.,"'
AreaBand
Mixedwithlile:s
1
A>Cisborders:
~ .,..., ___:_)
___:_)
Oot Plot
Error~
~ -low (Open<Jose) 12
'"""'
XY ln
XYNH

""
' "'"'"'""
Qwn""-Qwntle

'°"""'
1

LhdoPageEdits
~ ~

Si dejamos seleccionado la opción por defecto obtendremos un grafico con la recta de cada
una de las variables:
@) Group: UNTTTLED Workfile, EJEMPLO l::Ejercl5\ _ C:l X
Vitw Proc Objtct Print Namt frttzt Oelaul • Options Position Samplt Sh

05 06 07 08 09 10 11 12 13 14 15

!- P1 - co l

Para obtener la nube de puntos debemos seleccionar Scatter dentro de graph type/specific, y
en Fit fines, elegir la opción Regression Une, con ello obtendremos la nube de puntos y la recta
de regresión.

Graph Options 13
Option Paoes,
l;3- G,aphType
mm ·1
Raw data
!ir Ff~&Sitt:
$ Axe, aSa,in¡¡ Fitbs: l•ewess,onlJle =-::l~
ill- L...,,d lile &Symbol
1"""" •1
(t.- G,aph Elements
¡j¡. Q.,cx Fonts
tll- T....,i,t,s &Obj,cts
..
Bar
Sol<,
.,,
Area Band
Mxcdwithlhc$
.,... borda-,:

Srdeoraoh

DotPlot
Error Bar
-~ow '"--Oosel
XYIJle

...
XY Area

Distrb.Jtion
Quantile ·Quantile
Boxplot
Seasonal Q-a¡:i,

En el eje horizontal aparecerá la variable exógena, que hayamos seleccionado en primer lugar,
y en el eje vertical la segunda variable seleccionada, la variable endógena.
50 o

48
o
46 o
o
44
o(.}
42
o
40 o

38
o
o
36 o o o

34
1.04 1.08 1 12 1.16 1 20 1.24

P1

MCO: recta de regresión

14
La estimación de un modelo econométrico básico se lleva a cabo a t ravés del procedimiento de
Mínimos cuadrados ordinarios (MCO), podemos realizar la estimación mediante dos caminos:

Desde la Ventana de comandos, escribiendo LS seguido de la ecuación, debemos tener


cuidado con el Sample (periodo de estimación) y seleccionarlo antes.
Siguiendo los comandos desde el menú principal: Quick/ Estímate equation

File Edit Object Vitw Proc Quick Optíons Wíndow Help


~mple...
~enerate Series.. ,
Show ...
Graph ...
llTIJ Worldilo: EJEMPLO 1 • (c:\ us Empty Group {Edit Sai~)
1Vl,w IProc IObJ•d11Prlnt IS.vt 1
Ranoe: 20052015 - 11 ob~ Se:ries Statistics
Sample: 2005 2013 - 9 obs Grou51 Statistics
IJJ e fstimate Equatíon...
0 co
@ cor Estimate Y:AR...
r.l An01
Aparecerá el siguiente menú:

Equation Estimation 1 ¡:¡


1
-""""' I"°"'"''
1 Equat,on speoficabon
Depeooer)t variable fulowed by 1st of regesscn OOJCh;¡ ARMA
andPCll tffll'd, CR an vcpli0t~t10nlkt: Y-c(t)+c(2}-X.
CDCp1p2r

Estrnationte:tb',gs

Mtlhod:jLS • LeastSquares{l't.SandAAMA)
·I
~ : 20052013

Equation specification ➔ escribir la ecuación

Method ➔ Seleccionar LS (MCO)

Sample ➔ periodo de estimación 15

Escribir una ecuación para estimar:

Para llevar a cabo la estimación por MCO, desde cualquiera de los dos caminos vistos,
debemos hacerlo en idioma Eviews, escribiendo solamente las variables, es decir,
queremos llevar a cabo la estimación del siguiente modelo:

Para introducirla debemos poner: CO C Pl P2 R

Solo el nombre de las variables, la variable C es la constante que acompaña al término


independiente ~ 1• si nuestro modelo no consta de término independiente no pondremos la
variable c, y seria: CO Pl P2 R

El resultado será la ecuación estimada: CO, = 20.46-67.7*Pl, + 82.4*P2, -0.046*R, + e,


Variable
endógena DependentVariable: CO~
Method: Least Squares
Date: Time:
Periodo de
estimación
Sample: 2005 2013
lneluded obser,ations: 9 ~
Variable Coefficient Std. Error t-Statistic Prob.

e 20.46014 17.89890 1.143095 0.3048


Variables
P1 -67.70 183 29.66564 -2. 282163 0.0713
exógenas P2 82.40104 17.66760 4.663963 0.0055
R -0.046961 0.346131 -0.135674 0.8974

R-squared 0.953685 Mean dependent var 39.84262


Adjusted R-squared 0.925896 S.D. dependent var 5.315081
S.E. of regression 1.446876 Akaike info criterion 3.877793
Sum squared resid 10.46725 Sehwarz criterion 3.965448
Log likelihood -13.45007 Hannan-Ouinn criter. 3.688633
F-statislic 34.31870 Durbin-Watson stat 1.965234
Prob(F-statislic) 0.000925

Columnas:

Variable: Cada fila corresponde a una variable exógena de la ecuación.


Coefficient: Valor de los coeficientes estimados !3.
Std. Error: Varianza de los coeficientes.
T-statistic: Valor estadístico T contraste de significación individual.
Prob: Probabilidad asociada al estadístico T contraste de significación individual. 16

El resto de resultados que arroja la estimación:

2
R-Squared ➔ Coeficiente de determinación R
Adjusted R-squared ➔ Coeficiente de determinación corregido R2
S.E. of regression ➔ Varianza de los errores
Sum squared resid ➔ Suma de cuadrados de los residuos SCR
Log likelihood➔ Estadístico razón de verosimilitud
F-statistic ➔ Valor del estadístico F del contraste de significación conjunta
Prob{F-statistic) ➔ Probabilidad asociada al del estadístico F del contraste de
significación conjunta
Mean dependent var ➔ Media de la variable endógena
S.D. dependent var ➔ Varianza de la variable endogena
Akaike ➔ Criterio Akaike
Schwarz ➔ criterio Schawarz
Hannan-Quinn criter ➔ Criterio Hannan-Quinn
Durbin-Watson stat ➔ Valor estadístico Durbin-watson

La estimación llevada a cabo sería de un modelo lineal, también podemos estimar por el
mismo camino los distintos modelos no lineales:
MODELO Forma introducirlo Resultado
Lineal CO, = 131+132*Pl,+l33*P2,+ 13,*R, + u, Co e pl p2 r Salida 1

Exponencial Log(CO,) = l31+l32*Pl,+l33*P21+ l34 *R, + u, Log(Co) e pl p2 r Salida 2

Potencial Log(CO,) = l31+l3 2* Log(Pl,)+l33* Log(Co) e Log(pl) Log(p2) Log(r) Salida 3


Log(P2,)+ l34 * Log(R, )+ u,

Semi CO, = l31+l3 2* Log(Pl,)+l3 3 * Log(P2,)+ 134 * Co e Log(pl) Log{p2) Log(r) Salida 4
logarítmico Log(R, )+ u,

Polinómico: CO, = 131+132*Pl,2+l33•p2,2+ l34 *R,2 + u, Co e pl A2 p2A2 rA2 Salida 5


Parábola

Resultados:

Salida 1
Modelo estimado: CO, = 20.46-67.7*Pl, + 82.4*P2, -0.046*R, + e, 17

Dependen! Vartable: CO
Uelhod: Leas! Squares
Date: nme:
Sample: 2005 2013
lncluded observations: 9

Vartable Coefficient Std. Error t- Statistic Prob.

e 20.46014 17.89890 1.143095 0.3048


P1 -67.70183 29.66564 -2.282163 0.0713
P2 82.40104 17.66760 4.663963 0.0055
R -0.046961 0.346131 -0.135674 0.8974

R-squared 0.953685 Mean dependen! var 39.84262


AdJUSl ed R-squared 0.925896 S.D. dependen! var 5.315081
S.E. of regression 1.446876 Akaike info criterion 3.877793
Sum squared resid 10.46725 Sehwarz criterion 3.965448
Log likelihood -13.45007 Hannan-Ouinn criter. 3.688633
F-statistic 34.31870 Durbin-Watson si al 1.965234
Prob(F-staüstic) 0.000925
Salida 2
Modelo estimado: Log(CO,) = 3.15-l.53*Pl,+l.94*P2,-0.0023*R, + e,

Dependent Variable: LOG(CO)


Method: Least Squares
Date: Time:
Sample: 2005 2013
lnduded observations: 9

Variable Coefficient Std. Error t-Statistic Prob.

e 3.152398 0.487587 6.465310 0.0013


P1 -1.533497 0.808126 -1.897596 0.1162
P2 1.946361 0.481286 4.044088 0.0099
R -0.002371 0.009429 -0.251420 0.8115

R-squared 0.939353 Mean dependent var 3.677566


Adjusted R-squared 0.902965 S.D. dependent var 0.126530
S.E. or regression 0.039415 Akaike info criterion -3.328261
Sum squared resid 0.007768 Schwarz criterion -3.240606
Log likelihood 18.97718 Hannan-Ouinn criter. -3.517421
F-statistic 25.81477 Durbin-Watson stat 1.944211
Prob(F-statistic) 0.001805

18

Salida 3
Modelo estimado: Log(CO,) = 3.55-1.76* Log(Pl,)+2.32* Log(P21)-0.006 * Log(R, )+ e,

Dependent Variable: LOG(CO)


Method: Least Squares
Date: Time:
Sample: 2005 2013
lnduded observations: 9

Variable Coefficient Std. Error t-Statistic Prob.

e 3.551 155 0.058972 60.21745 0.0000


LOG(P1) -1.761420 0.884630 -1 .991136 0.1031
LOG(P2) 2.320034 0.492404 4.711645 0.0053
LOG(R) -0.006084 0.036698 -0.165796 0.8748

R-squared 0.942287 Mean dependen! var 3.677566


Adjusted R-squared 0.907660 S.D. dependent var 0.126530
S.E. of regression 0.038449 Akaike info criterion -3.377854
Sum squared res id 0.007392 Schwarz criterion -3.290199
Log likelihood 19.20035 Hannan-Ouinn criter. -3.567014
F-statistic 27.21203 Durbin-Watson stat 1.966675
Prob(F-statistic) 0.001596
Salida 4
Modelo estimado: co, = 34.54-78.67* Log{Pl,)+99.07* Log(P21)-0.062 • Log(R, )+ u,

Dependent Variable: co
Method: Least Squares
Date: nme:
Sample: 2005 2013
l ncluded observations: 9

Variable Coefficient Std. Error t-Statistic Prob.

e 34.54188 2.172999 15.89594 0.0000


LOG(P1 ) -78.67279 32.59674 -2.413517 0.0606
LOG(P2) 99.07135 18.14405 5.460268 0.0028
LOG(R) -0.062563 1.352252 -0.046266 0.9649

R-squared 0.955592 Mean dependent var 39.84262


Adjust ed R-squared 0.928947 S.D. dependent var 5.315081
S.E. of regression 1.416772 Akaike info criterion 3.835741
Sum squared resid 10.03621 Schwarz aiterion 3.923396
Loo likelihood -13.26083 Hannan-Ouinn criter. 3.646581
F-statistic 35.86422 Durbin-Watson stat 1.990699
Prob(F-statistic) 0.000833

19

Salida 5
Modelo estimado: co, = 30.92-30.69*Pl/ +35.4S*P2.2-o.012•R.2 + u,

Dependent Variable: co
Method: Least Squares
Date: Time:
Sample: 2005 2013
lncluded observations: 9

Variable Coefficient Std. Error t-Statistic Prob.

e 30.92333 8.937621 3.459906 0.0180


p1 • 2 -30.69533 14.82426 -2.070614 0.0932
P2• 2 35.45001 9.530773 3.719532 0.01 37
R• 2 -0.012815 0.039843 -0.321627 0.7607

R-squared 0.951341 Mean dependent var 39.84262


Ad¡usted R-squared 0.922145 S.D. dependent var 5.315081
S.E. of regression 1.483039 Akaike info aiterion 3.927165
Sum squared resid 10.99702 Schwarz criterion 4.014821
Log likelihood -13.67224 Hannan-Ouinn aiter. 3.738005
F-statistic 32.58515 Durbin-Watson stat 1.942681
Prob(F-statistic) 0.001045
Valores reales, estimados y residuos

Para obtener los valores reales de la serie, los valores estimados de nuestra endógena en
función de la ecuación planteada, y los residuos o errores (que serán la diferencia entre
ambas), partimos de la ecuación y seguimos los siguientes comandos:
View/actual,fitted,residual/ actual,fitted,residual table

@ (qu•hon: [QOl Wo,lcfíl~ UEMPl.O 1:r~5\ - r, X


lv.ewJProc IObJ~d j lPñntl tü1H [ frnz1 [ \ Estimat1 lforu.nt Ist•h IR111d1 /
R~~bons
[sti~t1onOutput
éctu1lf"1tttd,Rtsid~ é(tu.tlf"rtttd,Resich.1.tl Tablt:
:é,RMAStrucrurE... Actu•lFitted,Raidu•I l:zr1ph
GQ!dient.5 • nd Otnv,t,vn .BHidu.i Graph
$tM,d1rda:td RH,cllat Gr1ph

t;oflfK:ifflt Diagnattiu 29.66564 •2.282163 O 0713


1766760 4663963 00055
R ~ I Di•gnomu O316131 -O 135674 O8974
$t• bilrty0t~s
Meandependenlvar 39.84262
L•""
--==..,..-~- ~...,.,,
S.D. dependentnr
Abiklinfocrtteñon
5.315081
3.8777Sl3
20
SUm sQtJared resid 10 46725 Schwa12 crittfion 3-96~•8
Log Nlcel1hood -13 45007 Hannan-Ou1M criter 3688633
F-slalíslic 34 31870 Dufbln--Watson sial 1.965234
Prob(f-s1atlsbc) O 000925

El resultado será una tabla con los valores de la endógena, los estimados y los residuos:

Actual Fitted 1 Residual Residual Plot


40.9691 38.6782 2.29090
35.5896 37.3886 -1.79903
36.4683 36.8817 -0.41345
35.8243 36.7260 -0.90166
36.9344 37.1596 -0.22522
40.0196 39.4219 0.59765
35.8135 35.1179 0.69563
46.8859 46.8123 0.07355
50.0789 50.3972 -0.31838
Intervalos de confianza

Partimos de nuevo del menú ecuación y seguimos los siguientes comandos:

View/Coefficient Diagnostics/ Confidence lntervals

--
@l Equatíon: EQOl Worlóílo: EJEMPLO l ::EjortlS\ - Cl X

lView{Proc lObjertJ { PrintlName jFreeu J I Estimate IForecast l Stats 1Ruid5 J

Re.Q_resentations
fstimation Output
Actuat,Fittl!!d,R6idual ►
1
ARMA Structure...
Yradients and Derivatives ► Std. Error t-Statistic Prob.
Coyariance Matrix

_koefficient Diagnostics ►
17.89890 1.143095
Scaled Coefficients
0.3048
-
B~idual Diagnostics ► Confidence Jntervals...
~tability Diagnortics ► tonfidence Ellipse...
Y..ariance: Inflation Factors
Label
Coefficient Variance .Qecomposition
s;~. ~q~;red
. resid 10.46725
Log likelihood -13.45007 Wald Test- Coefficient R&rictions...
F-statistic 34.31870
Qmitted Variables Test - Likelihood Ratio ...
21
Prob(F-stabstic) 0.000925
.B,!!!:dundant Vari~bles T~ - likelihood Ratio...
Eactor Bre:akpoint T 6t...

Aparecerá una pantalla emergente con los valores para el nivel de confianza .90 .95 .99,
elegimos el nivel de confianza que deseemos, si queremos introducir uno diferente, hemos de
hacerlo .nivel, es decir, queremos introducir un nivel de confianza del 75%, será .75

El resultado será la siguiente tabla, con un intervalo de confianza para cada coeficiente :

Coefficient Confidence lntervals


Date: 11/12116 Time: 11 :40
Sample: 2005 2013
lnciuded observalions: 9

90%C1 95%CI 99%CI


Variable Coefficient Low Hi9h Low HiQh Low HiQh

e 20.46014 -15.60701 56.52729 -25.55045 66.47073 -51 .71079 92.63107


P1 -67.70183 -127.4795 -7.924123 -143.9598 8.556136 -187.3180 51 .91429
P2 82.40104 46.79997 118.0021 36.98502 127.8170 11.16275 153.6393
R -0.046961 -0.744431 0.650509 -0.936718 0.842796 -1.442609 1.348687
C/: nivel de confianza

Low: valor inferior del intervalo

High: Valor superior del intervalo

Elasticidad

Continuamos en el menú ecuación y seguimos los siguientes comandos:

View/coefficient diagnostics/sca/ed cofficients

@) Equ.t1on: EQOl Workfilc: UEMPLO 1::Eje rclS\ - o X

lVltw l Proc!Object/ jPnntf Nam,j Frttze 11Estimate IForecast l Stitts j Res1ds!


Rearesentations
fstimation Output
,éctu a~Fittcd,Rcsidual ►

ARMA Structure...
,Gradittits a nd Oenvativcs ► S1d Error t-stabstic Prob
C~ariance Matrix
17.89890 1.143095 0.3048 -
s;,ocffic icnt Di,gnost ics
Residual Diagnostics
- ►


~alcd Cocfficients
Confidence Jntervals...
-
22
S:t1bility Diagnostics ► s;onfidence Ellipse...
~ariance InflaHon Facto~
L,abel
Coefficient Variance Qecomposition
Sum squared resld 10.46725
LOQlikelihOod -1345007 Wald Tm- Col!!fficil!'nt Restrictions...
F-statlstlc 34.31870 .Qmitted Variables Test- LikeJihood Ratio...
Prob(F-statistic) O000925
B~undant Variabln Test. - likelihood Ratio...
f;,ctor Breo,kpoint Test,~

La tabla obtenida nos ofrece los siguientes resultados:

- Variable ➔ Variables exógena correspondiente

- Coeficiente ➔ Valor del coeficiente estimado

- Coeficiente estandarizado

- Elasticidad en media ➔ elasticidad de la variable exógena, correspondiente a esa fila,


respecto a la variable endógena, calculada para el punto medio.

La expresión de la elasticidad calculada es la siguiente:


Scaled Coefficients
Date: 11/12/16 Time: 11 :42
Sample: 2005 2013
lncluded observations: 9

Standardiz.ed Elasticity
Variable Coefficient Coefficient at Means

e 20.46014 NA 0.513524
P1 -67.70183 -0.612435 -1.901818
P2 82.40104 1.534269 2.394037
R -0.046961 -0.022346 -0.005743

Descomposición modelo en Suma de cuadrados

Un modelo econométrico ( Y= XB + u) se puede descomponer en tres partes:

Parte explicada y
Parte explicativa XB
Errores u
23

De cada una de ellas podemos obtener una suma de cuadrados (SC) y representar el modelo a
través de su suma de cuadrados, lo que nos permitirá hacer cálculos con ellos, entre otros el
2
Coeficiente de determinación R •

SCT= SCE+ SCR

-SCT ➔ Suma de cuadrados totales

-SCE ➔ Suma de cuadrados explicada

-SCR ➔ Suma de cuadrados de los residuos

La SCT nos aparece en los estadísticos descriptivos de la variable endógena obtenido


anteriormente, recordemos, una vez abierta la variable endógena seguimos los comandos

View/descriptive Statistics & Test/ Stats table

Aparecerá como: Sum Sq. Dev. ➔ Suma de cuadrados de la variable.

La SCR aparece en el menú ecuación, como Sum squared resid


Dependen! Variable: CO
Method: Least Squares
Date: 11/12/16 n me: 11:38
Sample: 2005 2013
lncluded observations: 9

Variable CoeffiCient Std. Error t-statistic Prob.

e 34.54188 2.172999 15.89594 0.0000


LOG(P1) -78.67279 32.59674 -2.413517 0.0606
LOG(P2) 99.07135 18.14405 5.460268 0.0028
LOG(R) -0.062563 1.352252 -0.046266 0.9649

R-squared 0.955592 Mean dependent var 39.84262


Adjusted R-squared 0.928947 S.D. dependent var 5.315081
S.E. of regression 1.416772 Al<aike info aiterion 3.835741
- - - - - .sum squared resid 10.03621 Schwarz aiterion 3.923396
Log likelihood -13.26083 Hannan-Ouinn aiter. 3.646581
F-statistic 35.86422 Durbin-Watson stat 1.990699
Prob(F-statistic) 0.000833

La SCE, se obtiene como la resta de los anteriores= SCT-SCR

Gráfico de los residuos

24
Representar los residuos es sencillo, directamente la barra de herramientas del menú ecuación
ofrece la opción Resids, nos mostrará un gráfico con los valores reales, estimados y los
residuos:

E) Equation: EQ()l Wortdile: EJEMPLO 1::Ejerc15\


Vi•w Proc Obj•ct Prinl Nam• Fr• •u Estimat• Fortcast Stat, Ruids 1

Dependen! Variable: CO
Method: Leas! Squares

2005 2006 2 007 2008 2009 2010 2011 2012 2013

!- Resldu,j - Actual - Fltted 1

Residual➔ (línea azul) Residuos arrojados por el modelo


Actual ➔ (línea roja) Valores reales de la variable endógena
Fitted ➔ (línea verde) Valores estimados por nuestro modelo de la variable endógena
Predicción

Una de las utilidades más interesantes en la elaboración de un modelo econométrico es la


predicción, Eviews nos permite llevar a cabo una estimación a futuros de la variable endógena,
en el caso de contar con valores para las variables exógenas. Si, por el contrario, no tenemos
valores para las exógenas en el periodo de predicción estaríamos hablando de una simulación,
llevada a cabo con valores tipo de las exógenas, o valores prefijados de interés.

Para llevar a cabo la predicción, de nuevo en la barra de herramientas del menú ecuación, la
opción Forecast nos llevara al menú de predicción

@) Equation: EQOl Workfile: EJEMPLO 1::Ejerc15\


Vitw Proc Obj ed Prmt Name Frt tze Est1mate Forecast Stats Resids

Dependen! Variable: CO
Method: Least Squares

Menú de predicción:

25
Forecast

Forecastof
Equabon: EQ01 ~ s: CO

S.O.Snamos Mothod
Forecast name: cof Static:: foriecast
(no dynarrocs n oquabon)
S.E. (option,I): ,.f
Struc'1ral (,gnoro AAMAi
li]coof in:or...,ty n S.E. cale

Forecast sample: 0.,tput

2013 2015 J] Forecast groph


J] Forecast ovalJobon

./ Insert act.Jals fur out-of-san-c,lo obsorvaboos

• Forecast name: Nombre con el que se guardará la serie que contiene las
predicciones, por defecto, Eviews le añade una F al nombre original de la
endógena, se puede modificar de manera que nos sea fácilmente reconocible.
• S.E.: Errores de predicción
• Forecast sample: Período de predicción

La variable que contiene las predicciones aparecerá guardada en el fichero de trabajo, al igual
que los errores, en la ventana emergente obtenemos los estadísticos de capacidad predictiva y
el gráfico de los errores de predicción:
... ~ - - - - - - - - - - - - - - - ---, Forecast: COF
Actual: CO
Forecast sample: 2013 2015

..
lnduded observations: 3
Root Mean Squared Error 0.698288
Mean Absolute Error 0.563783
Mean Abs. Percent Error 1.231229
Tlleil lneQuality Coeffident 0.007454
◄◄ Bias Proportion 0.081207
Varíance Proportion 0.529697
Covaríance Proportion 0.389096
◄(l

:l&i------,------,------1
2013 201' 2015

!- COF ---- •2SE !

Resultados:

Root Mean Squared Error➔ RECM, Raíz del error cuadrático medio.
Mean Abso/ute Error ➔ MAE, Error absoluto medio.
Mean Abs, Percent Error➔ PEAM, porcentaje del error absoluto medio.
Thei/ lnequality Coefticient➔ Estadístico Theil.
Bias proportion ➔ Proporción correspondiente al error del Theil. 26
Variance proportion ➔ Proporción correspondiente a la varianza del Theil.
Covariance proportion ➔ Proporción correspondiente a la covarianza del Theil.
Test

Eviews nos permite llevar a cabo una gran batería de Test o contrastes, para evaluar el modelo
de regresión llevado a cabo, dentro del menú ecuación, en la barra de herramientas,
encontramos la mayoría de ellos, en la opción View tendremos los contrastes sobre
coeficientes, sobre residuos y sobre estabilidad, coefficient diagnostics, residual diagnostics y
stability diagnostics.

1§ Equation: EQOl Workfile: EJEMPLO l::Ej«cl5\


Vitw Proc Objtct Print Namt Fr,-ezt Estimat, F
Re-¡2:resentations
fstimation Output
Actual,Frtted,Residual
ARMA Structurl!!...
Y.radients and Derivatives Std. Erro
Co~añance Matrix
17.8989(
.'-oefficient Diagnostics 29.6656<
17.6676(
.Besidual 0iagnostics 0.34613"
Stability Diagnostics
Mean depe
l •bel S.D. depen
Alcaike lnfo
Sum squared resid 10.46725 Schwarz cr
27

1. Test sobre coeficientes

Dentro del desplegable coetficient diagnostics encontraremos los test sobre coeficientes, los
más importantes son:

Test de Wald
Test de variables omitidas
Test de variables redundantes

§) Equ.tion: EQOl Wortfi~ E.IEMPl0 1::Ejertl5\ - e, X


{View/Pt"oc!ObJtctj [ Print jNamt!Fmu l lfsumattlformnl Stats IRtskfs(
Rqz_resent.rtion1
f5tlmation0utput
,éctu.!,Fitted,fwidual
ARMA Structurt.~
,Grad1mts and Denv.ñives std Error 1-Statistic Prob

,&"ocff,c:im t Oi,gnosbcs
17,89890 1 1'3095
ic,led Codfic:ienU
O3048
-
,Bestdoal Oiagnosbcs Conf1denc:e Jnterv,ls...
~ability Diagnomcs ,onfidenu Elli¡ne...
Y:•(i,nu Infl.tion Factor.
Codfk1ent Vui.1nc:e QecompMitton
Stlm squared resld 10.46725
Loo llkellhood -13.45007 :W.,ld Test- Codfic1ent Restnct:Jons,_
F-staUstlc 34.31870
Qmitted V1"4bles Tert • Likelihood R,tio...
Prob(F-statlstlc) 0.000925
Bedundant Vara.blH Test - Lilcellhood Ratio ...
f,ctor Brukpoint T~t. ..
Test de Wald

Se utiliza para verifica r restricciones lineales y no lineales sobre los coeficientes, por ejemplo
verifica r si ~2=2, ~2=2 ~3, vamos a llevar a cabo el siguiente contraste:

H1 , no es cierta H0

Para ello segui mos los comandos: View/Coetficient diagnostics/wald test

En la pantalla emergente debemos introducir la restricción que queremos contrastar, para ello
tenemos que utilizar el idioma de Eviews, no podemos introducir directamente ~2 =2 ~3 , sino
que para Eviews los ~ los denomina C(n!!), el número del ~ que debemos introducir depende
de la posición que ocupe dentro de la ecuación

Dependent Variable: CO
IAethod: Least Squares
Date: Time:
Sample: 2005 2013
lnduded observations: 9
28
Variable Coefficient Std. Error t-Statístic Prob.
C(l )
e 20.46014 17.89890 1.143095 0.3048
P1 -67.70183 29.66564 -2.282163 0.0713
P2 82.40104 17.66760 4.663963 0.0055
R -0.046961 0.346131 -0.135674 0.8974

R-squared 0.953685 Mean dependent var 39.84262


Adjusted R-squared 0.925896 S.D. dependent var 5.315081
S.E. of regression 1.446876 Akaike info criterion 3.877793
Sum squared resid 10.46725 Sehwarz criterion 3.965448
Log likelíhood -13.45007 Hannan-Ouinn críter. 3.688633
F-statistic 34.31870 Durbin-Watson stat 1.965234
Prob(F-statístic) 0.000925

Por tanto para introducir la restricción debemos hacerlo como: C(2)=2*C(3)


Resultando:

WaldTest
Equation: E001

Test Statistic Value df Probability

t-statistic -3.688430 5 0.0142


~ ~ F-statistic 13.60452 (1, 5) 0.0142 ~ ~
L.::::=...J - -Chi-square 13.60452 1 0.0002 --- ~
====================
Null Hypothesis: C(2)=2'C(3)
Null Hypothesis Summary:

Normalized Restriction (= O) Value Std. Err.

C(2) - 2'C(3) -232.5039 63.03601

Restrictions are linear in coefficients.

29
Test de variables omitidas

A través del test de variables omitidas podemos comprobar si hemos dejado fuera del modelo
una variable que es relevante y mejoraría el modelo.

En nuestro ejemplo partimos del modelo lineal y comprobamos si deberíamos haber


introducido la variable R al cuadrado. El contraste seria:

2
H0 : Variable R no relevante

2
H1 : Variable R relevante, significativa en el modelo, debería incluirse.

Para ello seguimos los comandos: View/Coetficient diagnostics/Omitted variables test


Omitted Variables Test
Equation: EQ01
Specification: co e P1 P2 R
Omitted Variables: R•2

Value di ProbabiliJy
t-statistic 0.2.23630 4 0.8340
F-statistic 0.050011 (1, 4) 0.8340
Estadístico
~ Likelihood ratio

F-test summary:
0.111826 1 0.7381 P-valor

Sum ofSg. di Mean Sguares


Test SSR 0.129252 1 0.129252
Restricted SSR 10.46725 5 2.093450
Unrestricted SSR 10.33800 4 2.584499
Unrestricted SSR 10.33800 4 2.584499

LR test summary:
Value di
Restricted Logl -13.45007 5
Unrestricted Logl -13.39415 4

Unrestricted Test Equation:


Dependent Variable: co
Method: Least Squares
Date: 11/ 12/16 Time: 11:52
Sample: 2005 2013
lnduded observations: 9

Variable Coefficient Std. Error t-Statistic Prob.

e 23.10134 23.13023 0.998751 0.3744 30


P1 -80.21056 64.92446 -1.235444 0.2843
P2 91 .50852 45.20990 2.024081 0.1130
R 0.449468 2.252933 0.199504 0.8516
R• 2 -0054457 0.243512 -0.223630 0.8340

R-squared 0.954257 Mean dependent var 39.84262


AdJUSted R-squared 0.908514 S.D. dependent var 5.315081
S.E. of regression 1.607638 Akaike info criterion 4.087590
Sum squared resid 10.33800 Schwa12 criterion 4.197159
Log likelihood -13.39415 Hannan-Ouinn criter. 3.851140
F-statistic 20.86117 Durbin-Watson stat 1.958430
Prob(F-statistic) 0.006086

T est de variables r edundantes

A través del test de variables redundantes comprobamos si hemos introducido en el modelo


una variable que no aporta información, porque está referida a la misma magnitud que otra
variable del modelo y mejoraría el modelo si la excluyésemos.

En nuestro ejemplo partimos del modelo lineal y comprobamos si no deberíamos haber


introducido la variable P2. El contraste seria:

H0 : Variable P2 no es redundante

H1 : Variable P2 es redundante en el modelo

Para ello seguimos los comandos: View/Coetficient diagnostics/redundant variables test


Redundan! Variables Test
Equation: EQ01
Specification: co e P1 P2 R
Redundan! Variables: P2

Value df ProbabiliJy
t-statislic 4.663963 5 0.0055

Estad ístico ¡-+ F-statistic


Likelihood ratio
21 .75255
15.09473
(1, 5)
1
0.0055
0.0001
~
F-test summary:
Sum of Sg. df Mean Sguares
TestSSR 45.53787 1 45.53787
Restricted SSR 56.00512 6 9.334187
Unrestricted SSR 10.46725 5 2.093450
Unrestrided SSR 10.46725 5 2.093450

LR test summary:
Value df
Restrided Logl -20.99743 6
Unrestricted Logl -13.45007 5

Restricted Test Equation:


Dependen! Variable: CO
Method: Least Squares
Date: 11/12/16 Time: 11:52
Sample: 2005 2013
lncluded observations: 9 31
Variable Coefficient Std. Error t-Statistic Prob.

e -25.40999 31.57802 -0.804674 0.4517


P1 54.05491 29.75263 1.81681 1 0.1191
R 0.975475 0.565607 1.724653 0.1354

R-squared 0.752190 Mean dependent var 39.84262


Adjusted R-squared 0.669587 S.D. dependen! var 5.315081
S.E. of regression 3.055190 Akaike info criterion 5.332762
Sum squared resid 56.00512 Schwarz criterion 5.398504
Log likelihood -20.99743 Hannan-Ouinn criter. 5.190892
F-statistic 9.106072 Durbin-Watson stat 1.391845
Prob(F-statistic) 0.015218
2. Residuos

El estudio de los residuos permite comprobar si el modelo cumple con las hipótesis del MRLG
para los residuos, necesarias para obtener estimadores ELIO.

Los distintos test disponibles que encontraremos en Residual diagnostics son:

Correlograma
Correlograma de los residuos al cuadrado
Test de normalidad
Test de Breusch-Godfrey
Test de heteroscedasticidad

§ Equation: EQOl Workfilo: EJEMPLO l::Ejercl5\


Vitw Proc Objtd Print Namt Frttn Est1mat, Fortcast Stats Rtslds
Re¡resentation.s
fstimation Output
Actual,Fitted,Residual
ARMA Structure..,
.§radients and Derivatives Sic!. Error t-Statistic Prob.
Coyariance MatrDI:
17.89890 1.143095 0.3048 32
{.oeJficient Diagnostics 29.66564 -2.282163 0.0713
Besidual Oiagnostícs ~orrelogram - Q-statistics...
Stability Diagnostics Correlogram ~uared Residuals ...
t!istogram - Normality Test
1.abel
~rial Correlation LM T6t...
Sum squared resl d 10.46725
Log likelihood _13.4S00J_ _tt_•t_•_ro_,k_e_d_•st_i_city
_ T_e_,1_,.._. _ _ __,

Si seleccionamos Heteroskedasticity test aparecerá una pantalla emergente con todos los test
de heteroscedasticidad.

Hetl!!roskedasticity Tests ¡:¡ J


Speoflcabon
Test~:
Dependent vanable: RESID" 2
...,,,., The 8reusach.Paoan·Godhy Test
Gl<js<r
ARO< r~essiesttltsc,J«edr~on the
'Af;t, Of1,¡jJllal regessors by defatAt.
CUstom Test Wizard•• ,

Reg~s:
c pl p2r
Correlograma

El correlograma permite comprobar si existe autocorrelación en los residuos, además de incluir


el contraste de ljung box.

Veamos que contiene cada columna de la salida:

Autocorrelation ➔ Gráfico función de autocorrelación.


Partía/ correlation ➔ Gráfico función de autocorrelación parcial.
AC ➔ Valores función de autocorrelación.
PAC ➔ Valores función de autocorrelación parcial.
Q-stat➔ Valor estadístico ljung box.
Prob ➔ Probabilidad asociada al estadístico ljung box.

Sample: 2005 2013


lncluded observations: 9

Autocorrelalion Parlial Correlalion AC PAC Q-Stat Prob

1 -0.238 -0.238 0.7019 0.402


2 -0.010 -0.071 0.7033 0.704 33
3 -0.262 -0.300 1.8353 0.607
4 -0.179 -0.380 2.4695 0.650
5 0.036 -0.248 2.5011 0.776
6 0.152 -0.099 3.2654 0.775
7 0.071 -0.129 3.5137 0.834
8 -0.070 ~0.266 3.9943 0.858

Contraste Ljung-Box:

H0 : Residuos son ruido blanco

Para la realización del contraste se usaran las dos últimas columnas de la salida del
correlograma.
Test de Jarque-Bera

El test de Jarque-Bera contrasta la hipótesis nula de normalidad para el término de


pe rturbación del modelo.

H0 : Perturbaciones siguen una distribución normal, ur-N(u,o)

H1: Ho no cierta

Comandos a seguir: View/ Residual diagnostics/Histogram normality test

Series: Residuals
Sample 2005 2013
Observations 9
-
Mean -5.85e-15
Median -0.225225
Maxinum 2.290902
Mnimum -1.799028
Std. Dev . 1.143856
Skewness 0.522995
1 - Kurtosis 3.210502 34
Estadístico
Jarque-Bera 0.426903 1
º -<+--- --+---+-- - + - - + - - + - -+ - - - , - -- --+' Probabiity 0.80779\,
P-valor
·2.0 ·1.5 -1 O -O 5 o.o 0.5 1.0 1.5 2.0 2.5
1

Test de Autocorrelacion: Breusch-Godfrey

Vamos a verificar la existencia de autocorrelación de primer orden utilizando dos potencias en


el test de B-G.

H0 : no haya autocorrelación del AR(2)

H1 : si hay autocorrelación

Regresió n auxiliar:

Comandos a seguir: View/ Residual diagnostics/Serial correlation LM test

Aparecerá una pantalla emergente, debemos introducir el número de potencias


(autocorrelación) que deseamos contrastar. En este caso introducimos 2 potencias.
Breusch-Godfrey Serial Correlation LM Test

F-statistic 0.106012 Prob. F(2,3) 0.9026~


Estadístico ~ =º=b=s=•R=-S=Q=u=ar=e=d====º=
·5=94=0=8=6=P=ro=b=C=h=l·=S=Qu=a=re=(=2)====º·=74=3=0•~ ~
Test Equation:
Regresión Dependen! Variable: RESID
auxiliar Melllod: Least Squares
Date: 11/12/16 Time: 11:53
Sample: 2005 2013
lnduded observations: 9
Presample missing value lagged residuals set to zero.

Variable coefficient Std. Error t-Statistic Prob.

e -0.547033 22.72506 -0.024072 0.9823


P1 -1.025832 38.97682 -0.026319 0.9807
P2 1.554669 23.85835 0.065162 0.9521
R -0.018924 0.441344 -0.042877 0.9685
RESID(-1) -0.273150 0.593746 -0.460045 0.6768
REStD(-2) -0.095389 0.633437 -0.150589 0.8899

R-squared 0.066010 IAean dependent var -5.85E-15


AdJusled R-squared -1.490641 S.D. dependent var 1.143856
S.E. of regression 1.805206 Akaike info c,iterion 4.253948
Sum squared resid 9.776310 Schwarz criterlon 4.385431
Log likelihood -13.14277 Hannan-Ouinn aiter. 3.970208
F-statistic 0.042405 Durbin-Watson stat 1.506753
Prob(F-statistic) 0.997774

35

Test Heteroscedasticidad: White

Este test se utiliza para comprobar si existe homocedasticidad en el modelo.

H0 : Homoscedasticidad

H1 : Heteroscedasticidad

Regresión auxiliar:

Seguimos los comandos: View/ Residual diagnostics/Heteroskedasticity test

Seleccionamos White
Heteroskedasticity Test White

F-statistic 2.301570 Prob. F(2,57) 0.1093 . - - { 3


~ Obs'R-squared 4.483350 Prob. Chi-Square(2) 0.1063 P-valor
~ Scaled explained SS 4.379035 Prob. Chi-Square(2) 0.1120

Regresión Test Equation:


Dependen! Vanable: RESID"2
auxiliar Method: Least Squares
Date: 11112116 Time: 11:55
Sample: 199501 200904
lncluded observations: 60

Variable Coefficient Std. Error t-Stati slic Prob.

e 6.276733 9.621166 0.652388 0.5168


VAB_CONST -0.105903 0.186850 -0.566781 0.5731
VAB_CONST'2 0.000665 0.000846 0.785804 0.4352

R-squared 0.074722 Mean dependen! var 3.481136


Adjusted R-squared 0.042257 S.D. dependentvar 5.075710
S.E. of regression 4.967311 Akaike info criterion 6.092341
Sum squared resid 1406.428 Schwarz crite rion 6.197058
Log likelihood -179.7702 Hannan-Ouinn criter. 6.133302
F-statistic 2.301570 Durbin-Watson stat 0.923186
Prob(F-statistic) 0.109333

Test Arch: Heteroscedasticidad condi cional autor regr esiva


36

Este test nos permite contrastar si hay "heteroscedasticidad condicionada autorregresiva" o


" heteroscedasticidad tipo Arch".

Contraste:

H0 : no hay efecto Arch(l)

H1 : si hay efecto Arch(l)

Regresión auxiliar:

Seguimos los comandos: View/ Residual diagnostics/Heteroskedasticity test

En la pantalla emergente:

Seleccionamos ARCH, en Number of lags: (numero de potencias) 1


Heteraskedasticity Test: ARCH

F-statistic 8.855375 Prab. F(1,6) 0.0248


Estadístico ~ =O=b=s=•R=-=sq=u=a=re=d====4.=7=68=8=4=6=P=ra=b=.=C=hi=-S=q=u=ar=e=
(1=) ====º·=º=29=0~

Regresión Test Equatían:


auxiliar Dependen! Variable: RESID• 2
Methad: Least Squares
Date: 11/12/16 nme: 11:54
Sample (adjusted): 2006 2013
lncluded abservatians: 8 alter adjustments

Variable Caeflicient Std. Error t-Statístíc Prab.

e 0.088894 0.322966 0.275244 0.7924


RESID• 2(-1 ) 0.434875 0.146137 2.975798 0.0248

R-squared 0.596106 Mean dependen! var 0.652377


AdJusted R-squared 0.528790 S.D. dependen! var 1.078025
S.E. af regressian 0.740007 Akaike infa criterian 2.448005
Sum squared resid 3.285666 Schwarz criterian 2.467865
Lag likelihaad -7.792020 Hannan-Ouinn criter. 2.314055
F-statistic 8.855375 Durbin-Watsan stat 3.216824
Prab(F-statistic) 0.024771

Test de Gl ejser
37

Este contraste se utiliza para encontrar una estructura o esquema sobre la variación del
término de perturbación.

Se especifican distintas regresiones auxiliares:

1e; 1= Óo + Oi zt + Vi
Se realizan una verificación individual de 01 en cada una de las regresiones auxiliares con el
estadístico t.

De entre las regresiones auxiliares donde 01 resulte significativo nos quedamos con aquella que
2
tenga mayor R •

Ha: Oc =O

Aplicamos el contraste para h=l

Seguimos los comandos: View/ Residual diagnostics/Heteroskedasticity test


En la pantalla emergente:

Seleccionamos Glejser

Heteroskedasticity Test Glejser

F-stalislic 2.059323 Prob. F(3,5) 0.2244


~ Obs'R-squared 4.974224 Prob. Chi-Square(3) 0.173~
~ ~ Scaled explained SS 3.284701 Prob. Chi-Square(3) O.349á~ L..:::'.'...._J

Regresión Test Equalion:


auxiliar Dependen! Variable: ARESID
Method: Leas! Squares
Date: 11/12/16 Time: 11:54
Sample: 2005 2013
lnduded observalions: 9

Variable Coefficient Std. Error t-Statistic Prob.

e 6.144686 7.867415 0.781030 0.4701


P1 -12.54763 13.03946 -0.962282 0.3801
P2 8.840997 7.765747 1.138461 0.3065
R -0.312419 0.152141 -2.053485 0.0952
38
R-squared 0.552692 Mean dependen! var 0.812829
Adjusted R-squared 0.284307 S.D. dependen! var 0.751750
S.E. of regression 0.635970 Akaike info crilerion 2.233773
Sum squared resid 2.022292 Sehwarz criterion 2.321428
Log likelihood -6.051978 Hannan-Ouinn criter. 2 044613
F-stalistic 2.059323 Durbin-Watson sial 1.845488
Prob(F-statislic) 0.224354

Test Breusch-Pagan-Godfrey

Se utiliza para determinar la heterocedasticidad en un modelo de regresión lineal. Analiza si la


varianza estimada de los residuos de una regresión dependen de los valores de las variables
independientes.

Ho: Homoscedasticidad

H1: Heteroscedasticidad

Seguimos los comandos: View/ Residual diagnostics/Heteroskedasticity test

En la pantalla emergente:

Seleccionamos Breush-Pagan-Godfrey
Heteroskedaslicity Test Breusch-Pagan-Godfrey

1 F-statislic 2.075134 Prob. F(3,5) o.2222 ~__r;;::;;;:-i


0.1724 ...-- ~
Estadístico
¡----. Obs*R-squared 4.991235 Prob. Chi-Square(3)
'------' Scaled explained SS 1.702644 Prob. Chi-Square(3) 0.6363

Regresión Test Equalion:


auxiliar Dependeni Variable: RESID'-2
Method: Least Squares
Date: 11/12/16 Time: 11:53
Sampl e: 2005 2013
lnduded observations: 9

Variabl e Coefficient Std. Error t-Statistic Prob.

e 11.11008 19.15362 0.580051 0.5870


P1 -32.56023 31.74521 -1 .025674 0.3521
P2 26.45302 18.90610 1.399179 0.2206
R -0.846778 0.370394 -2.286150 0.0710

R-squared 0.554582 Mean dependen! var 1.163028


Adjusted R-squared 0.287331 S.D. dependen! var 1.834052
S.E. of regression 1.548302 Akaike info criterion 4.013297
Sum squared resid 11.98620 Schwarz: criterion 4.100953
Log likelihood -14.05984 Hannan-Ouinn criter. 3.824137
F-statistic 2.075134 Durbin-Watson stat 1.401255
Prob(F-stalistic) 0.2.2 2218

39

3. Estabilidad

Para comprobar la estabilidad de nuestro modelo t enemos los distintos test de est abilidad que
encontramos en el menú ecuación: View/ Stability diagnostics

§ Equation: EQOl Wot1cf,le: EJEMPLO l:;E,utlS\ - O X


lVinvJ Proc !Obj, rtf lPrintlNam,j Fmin I IEstimate l Fomast l Stah l Rtsids 1
R~esentat10ns
Istimation Output
Actualfitt~RHidual
ARMA Structure...
§radients and Derivatives std. Error t-statistic Prob.
C~•n•nce M,trix
17.89890 1.143095 0.3048
"odficiimt Diagnostics 29.66564 -2-282163 0.0713
17,66760 4 663963 00055
f!,Hidual Diagnostics O:\.iñ1.l1 --01'.l"iñ74 OR~74
S:tabílity Diagnostia Chow §re:akpoiot Test...
Quandt-And~ Brealcpoint Test...
L.abd
Chow foreust Test.. ,
SUm squared resid 10.46725
Bamsey RE.SET Ttst..,
LOO Ukelihood -1 3.45007
F-statlstic: 34.31870 Rf<u~ Est1rnates (OLS onty) ...
Prob(F-statistic) 0.000925 .LiN"rag" Plots...
Jnfluenu Stafrmu...
Test Reset-Ramsey

Reset-Ramsey demostró que si la media de las perturbaciones es nula no existen errores de


especificación.

H0 : no hay errores de especificación, E(u;)=O

H1 : hay errores de especificación, E(u;);t O

Regresión auxiliar:

CO;=a;+ a.2x1,+ <l3x2,+Cl.4 X3,+<ls Fittecf + V;

Seguimos los comandos: View/ Stability diagnostics/ Ramsey reset test

Aparecerá una pantalla emergente con el número de potencias o retardos que deseamos
(number of fitted terms), para el ejemplo utilizamos una potencia.

RamseyRESETTUI
EQuation E001
Spedl'icalion: CO e P1 P2 R
Omlll.edVarlabl es: 5<1uares offltted values 40
Yalue Probabil!!l
t-statistic 0.880229 "'
4 0.4284
~ F•SlatiStic o n4B04 (1,4) 0.4284 P-valor
Ukelih0OCI ratio 1 593526 1 0.2068

F-test summary:
Sum orsg r.1ean Sguaru
Test SSR 1.698512 "'1 1.698512
ResbictedSSR 10.46725 5 2.093450
UnrtstrideO SSR 8.768736 2.1 92184
Unrestrided SSR 8.768736 2.192184

LR test summary
Value
Restricted L09l -13.45007 "'5
unrestrlaed LoOL -12.65330

Regresión Unrestrlded Test EQUation:


a uxiliar Dependen! variable. CO
Method: Least SQUares
Date: 11f12/16 Time: 11:58
Sampre. 2005 2013
lnduded observations· 9

Variabl e Coemdent StdError t-Statlstle Prob

e 32.90570 23.13853 1.422117 02281


P1 -3409098 311-8637 -1.093137 03358
P2 397.S173 358 4496 1.108991 03298
R O 077702 0.381464 O203695 08485
FITTEOA-2 -0.044707 0.050791 -0.880229 0-4284

R-sguar,CI O 961200 l.lean Clepeneltnlvar 3984262


AdJusted R-squared O 922401 S.D. dependentvar 5.315081
S.E. of reoresslon 1.480603 Akalke lnro afterion 3.922956
Sum squared resid 8 768738 Schwarz alterion 4.032525
Log likelihood - 12.65330 Hannan-Ouinn criter. 3.686506
F-statistic 24.77346 Durbin-Watson stat 2.192187
Prob(F-statlstie) 0.004399
Test de cambi o estructural predicción : Chow

El test de Chow verifica si se ha producido un cambio estructural que haya afectado a las
predicciones realizadas con el modelo.

H0 : no hay cambio estructural

H1 :H0 no cierta (si hay cambio estructural)

Seguimos los comandos: View/ Stability diagnostics/Chow forecast test

Chow Forecast Test


Equation: EO01
Specification: CO e P1 P2 R
Test predictions for observations from 2010 to 2013

Value df Probabili~
F-statistic 0.827417 (4, 1) 0.6667
~ ikelihood ratio 13.14774 4 0.0106 111 P-valor

F~est summary
Sum ofSg. df Mean Sguares
TestSSR 8.038464 4 2.009616
RestridedSSR 10.46725 5 2.093450
Unrestrided SSR 2.428784 1 2.428784 41
Unrestrided SSR 2.428784 2.428784

LR test summary:
Value df
Restrided LogL -13.45007 5
Unrestrided Logl -6.876194 1

Unrestrided log likellhood adjusts test equation results to accountfor


observations in forecast sample

Regresión Unrestrided Test Equation:


auxiliar Oependent Vartable: CO
Method: Least Squares
Date: 11/12116 lime: 11:58
Sample: 2005 2009
lncluded observations: 5

Vartable Coefficient Std. Error t-Statistic Prob.

e -39.22127 70.21442 -0.558593 0.6757


P1 -184.1773 95.98894 -1.918734 0.3059
P2 249.9011 106.5322 2.345779 0.2565
R 0.477969 1.117960 0.427537 0.7428

R-squared 0.874083 Mean dependent var 37.15714


Adjusted R-squared 0.496333 S.D. dependent var 2.195951
S.E. of regression 1.558456 Akaike info criterion 3.715830
Sum squared resid 2.428784 Schwarz criterion 3.403380
Log likelihood -5.289575 Hannan-Ouinn criter. 2.877246
F-statistic 2.313917 Ourbin-Watson stat 3.288324
Prob(F-statistic) 0.442137
Test de cambio estructural: Chow

El test de Chow permite verificar si los parámetros poblacionales se mantienen o no estables


en la población, es decir, si los cambios producidos en la realidad han afectado a la estructura
del modelo y sería necesario incluirlos en el modelo.

Ho : no hay cambio estructural

H1:Ho no cierta (si hay cambio estructural)

Seguimos los comandos: View/ Stability diagnostics/Chow breakpoint test

Chow Breakpoint Test: 2010


Null Hypothesis: No breakS al specified breakpoints
Varying regressors: Ali equation variables
Equation Sample: 2005 2013

F-statistic 0.827417 Prob. F(4,1) 0.6667


Estadístico l - Log likelihood ratio 13.14TT4 Prob. Chi-Square(4) 0.0106 .J P-valor
f r Wald Statistic 3.309666 Prob. Chi-Square(4) 0.5074 ~ ! 42

Test recursivos

La estimación recursiva permite detectar posibles cambios estructurales y sobretodo, en qué


momento se producen y a qué coeficientes puede afectar.

Existen distintos test recursivos, podemos encontrarlos todos en: View/ Stability
diagnostics/Recursive estimation

Recursive E.stimation

OUt¡,ut Coeffioent display ist


G Recursive Resiruals e( 1) c(2) c( 3) e( 4)
CUSUMTest
CUSUM of Squares Test
_ One-Step ForecastTest
_ N-Step fo,ecast Test
Reaxsive Coeffidents

L] Save Resuts as Series OK J I cancel


Residuos recursivos

La representación gráfica de la serie de residuos recursivos junto con sus bandas de confianza,
definidas como ±2 veces su desviación estándar, permite detectar inestabilidad en los
parámetros cuando uno o varios residuos sobrepasan sus bandas.

-1

·2

.3

-4 ->--- -~ - - ~ - - - ~ - - ~ - --<
2009 2010 2011 2012 2013

1- RecurstYe Reslduals --- t 2 S_E_ 1


43

Cusum

Si los valores se empiezan a alejar de cero e incluso se salen de las bandas, estarían indicando
un posible problema de cambio estructural.

........................................................------------

-2

-4

-6
······
-8...----~--~---~---~---
2009 2010 2011 2012 2013

I- CUSUM --· 5% Significance !


Cusum cuadrado

El estadíst ico CUSUM cuadrado se utiliza para contrastar la estabilidad del modelo sumas
acumuladas de los cuadrados de los residuos recursivos

1.6 ~ - - - - - - - - - - - - - - - - - ~

1.2

0.8

0.4
-·······
........--···········
o.o+-- -__-___-__-___-_.-.-~
---,.......- - - - - - - - - - - ----,

-0_4 _,__ _ _ ~--~---~---~------<


2009 2010 2011 2012 2013

1- CUSUM of Squares -·-- 5'- SíQnificance 1


44

Coeficientes recursivos

El gráfico de los coeficientes recursivos representa el comportamiento de cada uno de los


estimadores al ir añadiendo observaciones a la muestra con la que se realiza la estimación.

Las series de coeficient es se m uestran junto con sus bandas de confianza (± dos veces su
desviación estándar) lo que permit e intuir la presencia de inest abilidad en el modelo si los
coeficientes sufren cambios al ir variando la muestra, es decir, si no se mantienen
aproximadamente constantes.
200~--------------~ 10 0 ~ - - - - - - - - - - - - - - ~

..........................--···· --·-···-•-···---------
100

-100

-200

-100
-300
.--------------···
-200 -;.-- - - - -~ - -~ - -~ - ---l --400 - - -~ - -- --~--~----l
2009 2010 2011 2012 2013 2009 2010 2011 2012 2013

- RecursN'e C(1) Estmates - Recursive C(2) Estinates


---- 12S.E, ----- 1 2 S.f .

soo~--------------~
400
····••............._______________ _
300

200

100 -1

...... ---------- -------••••• ••••••. -••··•"º""".,. ........- -


0+------~--~--~-----1 -2+---~-----~--~-----1
2009 2010 2011 2012 2013 2009 2010 2011 2012 2013

-
---· !
RecursN'e C(3) Estimates
2 S.E.
-
----· !
Recursive C(-4) Estimate.s
2 S.E. 45

Estudio multicolinealidad

El estudio de la multicolinealidad del modelo consta de varias fases:

1-lndicios de multicolinealidad

2- Matriz de correlaciones

3- Determinante de la matriz de correlaciones

4-Test de Klein

Los indicios de que existe multicolinealidad en el modelo serían si, el modelo no supera la
mayoría de los contrastes de significación individual a pesar de superar la significación
conjunta (elevado R2 ).
Matriz de correlaciones

Si las correlaciones a pares entre las exógenas son elevadas sería un indicio de
multicolinealidad. Para obtener la matriz de correlaciones lo primero que debemos hacer es
abrir el grupo de variables exógenas, seleccionándolas en el fichero de trabajo con la opción
Ctrl pulsada podemos abrirle o directamente con la tecla intro o con el botón derecho del
ratón y seleccionar la opción open, se nos abrirá el siguiente grupo:

View Proc Object Print Name Freeze Default ..,.


obs P1 P2 R
2005 1.101100 1.127000 2.159702
2006 1.090000 1.102400 2.457497
2007 1.090000 1.096500 2.899805
2008 1.120000 1.119600 3.499033
2009 1.084900 1.096500 4.334176
2010 1.121800 1.154700 5.084507
2011 1.078900 1.067800 6.102032
2012 1.230000 1.334800 7.739482
2013 1.156300 1.318800 9.577672

Una vez que tenemos el grupo, procedemos a obtener la matriz, seguimos los comandos:
46
View/covariance ana/ysis

! lPro e¡ Object ] IPrint JName JFr


View

§roup Members
!!preadsheet
Qated Data Table
§raph...

Qescriptive Stats
r ovariance Analysis...

En la pantalla emergente tendremos el menú del análisis, debemos seleccionar correlation en


la serie de opciones disponibles, seleccionar el sample {periodo adecuado) y en el recuadro
saved resu/ts basename darle un nombre a nuestra matriz (yo elegí m ), por último OK.
Covariance Analysis

Statisbcs Parbal analysis

Method: !ardmry ·1 Senos or 9'"'4>' for cooditiorwlg (optional):

EJ Covariance I:] l'broor of cases


[t] Corrolation 1:1 l'broor of obs.
i'.] SSCP []Sun ofwo,gl,ts Opbons
l'.J t-stabsbc
El Probabitv I t 1• o WoiO'>tino: I~None
----~·1
Layout: !Sp.<eadsheet ·1
r'.] d.f. corrKtedcovariances
Samplo
None
2005 2015

Saved ,.,..,¡ts
basename: m

El resultado será la siguiente matriz:

MCORR
C1 C2 C3 1
Last updated: 11/12/16 - 12:04

R1 1.000000 0.889948 0.599062 47


R2 0.889948 1.000000 0.751559
R3 0.599062 0.751559 1.000000

Si algún valor (fuera de la diagonal principal) es cercano a 1, indicaría que hay posible
multicolinealidad.

Determinante de la matriz de correlaciones

Para el cálculo de la matriz de correlaciones en la ventana de comando debemos escribir:

=@det(mcorr

Nombre de la matriz guardada

0 EViews
File Edit Obj ect View Proc Quick
=@det(mcorr)
El resultado aparecerá en la línea de estado (en la ventana de Eviews abajo izquierda)

Scalar = 0.08.56399107613

Test Klein

Para llevar a cabo el test de Klein debemos realizar la regresión de cada exógena respecto al
2 2
resto, si el R de alguna de las estimaciones es superior que el R del modelo principal estamos
ante un caso de multicolinealidad grave.

Para realizar las regresiones seguimos los comandos normales para una estimación: Quick/
Estímate equation
48
En nuestro caso debemos llevar a cabo t res regresiones:

Modelo Forma de
introducirlo
Opción 1 Pl, =J3, +J32*P21+J33*R, + u, Pl c p2 r

Opción 2 P21 =J3, +J32*Pl,+J33*R, + u, P2 e pl r


Opción 3 R, = J3, +J32*Pl,+J3 3*P2, + u, Re pl p2
Resultado:

@) EqlHIIOl'I: EQOS WOl'kfilt: EJEMPLO Ujc,<15\ - C1 x @) Equ~ EQ06 WoMilt: EJEMPlO 1:; f,trclS\ - e X
jvitw)Ptoc!0o,1,e1)JMrClfW!llflf•m1ljbt1111M1IFortmt]St•1IRHHhl jvitw)Pl'«[Ot>Jut]IP11ntlfu.ni.f[frnu ljfst111wtt[f0Jtu5tls~,1~sldsl
Depenóent\lariable: P1 Dependffl\lariable. P2
Wetnoct Leas! Sauares Mtll'lod. LtaSI SQUarH
O.ile 11/12J16 nmc 12 06 Dale 11112.111:1 nme 12 08
Sampte: 2005 2013 Sam~e:2005201l
ln<:fl.l(lt(I ObHMIJons !il lnctudto obseMtions 9

\laflatlle Co.mdent Sld Error t-Statis1c Var1aDlt Cotffldtnt SICI. Error 1-Statlstc

e 0.530536 0.117309 4 52257l


""
0.0040 e -O 556669 0.345561 •1.610915
""
O 1583
P2 05"2•092 0115-482 4 538320 00039 P1 1 477612 0325586 • 538320 00039
R -0.003691 0.004519 ,-0.816887 0.4452 R 0-012-108 0.006189 2.004699 0.0918

R·sauareo 0871375 Idean de pendenhar 1 119222 R·sQUared 0914403 Meandependentvar 1157587


Mjusted R•SQUatl d 0.828500 S.O. oepenoentvar O °'48081 Mjusted R-squar1d O 885870 S.D Olpendentvar O 098964
s E or ,eo,ession 0019911 ,'J(.aíkt k'lfOCffleriOfl -47338A7 SE Ol'ltO,U SfOl'I 0033A33 Ak.aiktlnf0c:nltl10tl -3697333

,.....,
SUm SQUared resld 0.002379 Schwarzaiterion -058105 Sum SQUared resid 0.006707 Scnwan aiterion -3.631591
Log l1kI UMod 24.30231 Hannan-Ouinn c,tter ◄ 875717 Log l1kIlitlood 1953800 H annan-Oulnn ct11:I r -3 839203
F•statisltc 20.32358 Durtk'I-Watsons~ F-statisltc 32.04785 [}urt)jfl+Watson stat 1227141
PfOtl(F-statlstlc) 0.002128 PfOb{F-statlstlc) 0.000627

(§ [ qu,t,on: EQ17 Wotldik.: U[ MPLO l~(jttcl.5\ - O X

l~ IProclOl>.1tct(!Pr1ntl~111tjf,uuJ!fit1-1elfortmt[S1;1ujR.ul(ls)
DependtntVanaDle: R
Uethocl. Lust Squares .-íl
Date 11112/16 Time 12:06
Sample 2005 2013
tndudtd obseNations 9
.,
var1at>11 1-s.aust1c
e
Cotffldlnl

-2.202049
Std Error

210911M ~.10,U02
""
0112<13 49
P1 -27114-4.3 33 19240 -0816887 04452
P2 32_32797 16.12610 2.004699 0.0918

R-sQUared 0.658546 Mean dtpendtnt-ar 4.87265e


AajusteCI R-squareCI O544729 s .o. e11pene11n1var 2.529184
SE..Ol'reoressiOn 1 706537 AAaii;e inlo criterion 4 168010
Sum squareCI r■siCI 17 47360 Sdnlrarzc:ntenon 4.233752
LOQNl;tlihOOd -15 75605 Hannan-Outnnettter 402'140
F-stabstic 5.785968 Durbln-Watson stat 1.001597
Prob(F-slaaslle) 0039810

2
Lo que resta es comparar los coeficientes de determinación R •
Datos ejemplo

Llevamos a cabo el estudio del consumo de naranjas, para el periodo 2005-2015.

Para ellos contamos con las siguientes variables:

Consumo de naranjas expresado en toneladas (CO,)


Precio en € de las naranjas (Pl,)
Precio en€ de los plátanos {P2,)
Renta nacional (R,)

obs co P1 P2 R
2005 40.96910 1.1011 00 1.127000 2.159702
2006 35.58961 1.090000 1.102400 2.457497
2007 36.46826 1.090000 1.096500 2.899805
2008 35.82432 1.120000 1.119600 3.499033
2009 36.93440 1.084900 1.096500 4.334176
2010 40.01959 1.121800 1.154700 5.084507
2011 35.81354 1.078900 1.067800 6.102032
2012 46.88589 1.230000 1.334800 7.739482
2013 50.07885 1.156300 1.318800 9.577672 50
2014 45.81358 1.109400 1.228300 11.12694
2015 44.72002 1.190700 1.266100 12.76935
51

Editado: Legacy academia online

Autor: Marta García

Contacto: legacy.online@gmx.com

También podría gustarte