Está en la página 1de 67

INTERPRETACIÓN DE RESULTADOS DE LA REGRESION

Suponiendo que partimos del modelo siguiente:

Y
Β1
TPE
Y = β0 + β1 (X1) + β2 (X2) + u

Donde β0

Y= Variable dependiente
X1= Variable explicativa X

Β0= Intercepto. El parámetro que corresponde al término constante debe ser


interpretado como el valor que otorga la variable endógena cuando el resto de variables
explicativas valen cero. Por ejemplo en una función de consumo, aunque este depende
de la renta y de otras variables, cuando todos ellos valen cero el individuo realiza un
consumo para sobrevivir, lo que es conocido como “autoconsumo”. Ese valor queda
recogido en el modelo básico de regresión lineal a través del parámetro que
corresponde al término constante.

Β1= Pendiente (debemos recordar que la pendiente o β1 se debe entender como una
propensión marginal o bien como una elasticidad). Miden la relación entre las variables
explicativas y la variable endógena a través de su signo y su cuantía. El signo mide si
la relación entre las variables es directa o inversa (si a medida que la explicativa
incrementa también lo hace la endógena o viceversa). La cuantía sirve para medir que
variable explicativa, de todas las explicitadas en el modelo, es más importante para
explicar el comportamiento de la endógena, de tal manera que si todas las variables
están medidas en las mismas unidades de medida, la variable más importante será la
que tenga un mejor valor de su parámetro.

U= TPE es una variable que recoge todos aquellos factores factores que pueden influir
a la hora de explicar el comportamiento de las variables Y que sin embargo no están
reflejados en la variable explicativa X. Estos factores deben ser poco importantes, es
decir, no puede existir una variable explicativa relevante omitida en el modelo de
regresión. De ser así estaríamos incurriendo en lo que se conoce como un error de
especificación del modelo. El término de perturbación también recoge los posibles
errores de medida de la variable dependiente Y.

i= es el subíndice que hace referencia a las diversas observaciones para las cuales se
establece su validez. Según el tipo de valores con los que este trabajando, el subíndice
hará referencia a distintos modelos del tiempo (series temporales las cotizaciones en
bolsa diarias, los índices de precio al consumo mensuales, los datos anuales del PIB de
un país, etc.).
Parámetros

El análisis de los parámetros estimados permite conocer la estructura económica del


fenómeno que se está analizando, entendiendo por estructura el patrón de
comportamiento de acuerdo con el cual se desarrolla una acción. De este modelo, en
un modelo en el que se trata de explicar la evolución del consumo en función del
ingreso y de la tasa de interés, la estructura económica quedará definida como
Incrementos de consumo a medida que incrementa el ingreso y reducciones de
consumo a medida que incrementan la tasa de interés.

Una vez estimado el modelo, admitimos que la estructura permanece constante para
todo el periodo de estimación. Esto es, que los parámetros son los mismos para toda la
muestra y que las relaciones permanecen constantes para todo el periodo analizado. Es
por ello, que los parámetros no van acompañados de un subíndice en la expresión
matemática del modelo básico de regresión lineal.

Usualmente nos encontramos que al efectuar una regresión, los signos de los
parámetros generan confusión para su interpretación. A continuación se muestran las
representaciones gráficas de los parámetros y sus formas básicas de interpretación.

Si β0 es negativo

Únicamente indica el punto donde parte la recta, de regresión.

Como se puede observar el signo del intercepto (β 0). Es negativo y únicamente nos
indica el punto de donde parte la recta de regresión.

β0
Si β0 es positivo

Muestra el punto donde parte la recta de regresión; el componente autónomo o aquella


parte de (variable dependiente) que no está en función de (variable explicativa).

Y En este caso, el signo del intercepto ( β0)


es positivo y además de indicarnos el
punto de donde parte la recta, muestra el
componente autónomo, o sea, aquella
parte de Y (la variable dependiente) que
no depende de X (la variable explicativa),
β0 ya que en el punto donde comienza la
recta, el valor que toma X es cero.

Si βi es positivo
Muestra que por cada unidad que se incremental (variable explicativa), (variable
dependiente) aumenta en (valor de β) unidades.

Y1 . Cuando el signo de β1 es positivo, al tenerse


Y2 un incremento en la variable explicativa (X'),
se ve un incremento en la variable
dependiente. X va de X1 a x2 y Y de y1 a y2.

X1 X2
Si βi es negativo
Muestra que por cada unidad que se incremente (variable explicativa), (variable
dependiente) disminuye en (valor de Bi) unidades.

Cuando el signo de βi es negativo al


tenerse un incremento en la variable
explicativa (X), se ve un decremento
en la variable dependiente, es decir,
que cuando X aumenta desde X1
Y1 hasta X2, Y disminuye de y1 a y2.
Y2
Pruebas de Hipótesis

Prueba de significación individual (1- student)


X1 X2
Dado que una hipótesis es una conjetura o una suposición que se hace acerca del
comportamiento de algún parámetro, al efectuarse regresiones es pertinente suponer
algún comportamiento de los parámetros estimados.

Si el intercepto (β0) es el componente autónomo o punto de donde parte la recta,


supondremos que no existe tal componente autónomo es decir, que la recta partirá del
origen. Si la recta partirá del origen entonces el valor que tomará el intercepto será
cero. Tal y como se muestra a continuación.

β0 = 0
En el caso de la pendiente (β 1), sabemos que siempre esta asociada a una variable
explicativa y el valor de este parámetro muestra la respuesta que tendrá la variable
dependiente a movimientos unitarios de la explicativa por esto, si suponemos que el
parámetro toma un valor cero, entonces cualquier movimiento que tenga la explicativa
no afectará a la dependiente. Si esto sucede decimos que la variable independiente no
sirve para explicar a la dependiente. Esto se muestra a continuación.

X2 X0 X1

Aquí se aprecia que la pendiente (βi) tiene un valor Cero, por lo cual cuando X aumenta
desde X0 hasta X1, o bien, si X disminuye desde X 0 basta. X2, la variable dependiente no
presenta movimientos motivo por el cual se dice que la independiente no sirve para
explicar a la dependiente.

Dado lo anterior, suponemos que la hipótesis nula y alternativa para B 0 y Bi son:

Ho: β0 = 0
Ha: β0 ≠ 0

Ho: βi = 0
Ha: βi ≠ 0

De aquí que la interpretación de las hipótesis es:

Si se acepta la hipótesis Ho: β 0 = 0 el parámetro no es estadísticamente significativo y


se concluye que la recta partirá del origen y no existe componente autónomo.

Si se rechaza la hipótesis Ho: β0 = 0, el parámetro es estadísticamente significativo y


por lo tanto se concluye que la recta partirá del punto calculado y se valida la existencia
de un Componente autónomo.

Si se acepta la hipótesis Ho: β i = 0 el parámetro no es estadísticamente significativo


y por lo tanto se llega a la conclusión de que la variable asociada a dicho parámetro no
sirve para explicar a la variable dependiente.

Si se rechaza la hipótesis Ho: βi = 0 el parámetro es estadísticamente significativo y


por lo tanto, la variable independiente asociada sirve para explicar a la dependiente.

En caso de que exista más de una variable explicativa la forma de interpretar los
parámetros asociados a ellas, es similar al de β i.

Prueba de significancia conjunta (F-Fisher)

La prueba F se caracteriza por hacer una conjetura solamente sobre los parámetros
asociados a las variables explicativas, por lo cual se excluye al intercepto. Las hipótesis
características de esta prueba son:

H0: β1 = β2 = …= βk = 0
Ha: β1= β2 = … = βk = 0

Si se acepta la hipótesis H0: β1 = β2 = …= βk = 0 se dice que los parámetros en forma


conjunta no son estadísticamente significativos, por lo que se concluye que todas las
variables independientes, de manera conjunta, no sirven para explicar a la
dependiente.

Si se rechaza la hipótesis Ha: β1= β2 = … = βk = 0 los parámetros son estadísticamente


significativos y entonces, las variables independientes de manera conjunta, sirven para
explicar a la variable dependiente.

Coeficiente de correlación, determinación, determinación ajustado y matriz de


correlación.

Coeficiente de correlación simple (r)

Muestra el porcentaje en el cual el comportamiento de (la variable independiente)


explica al comportamiento de (la variable dependiente). Aquí medimos el poder
explicativo que tiene la variable dentro de una regresión.

Matriz de correlación

Aquí incluimos todas las posibles relaciones que se generan entre las variables
explicativas y la variable dependiente, o bien la relación existente entre las mismas
variables explicativas.
Los resultados de la matriz se leen:
1 rx1y rx2y
rxiy es la correlación existente entre x1 y Y
R= rx1y 1 rx1x2 rx2y es la correlación existente entre x2 y Y
rx1x2 es la correlación existente entre x1 y x2

rx2y rx1x2 1

Como podemos observar, la matriz de correlación es de suma importancia dentro de la


regresión múltiple para definir el poder explicativo que tiene cada variable por separado.

Coeficiente de correlación múltiple ( R)

Este nos muestra el porcentaje en el cual el comportamiento de (las variables


independientes) de manera conjunta, explica al comportamiento de (la variable
dependiente).

Coeficiente de determinación múltiple (R2)

Este nos indica el porcentaje en el cual la variación o varianza de (las variables


independientes), de manera conjunta, explica a la variación o varianza de (la variable
dependiente).

Recordemos que la relevancia de este coeficiente radica en su poder explicativo en


torno a las varianzas generadas.
Coeficiente de determinación múltiple ( R2)

Esto nos indica el porcentaje en el cual la variación o varianza de (las variables


independientes), de manera conjunta, explica a la variación o varianza de (la variables
dependiente), cuando se consideran los grados de libertad de la regresión.

VIOLACIÓN DE SUPUESTOS DEL MODELO DE REGRESIÓN

Supuestos del modelo:


1) La suma de los residuos es igual a cero Σu = 0
2) El valor medio del TPE (u) es cero .
3) La varianza de los TPE es constante u homoscedastica [ var(u i) = o2]
4) No existe autocorrelación entre las perturbaciones [E (u i ui) = 0]
5) Las variables explicativas son no estocásticas o, si son estocásticas están
distribuidas independientemente de las perturbaciones [Σ X u = 0]
6) No existe multicolinealidad entre las variables explicativas dado el supuesto de rango
por columna pleno p{X) n >>k .
7) Los TPE poseen una distribución normal [u ~ N(0,o 2) ]
8) El modelo de regresión está correctamente especificado
9) Los parámetros están normal ente distribuidos [β ~ N ( β S 2 (XX)-1 ) ]

Multicolinealidad

Es un fenómeno que se presenta en un modelo de regresión lineal múltiple cuando dos


o más variables independientes' tienden a seguir una misma forma de comportamiento
durante un proceso económico (existe una relación entre ellas) y, por tanto resulta difícil
cuantificar sus efectos individuales sobre la variable explicada. Este problema reside,
por tanto, en la muestra utilizada y/o de la especificación del modelo, y no tiene causas
interpretables.

Ello está vinculado al supuesto de rango por columna pleno de la matriz de variables
explicativas, donde ese supuesto marca que el número de observaciones empleado en
una regresión debe ser mayor que los parámetros a estimar [p(X); n > k].

Si se rompe con tal supuesto y se tiene [p(X) < k], ello implica que si el 'determinante de
la matriz (X'X) es igual a cero, se tendrá la existencia de multicolinealidad perfecta y,
por lo tanto tal matriz no tendrá inversa y no habrá solución para el sistema. Por otro
lado, si el determinante de la matriz es muy pequeño, habrá multicolinealidad
imperfecta y la matriz tendrá inversa y el sistema si tiene solución pero se tendrán los
siguientes efectos.

 Las estimaciones individuales de los parámetros están mal identificadas, esto es,
el valor estimado de un parámetro puede depender crucialmente del (los) valor
(es) estimado{s) de otro{s).
 Se genera una inflación artificial de la varianza de los parámetros estimados.
 Las estimaciones resultan sensibles con respecto a la muestra utilizada lo que
supone que si, por ejemplo, se amplía la muestra con una nueva observación,
las estimaciones obtenidas pueden variar sustancialmente.

Las formas más usuales para detectar la presencia de multicolinealidad son:

1) Si existen valores t no significativos, un elevado R2, así como un F alto.


2) Si F es significativa y alguna t no, implica que las variables explicativas están
altamente correlacionadas que es imposible aislar el impacto que tienen las variables
exp1icativas sobre la variable dependiente. Si el valor de t es bajo indica que la variable
independiente asociada al parámetro probado no puede explicar a la dependiente.

3) Si los errores estándar de los coeficientes son muy elevados, los valores
poblacionales de los coeficientes no pueden estimarse de forma precisa.

Uno de los indicadores de la presencia de multicolinealidad es el coeficiente de


correlación entre las variables explicativas (r 23, si el modelo es con dos variables
explicativas). A medida que tiende a uno (a medida que aumenta la colinealidad), las
varianzas de los estimadores aumentan y, en el limite, cuando r 23 = 1 ellas son infinitas.

Aunque el coeficiente de correlación entre las variables explicativas es útil, deja de ser
tan importante cuando nos encontramos con una regresión con más de una variable
explicativa y se hará referencia principalmente a la detección de la multicolinealidad
cuando exista incongruencia en las pruebas estadísticas t y F.

Implicaciones de la multicolinealidad

a) Aún cuando los estimadores son MELI, estos presentan varianzas y covarianzas
grandes, que hacen difícil la estimación precisa.
b) Debido a lo anterior, los intervalos de confianza tienden a ser más amplios
conduciendo a una aceptación más fácil de la hipótesis nula.
c) La razón t de uno o más coeficientes tiende a ser estadísticamente no
significativa.
d) Aún cuando la razón te sea aún no estadísticamente significativa; el R 2 pude ser
muy alto.
e) Los estimadores MCO y sus errores estándar pueden ser sensibles a pequeños
cambios de información.

Si el único propósito del análisis de regresión es el pronóstico o la predicción, la


colinealidad no se constituye en un problema serio porque cuanto mayor sea el R 2,
mejor será la predicción.
Rutas para corregir multicolinealidad

 Aumentar el tamaño de la muestra de los datos


 Reducir la escala del modelo, es decir hay que cancelar alguna variable
explicativa. La cancelación se hace por medio de los coeficientes de correlación
para observar el grado en el cual la variable independiente explica a la
dependiente.

Heteroscedasticidad

Este problema surge cuando no se cumple el supuesto de homoscedasticidad, es


decir, cuando las varianzas de los TPE son diferentes.

Si se ignora la heteroscedasticidad entre términos de perturbación estocástica en un


modelo de regresión y el procedimiento MCO es usado para estimar los parámetros se
tiene lo siguiente:

1) Las estimadores y pronósticos basados en ella serán insesgados y consistentes


2) Los estimados MCO no son MELI y serán ineficientes, los pronósticos también serán
ineficientes.
3) Las varianzas y covarianzas estimadas de los coeficientes de regresión serán
sesgadas e inconsistentes, y las hipótesis son invalidadas.

Autocorrelación

El problema de correlación serial es un problema frecuente, cuando se emplean datos


en series de tiempos, ya que en este caso los TPE reflejan en partes variables no
incluidas explícitamente en el modelo, mismas que pueden cambiar lentamente a través
del tiempo. Así, el TPE en una observación estará relacionado con los TPE de las
observaciones cercanas.

Una causa general de la correlación serial es una mala especificación del modelo; en
particular, la exclusión de las variables relevantes para el modelo.

La existencia de autocorrelación provoca tanto estimadores MCO ineficientes, como


fallas en las pruebas comunes de significancia estadística. Los estimadores ya no
poseen varianza mínima.
En el siguiente gráfico pueden apreciarse las zonas en las que existe la autocorrelación
serial ya sea positiva o negativa o una determinada.

Correlación serial Ausencia de Correlación serial


Positiva correlación negativa

O dl du 4-du 4-du 4
Indeterminación

Si Ho Decisión
0 de dl No existe autocorrelación positiva Rechazar
dl d du No existe autocorrelación positiva No hay decisión
du d 4 – du No existe autocorrelación Aceptar
4- du d 4 dl No existe autocorrelación negativa No hay decisión
4- dl d 4 No existe autocorrelación negativa Rechazar

En el caso en el que se da indeterminación, se puede optar por ampliara el tamaño de


la muestra.
INTRODUCCIÓN A EVIEWS

Eviews proporciona herramientas para el cálculo de regresión y pronóstico en.


Computadoras con ambiente windows, pudiendo desarrollar una relación estadística de
datos y usar ésta para pronosticar valores futuros de los mismos. Eviews trabaja con
series de tiempo, donde cada serie tiene un nombre y pueden hacerse operaciones en
todas las observaciones con solo indicar el nombre de la serie. . También proporciona
formas convenientes para introducir series de tiempo desde el teclado o a partir de
archivos en discos creando nuevas series de tiempo: de las ya existentes, para
presentarlas en pantalla e imprimir series y generar análisis estadísticos de las
relaciones entre las mismas.

Algunas de las funciones básicas más importantes de Eviews son:

 Introducir y corregir series de tiempo.


 Calcular nuevas series basadas en fórmulas de cualquier complejidad.
 Graficar series en pantalla o imprimirlas, realizar diagramas de dispersión, de
barras y de pies.
 Mínimos cuadrados ordinarios, mínimos cuadrados con corrección
autorregresiva y en dos etapas.
 Estimación Logia y Probit de modelos
 Estimaciones lineales y no lineales de sistemas de ecuaciones
 Estimación y análisis de vectores de sistemas autorregresivos
 Descripción estadística: correlaciones, covarianzas, autocorrelación,
correlación cruzada e histogramas.
 Estacionalidad autoregresiva y error de proceso en promedios móviles
 Rezagos polinomiales distribuidos
 Pronósticos basados en análisis de regresión
 Solución de modelos de ecuaciones simultáneas
 Manejo de series de tiempo en base de datos.
 Lectura de archivos de datos y escritura en formatos normales de hoja de
cálculo
 Etc.

Eviews esta construido alrededor del concepto de objeto. Los objetos incluyen series
de tiempo, ecuaciones, modelos, coeficientes y matrices, que son utilizados de manera
activa durante la sesión.

El objeto de datos básico dentro de Eviews es la serie de tiempo. Cada serie tiene un
nombre y pueden realizarse operaciones con todas las observaciones con sólo
mencionar el nombre de la serie. Eviews proporciona maneras convenientes visuales
para introducir series de tiempo desde el teclado o de un archivo en disco, crear una
serie nueva de las ya existentes, desplegar e imprimir la serie y llevar a cabo un análisis
estadístico de las relaciones entre las series.
Funciones de Eviews

Al introducirse en el programa Eviews, aparecerá la siguiente pantalla:

La línea superior es la barra del menú, principal conde los elementos mostrados hacen
referencia de las diferentes operaciones que pueden realizarse dentro de diversos
submenús.

Si elige File, aparece un submenú que muestra los posibles procedimientos que
pueden seguirse para trabajar con un archivo.

New permite crear un nuevo archivo de trabajo, bajo el concepto de objeto,


incluyéndose un submenú que permite trabajar con archivos de trabajo, bases de datos,
programas y archivos de textos.
Open permite abrir archivos que han sido guardados con anterioridad, referentes a
archivos de trabajo, bases de datos, programas y archivos de texto.

Save permite guardar un archivo que ha sido abierto, el cual ya tiene un nombre
asignado.

Save as posibilita guardar un archivo nuevo, asignándole un nombre o renombrar un


archivo existente que haya sido modificado.

Close permite crear un archivo al concluir con una sesión de trabajo.

Import posibilita importar archivos de texto, así como hojas de calculo, provenientes de
otro archivo de Eviews o de algún otro programa (como excel).

Export posibilita exportar la información, que contiene un archivo de Eviews a algún


otro programa o archivo dentro de Eviews.

Print permite imprimir un archivo desde el programa

Print setup permite establecer las características que ha de tener la impresión, tanto
por las posibilidades que presenta la impresora, como por las necesidades del usuario.

Run permite corre un programa establecido para el ambiente Eviews.

Exit permite al usuario salir del programa Eviews.

La demás funciones de la barra principal serán descritas más adelante.


INFRAESTRUCTURA

Objetos y vistas

Como ya se a mencionado, Eviews esta construido alrededor del concepto de objeto.


Los objetos incluyen series de tiempo, ecuaciones modelos, coeficientes y matrices,
que son utilizados de manera activa.

Creando objetos

Al elegir File/New, aparecerá un submenú que hace referencia a los tipos de archivo
con los que puede trabajarse, como se muestra a continuación.
Al hacer clic en Workfile se desplegará la siguiente ventana.

La ventana muestra lo que se conoce como frecuencia de trabajo, es decir, el período


de tiempo que ha de trabajarse. L frecuencia de los datos puede ser anual (Annual),
semestral (semi-annual), trimestral (Quartely), semanal (weekly), diario (en semanas
de 5 y 7 días) o si los datos no están arreglados en serie de tiempo o son mostrados
como una frecuencia no incluida o son irregulares en el tiempo se podrán especificar las
series sin fecha (Undated or irregular), lo que significa que no hay un año asociado
con el número de observación, es decir, hay simplemente una numeración consecutiva.

En la parte baja de la ventana se observan dos elementos Star date y End date que se
refieren a la fecha inicial y la fecha final de la serie respectiva.

Cómo introducir datos

Debido a que Eviews utiliza datos para identificar series de tiempo, las reglas que se
tiene para la composición de los datos son:

Anual
Se debe declarar el año completo, por ejemplo: 1980, 1990, 2000.

Semestral
Se debe declarar el año completo y el número correspondiente al semestre: 1980.1,
1989.2.
Trimestral
Se debe declarar el año completo y el número correspondiente al trimestre: 1980.1,
1990.4.

Mensual
Se debe declara el año completo y el número correspondiente al mes: 1980.01,
1990.12.

Semanal
Se debe declarar el mes, día y año de la serie, por ejemplo si se trabaja una serie para
todo el año 1999, donde la primera semana comienza el día primero, se debe declara
el mes de enero, el día primero y el año 1999: 1.1.1999 y para finalizar la serie, si la
última semana de 1999 finaliza el día 31 de diciembre, se debe declarar 12.31.1999.

Diario
Se debe declarar el mes, día y año donde comienza la serie, es decir,, si se trabaja todo
el año 1998, se pondrá como fecha inicial el primero de enero de 1998: 1.1.1998 Y
como fecha final el 31 de diciembre de 1998: 12.1.1998.

Por ejemplo, si se tiene una serie anual de 1980 a 1998, la ventana será:
El archivo de trabajo

Al haber elegido la frecuencia anual y declarado la fecha inicial y la fecha final, se da un


clic en OK, apareciendo la ventana siguiente:

La ventana muestra inicialmente el rango que se esta trabajando, la muestra que se


desea trabajar, un vector de coeficientes C (el cual se vincula al intercepto en una
regresión) y una serie de tiempo de residuales Resid.

Para introducir los ciatos y las variables que han de trabajarse en un modelo, se debe
teclear data, apreciándose esto en la parte superior de la pantalla, y dar Enter,
mostrándose la siguiente ventana:
Esta hoja de cálculo (similar a Excel) es la ventana de una serie, donde han de
declararse las variables correspondientes a un modelo y los datos vinculados a ellas.

En la parte alta de ésta ventana aparece una barra de herramientas que proporciona
varias opciones y procedimientos para las series en Eviews.

View

Al elegir esta opción se presenta un submenú que posibilita realizar tareas como:
mostrar los grupos de datos; mostrar la hoja de cálculo, dividir la información por
períodos, mostrar gráficas simples, mostrar gráficas múltiples; mostrar estadísticos
descriptivos, realizar pruebas de igualdad, tabular los datos de diversas formas, mostrar
las correlaciones, mostrar la matriz de covarianzas de los parámetros sin ajustar a los
grados de libertad, mostrar correlogramas, presentar correlaciones cruzadas, efectuar
pruebas de cointegración, efectuar la prueba de causalidad de Granger y etiquetar la
hoja de cálculo. A continuación se presenta la ventana correspondiente y se describirán
éstas funciones:
Group Members permite ver en una ventana los objetos que han sido introducidos
como series.

Spreadsheet permite ver la hoja de cálculo nuevamente al haber trabajado con otra
opción.

Dated Data Table permite ver en una ventana la información de las series por
período, es decir, si se trabaja con tres variables, se presentara la información de esas
variables por período y no el total.

Graph permite ver gráficas de las series en conjunto (es decir, en una sola gráfica se
observarán los datos de todas las series al mismo .tiempo) en diferentes formatos
como: líneas, barras, dispersiones (dispersión simple, dispersión con regresión,
dispersión con datos ajustados cercanos y dispersión con masa ajustada), líneas XY,
pie. Sí está trabajando con ésta opción.

Multiple graphs permite observar gráficas múltiples de cada serie por separado en
distintos formatos como: líneas, barras, dispersión (de las primeras series vs otras o
como una matriz de todas las series), líneas XY v gráficas de distribución.

Al trabajar con las opciones de gráficos es posible cambiar las características de los
mismos dando doble click a la ventana donde se encuentran tales gráficas, apareciendo
la siguiente ventana:
N-Way Tabulation permite tabular las series de diversas formas, así como dar formato
a. la hoja de cálculo para efectuar pruebas estadísticas como de Razón de
Verosimilitud.

Correlations permite ver la matriz de correlación de las variables involucradas en la


regresión.

Covariances permite observar la matriz de varianzas-covarianzas sin considerar en la


varianza residual a los grados de libertad.

Correlogram (1) permite ver los correlogramas en diferentes niveles, presentando el


correlograma de primera y segunda diferencia para una serie de tiempo.

Cross Correlación (2) permite ver el correlograma cruzado de dos variables o series.

Cointegration Test permite efectuar la prueba de cointegración de Johansen para


ecuaciones de cointegración o para vectores autorregresivos

Granger causality permite realizar la prueba de causalidad de Granger entre variables


o series.

Label permite dar un nombre a la hoja de cálculo

Procs
Esta opción presenta un submenú con dos opciones para hacer una ecuación o un
vector autorregresivo
Make equation permite ver una caja de diálogo en la cual se especificarán las series
involucradas en la ecuación de regresión.

Make Var permite establecer un vector autorregresivo declarando las variables


exógenas y endógenas mediante la siguiente caja de diálogo.
Objects
Esta opción hace posible trabajar con los objetos desde la hoja de cálculo con las
siguientes opciones:

Store to DB permite guardar objetos en un banco de datos.


Update to DB permite nombrar y actualizar datos en un banco de datos

Copy Object permite hacer una copia de la hoja de trabajo.

Name permite dar un nombre a la hoja de trabajo.

De!ete permite borrar objetos de una hoja de trabajo.

Freeze Output permite obtener una ventana congelando los datos de la hoja de trabajo,
los cuales no sufrirán modificaciones cuando se modifique la hoja de trabajo original.

Print permite imprimir los datos de las series incluidos en la hoja de trabajo.

View Options permite hacer modificaciones en la hoja de trabajo editando,


disminuyendo o aumentando la muestra, insertando o borrando información,
transponiendo la información como en una matriz e insertando un título para el grupo de
trabajo.

Print
Imprime la hoja de trabajo.

Name
Hace posible asignar o cambiar el nombre de las series.

Frezee
Cambia la hoja de cálculo en una tabla objeto como en la opción Objects/Freeze
Output.

Edit +/-
Cambia el modo del editor de apagado/encendido haciendo posible cambiar el nivel de
datos. Es posible agregar series adicionales al grupo, seleccionando el grupo en la hoja
de cálculo, tec1enado el nombre de la nueva serie al encender el editor. Este está
usualmente apagado.

lns/Del
Permite insertar observaciones, moviendo subsecuentemente observaciones adelante o
borrar una observación moviendo subsecuentemente observaciones posteriores.

Smpl +/- .
Hace posible elegir qué observaciones serán o no incluidas en la hoja de cálculo.
Transpose
Transpone los datos de la hoja cambiando las columnas en renglones.

Titles
Permite cambiar el título de la hoja de cálculo.

Sample
Permite cambiar la muestra a observar en el archivo de trabajo.

Una vez que se han visto las funciones de los elementos de la barra de herramientas,
es pertinente dirigir la atención hacia cómo ha de trabajarse en la hoja de cálculo y
como han de declararse las variables

Al estar dentro de la hoja de trabajo, con las flechas se debe dirigir hacia arriba hasta
que se duplique la celda Obs. Una vez que la celda se ha duplicado, en ese renglón
deben declararse las variables que se desean, y posteriormente, los datos
correspondientes al periodo. Por ejemplo, si se trabaja un modelo de inversión, donde
la inversión, 1 = 1 (r , Tc), está en función de la tasa de interés y del tipo de cambio, se
tiene lo siguiente:

Como puede apreciarse, ya han sido introducido los datos y las variables
correspondientes al modelo de inversión.

Si en algún momento se cometió algún error al capturar la información, es posible


corregirla iluminando los renglones completos o columnas dentro de la hoja de cálculo.
Seleccionando el área se puede reescribir sobre la información anterior, empleando en
la barra principal Edit/Copy y posteriormente hay que seleccionar una nueva área con
las mismas características (el mismo número de renglones o columnas que el área
original) y posteriormente seleccionando en la barra principal Edil/Paste.
Una vez hecho lo anterior, puede salvarse la información, seleccionando File/Save as y
dando un nombre al archivo. Si se cierra la ventana podrá apreciarse que aparece una
ventana que incluye los iconos C, Resid, I, R, TC, correspondientes a los elementos
que intervienen en la regresión, tal como se muestra a continuación:

Trabajando con información previamente capturada

Si la información ya había sido capturada con anterioridad, al iniciar la sesión se debe


elegir File/OpenlWorkfile y elegir el archivo según el nombre que se le haya dado y dar
click en OK, apareciendo la ventana anterior.

En esta ventana se podrán apreciar las variables declaradas dentro del modelo. La
barra de helTamienta en la parte superior del archivo de trabajo es el panel principal de
control de views, teniéndose las siguientes opciones:
View

Pennite abrir una selección de los íconos que aparecen en la ventana, imprimir la
selección o mostrar partes de los elementos en una pequeña ventana. También se tiene
la opción de seleccionar o eliminar la selección hecha, desplegar comentarios o dar un
nombre a la ventana.

El submenú que aparece dentro de la opción View es:

El submenú muestra las siguientes opciones:

Open Selected: permite abrir una o varias ventanas que contengan a la información
que fue seleccionada previamente. Si se elige una ventana (one, window), aparecen
cuatro opciones: Open group permite visualizar la información seleccionada en una
hoja de calculo de todas las series que fueron elegidas; Open equation permite
establecer la ecuación de regresión del modelo; Open var permite establecer un vector
de auto regresión con el cual se ha de trabajar; Open multi series permite ver la
información de las series de las ventanas separadas, tal como al elegir ventanas
separadas (separate windows).

Print Selected Permite imprimir la información presentada según se haya seleccionado


previamente.

Show permite observar los objetos dentro de una pequeña ventana, según la forma
como se desea que se presente la información, ya sea como objeto, como una formula,
como una lista de series o formulas, o como una lista de graficas. Tal como se aprecia
en la ventana siguiente:
Select all (except C – Resid) permite seleccionar las series a excepción del vector de
coeficientes e y la serie de residuales, con lo cual aparece la información en una hoja
de cálculo, tal como al introducir los datos de las series. Si se elige ésta opción, se debe
dar doble click en la parte sombreada, apareciendo una ventana que o solicitará se elija
la opción con la que se desea aparezca la información con un determinado formato, con
las opciones Open group, Open equation, Open var y Open múltiple series, debiéndose
elegir Open group. Al hacer lo anterior, se observará nuevamente la hoja de cálculo que
fue capturada anteriormente.

Select By Filter hacer una selección basada en la eliminación de series que no se


desea sean incluidas es decir, se filtra aqnel1a información que no es deseada,
apareciendo la ventana siguiente:
Deselect all. Permite eliminar las selecciones hachas con anterioridad al cometer un
error al seleccionar una serie no deseada.

Display Comments permite desplegar comentarios acerca de la hora y fecha en la


que fue registrada o modificada una serie.

Display Filter Permite desplegar una ventana en la cual se filtran objetos al igual que la
opción Select by filter.

Name Display permite desplegar comentarios de serie, hora y fecha como en la opción
Display Comments, solo que se tiene dos opciones: uppercase para hacerlo en
mayúscula y lowercase para hacerlo minúscula.

Procs
Posibilita acceder a un submenú en el cual pueden realizarse operaciones con la
muestra, cambiar rangos de archivo de trabajo, generar series, ordenar series e
importar y exportar datos. El submenú que aparece puede apreciarse en la ventana
siguiente.
Las opciones que presenta el submenú son:

Sample permite definir la muestra dentro de un rango de valores de datos de las series,
es decir, al introducir los datos de las series fue bajo un periodo de tiempo específico,
pero esta opción posibilita reducir la muestra de datos, por ejemplo, si se introdujeron
datos para el periodo 1980 – 1998, se pueden reducir la muestra en ciertos periodos,
pudiendo quedar esta como 1985 – 1998.

Para ello aparece la siguiente caja de dialogo, tecleando como se ilustra la nueva
muestra de datos.

Change Workfile Range permite modificar el rango establecido para las series, es
decir, si la serie inicia en 1980, puede modificarse para que inicie en 1970, mostrándose
la caja de diálogo que aparece en la opción de New Workfile.

Generate Series permite generar nuevas series basadas en las ya establecidas. En


esta opción se puede obtener una nueva serie mediante el uso de las que se tienen,
empleando una fórmula, por ejemplo, si es en un modelo de consumo se quiere como
nueva variable al ingreso rezagado, se debe dar un nuevo nombre a la variable y como
una formula declarar el ingreso con un (-1). En la siguiente caja de diálogo se observa
esto.
Sort Series permite arreglara las series en orden ascendente o descendente.

Import permite importar datos o series desde otro archivo de Eviews o desde un
archivo de Lotus-Excel.

Export permite exportar datos o series hacia otro archivo de Eviews o hacia un archivo
de Lotus-Excel.

Objects
Hace posible acceder a un submenú para trabajar con los objetos que se tienen el
archivo, pudiendo realizar operaciones diversas con los objetos como: nuevos objetos,
nombrar objetos en un banco de datos y borrar objetos que no sean deseados, tal como
se aprecia en la ventana siguiente:

Las opciones que presenta el submenú son:


New Object permite trabajar con uno o varios objetos, dándole diferentes formatos
como se aprecia a continuación:

Fetch from DB permite nombrar objetos dentro de un banco de datos, moviendo todas
las observaciones posibles sin mover las observaciones en la muestra corriente
controlando las observaciones que actualmente son empleadas en operaciones
subsecuentes de Eviews empleando la siguiente caja de diálogo.
Undate selected from DB permite actualizar la información de uno o varios objetos
desde la base de datos que se tiene almacenados.

Store selected to DB permite situar un objeto en un archivo de banco de datos. Para


hacer esto de debe seleccionar el objeto, guardándolo como un archivo de base de
datos, como se aprecia a continuación:

Copy selected permite copiar uno o varios objetos que han sido elegidos señalando la
fuente de origen y la fuente de destino.
Rename selected permite dar un nuevo nombre a uno o varios objetos del archivo
con el cual se esta trabajando, apreciando la siguiente caja de diálogo.

Delete selected permite borrar uno o varios objetos que han sido seleccionados.

Save
Hace posible guardar la información que ha sido capturada o modificada del archivo de
trabajo.

Label +/-
Muestra como una etiqueta la hora y fecha con que se trabajo un archivo o sus objetos.
Show
Muestra una caja de diálogo solicitando los objetos que han de desplegarse en una
ventana sencilla, pudiéndose declarar tales objetos como una fórmula, una lista de
series, grupos o fórmulas o como una lista de gráficas. Al elegir esta opción aparecerá
la siguiente caja de diálogo:
Fetch
Hace posible nombrar objetos dentro de una base de datos como en la opción
objects/Fetch from DB.

Store
Sitúa un objeto dentro del archivo de banco de datos como en la opción Objects/Stores
selected from DB.

Delete
Hace posible borrar uno o varios objetos seleccionados como en la opción Objects/
Delete selected.

Genr
Se utiliza para generar nuevas objetos partiendo de los que se tienen mediante
operaciones lógicas o matemáticas como en la opción Proas/Generate series.

Sample
Es empleado para modificar el tamaño de la muestra de las series como en la opción
Proas/Sample.

REGRESIÓN

Al haber declarado las variables capturado la información pertinente, se elige la opción


Proas/Make equation, aparece el cuadro de diálogo descrito anteriormente y se
declaran los elementos que deben estar contenidos en el modelo comenzando por la
variable dependiente, seguida por el intercepto y las variables explicativas.

Al hacer lo anterior, aparecerá una pantalla con los resultados de la regresión. El


reporte de la regresión se mostrará de la manera siguiente:
A continuación se describen los elementos del reporte de regresión.

Coeficientes de regresión
Cada coeficiente multiplica la variable correspondiente, formando la mejor predicción de
la variable dependiente. El coeficiente promedia la contribución de la variable
independiente para la medición. El coeficiente de las series llamado C, es la constante
o intercepto de la regresión, estos es la parte de la variable dependiente cuando las
variables explicativas valen cero. Los otros coeficientes son interpretados como
pendientes de las relaciones entre las variables explicativas y la variable dependiente.
En términos económicos, las pendientes deben entenderse como elasticidades o
propensiones marginales.

Error estándar
Es un promedio estadístico que rehabilita los coeficientes de la regresión. De acuerdo
con la teoría de la regresión, existen dos oportunidades de tres respecto a los
verdaderos coeficientes, y hay 95 oportunidades de 100 de que esté dentro de los dos
errores estándar.

T-estadístico
Es una prueba para la hipótesis de que un coeficiente tenga un valor en particular. El
estadístico prueba la hipótesis de que el valor real del coeficiente es cero, ya que ello
indicara que el parámetro no es estadísticamente significativo (que la variable
explicativa asociada al coeficiente no sirve para explicar a la dependiente). La prueba
se realiza con n-k grados de libertad.

Probabilidad
Aquí muestra la probabilidad asociada al estadístico t, de tal manera que la
probabilidad indica el porcentaje de certeza de aceptar la hipótesis planteada como
nula.

Coeficiente de determinación (R2)


Promedia el éxito de le regresión en la predicción de los valores de la variable
dependiente en una muestra. Es una función de la varianza de la variable dependiente
explicada por las variables independientes.

Coeficiente de determinación ajustado (R2)


Es parecido al coeficiente de determinación, sólo que aquí se consideran los grados de
libertad de la regresión. Es menor que el coeficiente de determinación.

Error estándar de la regresión


Es un promedio que resume el tamaño de errores de la predicción y tiene las mismas
unidades como variables dependientes. De hecho, es un promedio de magnitud de los
residuales.

Suma de residuos cuadrados


Es un fuerte indicativo del valor que ha de tener la varianza residual. Es empleado para
determinar diversas pruebas a un modelo de regresión.
Logaritmo de máxima verosimilitud
Es el valor de la función de probabilidad evaluado para los valores estimados de los
coeficientes. Ello se basa en el hecho de que para hacer estimaciones máximo
verosímiles es necesario partir de una distribución normal multivariada.

Estadístico Durban Watson


Es empleado para realizar una prueba de correlación serial. Esta prueba será descrita
más adelante.

Estadístico F
Es una prueba para verificar hipótesis de manera conjunta, es decir, a diferencia de la
prueba t, donde se prueban hipótesis para cada coeficiente, aquí se realiza una prueba
para verificar una hipótesis conjunta donde se supone que los coeficientes asociados a
las variables explicativas es cero.

Dentro de la barra de herramientas que aparece en la ecuación, se tienen las


siguientes opciones de trabajo, correspondientes a las distintas pruebas que deben
realizarse a de un modelo.

Pruebas y resultados del modelo

Al haber obtenido los resultados de la regresión dentro de la opción View, se tendrá lo


siguiente:

View/Representations
Muestra en una pantalla distintas formas de presentación de la ecuación de regresión.

View/Estimation Output
Muestra los resultados de la regresión. Esta opción es útil para regresar a la primera
pantalla, después de haber trabajado con otras opciones.

View/Actual-Fitted-Residual
Muestra un submenú en el cual se pueden elegir distintas formas para observar el
comportamiento de los residuos de la regresión. Se presentan opciones como dar
detalles de los valores actuales y estimados de la variable dependiente así como los
residuos, en forma de tabla y de gráfica. También se podrá observar una gráfica de los
residuos únicamente.

View/Actual-Fitted-Residual/Actual-Fitted-Residual Table
Muestra una tabla con los valores de la variable dependiente en forma actual y
estimada, así como de los residuos. También se mostrará una gráfica de los residuos.

View/Actual-Fitted-Residual/Actual-Fitted-Residual Graph
Muestra una gráfica basada en los valores de la variable dependiente en forma actual y
estimada, así como de los residuos.

View/Actual-Fitted-Residual Residual Graph


Muestra una gráfica donde sólo pueden apreciarse los residuos.
View/Covariance matriz
Muestra la matriz de varianzas covarianzas de los coeficientes considerando la
varianza ajustada a los grados de libertad.

View/Coefficient tests
En esta opción se apreciará un submenú con tres posibles pruebas que se han de
realizar a los coeficientes del modelo tales como: la prueba de Wald, variables omitidas
y variables redundantes.

View/Coefficient test/Wald
Aquí aparece un cuadro de diálogo en el que debe indicarse las restricciones sobre los
coeficientes que se quieren dentro de un modelo.

View/Coefficient test/Omitted variables


El cuadro de diálogo en el que se deben declarar las variables del modelo para ver si
aportan información relevante.

View/Residual test
En esta opción se pueden realizar pruebas acerca del comportamiento de los residuos
para comprobar si se violan los supuestos del modelo de regresión. Aquí aparece un
submenú mostrando distintas pruebas como: correlograma de residuos, correlograma
de residuos cuadrados, normalidad, LM para autocorrelación, ARCH para
heteroscedasticidad condicional autorregresiva y White con y sin términos cruzados
para detección de heteroscedasticidad.

View/ residual test/Correlogram


Muestra una serie de datos estadísticos, así como un gráfico de residuos.

View/Residual test/Correlogram squared residuals


Muestra de datos estadísticos, así como un gráfico de residuos cuadráticos.

View/Residual test/Normality test


Muestra un histograma y datos estadísticos para probar si los residuos tienen
comportamientos normales.

View/Residual test/Serial correlation LM


Realiza una prueba para hacer la detección de autocorrelación.

View/Residual test/ARCH LM
Efectúa una prueba para ver si los residuos presentan heteroscedasticidad condicional
autorregresiva.

View/Residual test/WHITE(no cross terms)


Realiza una prueba para detectar si la varianza de los residuos es homoscedástica
considerando a los productos de los regresores.

View/Residual test/white (cross terms)


Realiza una prueba para detectar si la varianza de los residuos es homoscedástica
considerando a los productos de los regresores.
View/Estability test
Esta opción hace posible detectar si el modelo presenta inestabilidad en sus
parámetros o cambios estructurales. Se presentan pruebas como: punto de ruptura de
Chow, Pronóstico, Ramsey-Reset y estimaciones recursivas y estimados recursivos.

View/Estability test/Chow breakpoint


Efectúa una prueba para ver si los coeficientes tienen el mismo comportamiento en
cualquier punto del tiempo.

View/Estability test/Chow forecast


Realiza una prueba acerca del modelo y sus coeficientes para observar su factibilidad
para el pronóstico.

Estability test/Ramsey-Reset
Hace una prueba para detectar si la ecuación de regresión y por tanto, el modelo está
correctamente especificado.

Estability test/ recursive estimates


Muestra diversas pruebas para analizar si el modelo presenta inestabilidad. Se basa
en el uso de los residuos, sólo que únicamente puede realizarse por mínimos
cuadrados ordinarios. Se muestra un submenú con seis opciones: residuos recursivos,
CUSUM, CUSUMQ. Prueba de un solo paso, prueba de N pasos y coeficientes
recursivos.

Estability test/recursive estimates/recursive resuduals


Muestra un gráfico con los residuos empleando una banda basad en el uso de la
desviación estándar.

Estability test/ recursive estimates/CUSUM


Muestra Un gráfico de la suma acumulada de los residuos empleando una banda
basada en el uso de la desviación estándar.

Estability test/ recursive estimates/CUSUMQ


Muestra un gráfico de la suma acumulada de los residuos cuadrados empleando una
banda basada en el uso de la desviación estándar.

Estability test/ recursive estimates/One step forecast


Muestra un gráfico exhibiendo los puntos donde la ecuación de regresión es menos
exitosa con probabilidades asociadas.

Estability test/ recursive estimates/N-step forecast


Muestra un gráfico exhibiendo los puntos donde la ecuación de regresión es menos
exitosa para efectuar pronósticos, con probabilidades asociadas. Esta prueba va muy
ligada con la de Chow para pronóstico.

Estability test/recursive estimates/Recursive Coefficients


Muestra distintos gráficos de los coeficientes que intervienen en la ecuación de
regresión para observar su estabilidad.
Procs
La opción Procs hace posible trabajar dentro de un submenú que tiene como opciones:
especificar/estimar, pronóstico, hacer modelo, fechar coeficientes de la ecuación, hacer
un grupo de regresores y hacer series de residuos.

Procs/Specify/Estimate
Permite redefinir a las variables que intervienen en un modelo.

Procs/Forecast
Permite obtener una evaluación acerca de la factibilidad de un modelo para el
pronóstico.

Procs/Make model
Permite obtener la solución de un modelo que se plantea.

Procs/Update coefficients form equation


Permite fechar los coeficientes.

Procs/Make regressor group


Permite obtener una tabla de los regresores que intervienen en la regresión.

Procs/Make residual series


Permite crear una serie de los residuos.

Las funciones de las demás opciones que se presentan en el menú son idénticas a las
descritas con anterioridad.
VIOLACIÓN DE SUPUESTOS DEL MODELO DE REGRESION

Supuestos del modelo:

1) El valor medio del TPE (u) es cero


2) La varianza de los TPE es constante u homoscedastica [var(ui)= σ 2 ]
3) No existe autocorrelación entre las perturbaciones [E(uiuj)= 0 ]
4) Las variables explicativas son no estocásticas o si son estocásticas están
distribuidas independientemente de las perturbaciones [ΣXu=0]
5) No existe multicolinealidad entre las variables explicativas
6) Los TPE poseen una distribución normal [u ~N (0, σ 2 ) ]
7) El modelo de regresión está correctamente especificado

Multicolinealidad

Es un fenómeno que se presenta en un modelo de regresión lineal múltiple cuando dos


o mas variables independientes tienden a seguir una misma forma de comportamiento
durante un proceso económico (existe una relación entre ellas).
Ello esta vinculado al supuesto de rango por columna pleno de la matriz de variables
explicativas, donde ese supuesto marca que el numero de observaciones empleando
en una regresión debe ser mayor que los parámetros a estimar [P(X); n>K]
Si se rompe con tal supuesto y se tiene [P(x) < K ], ello implica que si el determinante
de la matriz (x’x) es igual a cero, se tendrá la existencia de multicolinealidad perfecta y,
por lo tanto, tal matriz no tendrá inversa y no habrá solución para el sistema. Por otro
lado, si el determinante de la matriz es muy pequeño, habrá multicolinealidad
imperfecta y la matriz tendrá inversa y el sistema si tendrá solución.

Las formas más usuales para detectar la presencia del multicolinealidad son:

1) Si existen valores T no significativos, un elevado R2, así como un F alto


2) Si F es significativa y alguna T no, implica que las variables explicativas están
tan altamente correlacionadas que es imposible aislar el impacto que tienen las
variables explicativas sobre la variable dependiente. Si el valor de T es bajo
indica que la variable independiente asociada al parámetro probado no puede
explicar a la dependiente.
3) Si los errores estándar de los coeficientes son muy elevados, los valores
poblacionales de los coeficientes no pueden estimarse de forma precisa.
Uno de los indicadores de la presencia de multicolinealidad es el coeficiente de
correlación entre las variables explicativas (r 23, si el modelo es con dos variables
explicativas). A medida que tiende a uno (a medida que aumentan la colinealidad). Las
varianzas de los estimadores aumentan y en el limite, cuando r 23 =1 ellas son infinitas.

Implicaciones de la multicolinealidad

a) Aún cuando los estimadores son MELI, estos presentan varianzas y covarianzas
grandes, que hacen difícil la estimación precisa.
b) Debido a lo anterior, los intervalos de confianza tienden a ser más amplios
conduciendo a una aceptación más fácil de la hipótesis nula
c) La razón T de uno o más coeficientes tienden a ser estadísticas no
significativas.
d) Aún cuando la razón t sea no estadística significativa, el R 2 puede ser muy alto.
e) Los estimadores MCO y sus errores estándar pueden ser sensibles a pequeños
cambios en la información.

Si el único propósito del análisis de regresión es el pronóstico o la predicción, la


colinealidad no se constituye en un problema serio porque cuanto mayor sea el R 2
mejor será la predicción

Rutas para corregir multicolinealidad

 Aumentar el tamaño de la muestra de los datos


 Reducir la escala del modelo, es decir hay que cancelar alguna variable
explicativa. La cancelación se hace por medio de los coeficientes de correlación
para observar el grado en el cual la variable independiente explica a la
dependiente.

Heteroscedasticidad

Este problema surge cuando no se cumple el supuesto de homoscedasticidad, es decir,


cuando las varianzas de los TPE son diferentes.

Si se ignora la heteroscedasticidad entre termino de perturbación estocástica en un


modelo de regresión y el procedimiento MCO es usado para estimar los parámetros se
tiene lo siguiente

1) Los estimadores y pronósticos basados en ella serán insesgados y consistentes


2) Los estimados MCO no son MELI y serán ineficientes, los pronósticos también
serán ineficientes
3) Las varianzas y covarianzas estimadas de los coeficientes de regresión serán
sesgadas e inconscientes, y las hipótesis son invalidas

Auto correlación
El problema de correlación serial es un problema frecuente, cuando se emplean datos
en series de tiempo, ya que en este caso los TPE reflejan en partes variables no
incluidas explícitamente en el modelo, mismo que pueden cambiar lentamente a través
del tiempo. Así, el TPE en una observación estará relacionado con los TPE de las
observaciones cercanas.

Una causa general de la correlación serial es una mala especificación del modelo; en
particular, la exclusión de las variables relevantes para el modelo.

La existencia de autocorrelacion provoca tanto estimadores MCO ineficientes, como


fallas en las pruebas comunes de significancia estadística. Los estimadores ya no
poseen varianza mínima.

Gráficamente puede apreciarse la existencia de autocorrelacion ante una serie de


residuos correlacionados, como se muestra a continuación.

t
Correlación Serial
Positiva

Correlación serial
negativa

t
Consecuencia de la autocorrelacion

Los estimadores MCO

1) Son insesgados
2) Son consistentes
3) No son eficientes, por lo que dejan de tener varianza mínima

Pruebas de detención de autocorrelación

Prueba Durbin Watson


Se basa en la razón de la suma de cuadrados de las diferencias sucesivas de rehuidos
a la suma de rehuidos al cuadrado

ΣU1 * U1 -1
D= 2 1-
ΣU12

Si aumenta Ui, Ui-1 tendería a ser positivo, de modo que d quedaría significativamente
debajo de 2.

Si Ui , UI-1 tuviese signos opuestos, el caso de correlación serial negativa de primer


orden, entonces Σ Ui – UI-1 tendería a ser negativa y por lo tanto d quedaría por encima
de 2.

En el siguiente grafico pueden apreciarse las zonas en las que existe autocorrelacion
serial ya sea positiva o negativa o una indeterminación

0 1.3038 Dl du 4-du 4-dl 4


Indeterminación

Si HO Decisión
0 < d < dl No existe autocorrelacion positiva Rechazar
dl ≤ d ≤ du No existe autocorrelacion positiva No hay decisión
du < d< 4 – du No existe autocorrelacion Aceptar
4 – du < d < d < 4 – dl No existe autocorrelacion negativa No hay decisión
4 – dl < d < 4 No existe autocorrelacion negativa Rechazar

En el caso en el que se da indeterminación, se puede optar por ampliar el tamaño de la


muestra
ESPECIFICACION Y DIAGNOSTICO DE PRUEBAS

Eviews permite elegir entre tres categorías de pruebas para evaluar la estimación de la
ecuación
Las tres categorías son:

 pruebas de coeficientes
 pruebas de residuales
 pruebas de estabilidad

Pruebas de coeficientes

Prueba de wald de restricciones respeto al coeficiente

La prueba de Wald trata de verificar la hipótesis de restricción sobre los coeficientes


de las variables explicativas. Estas restricciones pueden ser lineales o no lineales, y
dos o más restricciones pueden ser probadas a la vez. Se pueden escribir dentro del
cuadro de dialogo separadas por comas. Las restricciones están expresadas como
ecuaciones implicando el coeficiente estimado y las constantes.
Los coeficientes serán c (1), c (2), y así sucesivamente

La hipótesis mas común a ser probada será c (2) = 0, lo cual indica que el valor del
parámetro es cero. Si se desea probar mas de una restricción se tendrán que
indicar las restricciones separadas por una coma: c(2)=0,c(3)=0. la condicionante es
que al declarar las restricciones no debe haber espacio entre los elementos de las
mismas.

Si, por ejemplo, se trabaja con una función de producción cobb-douglas y se desea
probar si existen rendimientos constante a escala, la condición es que la suma de
los coeficientes debe ser igual a uno, por lo cual se tendrá c(2)+c(3)=1

El resultado de la prueba de wald depende de la linealidad de las restricciones. Para


restricciones lineales el resultado es una estadística F y una estadística x 2. Con un
valor q asociado, donde q son los grados de libertad. Los grados de libertad (q) de
la prueba x2 se refieren al número de restricciones que se introducen. En el caso de
la prueba F, se trabaja con q grados de libertad para el numerador y n-k para el
denominador. Para restricciones no lineales sólo aparecerá el valor del esta
Variables omitidas

Esta prueba permite agregar a un conjunto de variables a una ecuación existente y


preguntar, si el conjunto aporta contribución significativa a la explicación de la variable
dependiente. Se puede probar si alguna variable no contemplada de inicio en el modelo
puede ser susceptible de ser incluida en el modelo y aportar más información acerca
del fenómeno económico con el que se trabaja.

La prueba arroja un estadístico F y el logaritmo de máxima verosimilitud (LR) con


probabilidades a asociadas. El estadístico LR tiene una distribución x 2 distribuida con
grados de libertad igual al número de variables agregadas. El estadístico F tiene grados
de libertad del numerador igual al número de regresores nuevos y para el denominador
igual al tamaño de la muestra menos el número de parámetros en el nuevo modelo.

La prueba de variables omitidas requiere que exista el mismo número de


observaciones en las ecuaciones original y de prueba. Si en algunas de las series que
se quiere agregar faltan observaciones con respecto a la muestra de la ecuación
original, las estadísticas de prueba no se pueden construir.

Al efectuar ésta prueba, en la parte superior de la pantalla aparecerán los estadísticos


de prueba y más abajo, los resultados de la regresión económetrica si la variable a
probar fuera incluida.

Las consecuencias de omitir unas variables en un modelo son:

1) Si la variable excluida está correlacionada con alguna variable incluida, los


parámetros son sesgados como también inconsistentes.
2) Aún cuando las variables explicativas no estén correlacionadas el intercepto es
sesgado, aunque el otro parámetro sea insesgado.
3) La varianza residual esta incorrectamente estimada.
4) La varianza del parámetro vinculado a la variable explicativa es un estimador
sesgado de la varianza del verdadero estimador (el calculado al introducir la variable
nueva).
5) En consecuencia, es posible que el intervalo de confianza usual y los
procedimientos de prueba
de hipótesis conduzcan a conclusiones equivocadas sobre la significancia estadística
de los parámetros estimados.

Variables redundantes

Esta prueba permite probar si alguna variable en a ecuación tiene coeficientes cero y,
de esta forma observar si puede ser eliminada de la ecuación. La prueba es opuesta a
la de variables omitidas. Aquí se prueba si una variable es susceptible de eliminarse d
un modelo. Al efectuar la prueba, en la parte superior de la pantalla aparecer los
estadísticos de prueba y en a parte baja los resultados de una regresión económetrica
al excluir alguna variable.

La prueba reporta un estadístico F y el logaritmo de máxima verosimilitud con una


distribución x2 que tiene grados de libertad igual de variables eliminadas. El estadístico
F tiene grados de libertad del numerador igual al número de regresores eliminados y
para el denominador igual al tamaño de la muestra menos el número de parámetros
en el nuevo modelo.

Las consecuencias al cometer éste error de especificación son:


1) Los estimadores MCO de los parámetros del modelo incorrecto son insesgados y
consistentes.
2) La varianza residual esta correctamente estimada.
3) Los procedimientos usuales de intervalos de confianza y de prueba de hipótesis
continúan siendo válidos.
4) Las estimaciones de los estimados son más grandes que aquellas de los del
modelo correcto.

Pruebas de residuales

Correlogramas y estadísticos Q.

Esta prueba calcula el correlograma de residuales y los estadísticos Q-Ljung-Box.


Son pruebas generales contra la correlación serial o de cualquier orden. El estadístico
Q se distribuye como una x2 con grados de libertad igual al número de observaciones
menos el número estimado de coeficientes.

En esta prueba aparecen elementos como:


AC que indica el coeficiente de autocorrelación
PAC que muestra el coeficiente de autocorrelción parcial
Q-stat que muestra el estadístico Q-Ljung-Box
Prob que señala el valor de probabilidades de aceptar la hipótesis de que todos los
coeficientes de autocorrelación son cero en ese punto.

Histograma y prueba de normalidad

Esta opción genera un histograma de residuales y del estadístico Jarque-Bera para


probar su normalidad. El estadístico Jarque-Bera tiene una distribución x 2 con dos
grados de libertad. También aparecen diversos estadísticos como: la sesgadez, donde
la sesgadez de una distribución simétrica como la distribución normal es cero, la
curtosis muestra la elevación de la campana, donde la curtosis de una distribución
normal es 3.

Prueba LM de correlación serial

Se construye sobre las bases del desarrollo Durban. Se realiza una regresión auxiliar
donde la variable dependiente es el residuo, conservándose las variables explicativas, y
sumándole como una nueva variable el residuo rezagado para observar si existe
relación entre un residuo y el residuo rezagado.

El modelo a emplearse en la regresión auxiliar es:

UT= β0 + β1 .X1 + β2 .X2 + β3 Ut-1 + εt

Se supone que β3 < 1; ε se distribuye de manera idéntica e independiente.

U es un vector de información de períodos previos y anteriores.

Aquí la hipótesis nula es que no existe autocorrelación y la prueba se realiza con


nR2, que tiene una distribución x con grados de libertad igual al número de rezagos.
La prueba con R debido a éste coeficiente se vincula al ajuste de las varianzas de las
variables explicativas con la varianza de la variable dependiente.

El método empleado por Eviews es la prueba de White en la que se computa una


regresión auxiliar de los residuos cuadráticos MCO sobre una constante y todas las
variables no redundantes en el conjunto consistente de regresores, sus cuadrados y
sus productos cruzados (si la prueba es la white con términos cruzados).

Si el modelo inicial es:

Y = Y (X1,X2); Y = β 0 + β1 X1 + β 2 X2

Los modelos involucrados en el modelo y que están asociados a los parámetros son:
[1 X1 X2 ]

Por lo que los regresores necesarios en la prueba son:

[ 1 X1 X2 X12 X 22 X 1 X2]

De esta manera:

U2 = β0 + β1 X1 +β2 x12 +β3 X1 X2 + β4 X2 +β5 X22

Este conjunto contiene una constante, así la regresión auxiliar es U 2 sobre esos seis
regresores sobre la hipótesis de homoscedasticidad, n-R 2 es asintóticamente
2
distribuida con x (q). Los grados de libertad (q) son el número de variables en la
regresión auxiliar (excluyendo al intercepto).

La hipótesis son:

Ho: Hay homoscedasticidad


Ha: Hay heteroscedasticidad
Si n. R2 < x2 se acepta la hipótesis nula

Para la prueba sin términos cruzados se sigue la misma metodología, sólo que no se
incluye el producto de las variables explicativas.

Prueba LM ARCH

Esta prueba detecta la heteroscedasticidad condicional autorregresiva.


Tradicionalmente se está alerta a la posibilidad de perturbaciones heteroscedáticas en
análisis de sección cruzada y perturbaciones autocorrelacionadas en estudios de
series de tiempo.

Se formula la noción de que el pasado reciente puede dar información acerca de


perturbación condicional de varianza, es decir, que la varianza esta condicionada por
el pasado. La perturbación condicional de varianza es la varianza Ut, condicional sobre
la información disponible en el tiempo t-1.

El caso más simple es cuando se genera un proceso ARCH (1), donde la varianza
sólo esta condicionada por el dato anterior del residuo (se utiliza un rezago).

El reporte de la prueba es un estadístico f y con un estadístico x 2 cada una con un valor


relevante de probabilidad. Cada estadístico provee una prueba de la hipótesis de que el
cociente del cuadrado del residuo rezagado en cero. El estadistico x 2 tiene grados de
libertad iguales al número de residuos cuadrados rezagados. El estadístico F se
distribuye con k 1 grados de libertad para el numerador y n – k para el denominador ya
que la hipótesis nula supone la no existencia de heteroscedasticidad condiciona
regresiva debido a que se asume que si el valor de los coeficientes en su conjunto es
igual a cero, no habrá auto correlación en la varianza.

Pruebas de estabilidad

Prueba de partición Chow

Para emplear la prueba chow es necesario hacer una partición en la muestra, es decir
en la segmentación la muestra en dos o más submuestras. Cada submuestra debe de
contener más observaciones que el número de coeficientes en la ecuación. El
propósito de dividir la muestra, es probar si los coeficientes son los mismos en todas
las submuestra. Para efectuar la prueba, la ecuación revisada es calculada de forma
separada para cada submuestra. Si el ajuste es mejor después de dividirla en dos
submuestras, es señal de inestabilidad el reporte obtenido es un estadístico F y un
estadístico LR con probabilidades asociados. El estadístico F tiene grados de libertad
para el numerador igual al número de elementos contenidos en la submuestra 2 (n 2) y
grados de libertad para el denominador igual al numero de elementos contenidos en la
submuestra 1 menos el numero de restricciones (usualmente se trabaja) una
restricción.
Prueba de pronostico Chow

La ecuación es estimada con varias observaciones y luego es empleada para predecir


los valores de la variable dependiente en las observaciones restantes. La prueba ve los
tamaños de errores de previsión, errores grandes son señal de inestabilidad en la
ecuación.

En el cuadro de dialogo se debe especificar la fecha de inicio del pronostico. Al declarar


la fecha de inicio del pronostico, el resultado será utilizado para calcular el vector de
errores de predicción para las ultimas observaciones de la muestra, es decir hará la
predicción con los datos a partir de que se declaro el inicio del pronostico hasta el final
de la muestra. El resultado de la prueba son estadísticos F y LR con valores
probabilísticas asociados.

Prueba Ramsey –reset

La prueba argumenta la regresión original sumando un número de potencias de valores


calculados en la regresión original, es decir se incluye como variables explicativas
potencias del valor estimado de la variable dependiente para observar si existen
errores de especificación en la regresión. Si las regresiones extras no tienen
coeficiente cero, esto será evidencia de un error de especificación

En el cuadro de diálogos que aparece se debe declarar el número de variables


estimadas que han de ser agregadas en la ecuación. El reporte de la prueba consiste
en las estadísticas F y LR para probar la hipótesis de que los coeficientes sobre el
pronóstico son todo cero. La prueba F se distribuye con grados de libertad para el
numerador igual al número de regresores nuevos y con grados de libertad para el
denominador igual al tamaño de la muestra menos el número de parámetros total en el
nuevo modelo. Es estadístico LR se basa en un estadístico x 2 (q), donde los grados de
libertad (q) se definen por el número de regresores nuevo, declarado al inicio de la
prueba.

Estimaciones recursivas.

Hay seis gráficos disponibles para la selección de mínimos cuadrados recursivos. Estos
gráficos solo están disponibles para estimaciones MCO, esto es que los términos AR y
MA no aplican.

En mínimos cuadrados recursivos la ecuación es estimada de manera repetida,


empleando submuestras grandes de datos. El primer paso de pronostico del error es
llamado residual recursivo.
Si el modelo es valido, los residuales recursivos serán independientes y normalmente
distribuidos con media cero y varianza constante. Esto facilita las pruebas de
correlación y heteroscedasticidad, pero una de las aplicaciones mas importantes de los
residuos restantes es probar el posible cambio estructural en el modelo.

De hecho esta elección despliega una grafica de los residuos recursivos respecto a la
línea cero. Residuos fuera de las bandas de errores típicos sugieren inestabilidad en los
parámetros de la ecuación.

Prueba CUSUM

Se basa en la suma acumulativa de los residuos. En el grafico se ubican la suma


acumulativa contra el tiempo. La prueba encuentra parámetros de inestabilidad, si la
suma acumulativa va fuera del área entre las dos líneas criticas aquí pueden cambios a
trabes del tiempo.

Prueba CUSUM de cuadros

Indica la suma acumulativa de los residuos restantes cuadrados. El grafico muestra la


suma acumulativa de residuos cuadrados junto con las dos líneas críticas. Si la suma
acumulativa va fuera de la región entre las dos líneas la prueba encuentra parámetros
de inestabilidad.

Primer paso de la prueba de previsión

Esta selección produce un grafico de los residuos recursivos y los errores Standard, así
como los valores de probabilidad para esos puntos de ka muestra. El grafico es útil
para detectar aquellos períodos en los cuales la ecuación es menos exitosa.

Prueba de pronósticos de N pasos.

Esta selección implica una secuencia de prueba de pronósticos de chow. Calcula todos
los casos factibles, empezando con la muestra pasiblemente más pequeña para
estimar el pronóstico de la ecuación y luego añadir una observación al mismo tiempo.
El grafico de la prueba muestra los residuos recursivos en la parte superior y las
probabilidades significativas en la parte inferior.

Coeficientes recursivos estimados.

El grafico producido habilita el trazo de la evolución de cualquier coeficiente así como la


muestra de los datos a ser utilizados en la estimación. También muestra dos bandas
típicas de errores acerca de los coeficientes estimados. Si el coeficiente despliega
variaciones significativas como más datos añadidos a la ecuación estimada, indica
inestabilidad. Si el grafico muestra dramáticos saltos, ello es un indicativo de la
ocurrencia de un cambio estructural del coeficiente.
SISTEMAS

Un sistema es un conjunto de ecuaciones a ser estimadas simultáneamente utilizando


técnicas estadísticas. Para emplear estos métodos primeramente debe crearse un
objeto llamado sistema y posteriormente seleccionar y ejecutar el procedimiento de
estimulación

Para crear el sistema, en primer lugar, sobre la barra principal de herramientas se debe
de dar click, en objects, apareciendo un cuadro de dialogo en el cual debe especificarse
la forma con la cual se debe trabajar en Eviews. Al aparecer el cuadro de dialogo hay
que elegir la opción system, tal y como se aprecia a continuación
Una vez que se ha elegido la opción, aparecerá la siguiente pantalla:

En la pantalla pueden declararse pueden declararse la identidad y las ecuaciones de


comportamiento. Las identidades deben de estar completas pero no serán incluidas en
el sistema, las ecuaciones deben incluir a los elementos pertinentes de cada una de
ellas, Incluyendo al intercepto. Al declarar las ecuaciones es necesario considerar
los coeficientes de cada una. Se deben declarar los coeficientes tal y como se muestra
en el siguiente ejemplo.
Como puede observarse, se han declarado las ecuaciones de comportamiento, sin
repetir el número del coeficiente debido a que cada coeficiente tiene un significado
diferente en términos económicos.

Una vez que se han establecido las ecuaciones de comportamiento, se elige la opción
procs/estimate, apareciendo un nuevo cuadro de diálogo, en el cual es necesario
declarar el método de estimación que se desea. Una vez que se ha elegido el método
de estimación se debe dar OK, estimándose los coeficientes del sistema. El cuadro de
diálogo referido es:

Los métodos de estimación ofrecidos por Eviews son:

1) Mínimos cuadradazos ordinarios. Este método proporciona las estimaciones de


mínimos cuadrados ordinarios ecuación por ecuación. El resultado es idéntico a
los resultados obtenidos por regresión múltiple uniecuacional, incluyendo la
matriz de covarianza de los resultados.
2) Mínimos cuadrados ponderados. Este método minimiza la suma ponderada de
sumas de residuales al cuadrado para cada ecuación en el sistema. Es una
regresión multivariante con una diagonal prescrita en la matriz de residuos.
3) Regresión aparentemente no relacionada. Este método es también conocido
como el método de Zellner´s o regresión multivariada.
4) Mínimos cuadrados en dos etapas. Aplica dos ecuaciones de métodos mínimos
cuadrados por ecuación. El resultado incluye la matriz de covarianza de los
residuales.
5) Mínimos cuadrados ponderados en dos etapas. Minimiza la suma ponderada de
las sumas de cuadrados de los residuales en la segunda etapa para una
ecuación del sistema. Esto es, mínimos cuadrados en tres etapas con una
diagonal prescrita en la matriz de los residuales. Esta opción es la misma que la
de dos etapas a menos que el sistema contenga restricciones de la ecuación
contrarias.
6) Mínimos cuadrados en tres etapas. Este método ofrece resultados
asintóticamente eficientes cuando las ecuaciones son simultáneas, esto es, que
contengan variables endógenas del lado derecho de la ecuación. Para modelos
que son lineales en sus parámetros y variables la repetición de converger
asintóticamente equivale a toda la información de la máxima probabilidad.

Al elegir la opción de mínimos cuadrados ordinarios, aparecerán los resultados de la


regresión, donde en primer lugar podrán observarse los valores de los coeficientes, sus
desviaciones estándar y los valores t estadísticos, con los cuales pueden realizarse las
pruebas estadísticas de significancia. En la parte baja de la pantalla se pondrán
apreciar los resultados de la regresión para cada ecuación de comportamiento. Tales
resultados incluyen al coeficiente de determinación, el estadístico Durban y la suma de
residuos cuadrados.

Con los resultados de la regresión puede hacerse una evaluación estadística del
modelo para validarlo o invalidarlo, tal y como se hace con un modelo de regresión
múltiple.

APLICACIONES

Supóngase que se corre una regresión sobre un modelo de consumo de Duesenberry


con datos de la economía española para el período.

Este modelo está definido por la ecuación:

(CT/Yt) = β0 + β1 (Lt/Nt)

Aquí, para la razón CT/Yt se emplea la variable “co”, y para la razón L t/Nt se emplea la
variable “PN”.

Al capturar la información pertinente y correr el modelo se obtuvo lo siguiente:


La constante indica un intercepto positivo, mostrando el punto donde surge la recta de
regresión, siendo éste, económicamente significativo.

El valor de β1 indica que por cada unidad que se incremente la razón PEA/empleo, la
razón consumo/ingreso aumentará en 0.195249 unidades.

La ecuación de regresión es:

(CT/Yt) = 0.695713 + 0.195249 (Lt/Nt )

R2 denota que la varianza de la razón PEA/empleo explica en un 47.8417% a la


varianza de la razón consumo/ingreso, es decir, que la variación de los datos de la
razón PEA/empleo explica en el valor de R 2 a la variación de la razón consumo/ingreso.

R2 muestra que no existe un buen ajuste de los ratos de la razón PEA/empleo a los de
la razón consumo/ingreso, considerando los grados de libertad, don de la variación de
la razón PEA/ empleo, explica en un 46.0432% a la variación de la razón
consumo/ingreso.

El coeficiente de correlación denota que el comportamiento de la razón PEA/empleo


explica en un 69.1677% al comportamiento de la razón consumo/ingreso, evidenciando
una alta correlación entre ambos variables.

De las pruebas de significancía de los parámetros se obtuvo lo siguiente:

1.- Que el valor βu resulta estadísticamente significativo para explicar el comportamiento


de la regresión ya que se rechaza la hipótesis de que el valor real del parámetro sea
cero, siendo el valor calculado (17.20064) de la T-student, mayoral al de tablas (2.045),
esto se hace al 5% nivel de significancia con 29 grados de libertad.

2.- Que el valor β1 es estadísticamente significativo para explicar la regresión, es decir,


que la razón PEA/empleo es una variable significativa para explicar al comportamiento
de la razón consumo/ingreso. Ello se debe a que se rechazo la hipótesis nula de que el
valor real de β1 sea cero, ya que el valor calculado (5.157518) de la t-student es mayor
que el de tablas (2.045).

De la prueba de significancia conjunta (f) se tiene que se rechaza la hipótesis de que β 1


= 0, con lo cual no hay evidencia de que el parámetro no sea significativo, al menos,
estadísticamente al 5% del nivel de significancia con 1 grado de libertad para el
numerador (k-1) y 29 grados de libertad para el denominador (n-k), esto se debe a que
el valor calculado (26.59999) de la F fue mayor que el de tablas (4.18).

Dado que la t y la F resultan significativas y no hay discordancia entre ambas, en


apariencia no hay señales de multicolinealidad, aunado a ello, la R 2 baja y la F no
podría implicar tal rompimiento a uno de los supuestos del modelo de regresión, pero al
mismo tiempo se tiene que el valor de la t no es tan alto por lo que la razón PEA/
empleo si pude explicar al comportamiento de la razón consumo/ingreso, además de
que el error estándar de β1 es bajo y por tal motivo, el valor poblacional del coeficiente
puede estimarse de forma precisa. Por tales motivos, puede concluirse que no hay
presencia de multicolinealidad.

El valor de la Durban-Watson (1.244457) muestra la existencia de autocorrelación serial


positiva de primer orden, ya que al ser comparado con los valores de tablas (dl = 1.363,
du=1.496, 4-du= 2.504), se tiene que como d < dl se rechaza la hipótesis de que no
existe autocorrelación serial positiva de primer orden. El correlograma de residuos
sugiere la existencia de correlación serial dados los comportamientos que pueden
observarse en la gráfica.

La prueba LM de autocorrelación serial indica la presencia de autocorrelación ya que el


valor nR2 (4.371794) > x2 (3.841), es decir que al 5% de nivel de significancia con un
grado de libertad (número de rezagos), se rechaza la hipótesis nula de ausencia de
correlación serial de primer orden.
Ante la presencia de correlación serial se tiene que:

1) Los pronósticos y estimados basados en ella son insesgados y consistentes.


2) Los estimadores MCO no son MELI y, por tanto, son ineficientes al igual que los
pronósticos.
3) La varianzas estimadas de los coeficientes de regresión son sesgadas y la
pruebas de hipótesis son invalidas. Si la correlación serial es positiva (como en
éste caso), y la variable independiente crece en el tiempo, entonces los errores
estándar son subestimados de los valores reales. Esto implica que la R 2 es un
sobreestimado, indicando un mejor ajuste que el que existe realmente y las t
tienden a ser más significativas de lo que son en realidad.

La prueba ARCH denota la ausencia de heteroscedasticidad condicional autoregresiva,


dado que nR2 (0.046433) < x 2 (5.991), aceptándose la hipótesis nula de que no
existe heteroscedasticidad condicional auoregresiva.
La prueba de White denota la ausencia de heteroscedasticidad dado que nR 2
(0.536703) es menor que x 2 (5.991), con lo cual se acepta la hipótesis de la existencia
de homoscedasticidad, concluyendo que al 5% de nivel de significancia con 2 grados de
libertad (k-1), la varianza de los TPE es idéntica entre ellos.
Pruebas de estabilidad y cambio estructural.

Como puede observarse en la gráfica de residuos recursivos, no hay puntos fuera de


las bandas de errores típicos sugiriendo que no hay inestabilidad en los parámetros de
la ecuación.
La prueba CUSUM no denota parámetros significativos de inestabilidad ya que la suma
acumulativa no va fuera de las dos líneas críticas, pero si se observa que entre 1966 y
1975 se dio algún cambio estructural en la composición del consumo.
La prueba CUSUMQ demuestra inestabilidad en los parámetros entre 1968 y 1970.
La prueba One-Step indica que el año donde la ecuación es menos exitosa es 1967,
ya que la probabilidad de éxito para ese año está entre 5 y 10%.

La prueba N-Step señala los casos factibles para estimar el pronóstico indicado que
éste modelo es factible para el pronóstico ya que no hay puntos fuera de las bandas.
N Setop Probability -----------------Recursive Residuals
Los coeficientes recursivos estimados indican lo siguiente:
1) Se muestran pequeños cambios para β 0 en todo el período, con tendencias
ascendentes entre 1977-1984.
2) Β1 muestra una caída a partir de 1977, con una relativa estabilidad ascendente
entre 1971-1977.
Al efectuar la corrección del modelo, se encontró que el modelo es un Ar (1), donde se
obtienen estimadores eficientes, concluyéndose lo siguiente.

La constante indica un intercepto positivo, mostrando el punto donde surge la recta de


regresión, siendo éste, económicamente significativo.

El valor de β1 indica que por cada unidad que se incremente la razón PEA/empleo, la
razón consumo/ingreso aumentará en 0.186240 unidades.

La ecuación de regresión se denota como:

(Ct/Yt) = β0+β1 (Lt/Nt) Ar(1)

(Ct/Yt) = 0.705069 + 0.186240 (Lt/Nt) Ar (1)

R2 denota que la varianza de la razón PEA/empleo explica en un 55. 2307% a la


varianza de la razón consumo /ingreso, es decir, que la variación de los datos de la
razón PEA/empleo explica en el valor de R 2 a la variación de la razón consumo/ingreso.
R2 muestra que no existe un buen ajuste de los datos de la razón PEA/empleo a los de
la razón consumo/ingreso, considerando los grados de libertad, donde la variación de la
razón PEA/empleo, explica en un 51.9145% a la variación de la razón consumo/ingreso.

El coeficiente de correlación denota que el comportamiento de la razón PEA/empleo


explica en un 74.3174% al comportamiento de la razón consumo/ingreso, evidenciando
una alta correlación entre ambas variables.

De las pruebas de significancía de los parámetros se obtuvo lo siguiente:

1) Que el valor de la β0 resulta estadísticamente significativo para explicar al


comportamiento de la regresión ya que se rechaza la hipótesis de que el valor
real del parámetro sea cero, siendo el valor calculado (12.4419) de la t-student,
mayor al de tablas (2.048), esto se hace al 5% de nivel de significancia con 28
grados de libertad.
2) Que el valor de β1 es estadísticamente significativo para explicar a la regresión,
es decir, que la razón PEA/empleo es una variable significativa para explicar al
comportamiento de la razón consumo/ingreso. Ello se debe a que se rechazó la
hipótesis nula de que el valor real de β 1 sea cero, ya que el valor calculado
(3.525044) de la t-student es mayor que el de tablas (2.048).

De la prueba de significancia conjunta (F) se tiene que se rechaza la hipótesis de que


β1 = 0, con lo cual no hay evidencia de que el parámetro no sea significativo, al menos,
estadísticamente al 5% de nivel de significancia con 1 grado de libertad para el
numerados (k-1) y 28 grados de libertad para el denominador (n-k), esto se debe a que
el valor calculado (16.65463) de la F fue mayor que el de tablas (4.20).

El valor de la Durban Watson (1.747601) muestra la ausencia de autocorrelación serial


positiva de primer orden, ya que al ser comparado con los valores de tablas (dl = 1.352,
du = 1.489,4-dl = 2.648,4-du = 2.511), se tiene que como du < d < 4-du se acepta la
hipótesis de que no existe autocorrelación serial positiva de primer orden.

La prueba LM de autocorrelación serial indica la ausencia de autocorrelación ya que


el valor nR2 (2.284112) < x2 (3.841), es decir que al 5% de nivel de significancia, con 1
grado de libertad (número de rezagos), se acepta la hipótesis nula de ausencia de
correlación serial de primer orden.
La prueba de ARCH denota la ausencia de heteroscedasticidad condicional
autoregresiva, dado que nR2 (0.029862) < x2 (5.991), aceptándose la hipótesis nula de
que no existe heteroscedasticidad condicional autoregresiva.
Prueba de White denota la ausencia de heteroscedasticidad dado que nR 2 (0.789527)
es menor que x2 (5.991), con lo cual se acepta la hipótesis de la existencia de
homoscedasticidad, concluyendo que al 5% de nivel de significancia con 2 grados de
libertad (k-1), la varianza de los TPE es idéntica entre ellos.

También podría gustarte