Está en la página 1de 386

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/334771581

Econometria Aplicada con Gretl

Book · July 2019

CITATION READS

1 1,444

2 authors:

Rigoberto Perez Suarez Ana Jesus Lopez-Menendez


University of Oviedo University of Oviedo
107 PUBLICATIONS   434 CITATIONS    150 PUBLICATIONS   1,132 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Entropy Application for Forecasting View project

Monitoring Sustainable Development View project

All content following this page was uploaded by Ana Jesus Lopez-Menendez on 30 July 2019.

The user has requested enhancement of the downloaded file.


Econometría Aplicada con Gretl

Rigoberto Pérez y Ana Jesús López


rigo@uniovi.es , anaj@uniovi.es
Departamento de Economía Aplicada. Universidad de Oviedo

Julio 2019
2

A nuestras familias, los que están y los que faltan

ISBN 978-84-09-13601-8
Depósito Legal: AS-02793-2019
Edición 2019
Revisión V.1.0

This work is licensed under a Creative Commons Attribution-NonCommercial-


NoDerivs 3.0 Unported License.
3

Breve reseña de autores

Los autores de este libro son catedráticos del Departamento de Economía


Aplicada de la Universidad de Oviedo (Unidad de Estadística y Econometría).

https://sites.google.com/view/econometriaaplicadacongretl

Rigoberto Pérez Suárez es Catedrático de Universidad


y su amplia experiencia docente incluye asignaturas de Es-
tadística, Econometría, Series temporales y Predicción eco-
nómica, tanto en grado como en doctorados y másteres. Es
autor de varios libros de texto (Nociones Básicas de Estadís-
tica, Análisis de datos económicos I: Métodos descriptivos,
Análisis de datos económicos II: Métodos inferenciales, In-
troducción a la estadística económica y Métodos estadísticos
para economía y empresa) y del software docente ADE+, así
como de numerosas publicaciones relativas a la innovación
educativa y el e-learning.
También ha sido Director de Area de Innovación de la Uni-
versidad de Oviedo (2000-2006), Director del Campus Vir-
tual Compartido del grupo G9 (2004-2006) y Director del
Departamento de Economía Aplicada (2013-2017).
En el ámbito investigador es autor de diversas publicaciones
en revistas de impacto y ha dirigido numerosas tesis docto-
rales y proyectos de investigación, generalmente referidos a
la predicción económica y al análisis de la desigualdad.

Ana Jesús López Menéndez es Catedrática de Universi-


dad y su docencia abarca asignaturas de Estadística, Econo-
metría y Predicción Económica, tanto en estudios de grado
como de másteres y doctorado. También ha sido profesora
visitante en universidades de Reino Unido, Hungría y Cuba
y profesora de varias asignaturas del campus virtual com-
partido CVC-G9. Es autora de varios manuales (Análisis de
datos económicos I: Métodos descriptivos y II: Métodos infe-
renciales, Introducción a la estadística económica, Métodos
estadísticos para economía y empresa), así como de nume-
rosas publicaciones relativas a la innovación educativa y el
e-learning.
En el ámbito investigador es autora de diversos artículos pu-
blicados en revistas de impacto, referidos fundamentalmente
al análisis de la desigualdad y la predicción económica. Ha
dirigido seis tesis doctorales y ha participado en numerosos
proyectos de investigación, así como congresos y reuniones
científicas.
4

Presentación

El libro que ahora presentamos es resultado de un trabajo desarrollado durante


los últimos años y surge motivado por tres convicciones fundamentales. La pri-
mera de estas convicciones es que, como ya dijera Schumpeter 1933 en su obra
“The common sense in Econometrics”, todo economista es, le guste o no, un
económetra, ya que necesita tratar de explicar sus argumentos con cifras. Esta
afirmación, realizada hace casi 90 años, se ha hecho más patente a medida que
los modelos econométricos aumentaban su popularidad y difusión, gracias en
gran medida al aumento de la información estadística y al desarrollo de softwa-
re estadístico-econométrico. Como reflejo de esta evolución, los actuales planes
de estudios de las Facultades de Economía y Empresa, tras su adaptación al
Espacio Europeo de Educación Superior (EEES), hacen énfasis en la necesidad
de formar individuos capaces de analizar e interpretar el funcionamiento de la
economía, trabajando competencias relacionadas con la Econometría como la
capacidad de análisis y síntesis, la resolución de problemas, la capacidad crítica
o la adopción de decisiones.
La segunda convicción, basada en nuestra experiencia docente de más de tres
décadas, es que la forma más efectiva (y amena) de “aprender econometría” es
“haciendo econometría”. Tal y como hemos descrito en López 2011 y López 2012
estamos plenamente convencidos de que el estudio de la Econometría teórica,
aun siendo fundamental para adquirir una base sólida, queda incompleto sin la
práctica de las técnicas econométricas, que facilita una verdadera comprensión
de las posibilidades y dificultades del trabajo empírico, aumentando así la mo-
tivación para avanzar en el estudio. Este enfoque aplicado se adecúa también a
las actuales estrategias docentes, donde han ganado protagonismo las prácticas
con soporte informático y la realización de trabajos, tanto autónomos como en
equipo, por parte de los estudiantes, iniciativas que facilitan el acercamiento de
la formación universitaria a los requerimientos del mercado laboral.
La tercera convicción, que es posiblemente la más determinante para que este
libro vea la luz, es el gran potencial de Gretl para la enseñanza-aprendizaje de
Econometría. A lo largo de estos años hemos constatado este potencial en va-
rios planes de estudios, distintos niveles formativos (grado, máster, doctorado),
diversas metodologías docentes (presencial, online, blended-learning) y diferen-
tes idiomas (castellano e inglés), poniendo de manifiesto que Gretl satisface el
contraste que hemos denominado “Test de las 4 F”, en alusión a los requisitos de
software libre, flexible, funcional y amigable (Freedom, Flexibility, Functionality
and Friendliness) tal y como se describe en López 2015.
Con estas convicciones, el libro que ahora presentamos pretende ser una he-
rramienta útil para el aprendizaje activo de la Econometría y contiene más de
una veintena de supuestos resueltos, que incluyen salidas de Gretl, explicacio-
nes, notas teóricas, comentarios, scripts... El texto comienza con un capítulo
5

introductorio donde se presenta el programa Gretl (Gnu Regression, Econome-


trics and Time-series Library) desarrollado por Cottrell 2019b, describiendo sus
principales características y los rasgos más distintivos del método de trabajo
con este software (menús, iconos, consola, funciones, scripts o guiones en Hansl,
el lenguaje de programación de Gretl), que también se detallan en el ejercicio
inicial. A continuación se suceden los distintos supuestos, que comienzan con su
enunciado y descriptores de los principales contenidos, presentando a continua-
ción su resolución detallada. Con el objetivo de abarcar los distintos aspectos
que consideramos fundamentales en los trabajos de econometría aplicada, la
resolución de estos supuestos incluye la descripción de los menús y salidas de
Gretl utilizados en cada caso, pero también incorpora -con formatos de texto
diferenciados- notas explicativas donde se destacan comentarios, recomendacio-
nes, alertas o ampliaciones, así como otras notas de carácter teórico que detallan
las técnicas aplicadas y recopilan las correspondientes referencias bibliográficas.
Teniendo en cuenta que la flexibilidad es una de las principales ventajas del
trabajo con Gretl, hemos tratado de fomentar la “reconstrucción” de los resul-
tados proporcionados por diversos menús, mediante la utilización de comandos,
consola o scripts. De hecho, nuestra recomendación para los usuarios es que
combinen la lectura del texto con su participación activa, para lo cual ponemos
a su disposición la web:
https://sites.google.com/view/econometriaaplicadacongretl
a la que también nos referiremos con su versión abreviada: http://cort.as/
-LMTF y donde se puede acceder a todos archivos de trabajo y materiales com-
plementarios como los scripts incluidos en los diferentes supuestos.
El enunciado de los supuestos aparece al inicio de cada uno de ellos y también se
encuentra accesible en los Iconos de sesión . Información. En la cabecera de cada
supuesto se incluyen las direcciones web de descarga de los datos y del script
correspondiente. Para resolver cada ejercicio es necesario descargar el corres-
pondiente archivo de trabajo y una vez finalizada su resolución recomendamos
cargar el guión o script del supuesto para así obtener una visión de conjunto.
Para finalizar esta presentación, queremos manifestar nuestro sincero agradeci-
miento a todas las personas, especialmente alumnos y compañeros, que de una
forma u otra han contribuido a que este manual sea una realidad. El agradeci-
miento se extiende también a nuestras familias, los que están y los que faltan,
a quienes va dedicado el libro.
Este texto no es una obra cerrada, ya que en los próximos meses publicaremos
una nueva versión que ampliará los contenidos con nuevos supuestos relativos
a la modelización de series temporales y datos de panel. Así pues, podríamos
considerar esta primera edición del libro como una “beta” (o β̂) a la que seguirán
futuros desarrollos.
6
Índice general

I Introducción a Gretl 11
¿Por qué Gretl? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Trabajar con datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Primeros pasos con Gretl . . . . . . . . . . . . . . . . . . . . . . . . . 16
Menús de Gretl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

II Supuestos 29

1. Salarios 31
Contenidos: Primeros pasos con Gretl, Crear archivo, Eti-
quetar, Nube de puntos, Vista de Iconos, Esti-
mación, Análisis de Residuos, Generar variables 31

2. Consumo 47
Contenidos: Abrir datos xls en Gretl, Gráfico temporal,
Estimación MCO, Intervalos de confianza, Aná-
lisis de Residuos, ANOVA, Contraste de restric-
ciones lineales, Tablas de modelos . . . . . . . . 47

3. Demanda 63
Contenidos: Nube de puntos, Estimación, intervalos de
confianza, Restricciones lineales, Elasticidad . . 63

4. Productividad 73
Contenidos: Generar variables, Tendencia temporal, Esti-
mación, Análisis de Residuos, Valores atípicos,
Matriz de correlaciones, Tabla de modelos, Pre-
dicción, Consola . . . . . . . . . . . . . . . . . . 73

5. Pobreza 91
Contenidos: Estimación, Test F de significación, Análisis
de Residuos, ANOVA, Predicción transversal . . 91

7
8 ÍNDICE GENERAL

6. Educación 105
Contenidos: Estimación, Contrastes, Restricciones linea-
les, ANOVA, Multicolinealidad . . . . . . . . . 105

7. Sanidad 115
Contenidos: Estimación MCO, Multicolinealidad, Predic-
ción . . . . . . . . . . . . . . . . . . . . . . . . . 115

8. Género 129
Contenidos: Nubes de puntos, Estimación MCO, Varia-
bles dummy, términos de interacción, compara-
ción de modelos, restricciones lineales, submues-
tras . . . . . . . . . . . . . . . . . . . . . . . . . 129

9. Heladería 139
Contenidos: Estimación MCO, Análisis de residuos, Va-
riables dummy estacionales, Multicolinealidad,
Restricciones lineales, Mínimos Cuadrados Res-
tringidos (MCR), Comparación de modelos, Pre-
dicción. . . . . . . . . . . . . . . . . . . . . . . . 139

10.Vivienda 153
Contenidos: Estimación MCO, Multicolinealidad, Varia-
bles dummy, Elasticidad, Restricciones lineales,
Modelo logit . . . . . . . . . . . . . . . . . . . . 153

11.Tecnología 163
Contenidos: Nube de puntos, Estimación MCO, Compa-
ración de modelos, Contrastes de restricciones
lineales, Variables cualitativas, términos de in-
teracción, Predicción, Modelos Logit, Modelos
Probit, Test RV . . . . . . . . . . . . . . . . . . 163

12.Empleo 179
Contenidos: Estimación MCO, Modelos logit, Modelos pro-
bit, Odds-ratios . . . . . . . . . . . . . . . . . . 179

13.Emisiones 187
Contenidos: Estimación MCO, Test RESET de Ramsey,
tests de linealidad, Modelos polinómicos, Varia-
ble dummy, Modelo loglineal . . . . . . . . . . . 187
ÍNDICE GENERAL 9

14.Metal 199

Contenidos: Estimación MCO, Violación de supuestos, Test


RESET de Ramsey, Restricciones lineales, Tests
de linealidad, Mínimos Cuadrados No lineales
(MCNL), Modelo log-lineal, Endogeneidad, Test
de Hausman, Test de White, Heterocedastici-
dad, Mínimos Cuadrados Ponderados (MCP),
Predicción . . . . . . . . . . . . . . . . . . . . . 199

15.Inmigrantes 219

Contenidos: Estimación MCO, Endogeneidad, MC2E, Va-


riables instrumentales,Test de Hausman, Test de
instrumento débil, Predicción . . . . . . . . . . . 219

16.Importaciones 233

Contenidos: Contraste RESET, cambio estructural, CU-


SUM, Test de Chow, Test RV de Quandt, Varia-
ble dummy, Predicción . . . . . . . . . . . . . . 233

17.Alquiler 253

Contenidos: Estimación MCO, Heterocedasticidad, test


de White, test de Breusch-Pagan, test de Koen-
ker, Mínimos cuadrados ponderados . . . . . . . 253

18.Energía 269

Contenidos: Estimación MCO, heterocedasticidad, test de


White, test de Breusch-Pagan, test de Koenker,
Mínimos cuadrados ponderados (MCP) . . . . . 269

19.Tabaco 279

Contenidos: Estimación MCO, Multicolinealidad, Endo-


geneidad, Mínimos Cuadrados en dos etapas (MC2E),
Multicolinealidad, cambio estructural, variable
dummy, Test de White, Mínimos cuadrados pon-
derados, Durbin Watson, autocorrelación, AR,
Cochrane-Orcutt, normalidad predicción . . . . 279

20.Industria 303

Contenidos: Contrastes sobre u, Endogeneidad, Predic-


ción, Test de Hausman, Identificación, MC2E,
Test Breusch-Pagan de diagonalidad, MC3E . . 303
10 ÍNDICE GENERAL

21.Delitos 321
Contenidos: Estimación MCO, Test de Chow, Endogenei-
dad, MC2E, Variables instrumentales, Test de
White, MCP, SEM, identificación, MC3E, Test
Breusch Pagan de diagonalidad, predicción . . . 321

22.SEM_Demanda 339
Contenidos: Estimación MCO, Validación, Test de Chow,
Endogeneidad, MC2E, Variables instrumentales,
Test de White, MCP, SEM, identificación, MC3E,
Test Breusch Pagan de diagonalidad, predicción 339

23.Empresas 353
Contenidos: Estimación MCO, SUR, test Breusch-Pagan
de diagonalidad, Autocorrelación, Test de res-
tricciones lineales, Agregabilidad . . . . . . . . . 353

24.Klein 365
Contenidos: Modelo SEM, Identificación, Estimación MC2E,
Test Breusch-Pagan, Restricciones lineales, Pre-
dicción . . . . . . . . . . . . . . . . . . . . . . . 365

Bibliografía 379
Parte I

Introducción a Gretl

11
¿POR QUÉ GRETL? 13

Gretl, Por económetras, para económetras

¿Por qué Gretl?


Gretl es un paquete estadístico multiplataforma para análisis econométrico,
acrónimo de Gnu Regression, Econometrics and Time-series Library, desarrolla-
do por Allin Cottrell y Riccardo «Jack» Luchetti1 . Se trata de un programa de
software libre con las múltiples ventajas que esto representa: permite la instala-
ción en nuestros ordenadores de forma legal, es muy flexible, hay una comunidad
científica muy dinámica que publica actualizaciones frecuentes, existen funciones
específicas, etc.
Toda la documentación relativa a Gretl, así como la zona de descargas y am-
plia información sobre el programa se encuentra disponible en http://gretl.
sourceforge.net/

1 Allin Cottrell: Professor, Department of Economics, Wake Forest University.

Riccardo «Jack» Luchetti: Professor of Econometrics at the Department of Economics -


Ancona University (Università Politecnica delle Marche).
14

Presentamos en este capítulo una pequeña introducción a Gretl, cuyo objetivo


es describir los rasgos generales de este programa para que sean familiares an-
tes de empezar a trabajar con él. Es importante tener presente que todos los
menús, salidas, funciones... que aparecen en este libro van referidas a la versión
Gretl 2019c, por lo que es posible que algunas de ellas cambien en versiones
posteriores.

Gretl es una aplicación multiplataforma que podemos instalar en Windows, Mac


o distintas implementaciones de Linux, como muestan las pantallas de inicio de
los tres sistemas representadas en las figuras.

Inicialmente la mayor parte de las opciones de menú de Gretl están deshabilita-


das, y sólo en el menú de Herramientas tenemos algunas opciones como tablas
estadísticas, valores p (nivel crítico), y algunos contrastes:

Para tener activadas otras opciones es necesario partir de un archivo o fichero


de datos.

Trabajar con datos

Para trabajar con un fichero de datos disponemos de dos opciones, Archivo .


Abrir un archivo de datos o bien crear un Archivo . Nuevo conjunto de datos. En
el primer caso a su vez tenemos Archivos de usuario. . . o Archivos de muestra. . . .

En Archivos de usuario se pueden abrir múltiples formatos, aunque por de-


fecto nos aparecen los ficheros de datos específicos de Gretl (*.gdt, o bien en
formato binario de Gretl, *,gdtb, muy recomendable para archivos grandes).
TRABAJAR CON DATOS 15

Por su parte en Archivos de muestra es posible acceder a numerosos ficheros


de datos ya incluidos en Gretl que pueden servir de material de trabajo:

Entre estos archivos se incluyen algunos nativos del programa (en la pestaña
Gretl) y otros correspondientes a ejercicios incluidos en diversos manuales de
Econometría (accesibles en pestañas separadas). Si queremos incluir supuestos
de otros libros, desde el icono con forma de ordenador situado en la zona supe-
rior izquierda podemos acceder a diversos servidores, que una vez seleccionados
instalan las bases de datos en Gretl, clasificadas en distintas pestañas, tal y
como muestra la figura:
16

La opción Nuevo conjunto de datos, permite crear un Archivo de datos


desde el principio, para lo cual tenemos que suministrar a Gretl alguna informa-
ción adicional: cuántas observaciones tiene el fichero, de qué tipo es (temporal,
espacial o datos panel), su frecuencia si es temporal, etc.

Primeros pasos con Gretl

Una vez definido un archivo de datos, es conveniente etiquetar las variables,


es decir, incorporar información relativa a cada una de las variables del fichero
que puede ser relevante en el resto del análisis. Así, es conveniente indicar la
definición de la variable, sus unidades, fuente, . . . . Para ello basta seleccionar la
variable correspondiente y acudir a la opción de menú Variable . Editar atributos
(accesible tambien desde el botón derecho del ratón):

Al seleccionar una variable del archivo y hacer clic en ella con el botón derecho,
tenemos varias opciones relativas a esa variable, disponibles también a través
del menú Variable. Si bien a lo largo del texto iremos detallando las distintas
opciones, se incluye aquí a modo de ejemplo la opción básica relativa a la vista
de datos, desde la que a su vez es posible solicitar la representación gráfica en
el icono correspondiente.
MENÚS DE GRETL 17

Menús de Gretl

La forma de trabajar con Gretl es flexible, ya que este programa permite acceder
a las distintas opciones a través de menús o bien con algún tipo de script o
programación (bien sea línea a línea, mediante la consola, o con algún script,
Archivos de guión).

En los apartados que siguen vamos a describir algunas opciones del menú.

Menú Archivo

En este menú se encuentran las principales opciones que tienen que ver con los
ficheros. De estas opciones queremos destacar los distintos tipos de archivos de
Gretl.
18

En primer lugar tenemos los Archivos de Datos, que por defecto tienen la
extensión *.gdt (asociada a Gretl data base) y únicamente almacenan los datos
que hayamos introducido o generado en al archivo.
En segundo lugar vamos a referirnos a las Bases de Datos, que se pueden
incorporar a un fichero de datos ya existente. Por defecto el programa tiene
algunas bases ya instaladas, pero con la opción Bases de datos . Sobre el servidor,
podemos instalar otras bases de datos adicionales, por ejemplo distintas series
que elabora el Banco de España. Una vez incorporadas algunas series al fichero
de trabajo, éste ya sería un archivo de datos estándar.
Los Archivos de sesión recogen toda la actividad que realizamos durante
una sesión; por ejemplo, si definimos una variable z = log x o si estimamos un
modelo para explicar y en función de x. Todas las actividades que realizamos en
una sesión de trabajo puede guardarse en un archivo con extensión *.gretl, de
modo que la próxima vez que accedemos a Gretl, abriendo el archivo de sesión
recuperaremos los datos y todas las operaciones que hayamos realizado hasta
ese momento. Este es el formato en el que podemos recoger no sólo el conjunto
de datos inicial sino también un material complementario para el supuesto como
el enunciado, algunos scripts e iconos con ecuaciones o gráficos para interpretar.
Los Archivos de guión son ficheros donde podemos incluir pequeños o grandes
programas que pueden ser muy útiles cuando queremos realizar operaciones
repetidas o construir algunas opciones que Gretl no tiene disponibles en sus
menús. Un guión es un conjunto de instrucciones que se ejecutarán de forma
secuencial, y a lo largo de este libro iremos construyendo algunos scripts que
muestran las posibilidades de extender Gretl mas allá de sus opciones de menú.
MENÚS DE GRETL 19

Los Archivos o Paquetes de Función son programas más avanzados que


incluyen una interfaz o diálogo de usuario, donde podemos elegir las opciones de
una forma visual. Hay algunas funciones ya instaladas en Gretl (Sobre la máquina
local) y una gran variedad de Paquetes (Sobre el servidor) que podremos instalar
según nuestras necesidades. También se pueden construir funciones, aunque esto
requiere un nivel más avanzado que el correspondiente a los objetivos de este
libro.

Menú Herramientas

En la primera parte del menú vienen algunas opciones relativas a la probabilidad,


números aleatorios o algunos contrastes no paramétricos, que son opciones que
iremos viendo gradualmente a lo largo de los temas que siguen.

Ahora vamos a centrarnos en algunas opciones de la segunda parte del menú.


En Preferencias podemos establecer algunas opciones por defecto del progra-
ma, como el directorio de trabajo (que por defecto es Usuario . Mis documentos .
Gretl en Windows, Usuario . Gretl en Mac o Linux). Otras opciones importantes
son la de Preferencia del idioma (Spanish) o la de Usar preferencias locales para el
punto decimal.
Por su parte la Consola de Gretl es una consola o monitor tradicional, donde
podemos escribir cualquier instrucción que le damos al programa, por ejem-
plo: genr z=log(x). A diferencia de un archivo de guión que ejecuta un lote
completo, la consola va ejecutando línea a línea, Así, si por ejemplo queremos
ejecutar un bucle que hace 10 veces unos cálculos, deberíamos utilizar un script
que lo hace en bloque, ya que en la consola tendríamos que escribir 10 veces las
correspondientes instrucciones.
El Historial de instrucciones es una opción que permite ver en forma de
código las distintas operaciones que hemos ido realizando a lo largo de la sesión.
Esta opción es interesante sobre todo si vamos a usar la consola o vamos a
programar algo, porque podemos ver cómo habría que expresar las opciones que
acabamos de utilizar.
20

Gnuplot es la librería gráfica que usa Gretl y que también podríamos programar.

El Conjunto de pruebas NIST son distintas pruebas que tratan de avalar la


exactitud de los algoritmos que utiliza Gretl.

Menú Datos

En el menú Datos disponemos de opciones muy útiles para introducir o modificar


valores (Editar valores), añadir nuevas observaciones al archivo, consultar los
datos y otras de mayor complejidad como listas de variables o compactar y
expandir datos, que comentaremos en distintos supuestos.

La construcción de listas de variables resulta de gran interés ya que una vez


definida una lista con varias variables es posible remitirnos a dicha lista en vez de
referirnos a cada una de las variables. Por su parte, las opciones de compactar y
expandir datos permiten convertir archivos mensuales en trimestrales o anuales,
o viceversa.

Menú Ver

En el menú Ver podemos acceder a distintas alternativas de interés para resumir


la información.
MENÚS DE GRETL 21

La Vista de iconos es una opción especialmente interesante; en ella disponemos


de una serie de iconos haciendo referencia a nuestra sesión de trabajo.
Disponemos de dos iconos de texto, Información (sobre el supuesto) y Notas
(donde se pueden ir añadiendo comentarios), así como otros iconos que iremos
viendo más adelante.
Esta vista de iconos irá aumentando según vayamos añadiendo distintas activi-
dades (por ejemplo: modelos, matrices o gráficos, que se pueden ir incluyendo
en la vista de iconos).

Nota:
De forma habitual, en el icono Información incluido dentro de cada uno de los
archivos de datos de este libro se incorporará un enunciado básico del supuesto,
de forma que el fichero de datos sea autónomo para poder realizar el ejercicio.

Otras opciones de uso muy intuitivo son los gráficos que pueden ser series tempo-
rales, nubes de puntos, gráficos de cajas, etc. e incluyen las opciones de gráficos
simples o múltiples gráficos agrupados.

Menú Añadir

El menú Añadir contiene fundamentalmente opciones para generar variables


(tendencia, estacionalidad, . . . ) y llevar a cabo transformaciones (logaritmos,
diferencias, . . . ) que serán de gran utilidad en el trabajo con Gretl.
22

Menú Muestra

El menú Muestra nos permite establecer el recorrido de las observaciones de


nuestro fichero de trabajo. Tal y como se puede observar en las figuras siguientes,
la parte inferior del archivo indica : «Anual: Rango Completo: 1923-1939», que
sería el rango completo de nuestro fichero de trabajo. Ahora bien, por diversos
motivos puede interesarnos no estudiar el rango entero sino sólo una parte de él
(por ejemplo 1923-1939), restringir las observaciones a un criterio determinado
(valores superiores a determinado umbral de una variable, filtrar según variables
cualitativas, etc).
MENÚS DE GRETL 23

En la última figura podemos observar en la parte inferior un texto que, además


del rango completo, indica también la muestra actual 1923-1937 (un subcon-
junto del rango). Desde el menú Muestra podemos realizar distintas operaciones
relativas a los rangos, entre ellas Recuperar rango completo que restablece el
recorrido inicial.

Menú Variable

Dentro del menú Variable disponemos de diversas opciones para analizar la in-
formación relativa a una sola variable previamente seleccionada.
24

Las primeras opciones del menú tienen un carácter más general y descriptivo o
probabilístico, mientras las opciones que aparecen en la zona inferior tienen un
carácter más avanzado.

Menú Modelo

Esta opción del menú nos permite estimar, contrastar y analizar modelos. Si
los modelos estimados resultan adecuados, también utilizaremos las opciones
disponibles desde la salida para realizar predicciones.

Al igual que en los anteriores menús, a lo largo de los próximos capítulos ire-
mos detallando algunas de estas opciones según las distintas herramientas que
vayamos necesitando en cada supuesto.
MENÚS DE GRETL 25

Menú Ayuda

Cabe señalar por último que, con independencia de la mayor o menor experiencia
del usuario, será conveniente consultar la ayuda de Gretl que está muy detallada
en el menú.

Las dos primeras opciones son guías rápidas de instrucciones (un comando que
da alguna orden a Gretl y no devuelve nada) y funciones (comando que pide
a Gretl hacer algo y devuelve algún valor); la tercera opción es la guía del
usuario, Cottrell 2019b cuya consulta es muy recomendable ya que además de
las orientaciones sobre el uso y las extensiones de Gretl, incluye también algunos
temas de econometría tratados con rigor.
Existe un gran numero de funciones e instrucciones disponibles en Gretl, y
además muchas de ellas incluyen diversas opciones. Así pues, la mejor opción
para el usuario será ir consultando poco a poco cómo se aplican las opciones e
ir familiarizándose gradualmente con ellas con el uso y la experiencia.
Guía de Instrucciones de Gretl

add adf anova append ar ar1


arbond arch arima arma biprobit bkw
boxplot break catch chow clear coeffsum
coint coint2 corr corrgm cusum data
dataset debug delete diff difftest discrete
dpanel dummify duration elif else end
endif endloop eqnprint equation estimate eval
fcast flush foreign fractint freq funcerr
function garch genr gmm gnuplot graphpg
hausman heckit help hfplot hsk hurst
if include info intreg join kpss
labels lad lags ldiff leverage levinlin
logistic logit logs loop mahal makepkg
markers meantest midasreg mle modeltab modprint
modtest mpols negbin nls normtest nulldata
ols omit open orthdev outfile panel
panplot pca pergm pkg plot poisson
print printf probit pvalue qlrtest qqplot
quantreg quit rename reset restrict rmplot
run runs scatters sdiff set setinfo
setmiss setobs setopt shell smpl spearman
26

sprintf square store summary system tabprint


textplot tobit tsls var varlist vartest
vecm vif wls xcorrgm xtab

Guía de Funciones de Gretl

$ahat $aic $bic $chisq $coeff


$command $compan $datatype $depvar $df
$diagpval $diagtest $dw $dwpval $ec
$error $ess $evals $fcast $fcse
$fevd $Fstat $gmmcrit $h $hausman
$hqc $huge $jalpha $jbeta $jvbeta
$lang $llt $lnl $macheps $mnlprobs
$model $ncoeff $nobs $now $nvars
$obsdate $obsmajor $obsmicro $obsminor $parnames
$pd $pi $pvalue $qlrbreak $result
$rho $rsq $sample $sargan $sigma
$stderr $stopwatch $sysA $sysB $sysGamma
$sysinfo $system $T $t1 $t2
$test $tmax $trsq $uhat $unit
$vcv $vecGamma $version $vma $windows
$xlist $xtxinv $yhat $ylist

abs acos acosh aggregate argname


array asin asinh atan atan2
atanh atof bessel BFGSmax BFGSmin
BFGScmax BFGScmin bkfilt bkw boxcox
bread brename bwfilt bwrite cdemean
cdf cdiv cdummify ceil cholesky
chowlin cmult cnorm cnumber cnameget
cnameset cols conv2d corr corrgm
cos cosh cov critical cum
curl dayspan defarray defbundle deflist
deseas det diag diagcat diff
digamma dnorm dropcoll dsort dummify
easterday ecdf eigengen eigensym eigsolve
epochday errmsg exists exp fcstats
fdjac feval fevd fft ffti
filter firstobs fixname flatten floor
fracdiff fzero gammafun genseries getenv
getinfo getkeys getline ghk gini
ginv GSSmax GSSmin halton hdprod
hfdiff hfldiff hflags hflist hpfilt
hyp2f1 I imaxc imaxr imhof
iminc iminr inbundle infnorm inlist
instring int inv invcdf invmills
invpd irf irr isconst isdiscrete
isdummy isnan isoconv isocountry isodate
isoweek iwishart jsonget jsongetb juldate
kdensity kdsmooth kfilter kmeier kpsscrit
ksetup ksimul ksmooth kurtosis lags
lastobs ldet ldiff lincomb linearize
ljungbox lngamma loess log log10
log2 logistic lower lrcovar lrvar
Lsolve max maxc maxr mcorr
mcov mcovg mean meanc meanr
median mexp mgradient min minc
minr missing misszero mlag mlincomb
mnormal mols monthlen movavg mpols
mrandgen mread mreverse mrls mshape
msortby msplitby muniform mweights mwrite
mxtab naalen nadarwat nelem ngetenv
nlines NMmax NMmin nobs normal
MENÚS DE GRETL 27

normtest npcorr npv NRmax NRmin


nullspace numhess obs obslabel obsnum
ok onenorm ones orthdev pdf
pergm pexpand pmax pmean pmin
pnobs polroots polyfit princomp prodc
prodr psd psdroot pshrink psum
pvalue pxnobs pxsum qform qlrpval
qnorm qrdecomp quadtable quantile randgen
randgen1 randint rank ranking rcond
readfile regsub remove replace resample
round rnameget rnameset rows sd
sdc sdiff seasonals selifc selifr
seq setnote simann sin sinh
skewness sleep smplspan sort sortby
sprintf sqrt square sscanf sst
strftime stringify strlen strncmp strptime
strsplit strstr strstrip strsub strvals
substr sum sumall sumc sumr
svd svm tan tanh toepsolv
tolower toupper tr transp trimr
typeof typestr uniform uniq unvech
upper urcpval values var varname
varnames varnum varsimul vec vech
weekday wmean wsd wvar xmax
xmin xmlget zeromiss zeros

Al consultar la guía de funciones de Gretl es importante tener presente que


aquellas que aparecen con un $ delante son funciones que devuelven información
relativa al último modelo estimado.
La ayuda sobre instrucciones y funciones de Gretl también se puede consultar
desde la consola; help o help functions muestran los listados de comandos o
funciones que se pueden consultar, y help comando o help function muestra
una ventana con la información sobre el uso de la citada instrucción.

Para un uso inicial de Gretl basado en su entorno gráfico con el ratón y las op-
ciones del menú no es necesario un conocimiento de estas funciones. Sin embargo
para un uso más avanzado utilizando la consola o guiones de programación, el
aprendizaje de algunas de estas funciones es muy recomendable ya que facilitará
mucho la sistematización del trabajo con Gretl.
A lo largo de los próximos supuestos iremos introduciendo gradualmente el uso
de la programación de scripts o guiones en el lenguaje de Gretl, que se denomina
Hansl y aparece descrito en Cottrell 2019a.
28
Parte II

Supuestos

29
SUPUESTO 1

Salarios

Contenidos: Primeros pasos con Gretl, Crear archivo, Etiquetar, Nu-


be de puntos, Vista de Iconos, Estimación, Análisis de Residuos, Ge-
nerar variables

Nombre del archivo: salarios.gdt http://cort.as/-LFxp

Página de datos: http://cort.as/-LHjb . salarios.gdt


Página de scripts: http://cort.as/-LHjE . S1_Salarios.inp

Enunciado:
Se ha recopilado información sobre la situación salarial de 42 empleados del
sector bancario, recogida en las variables Salario (Y , en miles de euros) y Ex-
periencia laboral (X, en años de experiencia).

Obs. X Y Obs. X Y Obs. X Y


1 2 33,7 15 17 43,9 29 25 47,5
2 3 37,5 16 18 50,3 30 26 51,7
3 4 38,5 17 18 49,3 31 28 48,3
4 5 37,1 18 19 46,1 32 30 51,9
5 6 41,7 19 19 54,7 33 30 51,6
6 8 44,0 20 19 46,5 34 32 56,2
7 10 32,9 21 20 47,6 35 33 50,2
8 12 43,6 22 20 49,5 36 34 52,3
9 13 43,0 23 21 50,4 37 34 53,8
10 15 49,6 24 22 45,8 38 34 46,1
11 15 38,7 25 22 52,6 39 35 48,4
12 16 53,4 26 23 45,5 40 38 56,3
13 16 45,3 27 24 46,7 41 40 52,9
14 17 41,3 28 24 46,2 42 42 63,7

1. Crear un archivo de Gretl e introducir en el mismo la información dispo-


nible sobre experiencia laboral y salarios

31
32 SUPUESTO 1. SALARIOS

2. Representar la nube de puntos y analizar la relación existente entre ambas


variables
3. Estimar un modelo que explique el nivel salarial en función de la expe-
riencia.
4. Analizar gráficamente los errores de estimación y estudiar la bondad del
modelo anterior.
5. Si el salario se expresase en miles de dólares ¿Cuál sería el efecto sobre el
modelo estimado? ¿Y sobre su bondad?

Solución:
1. Crear un archivo de Gretl e introducir en el mismo la información
disponible sobre experiencia laboral y salarios

Por tratarse del primer supuesto práctico, vamos a comenzar definiendo un ar-
chivo de trabajo para posteriormente introducir la información disponible. Con-
cretamente en este caso el archivo será de corte transversal o sección cruzada y
contendrá 42 observaciones, por lo que deberemos seleccionar las correspondien-
tes opciones de Gretl para esta estructura de datos, según la siguiente secuencia:
Menú Archivo . Nuevo conjunto de datos,

Al seleccionar la opción de sección cruzada se genera un archivo sin fecha, y


basta con confirmar la estructura de datos.

Una vez que finaliza la creación del fichero, el programa nos pregunta si deseamos
empezar a introducir datos. En caso afirmativo debemos introducir el nombre de
la serie y se abrirá el editor de datos para empezar a introducir la información
de esa variable.
33

Es interesante destacar que una vez creado un fichero de trabajo, aún sin in-
troducir ninguna información en el mismo, aparecen dos objetos. Uno de ellos,
denominado const, que como su nombre indica es una constante generada auto-
máticamente, se utiliza posteriormente en la estimación de los modelos, mientras
que la serie denominada index únicamente indica el número de observación.
La introducción de las variables en nuestro archivo de datos se lleva a cabo
mediante la opción de menú: Añadir . Definir nueva variable

Tal y como nos indica el diálogo introducimos el nombre de la variable (en


este caso x) y aparece una hoja de datos donde debemos introducir los valores
correspondientes.

Repetimos la misma operación para la variable y, cuyos datos se van introdu-


ciendo en la correspondiente serie.
34 SUPUESTO 1. SALARIOS

Una vez realizadas estas operaciones, podemos observar que nuestro fichero de
trabajo ya tiene 4 objetos y las nuevas variables x e y aparecen con ID=2 y 3
respectivamente. Este índice ID va numerando los distintos objetos que vayamos
introduciendo en el archivo, de modo que posteriormente en los modelos u otras
representaciones, podemos aludir a las variables tanto por su nombre como por
el número de ID.

Nota:
Aunque en este primer ejercicio denominamos x e y a las variables, es recomen-
dable utilizar términos que hagan referencia a su significado, y así lo haremos
en los supuestos que siguen.
Además, para trabajar de forma cómoda y evitar errores es aconsejable utili-
zar letras minúsculas. El motivo es que Gretl es un programa multiplataforma:
Windows, Mac y Linux, y en el caso de Linux se distingue entre letras mayús-
culas y minúsculas, por lo cual el mismo nombre introducido con mayúsculas o
minúsculas es diferente, con el consiguiente riesgo de cometer errores al manejar
las variables (este sería el caso por ejemplo al escribir X o x, Salario o salario,
USA o usa).

Los objetos const e index que aparecen desde el inicio en el archivo de trabajo
llevan asociada una descripción (variable índice en el caso de index), pero en
cambio no sucede lo mismo para las series x e y, que no disponen de información
hasta que no se introducen las correspondientes etiquetas.
Para etiquetar una variable basta seleccionarla e ir al menú Variable . Editar
atributos, (o bien, una vez seleccionada la variable, activar con el botón derecho
del ratón la opción Editar atributos).

Aquí podemos cambiar la denominación de la variable, introducir la descripción


e indicar un nombre que aparecerá cuando mostremos gráficos (por defecto
muestra el nombre de la variable).
En la esquina superior derecha aparecen unos iconos en verde. Estos iconos son
muy cómodos cuando queremos etiquetar varias variables seguidas, ya que basta
con pulsar Aplicar y utilizar las teclas anterior o siguiente para navegar por las
distintas variables. También existe una opción en la parte inferior que permite
tratar a las variables como discretas.
35

Nota:
Es importante etiquetar las variables, incluyendo en la descripción la definición
completa, unidades de medida, fuente de la que proceden y otras características
que queramos recoger. Las variables sin etiquetar son un riesgo ya que, al acceder
pasado un tiempo al archivo de trabajo, podemos tener problemas para recordar
sus características e interpretar los resultados obtenidos.

2. Representar la nube de puntos y analizar la relación exis-


tente entre ambas variables

Una vez introducidos los datos, es muy recomendable observar algún gráfico de
las variables, ya que nos puede dar ideas sobre la relación existente entre las
mismas e incluso nos puede ayudar a detectar posibles errores.
Para ver un gráfico conjunto, señalamos con el ratón las variables x e y; y po-
demos ir a Ver . Gráficos donde tenemos distintas opciones de representaciones
gráficas (en este caso sería adecuada una nube de puntos que corresponde a
la opción Gráfico X-Y scatter). Otras alternativas para obtener la misma repre-
sentación son ir al icono que aparece en la parte inferior del fichero de trabajo
(Barra de herramientas) con forma de gráfico tipo nube de puntos , o bien
seleccionar desde el botón derecho del ratón la opción Gráfico de dos variables
XY.

En cualquiera de los casos tenemos que indicar cuál va a ser la variable que se
representará en el eje horizontal y cuál en el vertical. En este caso se obtiene
el siguiente gráfico donde se puede observar que, además de la nube de puntos,
aparece representada la recta mínimo cuadrática que explica el salario en función
de la experiencia laboral y cuya pendiente, tal y como cabía esperar, tiene signo
positivo.
36 SUPUESTO 1. SALARIOS

�����������������������������������������������������������������
� ��
�����������������

� ��

� ��

� ��
�������

� ��

� ��

� ��

� ��
�� � �� ��
� ��
� ��� ��� ��
� ��

�����������

Estas representaciones de Gretl son configurables ya que, al hacer doble clic


sobre el gráfico aparecen diversas opciones, entre ellas Copiar al portapapeles .
color, que es la que hemos utilizado en este caso, o bien guardar el gráfico en
diversos formatos.
Si pulsamos la opción Editar, aparece un diálogo con muchas alternativas para
configurar el gráfico.

Desde esta opción de Editar es posible cambiar el Título del gráfico si lo consi-
deramos oportuno, elegir cuestiones de aspecto como bordes o rejillas y decidir
si se representa o no el modelo estimado y en caso afirmativo si éste es lineal o
de otro tipo.
En los Ejes es posible cambiar la leyenda que aparece, el rango o la escala.
En Etiquetas, se pueden escribir distintos textos y la posición (x, y). Para ello
basta pulsar sobre el icono con el ratón y al hacer clic sobre un punto del gráfico
donde se insertará la correspondiente etiqueta. Estas opciones se utilizarán en
algunos supuestos posteriores para personalizar las salidas gráficas.
37

Hay dos opciones especialmente interesantes sobre el gráfico que utilizaremos


en los supuestos que siguen: una es Estimaciones de MCO (que proporciona la
salida del modelo simple mínimo cuadrático que explica Y en función de X), y
la otra es Guardar a sesión como icono.
Desde el menú Ver . Vista de iconos, o equivalentemente en el cuarto icono de
la de la Barra de Herramientas (parte inferior del fichero de trabajo), se accede
a la vista de iconos, un conjunto de iconos con los objetos almacenados en la
sesión de trabajo:

Si hacemos clic sobre el Conjunto de datos podemos ver los datos, y en Resumen
aparecen los principales estadísticos (media, mediana, desviación típica, máximo
y mínimo) de esos datos.
Si ahora volvemos al gráfico anterior y pulsamos la opción: Guardar a sesión como
icono vemos que aparece un nuevo icono correspondiente al gráfico que hemos
guardado y por tanto podemos recuperarlo en el momento que consideremos.
Aunque la denominación que utiliza Gretl para este tipo de iconos es genérica
(Gráfico 1) podemos cambiar el nombre con la opción Renombrar del botón
derecho del ratón

Nota:
De modo similar al descrito para el gráfico, es posible guardar a sesión como icono
distintos tipos de objetos, tal y como describiremos en supuestos posteriores.
Es recomendable ir almacenando los distintos objetos (gráficos, matrices, mo-
delos, . . . ) en la sesión de iconos porque puede resultar útil para posteriores
consultas o comparaciones entre diversos resultados. También es conveniente
abrir la vista de iconos al empezar a resolver un supuesto y observar los distin-
tos objetos que vamos añadiendo.
38 SUPUESTO 1. SALARIOS

Es importante tener en cuenta que una vez almacenado un objeto (un gráfico,
por ejemplo) éste ya se mantiene inalterado, por lo que no variará si efectuamos
cambios en las variables representadas. Además, si abrimos un objeto desde la
vista de iconos, éste aparece tal y como ha sido almacenado y ya no ofrece la
opción de guardar a sesión como icono.

Las herramientas de Gretl ofrecen la posibilidad de revisar el trabajo realizado en


una sesión. Esta opción se encuentra en Herramientas . Historial de instrucciones,
cuya salida muestra con distintos colores las instrucciones ejecutadas.

Puede sorprender que en esta salida no aparezcan registradas algunas de las


operaciones que hemos realizado. Esto se debe a que cuando trabajamos con
Gretl realizamos dos tipos de tareas diferentes: algunas como crear una serie,
mostrar un gráfico, etc. son instrucciones u órdenes, mientras en otras ocasio-
nes (por ejemplo cuando introducimos datos o cambiamos las opciones de un
gráfico), no se trata de instrucciones y por tanto no quedan almacenadas en el
correspondiente historial de Gretl.

Nota:
El historial de instrucciones es una herramienta muy útil por dos motivos: por
una parte nos recuerda la actividad realizada en la sesión de trabajo y por otra
nos indica cuáles son los comandos para ejecutar las distintas instrucciones. De
este modo, consultando el historial de instrucciones podemos ver que algunas de
las tareas realizadas pueden ser llevadas a cabo de forma más rápida mediante
comandos en la Consola de Gretl.

Nota:
Para familiarizarnos con la Consola de Gretl, que utilizaremos en algunos de los
supuestos, vamos a Herramientas . Consola de Gretl o bien al tercer icono de la
Barra de Herramientas situada en la zona inferior izquierda. Al abrir la consola
aparece una ventana donde podemos escribir comandos.
39

Para crear una nueva serie z, podemos teclear simplemente series z=NA (NA: no
disponible) o bien series z=0 (en este caso se asignaría valor nulo a todas las
observaciones).
Es importante tener en cuenta que si escribimos series z=na el programa da un
error porque no reconoce el término na (tendría que ser NA en mayúsculas),
y por el mismo motivo, como ya hemos indicado anteriormente, daría error si
escribiéramos Series o SERIES en vez de series.
Una vez creada la serie z=0, ésta tendrá asignada un nuevo ID, en este caso
4. Si a continuación volvemos a escribir series z=NA lo que hace es reemplazar
la serie anterior, por lo que es necesario tener cuidado al introducir nuevas
series (si asignamos un nombre ya existente sobreescribe la serie anterior y en
consecuencia perdemos la información).
Aunque los menús de Gretl permiten realizar muchas opciones, hay algunos
casos en los que resulta necesario utilizar la consola, por lo que en supuestos
posteriores iremos introduciendo ilustraciones de sus posibilidades.

Una vez realizadas distintas tareas en Gretl es importante guardar el trabajo


realizado. Para ello es necesario entender la filosofía que aplica Gretl al tema de
guardar, distinguiendo entre archivo de datos y archivo de sesión. Así, podemos
guardar nuestro fichero de datos desde: Archivo . Guardar datos, con lo cual
tendremos almacenado el archivo de extensión gdt donde se incluyen todos los
datos pero no los objetos almacenados en la vista de iconos. Una opción más
completa es guardar sesión en Archivo . Archivos de sesión . Guardar sesión,
en cuyo caso tendremos un archivo de extensión gretl que además de los datos
conserva todos los objetos previamente almacenados en la vista de iconos
Así, partiendo de nuestro fichero de trabajo si seleccionamos Archivo . Guardar
datos, o con la opción Exportar podemos seleccionar todas las series que hemos
creado, o guardar solo algunas (por ejemplo, en este caso hemos creado z a
modo de prueba y tal vez no nos interese guardarla). Al aceptar se guardan las
variables seleccionadas y es necesario asignar un nombre al fichero (por ejemplo,
en este caso salarios.gdt ).
En caso de guardar únicamentes los datos, no estamos almacenando todas las
actividades que hemos realizado en nuestra sesión de trabajo. Si deseamos guar-
dar también este histórico de actividades, gráficos o modelos guardados en la
40 SUPUESTO 1. SALARIOS

vista de iconos, debemos ir a Archivo . Archivos de sesión . Guardar sesión,


donde debemos asignar nuevamente un nombre (por ejemplo salarios.gretl)
, que vendrá representado con un icono diferente.

3. Estimar un modelo que explique el nivel salarial en función de la


experiencia

La relación entre las variables salario y experiencia laboral aparece representada


en el gráfico de nube de puntos que hemos visto anteriormente, donde también se
incluía la estimación del modelo lineal. No obstante, para obtener la estimación
completa podemos utilizar la opción: Modelo . Mínimos cuadrados ordinarios

De la lista de variables disponibles en la parte izquierda seleccionamos la variable


dependiente (pulsando la flecha verde), y también las variables independientes
o regresores, en este caso únicamente x.

Nota:
Es posible acceder a esta estimación de mínimos cuadrados ordinarios (MCO),
desde distintas opciones. Así en la pantalla principal de Gretl, en la parte inferior
(Barra de herramientas) aparece un icono con β̂ que nos conduce a este diálogo
de MCO y también desde un gráfico de nube de puntos, en el botón derecho del
ratón podemos acceder a la opción de MCO.
Además, en la consola de Gretl podemos utilizar el comando ols (ordinary
least squares o mínimos cuadrados ordinarios) y escribir ols y const x o bien
ols 3 0 2, donde los números representan el ID de cada variable.

La estimación MCO de los salarios en función de la experiencia laboral propor-


ciona la siguiente salida:
41

En esta salida, la estimación de la constante, 37,1265 se puede interpretar como


el salario esperado para empleados sin experiencia, mientras que el coeficiente
de x (0,48) indica que por cada año adicional de experiencia se estima que el
salario aumenta en 480,3€ (el signo de ese coeficiente, que se corresponde con
la pendiente de la recta mínimo cuadrática, es positivo tal y como ya habíamos
visto en la representación de la nube de puntos).

Coeficiente de regresión simple


Los coeficientes de regresión del modelo Y = β1 + β2 X , que aparecen en la
segunda columna del modelo estimado por Gretl, vienen dados por las expre-
siones:

SXY SXY
β̂1 = Ȳ − 2 X̄ = 37, 1265 ; β̂2 = 2 = 0, 480302
SX SX

y en la tercera columna del modelo estimado se recogen las desviaciones típicas


de los coeficientes:

s Pn s
S2 i=1 Xi2 S2
Sβ̂1 = Pn 2 = 1, 38677 ; Sβ̂2 = Pn 2 = 0, 0589702
n i=1 Xi − X̄ i=1 Xi − X̄
Pn 2
i=1 ûi
donde S 2 = n−2 .

Test de significación individual


A partir de los resultados anteriores se obtiene el estadístico t o discrepancia
del test de significación individual, que se muestra en la cuarta columna de
la salida de Gretl y permite contrastar si la experiencia laboral es una variable
significativa para explicar el salario. Más concretamete el contraste se plantearía
como:

H0 : β2 = 0 ; H1 : β2 6= 0

y se resuelve a partir de la expresión t de Student con n-2 grados de libertad:


42 SUPUESTO 1. SALARIOS

β̂2 − β2 β̂2
dβ̂2 = = ∼ tn−2
Sβ̂2 Sβ̂2
que en caso proporciona el resultado 8,145
Finalmente en la quinta columna aparece el nivel crítico del contraste, p =
5,03272e − 010, que permite rechazar la hipótesis de nulidad del coeficiente y
por tanto concluir que la experiencia es significativa para explicar el salario.
En este caso se tiene: n − 2 = 40, por lo que p = P (|t40 | > 8, 145)
Para buscar esta probabilidad en Gretl podemos utilizar la opción: Herramientas
. Buscador de valor p:

t(40): área a la derecha de 8.145 = 2.51636e-010


valor a dos colas = 5.03272e-010; complemento = 1)

Nota:
En la salida del modelo anterior podemos observar que, acompañando al nivel
crítico obtenido, aparecen 3 asteriscos, ***, lo cual indica que el resultado es
significativo al 1 %. Esta leyenda utilizada por Gretl es habitual para facilitar
la interpretación de los contrastes: cuando el resultado es significativo al 1 %,
la etiqueta es de 3 asteriscos, (***), cuando lo es al 5 % aparecen 2 asteriscos
(**) y para resultados significativos al 10 % se incluye sólo un asterisco (*). Para
niveles críticos superiores al 10 % no incluye leyenda.
Es importante tener presente que, aunque Gretl muestra los resultados de los
contrastes de significación para los dos parámetros de regresión, nuestro interés
se centra en el coeficiente de la variable x, mientras que en el caso de la constante
este resultado no es relevante (ya que la hipótesis nula contrastada en este caso
sería H0 : β1 = 0 , equivalente a asumir que la recta de regresión pasa por
el origen, pero no afecta a ninguna variable explicativa ni es relevante para la
especificación del modelo).

El modelo estimado incluye también otros indicadores como el coeficiente de


determinación, que analizaremos en un apartado posterior.
Desde la salida del modelo estimado se encuentran accesibles menús de gran
interés, que proporcionan información gráfica, tablas, contrastes... y resultan
muy útiles para analizar en detalle el modelo.
Así, desde el menú Archivo . Guardar a sesión como icono, podemos almacenar
el Modelo 1 en nuestra vista de iconos, de modo similar al tratamiento que
habíamos descrito anteriormente para el gráfico de nube de puntos.
Además, en Archivo . Guardar como aparecen distintas posibilidades para guar-
dar esta salida, siendo recomendable texto plano si vamos a copiarlo en el block
43

de notas de la sesión de iconos o bien RTF para documentos de texto o pre-


sentaciones. Estas son las mismas opciones que aparecen en el menú Editar .
Copiar, para pegar directamente en un documento.
Cabe también destacar que la opción Archivo . Ver como ecuación proporciona
una versión sintética del modelo estimado, incluyendo los valores de los coefi-
cientes y sus correspondientes desviaciones típicas entre paréntesis.
De especial interés es el menú Contrastes donde aparece una importante batería
de tests que iremos utilizando en posteriores supuestos para validar nuestros
modelos.
Por su parte, el menú Guardar nos permite almacenar algunos resultados del
modelo, que incluyen tanto series (variable estimada, residuos) como escalares
(coeficiente de determinación, medidas de información).
Desde el menú Gráficos se accede a representaciones relativas tanto a la variable
estimada y observada como a los residuos, que resultan de gran interés para
evaluar la calidad del ajuste y detectar posibles observaciones atípicas.
Por último, en el menú de Análisis se incluyen diversas opciones que abarcan,
entre otras alternativas, la construcción de intervalos de confianza, el análisis de
varianza o la obtención de predicciones.

Nota:
La estimación del modelo de salarios en función de la experiencia laboral puede
obtenerse desde la consola de Gretl, mediante el comando ols y const x, que
proporciona la misma salida del output de regresión pero en este caso estática,
es decir, sin acceso a las opciones de menú descritas anteriormente.
También es posible guardar el modelo en la sesión de iconos, asignando un
nombre al modelo anterior:

Modelo_1 <- ols y const x

De esta forma aparecerá un icono de modelo en la Vista de iconos de sesión con


el nombre Modelo_1.
Si queremos que Gretl nos muestre un modelo previamente almacenado en la
sesión de iconos en una ventana de modelos, bastaría con escribir Modelo_1.Show.
Para recuperar los coeficientes de la regresión o generar nuevas variables basadas
en ellos, podemos utilizar la consola de Gretl, con la orden $coeff.
Así, si escribimos b2=$coeff(x), el programa genera un escalar con el valor del
coeficiente de la x. Este resultado estará almacenado en el objeto escalar de la
vista de iconos y sería el mismo que si se calculase el estimador mediante la
expresión b2=cov(x,y)/var(x).
De modo similar se podría calcular la estimación del término independiente
como b1=mean(y)-b2*mean(x)
Por otra parte, si escribimos b=$coeff el programa genera un vector con los
coeficientes del modelo, que podemos consultar en la Vista de iconos de sesión o
bien en la consola con las instrucciones: print b o eval b; en este caso los valores
obtenidos son 37.1265 y 0.480302 respectivamente.
44 SUPUESTO 1. SALARIOS

4. Analizar gráficamente los errores de estimación y estu-


diar la bondad del modelo anterior

El análisis de los errores de estimación puede ser llevado a cabo desde el modelo
estimado. La opción Guardar . Residuos almacena la serie correspondiente en el
fichero de datos y permite analizar sus valores, representación gráfica, etc.
Además, desde el modelo estimado el menú Análisis . Mostrar variable observada,
estimada, residuos proporciona la tabla completa con los valores de los salarios
observados, los salarios estimados por el modelo y los residuos obtenidos co-
mo diferencia entre ambos. Las correspondientes representaciones gráficas están
disponibles, también desde la salida del modelo, en el menú Gráficos y así en
Gráficos . Residuos . Por número de observación obtenemos la salida siguiente,
que permite apreciar algunos residuos considerables (los más extremos son -9,0
y 8,6, que sin embargo no superan 2,5 veces la desviación típica y por tanto no
pueden ser considerados valores atípicos, tal y como se comentará en supuestos
posteriores).

���������������������������������������������������
� ��

��

��

��

��
�������

��

��

��

��

��

���
�� �� � �� ��
� ��� ��� ��� ��
� ���

Como consecuencia de la existencia de estos errores de magnitud bastante eleva-


da, la capacidad explicativa del modelo estimado no es muy alta. Esta bondad
viene resumida por el coeficiente de determinación R2 = 0,623841 que permite
concluir que la experiencia explica algo más del 62 % de las diferencias salariales
entre los individuos investigados.
Cabe señalar que este comentario relativo a la limitada capacidad explicativa
del modelo no es contradictorio con el resultado del apartado anterior: si bien
la experiencia es una variable significativa para explicar el salario, resulta insu-
ficiente en cuanto a su capacidad explicativa, lo cual sugiere la conveniencia de
completar el modelo con otras variables.

Coeficiente de determinación:
45

El coeficiente de determinación R2 se define como la proporción de la variación


total de Y que viene explicada por el modelo y se obtiene mediante la expresión:
n  2 n
û2i
P P
Ŷi − Ȳ
i=1 i=1
R2 = n
P 2 = 1 − P
n 2
Yi − Ȳ Yi − Ȳ
i=1 i=1

Este indicador adopta valores comprendidos entre 0 y 1, y su resultado aumenta


con la bondad o capacidad explicativa del modelo.

Para los modelos lineales simples, como el propuesto en este caso, el coeficiente
de determinación coincide con el cuadrado del coeficiente de correlación lineal,
ya que al existir una única variable explicativa se cumple:

Pn  2
2
i=1 Ŷi − Ȳ Pn
Xi − X̄

SXY
2 2
SX

SXY
2
2 i=1
R = Pn 2 = β̂22 2 = 2 = 2
= rXY
Yi − Ȳ
Pn
Yi − Ȳ SX SY2 SX SY
i=1 i=1

Además de aparecer en la salida del modelo mínimo-cuadrático, el coeficiente


de determinación puede ser guardado como escalar en el menú Guardar o bien
recuperado mediante el comando $rsq en la consola de Gretl.

5. Si el salario se expresase en miles de dólares ¿Cuál sería


el efecto sobre el modelo estimado? ¿Y sobre su bondad?

Para resolver este apartado es necesario consultar el tipo de cambio euro-dolar,


por ejemplo en http://cambioeurodolar.com/, o simplemente escribiendo en
un buscador: «euro dolar». Una vez obtenido el dato correspondiente (por ejem-
plo 1,12), podríamos definir la nueva variable en Añadir . Definir nueva variable
mediante la expresión ydolar=y*1.12, que creará una nueva serie con esta trans-
formación.

También se podría hacer desde la consola escribiendo: genr ydolar=y*1,12

Una vez realizado el cambio de escala, si estimamos el nuevo modelo que explica
z (salario en dólares) en función de x (años de experiencia) el resultado es el
siguiente:

Modelo 2: MCO, usando las observaciones 1–42


Variable dependiente: ydolar

Coeficiente Desv. Típica Estadístico t valor p


const 41,5817 1,55318 26,77 0,0000
x 0,537938 0,0660466 8,145 0,0000
46 SUPUESTO 1. SALARIOS

Media de la vble. dep. 52,96800 D.T. de la vble. dep. 7,063406


Suma de cuad. residuos 769,4553 D.T. de la regresión 4,385930
R2 0,623841 R2 corregido 0,614437
F (1, 40) 66,33808 Valor p (de F ) 5,04e–10
Log-verosimilitud −120,6637 Criterio de Akaike 245,3274
Criterio de Schwarz 248,8027 Hannan–Quinn 246,6012

donde el término independiente (salario autónomo) y el coeficiente de la x (au-


mento salarial por cada año de experiencia) aparecen multiplicados por el tipo
de cambio euro/dolar 1,12.
En cambio, como es lógico la bondad del modelo sigue siendo la misma y pue-
de observarse que no cambia el coeficiente de determinación. Tampoco varía el
resultado del contraste de significación t de Student que confirma que la expe-
riencia laboral es una variable significativa para explicar los salarios expresados
en dólares.
SUPUESTO 2

Consumo

Contenidos: Abrir datos xls en Gretl, Gráfico temporal, Estimación


MCO, Intervalos de confianza, Análisis de Residuos, ANOVA, Con-
traste de restricciones lineales, Tablas de modelos

Nombre del archivo: consumo.gdt http://cort.as/-LMU8

Página de datos: http://cort.as/-LHjb . consumo.gdt


Página de scripts: http://cort.as/-LHjE . S2_Consumo.inp

Enunciado:

El INE (www.ine.es) publica en su Contabilidad Nacional la información corres-


pondiente a las principales macromagnitudes de la economía española. A partir
de esta información se ha estudiado la evolución anual del Gasto en Consumo
de los hogares (consumo) y la Renta nacional disponible neta (renta), ambas
variables expresadas en miles de millones de euros:

1. Consultar en la web del INE la información sobre las series nacionales de


consumo y renta, y preparar una hoja de cálculo para construir la base de
datos en Gretl.

2. Estudiar la relación entre las variables investigadas.

3. Estimar por mínimos cuadrados un modelo de consumo keynesiano, ana-


lizando su capacidad explicativa.

4. Contrastar el supuesto de nulidad para la Propensión Marginal al Consu-


mo e interpretar el resultado.

5. A partir de la distribución de los errores ¿Cuál es el año en el que el modelo


estimado se ajusta peor a la información del INE?

47
48 SUPUESTO 2. CONSUMO

6. Descargar de la web del INE la serie de remuneración total de asalariados


y añadirla al fichero de trabajo.
7. Estimar un modelo lineal para el consumo en función de la remuneración
total de asalariados y comparar el resultado con el anterior.

Solución:

Nota:
En todos los supuestos incorporamos el enunciado dentro del propio fichero de
datos de Gretl; en la Vista de iconos podemos acceder a la información del supues-
to, donde aparece el enunciado del ejercicio. Esta misma ventana es accesible
también desde la opción Datos . Información del conjunto de datos.

Otra opción interesante de Vista de iconos es la de Notas, que puede resultar


útil para escribir comentarios, temas pendientes o dudas sobre la resolución de
supuesto

1. Consultar en la web del INE la información sobre las series na-


cionales de consumo y renta, y preparar una hoja de cálculo para
construir la base de datos en Gretl

El programa Gretl permite importar datos (en diversos formatos) en la opción


de Abrir archivo de datos o bien desde Añadir datos a un fichero ya abierto. En
el caso de datos en formato xls o xlsx (Excel), éstos deben estar dispuestos en
columnas contiguas, y es necesario fijar la celda inicial ya que a partir de ahí,
hasta el límite de la hoja se importarían todos los datos. La primera fila del rango
se reserva para los nombres de las series y las restantes para los correspondientes
datos.
49

 En este caso podemos entrar en INEBase → Economía → Cuentas Eco-


nómicas → Contabilidad nacional anual de España → Resultados y al
seleccionar el PIB a precios de mercado se descarga el correspondiente
cuaderno en formato xlsx.

Nota:
La secuencia de navegación descrita corresponde al momento actual (2019), pero
puede cambiar con nuevas organizaciones del mapa de navegación Web del INE.
Lo mismo ocurre con el diseño del cuaderno de cálculo que se descarga, pero
el esquema de trabajo propuesto para incorporar la información a Gretl sigue
siendo válido.

 La tabla 1 (Hoja 2 del cuaderno) recoge en la primera fila el Gasto en


Consumo Final.
 Se copia esta fila, incluido el título, y se pega en otra hoja con pegado
especial-transponer para que aparezca dispuesta en una columna (si se
quisiera incluir más variables se repetiría el mismo procedimiento aña-
diendo la columna a continuación).
 Para descargar la renta, en la misma página web anterior, se descarga la
Renta nacional disponible, y copiamos la fila correspondiente a la renta
nacional disponible neta. Al igual que en el caso anterior seleccionamos
también la etiqueta y copiamos en formato especial en forma transpuesta
a continuación de la columna de consumo.

Nota:
Es posible que las series no tengan disponible el mismo recorrido temporal (por
ejemplo en el momento actual la variable Gasto en Consumo Final empieza en
el año 1995 y en cambio la Renta nacional disponible lo hace en 1999). Debemos
tener en cuenta esta información y asegurarnos de que los datos van asociados
al año adecuado (en este caso debemos dejar en blanco los datos de la renta de
los cuatro años iniciales).
Además, al extraer la información del INE es habitual que en los cuadernos
de cálculo, como sucede en este caso, aparezcan insertadas filas o columnas en
blanco, que habría que eliminar, hasta que las series con las que vamos a trabajar
aparezcan dispuestas en columnas contiguas.
Es importante prestar atención a estas cuestiones para evitar introducir errores
en la base de datos.

 Una vez configurado el archivo xls, la primera fila incluye la etiqueta que
luego Gretl tomará como nombre de la variable, y que no puede contener
ningún separador ni símbolo atípico. Es recomendable utilizar nombres
cortos (Gretl admite hasta un máximo de 32 caracteres). Para guardar
este fichero xls debemos asignar un nombre que no incluya espacios en
blanco ni símbolos especiales (por ejemplo, en nuestro caso, consumo.xls).
50 SUPUESTO 2. CONSUMO

 A modo de prueba, para importar esta información desde Gretl podemos


ir al menú Archivo . Abrir datos y seleccionar el tipo de fichero, en nuestro
caso Ficheros Excel (*.xlsx). En la ventana emergente debemos confirmar
el recorrido para importar datos (por ejemplo desde la celda A1) y de este
modo se incorpora toda la hoja desde esa celda hasta el final.
 El programa Gretl -tal y como indica otro mensaje emergente- importa
los datos en formato de sección cruzada, salvo que se le indique lo contra-
rio. No obstante en casos como el de este supuesto debemos indicar que
deseamos cambiar la estructura del archivo (respondiendo SÍ a la pregun-
ta planteada) y concretamente elegiremos serie temporal, periodo anual y
año base 1995, con lo cual tendremos incorporados a nuestro fichero todos
los datos disponibles.

Nota:
Debemos prestar atención al separador decimal, «.» o «,», según las configu-
raciones de los cuadernos de cálculo y de Gretl. Cuando los dos tienen una
configuración regional automática o en español, la importación suele ser auto-
mática respetando los signos de puntuación (decimales y miles).
Si ambas configuraciones no fueran iguales tendríamos que cambiarla en el cua-
derno de cálculo antes de importar los datos a Gretl para que reconozca los
datos como números y no como caracteres de texto.
El formato decimal de Gretl puede no ser siempre el mismo, ya que dependien-
do de las configuraciones o del sistema operativo puede intercambiar los dos
sistemas de puntuación.

Una vez importados los datos, procedemos a etiquetar las series, Variable .
Atributos de variables tal y como se describe en el supuesto anterior, indicando
la denominación completa de las variables (Renta Nacional Disponible Neta y
Gasto en Consumo Final de los hogares), las unidades de medida (miles de
millones de euros), y la fuente (Instituto Nacional de Estadística).
Para visualizar los valores de las dos series podemos ir al menú Datos . Mostrar
valores o bien seleccionar esta opción con el botón derecho del ratón. En ambos
casos obtenemos la tabla siguiente:

Obs Consumo Renta


1995 275768
1996 290737
1997 307454
1998 326321
1999 349423 509151
2000 380194 55102
2001 407979 591531
2002 431627 632310
2003 456041 676753
51

2004 491598 721279


2005 528157 769247
2006 568217 825737
2007 605824 877724
2008 623029 896313
2009 595010 867990
2010 607981 871037
2011 608153 851984
2012 600532 833502
2013 587697 824340
2014 597653 838041
2015 614840 877291
2016 632736 910938

2. Estudiar la relación entre las variables investigadas

Para estudiar la relación entre consumo y renta puede ser adecuado comenzar
con una representación de ambas. Una primera opción es la nube de puntos,
disponible en el menú Ver . Gráficos . Gráfico X-Y (scatter)... y también en el
icono de gráfico de la ventana principal de Gretl. En ambos casos aparece un
diálogo donde debemos seleccionar las variables del eje X (en nuestro caso renta)
y del Eje Y (en nuestro caso consumo) y el gráfico obtenido permite apreciar
una relación muy estrecha entre las variables, sugiriendo que un modelo lineal
resultaría adecuado.

�����������������������������������������������������������
�������
����������������������
�������

�������
�������

�������

�������

�������

�������

�������
������� ������� � ������ � ������ ������� ������
� ������� ������
� ������

�����

Además, al tratarse de series temporales podemos representar la evolución con-


junta de ambas mediante la opción Ver . Graficos . Gráfico de series temporales,
que muestra un claro paralelismo en la evolución del consumo y la renta, con-
firmando nuevamente la adecuación del modelo lineal:
52 SUPUESTO 2. CONSUMO

� �����
�������
�����
� ������

� ������

� ������

� ������

� ������

� ������

� ������

� ������
����� � ���� ����
� ����
� ����

Nota:
Es conveniente almacenar estos gráficos en la vista de iconos de Gretl, mediante
la opción Guardar la sesión como icono a la que se accede con el botón dere-
cho del ratón. También es recomendable, desde la vista de iconos, renombrarlos
para facilitar su identificación (por ejemplo, en este caso nube_puntos y grafi-
co_temporal respectivamente). De modo similar almacenaremos en la vista de
iconos otros objetos como modelos o tablas.

3. Estimar por mínimos cuadrados un modelo de consumo keynesiano,


analizando su capacidad explicativa

El modelo de consumo keynesiano es uno de los ejemplos clásicos para la regre-


sión lineal simple, ya que -siguiendo la propuesta de Keynes 1936 en su «Teoría
general del empleo, el interés y el dinero», este modelo propone una explicación
sencilla de la cantidad total de consumo de una economía como una función
lineal de la renta: Y = β1 + β2 X. De este modo se distingue entre un consumo
autónomo que no es influenciado por la renta corriente (y equivale al parámetro
constante β1 del modelo) y un consumo inducido que sí resulta influido por el
nivel de renta de la economía (de ahí el interés del parámetro, β2 que se interpre-
ta como Propensión Marginal al Consumo y cuantifica el aumento de consumo
asociado a un incremento unitario en la renta).

La estimación de este modelo con la información disponible en nuestro archivo


se lleva a cabo desde el menú Modelo . Mínimos Cuadrados Ordinarios selec-
cionando la variable dependiente consumo e independiente renta (además de la
constante, que aparece por defecto con la denominación const). La salida obte-
nida, que se reproduce a continuación aparece con la denominación Modelo 1,
53

ya que Gretl va numerando los modelos de nuestra sesión de trabajo de forma


automática.
Para almacenar en nuestro archivo de trabajo el modelo estimado para el con-
sumo, desde la salida obtenida vamos al menú Archivo y pulsamos la opción
Guardar la sesión como icono.

Nota:
El mismo modelo podría obtenerse desde el icono rápido β̂ disponible
en el margen inferior izquierdo de Gretl o bien tecleando en la consola:
ols consumo const renta. Sin embargo, en este segundo caso la salida que devuelve
la consola corresponde únicamente al modelo estimado, sin menús adicionales
que permitan realizar análisis y contrastes.

Modelo 1: MCO, usando las observaciones 1999–2016 (T = 18)


Variable dependiente: consumo

Coeficiente Desv. Típica Estadístico t valor p


const −24289,4 14203,2 −1,710 0,1066
renta 0,726968 0,0181259 40,11 0,0000
Media de la vble. dep. 538149,5 D.T. de la vble. dep. 93393,99
Suma de cuad. residuos 1,46e+09 D.T. de la regresión 9553,847
R2 0,990151 R2 corregido 0,989535
F (1, 16) 1608,539 Valor p (de F ) 1,75e–17
Log-verosimilitud −189,4454 Criterio de Akaike 382,8909
Criterio de Schwarz 384,6716 Hannan–Quinn 383,1364
ρ̂ 0,746787 Durbin–Watson 0,506802

A partir de esta salida se observa que el coeficiente estimado para la variable


renta presenta el signo esperado (positivo). Más concretamente, el resultado
obtenido indica que, cuando la renta disponible aumenta un millón de euros se
espera que el consumo aumente en 727.968€.
Por lo que se refiere al término independiente, se observa que la estimación pre-
senta signo negativo, resultado que no resulta sorprendente teniendo en cuenta
que trataría de aproximar el nivel de consumo asociado a una renta nula.

Nota:
En general el término independiente de los modelos (const) no presenta interés
en cuanto a su interpretación y tampoco resulta relevante su significación. De ahí
que, aunque Gretl proporciona resultados relativos a la estimación y contraste
de todos los parámetros del modelo, nosotros centremos nuestros esfuerzos en
los coeficientes de las variables explicativas.

Además, a partir de la salida del modelo podemos complementar la información


puntual con intervalos de confianza. Más concretamente, desde la opción: Análisis
54 SUPUESTO 2. CONSUMO

. Intervalos de confianza para los coeficientes se accede a los intervalos, cuyo


nivel de confianza inicial es del 95 % pero puede ser configurado pulsando sobre
el icono α.
t(16, 0, 025) = 2, 120

Variable Coeficiente Intervalo de confianza 95 %


const −24289,4 −54398,9 - 5820,16
renta 0,726968 0,688543 - 0,765393

El resultado obtenido en este caso proporciona unos márgenes para la propensión


marginal al consumo comprendidos entre 0,6885 (límite inferior del intervalo) y
0,7653 (límite superior).

Intervalo de confianza para los coeficientes:


El intervalo de confianza se obtiene como:
h i
β̂ − kSβ̂ , β̂ + kSβ̂

Donde Sβ̂ se calcula, dependiendo del coeficiente estimado, mediante las expre-
siones:

n
S2 Xi2
P
2
  S  
i=1
ar β̂2 = Sβ̂2 = P
Vd n 2 ar β̂1 = Sβ̂2 =
, Vd n 2
2 1 P
Xi − X̄ n Xi − X̄
i=1 i=1
n
û2i
P

siendo, S = 2 i=1
n−2 .
El valor k se obtiene en las tablas del modelo t de student con n − 2 g.l. (dado
que la varianza es desconocida)
 
P dβ̂ ≤ k = 1 − α

En la consola de Gretl, una vez estimado el modelo ols consumo const renta, el
coeficiente βˆ2 se obtiene como b2=$coeff[2] y el valor de k puede calcularse
mediante la opción Herramientas . Tablas estadísticas:
55

t(16)
probabilidad en la cola derecha = 0,025
probabilidad complementaria = 0,975
probabilidad a dos colas = 0,05
k=Valor crítico = 2,11991

Si queremos reconstruir los intervalos de confianza proporcionados por Gretl


podemos comenzar por almacenar la suma de cuadrados de residuos, desde la
salida del modelo estimado en el menú: Guardar . Suma de los cuadrados de
los residuos, asignándole el nombre SCR. Otra opción es generar directamente
esta suma de cuadrados de residuos mediante la función $ees.
A continuación creamos el escalar: n=nobs(renta) cuyo valor en este caso es 18
y a partir de ambos resultados se genera la varianza muestral S 2 mediante la
expresión S2=SCR/(n-2).
Generamos ahora la varianza estimada del coeficiente de la renta: Sb2=S2/sst(renta)
Una vez que se dispone de toda la información necesaria ya podemos calcular
el intervalo de confianza:
h i
β̂2 − kSβ̂2 , β̂2 + kSβ̂2 = [b2 − k ∗ Sb2, b2 + k ∗ Sb2]

Agrupando estos cálculos en un script, se tiene:

n = nobs ( renta )
k = critical (t ,n -2 ,0.025)
ols consumo const renta
b2 = $coeff [2]
S2 = $ess /( n -2)
Sb2 = S2 / sst ( renta )
lim_inf = b2 - k * Sb2
lim_sup = b2 + k * Sb2

Existen muchas alternativas distintas a este código; por ejemplo una vez estima-
do el modelo podemos calcular directamente los grados de libertad como
gl=$df, almacenar las series de residuos (o de residuos cuadráticos) con lo cual
S2 podría calcularse guardando primero los residuos y calculando la suma de
sus cuadrados: u=$uhat, S2=sum(u*u)/gl, entre otras opciones posibles.

El modelo anterior también puede ser expresado de una forma compacta (en la
salida del modelo Archivo . Ver como ecuación) como:

\ = −24289, 4 + 0, 726968 renta


consumo
(14203,) (0,018126)
2
T = 18 R̄ = 0, 9895 F (1, 16) = 1608, 5 σ̂ = 9553, 8
(Desviaciones típicas entre paréntesis)
56 SUPUESTO 2. CONSUMO

La capacidad explicativa del modelo viene resumida por el coeficiente de deter-


minación, que permite concluir que la evolución de la renta explica en un 99 %
los cambios en el consumo de los hogares. Este coeficiente se obtiene a partir
del análisis de la varianza (ANOVA) al que se accede desde Análisis . ANOVA
y que proporciona la salida siguiente:

Análisis de Varianza:

Variación Suma de cuadrados gl Media de cuadrados


Regresión 1,46821e+11 1 1,46821e+11
Residuo 1,46042e+09 16 9,1276e+07
Total 1,48281e+11 17 8,72244e+09

R2 = 1,46821e+11 / 1,48281e+11 = 0,990151


F (1, 16) = 1,46821e+11 / 9,1276e+07 = 1608,54 [valor p 1,75e-17]
Como podemos observar, la descomposición de la variación total del consumo
en sus dos sumandos, asociados respectivamente a la regresión y a los residuos,
permite calcular el coeficiente de determinación como proporción de las varia-
ciones del consumo que son explicadas por la regresión. Este resultado puede ser
almacenado desde la opción Guardar . R-cuadrado y, al tratarse de un modelo
simple, será coincidente con el cuadrado del coeficiente de correlación lineal (que
en este caso es 0,995 como puede comprobarse desde la opción Ver . Matriz de
correlación del menú principal de Gretl).

Análisis de varianza:
El análisis de la varianza (ANOVA) se basa en la descomposición:
n n  2 n  2
X 2 X X
Yi − Ȳ = Ŷi − Ȳ + Yi − Ŷi
i=1 i=1 i=1

donde el primer término representa la variación total (VT) o suma total de cua-
drados, y en el segundo término el primer sumando sería la variación explicada
(VE) o de la regresión que se expresa como:
n  2 n
X X 2
Ŷi − Ȳ = β̂22 Xi − X̄
i=1 i=1

Por su parte, el último sumando representa la variación no explicada (VNE) o


de los residuos que viene dada por la expresión:
n 
X 2 n
X
Yi − Ŷi = û2i
i=1 i=1

Partiendo de esta descomposición, Gretl proporciona en la salida de ANOVA


dos resultados de gran interés que permiten evaluar la idoneidad del modelo: el
coeficiente de determinación y el estadístico F:
57

V NE Variación de Regresión
R2 = 1 − =1− , y
VT Variación total

1 Media de cuadrados Regresión


Fn−k =
Media de cuadrados de Residuos

4. Contrastar el supuesto de nulidad para la Propensión Marginal al


Consumo e interpretar el resultado

La hipótesis nula de este contraste es: H0 : β2 = 0, frente a la alternativa


H1 : β2 6= 0 . Se trata de un contraste de restricciones lineales, que puede
resolverse a partir del modelo estimado en la opción Contrastes . Restricciones
lineales.
En el cuadro de diálogo debemos escribir en este caso: b[2]=0 (o alternativamente
b[renta]=0) y obtenemos la salida siguiente:

Nota:
En algunas ocasiones como ésta, el cuadro de diálogo aparece en blanco y las
ayudas de Gretl son muy útiles para saber qué información debemos introducir y
el formato adecuado. De hecho, al consultar la ayuda, además de la descripción
general en muchos casos encontramos ejemplos, ilustraciones y sugerencias.
Concretamente, en Gretl los coeficientes β1 y β2 se expresan mediante la letra
b, y los subíndices (o las variables explicativas) se indican entre corchetes, en
este caso b[2]=0 o bien b[renta]=0. Debemos tener en cuenta que generalmente
Gretl usa los corchetes para indicar un elemento de un vector o de una matriz,
y así M[i,j] representaría el elemento fila i, columna j de la matriz M.

Restricción: b[renta] = 0
Estadístico de contraste: F(1, 16) = 1608,54, con valor p = 1,74633e-17
Estimaciones restringidas:
Coeficiente Desv. Típica Estadístico t valor p
const 538150 22013,2 24,45 1,10e-14 ***
renta 0,00000 0,00000 NA NA

Desviación típica de la regresión = 93394

En esta salida podemos observar que el estadístico F tiene un solo grado de


libertad en el numerador (correspondiente a una sola restricción) y 16 grados de
libertad en el denominador (asociados al modelo estimado, n − k = 18 − 2 = 16).
El resultado obtenido es significativo para rechazar la hipótesis ya que se obtiene
para F un valor elevado, 1608,5 que lleva asociado un nivel crítico reducido,
p = 1, 74633e − 17. Como consecuencia, rechazamos la hipótesis de nulidad para
la propensión marginal al consumo.
58 SUPUESTO 2. CONSUMO

Nota:
En la salida de la regresión asociada a este test podemos observar que el co-
eficiente de la renta es nulo (ya que corresponde al modelo restringido bajo la
hipótesis propuesta). Dado que este coeficiente no se estima, se observa también
que no hay dispersión y por tanto no es posible calcular el estadístico t ni su
nivel crítico p (el programa indica NA, no disponible).

La restricción lineal que estamos contrastando en este caso (nulidad de la pro-


pensión marginal al consumo) coincide con el contrate de significación indivi-
dual, cuya hipótesis nula es H0 : β2 = 0. Como consecuencia, el nivel crítico
que obtenemos en el test de restricciones lineales es el mismo que el obtenido
en la salida de la estimación mínimo cuadrática del modelo de consumo ya que
ambos contrastes son equivalentes.
Además, al tratarse de un modelo simple, el contraste de significación individual
es también equivalente al contraste F de significación global.

Nota:
La coincidencia anterior se debe al siguiente resultado:
Si X es una variable con distribución t de Student de m grados de libertad
(X ≈ tm ) entonces la variable X 2 sigue un modelo Fm
1
.
Por lo tanto siempre que la restricción sea que un único coeficiente es nulo, el
nivel crítico coincide con el obtenido en el test de significación individual; la
coincidencia no se cumple si la hipótesis es que el coeficiente adopta un valor
no nulo o bien si hay más de un coeficiente afectado por las restricciones.

5. A partir de la distribución de los errores ¿Cuál es el año en el que


el modelo estimado se ajusta peor a la información del INE?

A partir del modelo estimado es posible acceder a numerosas opciones de análi-


sis. Concretamente, desde la opción: Análisis . Mostrar variable observada, esti-
mada, residuos se obtiene la tabla de valores observados y estimados de consumo,
así como los residuos obtenidos como diferencia entre ambas:
Rango de estimación del modelo: 1999–2016
Desviación típica de los residuos = 9553,85

consumo estimada residuo


1999 349423,00 345847,25 3575,75
2000 380194,00 376287,59 3906,41
2001 407979,00 405734,89 2244,11
2002 431627,00 435379,93 −3752,93
2003 456041,00 467688,58 −11647,58
2004 491598,00 500057,57 −8459,57
59

2005 528157,00 534928,79 −6771,79


2006 568217,00 575995,23 −7778,23
2007 605824,00 613788,13 −7964,13
2008 623029,00 627301,74 −4272,74
2009 595010,00 606711,82 −11701,82
2010 607981,00 608926,89 −945,89
2011 608153,00 595075,96 13077,04
2012 600532,00 581640,13 18891,87 ⇐
2013 587697,00 574979,65 12717,35
2014 597653,00 584939,84 12713,16
2015 614840,00 613473,35 1366,65
2016 632736,00 637933,65 −5197,65

Estadísticos de evaluación de la predicción


Error medio −6,1441e-11
Error cuadrático medio 9007,5
Raíz del Error cuadrático medio 94,908
Error absoluto medio 7610,3
Porcentaje de error medio −0,018284
Porcentaje de error absoluto medio 1,3972
U de Theil 0,31682

Como puede observarse en la tabla anterior, el mayor residuo corresponde al año


2012, para el que el valor verdadero (600532) es bastante superior al estimado
(581640,13). Esto se aprecia claramente en la gráfica de residuos, que puede
representarse en relación al tiempo o a alguna de las variables del modelo. En
concreto, la evolución temporal de los residuos (menú Graficos . Gráfico de
residuos . Contra el tiempo) proporciona la siguiente salida:

���������������������������������������������������������
������

������

������

�����
�������

� �

�����

������

������
� ���� ����� � ���� � ���� ����� ����
� ����� ����
� ����

60 SUPUESTO 2. CONSUMO

Nota:
Cuando los residuos, en términos absolutos, son superiores a 2,5 veces la desvia-
ción típica, son considerados como valores atípicos o outliers y Gretl los marca
con un símbolo «*» para destacarlos. En este caso el residuo más alto corres-
ponde al año 2012, pero no es considerado como un valor atípico.
Además, como se puede observar, al final de la tabla anterior figuran unas me-
didas de evaluación de las estimaciones (aunque el texto figuran «predicciones»,
el periodo considerado en este caso es el de estimación).

6. Descargar de la web del INE la serie de remuneración total de


asalariados y añadirla al fichero de trabajo

Vamos a añadir una nueva variable a nuestro fichero de trabajo: la Remuneración


total de asalariados, que al igual que las anteriores series está disponible en INE
Base.

 En este caso podemos entrar en INEBase → Economía → Cuentas Econó-


micas → Contabilidad nacional anual de España → Resultados y descargar
el cuaderno Remuneración y empleo por ramas de actividad.
 Dentro del apartado Remuneración de los asalariados copiamos la fila que
aparece rotulada como "Total".
 Al igual que con las series anteriores, pegamos los resultados en otra hoja
con la opción pegado especial-transponer para que aparezca dispuesta en
columna.
 Asignamos un nombre a la variable (como por ejemplo salario).
 Borramos todas las filas y columnas en blanco que estén intercaladas y
guardamos la hoja con un nombre simple como salarios, por ejemplo.
 A continuación podemos incorporar esta serie a nuestro archivo de datos
de Gretl, desde la opción Archivo . Añadir datos. Basta seleccionar el tipo
de fichero e indicar el recorrido que se importa (por ejemplo desde la celda
A1), pasos que como se puede apreciar son idénticos a los descritos en el
apartado 1, con la diferencia de que ahora en vez de abrir un fichero lo
que hacemos es añadir series a uno ya existente.
 Como el recorrido temporal de la serie de las remuneraciones salariales
coincide con el del fichero de datos de Gretl, la serie se importa directa-
mente (en otro caso sería necesario responder a nuevas preguntas).

7. Estimar un modelo lineal para el consumo en función de la remu-


neración total de asalariados y comparar el resultado con el anterior.

Al estimar un nuevo modelo mínimo-cuadrático que toma como variable de-


pendiente el consumo y como variable independiente los salarios, obtenemos la
61

siguiente salida:

Modelo 2: MCO, usando las observaciones 1995–2016 (T = 22)


Variable dependiente: consumo

Coeficiente Desv. Típica Estadístico t valor p


const 41479,1 12503,3 3,317 0,0034
salarios 1,08116 0,0287826 37,56 0,0000
Media de la vble. dep. 494862,3 D.T. de la vble. dep. 126341,8
Suma de cuad. residuos 4,69e+09 D.T. de la regresión 15305,28
R2 0,986023 R2 corregido 0,985325
F (1, 20) 1410,970 Valor p (de F ) 5,04e–20
Log-verosimilitud −242,1592 Criterio de Akaike 488,3184
Criterio de Schwarz 490,5005 Hannan–Quinn 488,8324
ρ̂ 0,751857 Durbin–Watson 0,519058

Observamos que, tal y como cabía esperar, el signo del coeficiente de los salarios
es positivo, ya que aumentos de las remuneraciones salariales llevarán asociados
aumentos en el consumo. Además, el test de significación individual confirma que
el coeficiente de los salarios es significativamente distinto de cero (rechazamos
la hipóteis, H0 : β2 = 0, dado que el nivel crítico es muy bajo).
El coeficiente de determinación es elevado también en este caso R2 = 0, 986023,
por lo que los salarios tienen una alta capacidad para explicar los cambios en el
consumo.
Al igual que en el caso anterior, almacenamos el modelo estimado en Archivo .
Guardar la sesión como icono. Para comparar los dos modelos, existe la posibi-
lidad de construir una tabla comparativa desde la vista de iconos (Ver . Vista
de iconos), pulsando sobre cada uno de los modelos previamente almacenados y
seleccionando con el botón derecho la opción Añadir a la tabla de modelos.
Al abrir la tabla se obtiene una comparación sintética de los dos modelos, inclu-
yendo los coeficientes estimados, su significación y los indicadores de bondad:

Estimaciones de MCO
Variable dependiente: consumo

(1) (2)
const −2,429e+04 4,148e+04∗∗
(1,420e+04) (1,250e+04)
renta 0,7270 ∗∗

(0,01813)
salarios 1,081∗∗
(0,02878)

n 18 22
R̄2 0,9895 0,9853
` −189,4 −242,2
62 SUPUESTO 2. CONSUMO

Desviaciones típicas entre paréntesis


* indica significativo al nivel del 10 por ciento
** indica significativo al nivel del 5 por ciento

Tal y como ya habíamos descrito, en ambos modelos las variables explicativas


resultan significativas y los coeficientes estimados presentan signo positivo. Ade-
más la tabla recoge el tamaño de muestra de la regresión, que es distinto como
consecuencia de las limitaciones de información relativa a la renta (por ello en el
primer modelo se tiene n = 18 y el número de grados de libertad es n − k = 16
mientras en el segundo se dispone de un mayor tamaño muestral y por tanto
también más grados de libertad).
Como puede observarse en la tabla aparece el resultado de los coeficientes de
determinación ajustados o corregidos, que también figuran en las salidas de los
correspondientes modelos estimados. Este indicador viene dado por la expresión
  n−1 
R̄2 = 1− 1 − R2 n−k y permite comparar la capacidad explicativa de varios
modelos con distintos grados de libertad (estas diferencias pueden ser debidas
como sucede en este caso a distintos tamaños de muestra, pero también a distinto
número de regresores o a ambos factores).
Asimismo la tabla incluye el resultado del logaritmo de la verosimilitud de ca-
da modelo, que se denota por `. En ambos casos, cuanto mayores sean estos
coeficientes más adecuada será la especificación del modelo propuesto.
A la vista de los resultados disponibles se concluye que, aunque ambos modelos
presentan resultados bastante similares, sería más adecuado el primer modelo
que considera como explicativa la variable renta, ya que conduce a resultados
más elevados tanto del coeficiente de determinación corregido como del logarit-
mo de la verosimilitud.

Función de verosimilitud:
La función de verosimilitud viene dada por la expresión:

n
n n 1 X 2
` = ln L = − ln(2π) − ln(σ̂ 2 ) − 2 û
2 2 2σ i=1 i

Como podemos observar esta expresión incluye la suma de los residuos al cua-
drado. Cuanto mejor se adapte el modelo estimado a la información muestral
menor será esta suma de cuadrados y como aparece con signo negativo, mayor
será el resultado de la función de verosimilitud. Así pues un modelo será prefe-
rible a otro cuando su función de verosimilitud proporcione mayor resultado.
SUPUESTO 3

Demanda

Contenidos: Nube de puntos, Estimación, intervalos de confianza,


Restricciones lineales, Elasticidad

Nombre del fichero: demanda.gdt http://cort.as/-LMUk

Página de datos: http://cort.as/-LHjb . demanda.gdt


Página de scripts: http://cort.as/-LHjE . S3_Demanda.inp

Enunciado:

Con el objetivo de analizar el comportamiento de la demanda de perfumes se


ha recogido información sobre precios y cantidades de 50 artículos vendidos en
una perfumería, con los resultados recogidos en el archivo demanda.gdt

1. Estimar un modelo de demanda de perfumes a partir de la información


disponible

2. ¿Cómo se espera que afecte a la demanda un aumento de 5 euros en el


precio?

3. Estimar la elasticidad media de la demanda respecto al precio

4. Se dispone de información sobre las ventas de los mismos 50 perfumes en


otros 9 establecimientos de la misma cadena, que mantienen los mismos
precios. Añadir los resultados, recogidos en el archivo demandas.xls, al ar-
chivo de trabajo y analizar si la nueva información afecta a las conclusiones
obtenidas

63
64 SUPUESTO 3. DEMANDA

Solución:

1. Estimar un modelo de demanda de perfumes a partir de la infor-


mación disponible

La representación de la nube de puntos (disponible en el menú Ver . Gráficos .


Gráfico X-Y (scatter)... y en el correspondiente icono de Gretl) confirma la exis-
tencia de una relación lineal inversa entre precio de los productos y cantidades
demandadas. El gráfico muestra esta relación y también representa el corres-
pondiente modelo lineal mínimocuadrático.

������������������������������������������������������������
����
����������������

����

����

����
�������

����

����

����

����

����
��� ��� ��� ��� ��� ��� ��� ��
� ����
������

La estimación completa de este modelo se obtiene a través del menú Modelo .


Mínimos Cuadrados Ordinarios o también pulsando el icono β̂, en la barra de
herramientas de Gretl:

La salida obtenida confirma que el precio es una variable significativa para


explicar el comportamiento de la demanda, más concretamente, se obtiene un
coeficiente estimado de -4,01 que, como muestra el contraste t de student, resulta
significativo a cualquier nivel y el coeficiente de determinación del modelo supera
el 98 %.

Modelo 1: MCO, usando las observaciones 1–50


Variable dependiente: demanda

Coeficiente Desv. Típica Estadístico t valor p


const 801,485 5,06303 158,3 0,0000
precio −4,01523 0,0769640 −52,17 0,0000
65

Media de la vble. dep. 552,3000 D.T. de la vble. dep. 89,28109


Suma de cuad. residuos 6768,897 D.T. de la regresión 11,87513
R2 0,982670 R2 corregido 0,982309
F (1, 48) 2721,736 Valor p (de F ) 6,22e–44
Log-verosimilitud −193,6487 Criterio de Akaike 391,2974
Criterio de Schwarz 395,1214 Hannan–Quinn 392,7536

Nota:
En muchas ocasiones nos interesa mostar la versión compacta del modelo esti-
mado (salida del modelo, menú Archivo . Ver como ecuación)

^demanda = 801 - 4,02*precio

(5,06) (0,0770)

n = 50, R-cuadrado = 0,983

(Desviaciones típicas entre paréntesis)

También es posible utilizar el menú Guardar (de la salida del modelo) para
almacenar algunos resultados, incluyendo series como los valores estimados, los
residuos o los residuos cuadráticos y también escalares como el coeficiente de
determinación o medidas de información.

En este caso, si guardamos los valores estimados (que podemos denominar


demandahat), es posible reconstruir la nube de puntos que para cada precio
de perfumes representa tanto la demanda observada como la estimada (un grá-
fico similar se obtiene también directamente desde la opción Gráficos accesible a
partir del modelo estimado: Graficos . grafico de la variable observada y estimada
. contra precio).
66 SUPUESTO 3. DEMANDA

���������������������������������������������������
����
���������
��������
����

����

����
�������

����

����

����

����

����
��� ��� ��� ��� ��� ��� ��� ��
� ����
������

2. ¿Cómo se espera que afecte a la demanda un aumento de 5 euros


en el precio?

Tal y como hemos visto anteriormente, el coeficiente estimado para el precio


presenta el signo esperado negativo y su valor (que aproxima el impacto de
un aumento unitario del precio sobre la cantidad demandada de perfumes) es
de -4,01. Así pues, en el caso de que el precio aumentase 5 euros el aumento
esperado de la demanda sería:

∆Y = β̂2 ∆X = (−4, 015)(5) = −20, 075

Cabe señalar que, además de la estimación puntual podríamos proporcionar los


correspondientes intervalos de confianza. Concretamente, desde el Modelo 1 la
opción Análisis . Intervalos de confianza para los coeficientes, proporciona los
intervalos al 95 % de confianza para los coeficientes de regresión, que en este
caso conducen a la salida siguiente:

t(48, 0, 025) = 2, 011

Variable Coeficiente Intervalo de confianza 95 %


const 801,485 791,305 811,665
precio −4,01523 −4,16998 −3,86049

Como consecuencia, podríamos complementar la información anterior diciendo


que el intervalo de confianza al 95 % para el impacto marginal del precio sobre
la demanda es [-4,17 -3,86] y por lo tanto se espera que ante un aumento de 5
euros en el precio la demanda se reduzca entre 19 y 21 unidades.
67

3. Estimar la elasticidad media de la demanda respecto al precio

Dado que la elasticidad cuantifica la variación porcentual de la demanda de


perfume ante un aumento porcentual del precio, su resultado se verá afectado
por dos componentes: la pendiente de la recta estimada (que como ya hemos
visto aproxima el impacto marginal del precio sobre la demanda y proporciona
el resultado -4,01) y el nivel concreto de precio y cantidad en el que nos situemos
en cada caso. Se trata por tanto de una elasticidad-punto que viene dada por la
expresión:

∆Y
∆Y X X
E= Y = = β̂
∆X ∆X Y Y
X
y, teniendo en cuenta que en Gretl el vector de coeficientes β̂ del último modelo
estimado puede obtenerse como el vector: $coeff, la serie de elasticidades puede
ser calculada mediante la opción Añadir . Variable como:

elasticidad=$coeff[2]*precio/demanda

También se puede calcular directamente desde la consola de Gretl mediante el


comando, tecleando la misma expresión.

Nota:
En ocasiones cuando en Gretl realizamos por primera vez un cálculo puede ser
interesante indicar el tipo de objeto de que se trata. Por ejemplo, en el caso
anterior podríamos escribir:

series elasticidad=$coeff[2]*precio/demanda

Desde las últimas versiones de Gretl esta terminología no es obligatoria, pero


puede ser útil o incluso necesaria cuando se hace una asignación no esperada.
Por ejemplo, si escribimos:

precio_medio=mean(precio)

Gretl por defecto genera un escalar ya que se trata del valor medio de la variable
precio. Sin embargo podríamos querer disponer de una serie con todos sus valores
iguales al precio medio (para representarla gráficamente, generar las desviaciones
respecto a la media, ...), en cuyo caso escribiríamos:

series precio_medio=mean(precio)

Conviene tener presente que, una vez que ya hemos usado un nombre (por
ejemplo, precio_medio) como escalar, no podemos usarlo posteriormente para
otro objeto distinto, salvo que eliminemos el primer objeto.
68 SUPUESTO 3. DEMANDA

Si nos centramos en los niveles medios de precios y cantidades (punto deno-


minado «centro de gravedad» que siempre está incluído en la recta mínimo-
cuadrática) se obtiene un valor concreto para la elasticidad cuyo resultado pue-
de ser obtenido mediante la consola e indica que, para un perfume cuyo precio
sea 62,06, un aumento del 1 % en el precio llevaría asociada una reducción de la
demanda cercana al 0,45 %:

elasticidad_media=$coeff[2]*mean(precio)/mean(demanda)

Se ha generado el escalar elasticidad_media = -0.448039

4. Se dispone de información sobre las ventas de los mismos 50 perfu-


mes en otros 9 establecimientos de la misma cadena, que mantienen
los mismos precios. Añadir los resultados, recogidos en el archivo de-
manda_9.xlsx, al archivo de trabajo y analizar si la nueva información
afecta a las conclusiones obtenidas

Al añadir los nuevos datos de demanda obtenidos en los otros establecimientos


se dispone de nueva información que aparece resumida en la siguiente nube de
puntos:

���� �������
��������
��������
���� ��������
��������
��������
���� ��������
��������
��������
����

����

����

����

����

����
��� ��� ��� ��� ��� ��� ��� ��� ����
������

Nota:
Para importar los datos desde el cuaderno de cálculo basta con elegir la opción
Archivo . Añadir y a continuación seleccionar el tipo de fichero adecuado. Como
es habitual, Gretl nos preguntará desde qué hoja de cálculo y en qué fila y
columna empieza a importar los datos; es importante recordar que la primera
fila debe recoger los nombres de las variables.
La descripción detallada del procedimiento para añadir nuevas series de datos
a un archivo de trabajo puede consultarse en (2) .
69

Para cada una de las series de demanda es posible estimar un modelo lineal que
representa una aproximación a la verdadera función de demanda de perfume.
También podríamos usar la consola y escribir:

ols demanda2 const precio

Como ya hemos indicado, el comando ols indica «Mínimos Cuadrados Ordina-


rios» y es equivalente a usar la opción de menú, con la única diferencia de que la
salida se incorpora a la pantalla de texto de la consola y por lo tanto no dispone
de opciones de menú para guardar, hacer contrastes o predicciones.
Una ventaja de usar la consola es que pulsando la flecha «hacia arriba» va
escribiendo las últimas secuencias de comando y mediante desplazamientos con
las flechas podemos cambiar el 2 por el 3, con lo que ya tendríamos el modelo:
ols demanda3 const precio.

La consola ejecuta una instrucción de cada vez. Con el objetivo de simplificar


el proceso (sin tener que realizar las operaciones repetidas veces) es posible
utilizar un pequeño programa, script o guión de Gretl para ir llevando a cabo
esas sucesivas regresiones.
En la ventana principal de Gretl iremos a Archivo . Archivo de guión . Nuevo
guión . Guión de Gretl o bien directamente al segundo icono por la izquierda en
la barra de herramientas:

Ahora ya podemos empezar a construir un pequeño programa en el lenguaje


de programación de Gretl, cuyo nombre es Hansl y aparece descrito en Cottrell
2019a:

1 list ylist = demanda demanda2 demanda3 demanda4 demanda5 demanda6


demanda7 demanda8 demanda9
2 loop foreach i ylist
3 ols ylist . $i const precio
4 endloop

Nota:
El primer comando forma una lista de variables y lo denomina ylist.
La segunda instrucción es un bucle que se repite entre las líneas 2 y 4, y se repite
para cada i de la lista, desde el primer hasta el último elemento.
Dentro del bucle solo ejecuta la línea 3, que le indica que estime mínimos cua-
drados ordinarios, donde la variable que queremos explicar es el elemento co-
rrespondiente de la lista. La forma de llamar a los elementos de la lista es la
70 SUPUESTO 3. DEMANDA

señalada: ylist.$i, de modo que para el primero sería ylist.demanda=demanda y


haría el modelo ols demanda const precio
La línea 4 indica que el bucle ha finalizado y termina el programa.
En la ventana principal de Gretl vemos que cada variable lleva asociado un
número, un ID. Cuando nos referimos a una variable podemos usar su nombre
o su ID; por ejemplo podríamos expresar la línea 3 del programa como:

ols ylist.$i 0 1

o bien podemos reescribir el programa:


loop i=2..10 ols i 0 1endloop

Este script repite los mismos modelos que el anterior.

Nota:
El script anterior puede ser perfeccionado, por ejemplo guardando en la Sesión
de iconos los diferentes modelos que vamos estimando:
list ylist = demanda demanda2 demanda3 demanda4 demanda5 demanda6
demanda7 demanda8 demanda9
#Cuando una l í n e a de c ó d i g o e s muy l a r g a podemos s e p a r a r l a con "\"
y p a s a r e l r e s t o a una n u e v a l í n e a

loop foreach i ylist


OLS_$i <- ols ylist . $i const precio
endloop

Cada modelo se denomina OLS_Nombre de la variable Y; el comando <- indica


que se asigna al modelo el nombre correspondiente.

Una vez estimadas las distintas ecuaciones de demanda resulta interesante ana-
lizar los resultados, comprobando la estabilidad de los coeficientes estimados,
que aproximan los parámetros del modelo de demanda. Es interesante tener en
cuenta que las propiedades del procedimiento mínimo cuadrático garantizan que
se trata de estimadores lineales insesgados óptimos, por lo que su valor espera-
do es el parámetro y además minimizan el riesgo o varianza (son estimadores
eficientes).

Nota:
En una nueva ampliación podemos incluir un vector b con los coeficientes del
precio en todos los modelos:

list ylist = demanda demanda2 demanda3 demanda4 demanda5 demanda6


demanda7 demanda8 demanda9
71

matrix b = zeros (9 ,1)


scalar j =0
loop foreach i ylist
j +=1
OLS_$i <- ols ylist . $i const precio
b [ j ]= $coeff [2]
endloop
print b

Se define b como una matriz (vector) con ceros y un escalar j que hace las
funciones de índice. En el bucle se va sumando a j la unidad para que vaya
numerando los elementos del vector; luego se van incorporando los elementos
de b, de modo que b[1] es el coeficiente del precio en la primera ecuación, y así
sucesivamente para los demás.
Imprimimos finalmente el vector b en pantalla y resulta:

b (9 x 1)
-4,0152
-4,0272
-4,0178
-4,0653
-4,0714
-4,0537
-4,0253
-4,0629
-3,9873
72 SUPUESTO 3. DEMANDA
SUPUESTO 4

Productividad

Contenidos: Generar variables, Tendencia temporal, Estimación, Aná-


lisis de Residuos, Valores atípicos, Matriz de correlaciones, Tabla de
modelos, Predicción, Consola

Nombre del fichero: productividad.gdt http://cort.as/-LMVY

Página de datos: http://cort.as/-LHjb . productividad.gdt


Página de scripts: http://cort.as/-LHjE . S4_Productividad.inp

Enunciado:
Se dispone de información sobre distintas magnitudes relativas al sector agrario
de una región durante el período 1998-2018: Producción anual regional (va-
lor en millones de euros), empleo regional (miles de trabajadores), gastos en
fertilizantes (millones de euros), temperatura media (grados centígrados) y pre-
cipitaciones de lluvia (mm).

1. Generar la variable "Productividad agraria" y estudiar su comportamiento


durante el período de análisis.
2. Con la información hasta el año 2016, estimar un modelo para explicar
la evolución de la productividad en función de los gastos ¿Cuál es su
capacidad explicativa?
3. Analizar los errores de estimación ¿Qué año se ha cometido un error más
elevado?
4. Se desea completar el modelo añadiendo como explicativa una variable
referida a la climatología ¿Cuál sería más significativa: la temperatura o
las precipitaciones de lluvia?
5. Con el modelo seleccionado, obtener predicciones de la productividad agra-
ria.

73
74 SUPUESTO 4. PRODUCTIVIDAD

6. Utilizando la consola de Gretl, obtener el vector de coeficientes y los prin-


cipales resultados de la estimación a partir de notación matricial.

Solución:
1. Generar la variable "Productividad agraria" y estudiar su compor-
tamiento durante el período de análisis.

Para generar la variable productividad, que se obtendrá como cociente entre la


producción y el empleo, se acude a la opción Añadir . Definir nueva variable:

productividad=produccion/empleo

Una vez generada la variable productividad es aconsejable estudiar su compor-


tamiento a lo largo del tiempo, para lo cual podemos acudir a la opción Ver
. Gráficos . Gráfico de series temporales, o bien situarnos sobre la variable y
seleccionar en el botón derecho del ratón Gráfico de series temporales.

���

���

���

���

���
�������������

���

���

���

���

���

���

��
����
� ����� ����� ����

Como podemos ver, la evolución de la serie de productividad presenta una clara


tendencia creciente, lo cual sugiere que será relativamente “fácil” proponer mo-
delos que expliquen adecuadamente su comportamiento. De hecho, a modo de
ilustración podríamos generar una tendencia lineal en la opción de menú Añadir
. Tendencia temporal y estimar un modelo que explique la productividad en
función del tiempo.

Nota:
Cuando se genera una variable es conveniente comprobar que el fichero de tra-
bajo está extendido al rango completo, ya que de lo contrario podemos tener
problemas al realizar predicciones o extender el rango, dado que faltarían los
datos de la variable en esos períodos. No obstante, para las variables de genera-
ción automática como es el caso de la tendencia temporal o las variables ficticias
estacionales, Gretl extiende automáticamente las series al recorrido total.
75

Antes de pasar a la estimación del modelo, ajustamos el rango al recorrido de


estimación, que en este caso finaliza en 2016.

Modelo 1: MCO, usando las observaciones 1998–2016 (T = 19)


Variable dependiente: productividad

Coeficiente Desv. Típica Estadístico t valor p


const 7,76543 0,277352 28,00 0,0000
time 1,09995 0,0243254 45,22 0,0000
Media de la vble. dep. 18,76497 D.T. de la vble. dep. 6,215469
Suma de cuad. residuos 5,733809 D.T. de la regresión 0,580761
R2 0,991754 R2 corregido 0,991269
F (1, 17) 2044,703 Valor p (de F ) 3,71e–19
Log-verosimilitud −15,57827 Criterio de Akaike 35,15654
Criterio de Schwarz 37,04542 Hannan–Quinn 35,47622
ρ̂ 0,442621 Durbin–Watson 1,010329

Como se puede ver, los coeficientes resultan significativos, y según este modelo
la productividad aumenta anualmente en 1,09 millones de euros por ocupado.
Sobre el modelo estimado podemos seleccionar la opción Archivo . Guardar
la sesión como icono para almacenar el modelo en la Vista de iconos, siendo
posible también renombrarlo con la denominación que se considere adecuada
(por ejemplo, modelo temporal).
En la opción Gráficos . Gráfico de la variable estimada y observada . Contra el
tiempo, podemos observar que los valores observados representados por la línea
roja se sitúan en torno a la línea de tendencia, representada en azul.

����������������������������������
���
���������
��� ��������
���
���
���
�������������

���
���
���
���
���
���
��
����� ����� ����� ����� ����� ����� ����� ����� ����
� � ����

Se observa que el resultado del coeficiente de determinación es muy elevado,


si bien es necesario tener presente que se trata de datos anuales con una fuer-
te inercia temporal (tendencia creciente) por lo que este resultado deberá ser
considerado con prudencia como veremos en supuestos posteriores.
76 SUPUESTO 4. PRODUCTIVIDAD

2. Con la información hasta el año 2016, estimar un modelo para


la explicar la evolución de la productividad en función de los gastos
¿Cuál es su capacidad explicativa?

Al estimar un modelo simple considerando como explicativa la variable gastos,


se obtiene el resultado que sigue:

Modelo 2: MCO, usando las observaciones 1998–2016 (T = 19)


Variable dependiente: productividad

Coeficiente Desv. Típica Estadístico t valor p


const 6,40480 0,636168 10,07 0,0000
gastos 0,246840 0,0114502 21,56 0,0000
Media de la vble. dep. 18,76497 D.T. de la vble. dep. 6,215469
Suma de cuad. residuos 24,53944 D.T. de la regresión 1,201456
R2 0,964711 R2 corregido 0,962635
F (1, 17) 464,7309 Valor p (de F ) 8,76e–14
Log-verosimilitud −29,39034 Criterio de Akaike 62,78068
Criterio de Schwarz 64,66956 Hannan–Quinn 63,10035
ρ̂ 0,613981 Durbin–Watson 0,779763

Es recomendable almacenar el modelo mediante la opción Archivo . Guardar a


sesión como icono (asignando el nombre que se considere apropiado) y también
es interesante pedir la visión reducida como ecuación, porque de esta forma nos
familiarizamos con la notación de coeficientes estimados y desviaciones típicas
entre paréntesis.

Por lo que se refiere a la bondad del modelo, el coeficiente de determinación R2


muestra un valor de 0,964711, lo que indica que los gastos son capaces de explicar
un 96,47 % de los cambios que se producen anualmente en la productividad.

Como ya hemos visto en supuestos anteriores, el coeficiente de determinación


puede obtenerse a partir de la salida de ANOVA, accesible desde el modelo
estimado.

Además, podemos obtener la representación gráfica de la evolución de la pro-


ductividad observada y estimada mediante la opción Gráficos . Gráfico de la
variable estimada y observada . Contra el tiempo:
77

����������������������������������
���
���������
��������

���
�������������

���

���

���

��
����� ����� ����� ����� ����� ����� ����� ����� ����
� ����

3- Analizar los errores de estimación ¿Qué año se ha cometido un


error más elevado?

El análisis de los errores puede llevarse a cabo mediante los gráficos anterio-
res, que representan conjuntamente la productividad observada y la estimada.
También se puede pedir directamente la distribución de errores o residuos de la
estimación, tanto numérica como gráficamente, en la salida del modelo, Análisis
. Mostrar variable observada, estimada, residuos.
Así, para el modelo estimado en función de los gastos se obtiene la tabla:

Rango de estimación del modelo: 1998–2016


Desviación típica de los residuos = 1,20146

productividad estimada residuo


1998 9,638873 9,737133 −0,098260
1999 10,349490 10,253028 0,096462
2000 10,974646 10,346827 0,627819
2001 12,017513 10,763986 1,253527
2002 13,924850 13,755684 0,169166
2003 14,586909 16,653582 −2,066673
2004 15,262813 17,213909 −1,951095
2005 15,600876 17,211440 −1,610564
2006 16,480146 17,569358 −1,089212
2007 18,099044 17,278087 0,820957
2008 19,202667 19,509518 −0,306851
2009 21,811423 22,325960 −0,514537
2010 21,934920 20,573398 1,361522
2011 22,971563 21,489173 1,482390
2012 24,469919 22,414822 2,055097
2013 25,754313 25,162149 0,592164
2014 26,867890 26,556793 0,311097
2015 27,856949 28,055111 −0,198162
2016 28,729658 29,664506 −0,934848
78 SUPUESTO 4. PRODUCTIVIDAD

Estadísticos de evaluación de la predicción


Error medio 3,4592e-15
Error cuadrático medio 1,1365
Raíz del Error cuadrático medio 1,0661
Error absoluto medio 0,92318
Porcentaje de error medio −0,28819
Porcentaje de error absoluto medio 5,2724
U de Theil 0,99031

Como podemos observar el mayor residuo se produce en el año 2003, con un


valor û6 = −2,066673. Sin embargo, este residuo no puede ser etiquetado como
valor atípico, dado que se encuentra en el intervalo considerado admisible: [û ¯−
¯
2, 5Sû , û+2, 5Sû ], que en este caso proporciona el resultado [−3, 00365, 3, 00365].

Valor atípico:

Un valor atípico (también llamado outlier) es aquél que se desvía excesivamente


del valor medio. El criterio utilizado para detectar valores atípicos consiste en
decidir el número k de desviaciones típicas que se considera admisible que una
variable se desvíe (por exceso o por defecto) de su valor medio, siendo habitual
considerar k=3 o 4.

Más concretamente, el programa Gretl señala un dato como atípico y lo denota


con un símbolo * si su desviación (por exceso o por defecto) respecto a la media
supera 2,5 veces la desviación típica.

Los efectos de los valores atípicos, que estudiaremos más adelante, son diversos,
siendo los más habituales el «impulso», un cambio brusco de una variable en
un momento determinado con vuelta posterior a la normalidad, y el «escalón»,
un salto de nivel (a menudo asociado a un cambio estructural) que se mantiene
en el tiempo. En muchas ocasiones, estos valores atípicos suelen ser causa de
la ausencia de normalidad y de otras alteraciones en los supuestos básicos del
modelo.

4. Se desea completar el modelo añadiendo como explicativa una va-


riable referida a la climatología ¿Cuál sería más significativa: la tem-
peratura o las precipitaciones de lluvia?

Vamos a estimar los dos modelos propuestos para así poder comparar ambas
alternativas:

Modelo 3: MCO, usando las observaciones 1998–2016 (T = 19)


Variable dependiente: productividad
79

Coeficiente Desv. Típica Estadístico t valor p


const −1,79348 3,35001 −0,5354 0,5998
gastos 0,214458 0,0164566 13,03 0,0000
temperatura 0,596420 0,240316 2,482 0,0246
Media de la vble. dep. 18,76497 D.T. de la vble. dep. 6,215469
Suma de cuad. residuos 17,71848 D.T. de la regresión 1,052333
R2 0,974520 R2 corregido 0,971335
F (2, 16) 305,9668 Valor p (de F ) 1,78e–13
Log-verosimilitud −26,29644 Criterio de Akaike 58,59288
Criterio de Schwarz 61,42620 Hannan–Quinn 59,07239
ρ̂ 0,418535 Durbin–Watson 1,127248

Modelo 4: MCO, usando las observaciones 1998–2016 (T = 19)


Variable dependiente: productividad

Coeficiente Desv. Típica Estadístico t valor p


const −4,92777 5,65289 −0,8717 0,3963
gastos 0,207658 0,0221132 9,391 0,0000
lluvia 0,274489 0,136184 2,016 0,0610
Media de la vble. dep. 18,76497 D.T. de la vble. dep. 6,215469
Suma de cuad. residuos 19,57033 D.T. de la regresión 1,105959
R2 0,971857 R2 corregido 0,968339
F (2, 16) 276,2576 Valor p (de F ) 3,94e–13
Log-verosimilitud −27,24080 Criterio de Akaike 60,48160
Criterio de Schwarz 63,31492 Hannan–Quinn 60,96111
ρ̂ 0,544657 Durbin–Watson 0,907678

En las salidas anteriores se observa que ambos modelos son válidos para explicar
la evolución de la productividad. Los resultados de los contrastes de significación
t de Student conducen al rechazo de la hipótesis de nulidad de los coeficientes,
si bien la temperatura resulta algo más significativa que la lluvia (p = 0, 0246).
Tal y como cabía esperar, en ambos casos el coeficiente estimado es positivo, in-
dicando que cuando aumenta la temperatura (ceteris paribus los gastos) mejora
la productividad agrícola y lo mismo ocurre con la pluviosidad.

Si bien los modelos 3 y 4 tienen un comportamiento muy similar, es posible


observar que el Modelo 3 mejora ligeramente las características del 4 en cuanto
a capacidad explicativa, ya que el R2 corregido y el logaritmo de la función
de verosimilitud son ligeramente superiores, y los criterios de información de
Akaike, Schwarz y Hannan-Quinn son ligeramente inferiores.

Consideremos ahora un modelo que incluya como explicativas las dos variables
de climatología:

Modelo 5: MCO, usando las observaciones 1998–2016 (T = 19)


Variable dependiente: productividad
80 SUPUESTO 4. PRODUCTIVIDAD

Coeficiente Desv. Típica Estadístico t valor p


const −10,2644 5,50427 −1,865 0,0819
gastos 0,185637 0,0217412 8,538 0,0000
temperatura 0,527464 0,226603 2,328 0,0343
lluvia 0,228135 0,122186 1,867 0,0816
Media de la vble. dep. 18,76497 D.T. de la vble. dep. 6,215469
Suma de cuad. residuos 14,37714 D.T. de la regresión 0,979018
R2 0,979325 R2 corregido 0,975190
F (3, 15) 236,8343 Valor p (de F ) 7,46e–13
Log-verosimilitud −24,31123 Criterio de Akaike 56,62247
Criterio de Schwarz 60,40022 Hannan–Quinn 57,26181
ρ̂ 0,396306 Durbin–Watson 1,169515

Como podemos observar, al incluir como regresores las dos variables climato-
lógicas empeora un poco la significatividad de ambas variables, si bien éstas
siguen siendo significativas al 10 %.
A la vista de esta estimación se aprecia que los coeficientes estimados han cam-
biado respecto a los modelos 3 y 4, cosa que puede sorprender teniendo en cuenta
que la información muestral utilizada es la misma.
Ello se debe a que existe correlación entre la lluvia y la temperatura por lo que
al incluir ambas variables se produce una especie de “solapamiento” que afecta
a los coeficientes estimados, cuya interpretación ahora sería la siguiente:
“Por cada grado que se incremente la temperatura, asumiendo los gastos y la
lluvia constantes, la productividad aumenta en 0,53”
“Por cada litro de lluvia adicional, asumiendo las gastos y la temperatura cons-
tantes, la productividad aumenta en 0,23”
El cambio que se ha producido en los coeficientes del modelo 5 respecto a los
modelos 3 y 4, se debe a la alta correlación entre las variables explicativas, que
podemos ver seleccionando la opción Ver . Matriz de Correlación

Coeficientes de correlación, usando las observaciones 1998 - 2016


valor crítico al 5 % (a dos colas) = 0,4555 para n = 19
productividad gastos temperatura lluvia
1, 0000 0, 9822 0, 8391 0, 9037 productividad
1, 0000 0, 7928 0, 8791 gastos
1, 0000 0, 7443 temperatura
1, 0000 lluvia

Las variables presentan una alta correlación lineal, con lo cual, aunque concep-
tualmente sean distintas, desde el punto de vista de la información estadística
son "redundantes”.
En este tipo de situaciones, que como analizaremos posteriormente dan lugar
al problema de Multicolinealidad, pueden observarse cambios en los coeficientes
81

(que incluso podrían llegar a cambiar de signo) y en los niveles de significación


de dichas variables.

Evaluación de modelos:
Los criterios que utilizamos para la comparación de modelos son los siguientes:

Criterio Expresión Objetivo


R corregido
2 n−1
R̃ = 1 − (1 − R2 ) n−k
2
Aumentar
Logaritmo de h  0
i
ln L = − n2 1 + ln 2π ûnû Aumentar
verosimilitud  0 
Criterio Akaike AIC = n ln ûnû + 2k + n[1 + ln(2π)] Disminuir
Criterio Schwarz SIC = −2 ln L + k ln(n) Disminuir
Criterio Hannan-Quinn HQC = −2 ln L + 2k ln(ln(n)) Disminuir

Todas las expresiones consideradas tienen en cuenta la suma de cuadrados de


los residuos, que cuantifican la parte no explicada por el modelo (por tanto,
esta suna de residuos cuadráticos será más reducida cuanto más adecuado sea
el modelo estimado). Además, salvo el logaritmo de la función de verosimilitud,
el resto de criterios incluyen una corrección por el número de parámetros que
estima el modelo, k.
Como ya hemos señalado, en el caso del coeficiente de determinación corregido
y el logaritmo de la función de verosimilitud nuestro objetivo será maximizar
el resultado, a diferencia de lo que ocurre para los criterios de información que
trataremos de minimizar.
Las medidas de información propuestas por Akaike 1974, Schwarz 1978 y Han-
nan 1979 incluyen en sus expresiones tanto la suma de residuos cuadráticos como
el número de parámetros del modelo, y suelen proporcionar resultados similares
aunque no coincidentes. Al comparar varios modelos alternativos nos interesará
seleccionar el que minimice los resultados de estos criterios de información.

Nota:
Una opción que proporciona directamente Gretl para la comparación de mode-
los es la tabla de modelos. En la Sesión de iconos, sobre cada uno de los modelos
anteriores, en el botón derecho tenemos una opción de Añadir a la tabla de mo-
delos. Si posteriormente seleccionamos la Tabla de modelos se tiene una síntesis
de la información, que confirma el modelo 3 como el más adecuado:

Estimaciones de MCO
Variable dependiente: productividad
82 SUPUESTO 4. PRODUCTIVIDAD

(3) (4)
const −1,793 −4,928
(3,350) (5,653)
∗∗
gastos 0,2145 0,2077∗∗
(0,01646) (0,02211)
temperatura 0,5964∗∗
(0,2403)
lluvia 0,2745∗
(0,1362)
n 19 19
R2 0,9745 0,9719
` −26,3 −27,24

Desviaciones típicas entre paréntesis


* indica significativo al nivel del 10 por ciento
** indica significativo al nivel del 5 por ciento

5. Con el modelo seleccionado, obtener predicciones de la producti-


vidad agraria.

Teniendo en cuenta los resultados previos vamos a obtener predicciones con el


modelo más apropiado, que será el tercero e incluye como regresores el gasto
y la variable climatológica temperatura. Con este objetivo, sobre el modelo 3
estimado realizamos predicciones desde el menú Análisis . Predicciones:

La configuración por defecto de Gretl incluye distintas opciones:

 El dominio de predicción, que Gretl asigna a partir de los datos disponibles.


83

 El tipo de predicción, para el que existen 4 opciones, algunas de las cuales


aparecen en este caso deshabilitadas: la predicción automática (que com-
bina estática y dinámica), y la predicción dinámica. Podemos por tanto
elegir entre la predicción estática (que se basa en los registros de los regre-
sores y realiza predicciones a partir del fin de la muestra) y la predicción
con horizonte k (k periodos por delante).
 El número de períodos anteriores a la predicción, opción que podemos
parametrizar e indica los períodos anteriores que se van a mostrar en las
salidas de predicción (gráfico y tabla).
 Mostrar los valores ajustados para el rango anterior a la predicción: Esta
opción (seleccionada por defecto), mostrará en el gráfico de predicción
la línea de datos registrados para el período de estimación (anterior a la
predicción). Si por el contrario no está marcada, el gráfico sólo incluirá la
línea de la variable observada para el período de predicción.
 Representar el intervalo de confianza usando .... muestra un desplegable
donde se puede elegir la opción: barras de error, líneas inferior y superior
y área sombreada; por defecto aparecen marcadas barras de error.
 El nivel de confianza del intervalo para la predicción es por defecto del
95 %, 1-α = 0, 95, pero esta opción es configurable por lo que este nivel de
confianza se puede modificar.
 Finalmente elegimos entre mostrar el intervalo para Y observada o media
de Y (es decir para un valor puntual de la variable dependiente o para
su valor esperado). Esta selección no afectará a las predicciones puntuales
obtenidas pero sí a las bandas de confianza.

Intervalo de confianza para la predicción:


La amplitud del intervalo de confianza cuando la predicción va referida a un
valor puntual es mayor que la del intervalo para predecir un valor medio o
esperado:
 q 
IC para un valor puntual: Ŷ0 ± k1 S (1 + x0 (X X) x0 )
2 0 0 −1

 q 
IC para el valor esperado: Ŷ0 ± k1 S (x0 (X X) x0 )
2 0 0 −1

Donde S 2 es la varianza estimada en la muestra y por tanto la discrepancia


sigue una distribución t de Student con n-k grados de libertad; k1 es el valor
obtenido en las tablas t de Student de manera que P (|tn−k | ≤ k1 ) = 1 − α, y
por tanto cuanto mayor sea el nivel de confianza mayor será el valor k1 y más
amplio será el intervalo de confianza de la predicción.

La opción de predicción de Gretl proporciona dos salidas, una tipo gráfico y


otra de texto:
84 SUPUESTO 4. PRODUCTIVIDAD

���
�������������
����������
��������������������������
���

���

���

���

���

���

���

���
����� ����� ����� ����� ����� �����

Como podemos observar en este gráfico, en verde se representan las barras de


error del IC. Se observa que para el año 2017 el valor observado se encuentra
fuera del IC (la productividad registrada ese año es inferior al límite inferior
del intervalo, indicando que la predicción obtenida es excesivamente optimista),
mientras que para el año 2018 el valor de la productividad registrada se sitúa
en el IC y se aproxima mucho al valor de predicción.
La salida de texto recoge las predicciones y las correspondientes medidas de
evaluación:

Para intervalos de confianza 95 %, t(16, ,0, 025) = 2, 120


productividad predicción Desv. Típica Intervalo de confianza 95 %
2017 27,258043 30,349861 1,232546 27,736980 − 32,962743
2018 29,527417 28,853543 1,154868 26,405332 − 31,301754
Estadísticos de evaluación de la predicción

Error medio −1,209


Error cuadrático medio 2,2376
Raíz del Error cuadrático medio 1,4959
Error absoluto medio 1,8828
Porcentaje de error medio −4,5303
Porcentaje de error absoluto medio 6,8125
U de Theil 0,29694
Proporción de sesgo, U M 0,29193
Proporción de la regresión, U R 0,70807
Proporción de la perturbación, U D 0

La tabla recoge el valor k1 asociado al nivel de confianza, k1 = 2, 12, la predic-


ción, la desviación típica y el intervalo que podemos calcular manualmente:

[30, 349861−2, 12×1, 232546; 30, 349861+2, 12×1, 232546] = [27, 72698; 32, 962743]
85

Evaluación de predicciones:

 Error
r estándar de las predicciones o raíz del error cuadrático medio: RECM =
PT 2
t=1 (Ŷt −Yt )
T

|Ŷt −Yt |
PT
 Error absoluto medio: EAM = t=1
T

PT |Ŷt −Yt |
 Error absoluto porcentual medio: EAP M = t=1 T Yt × 100
 Indice de Theil: q PT
2
t=1 (Pt −Rt )
T
U= q PT
t=1 Rt2
T

Donde Pt representa el cambio previsto y Rt el cambio real:

Ŷt − Yt−1 Yt − Yt−1


Pt = ; Rt =
Yt−1 Yt−1

El índice propuesto por Theil 1966 y denotado habitualmente por U se basa


en la comparación entre tasas previstas y observadas y será nulo cuando ambas
tasas coincidan (predicciones perfectas), y su valor aumenta con la distancia
entre predicción y realidad, sin encontrarse acotado superiormente. Esta medi-
da presenta como ventaja adicional la descomponibilidad, ya que el cuadrado
del índice de Theil puede descomponerse en tres sumandos, asociados respec-
tivamente a los componentes de sesgo, regresión y error, tal y como recoge la
siguiente expresión:

2
¯
  
1 − rY2 Ŷ SY2
2
Ŷ − Ȳ
SŶ − rY Ŷ SY
+ + =1
| ECM
{z } | ECM
{z } | ECM {z }
Prop. Sesgo Prop. Regresión Prop. error

Es importante señalar que, si bien todas las medidas de bondad de predicciones


que acompañan a los resultados anteriores son útiles, nos fijaremos principal-
mente en los porcentajes de error (que son medidas relativas independientes
de las unidades de medidas y por tanto fáciles de interpretar) y en el índice
propuesto por (Theil 1966) cuyo resultado es no negativo y no está acotado
superiormente, si bien valores superiores a 1 indican que las predicciones del
modelo evaluado son peores que las de un modelo ingénuo o «naive».
En este caso los resultados muestran que el porcentaje de error en las prediccio-
nes es del 6,8 % en términos absolutos, por lo que se trata de un buen modelo
para predecir. El índice de Theil con un valor de 0,29 apunta en la misma
dirección.
86 SUPUESTO 4. PRODUCTIVIDAD

Nota:
Cuando los errores son sistemáticos, siempre en la misma dirección (sobrevalo-
rando o infravalorando el verdadero valor de la variable), entonces el porcentaje
de error medio coincide con el porcentaje de error absoluto medio. En cambio,
cuando existen errores de distinto signo se produce compensación entre ellos y
como consecuencia el porcentaje de error medio será inferior (en términos ab-
solutos) al porcentaje de error absoluto medio, indicando el signo del primero
si pesan más los errores de infravaloración (signo positivo) o de sobrevaloración
(signo negativo).

6. Utilizando la consola de Gretl, obtener el vector de coeficientes y los


principales resultados de la estimación a partir de notación matricial.

Vamos a obtener el modelo que incluye las dos variables explicativas (gastos y
temperatura) en forma matricial. Dicho modelo se expresará como y = Xβ + u,
donde y representa el vector de la variable dependiente y X es la matriz de
datos. El vector de estimadores mínimo cuadráticos vendrá dado por la expresión
β̂ = (X0 X) X0 y.
−1

Estimador MCO β̂
Dado un modelo lineal y = Xβ + u, u ' N 0, σ 2 In , la estimación mínimo


cuadrática (MC) del vector de parámetros coincide con su estimación máximo


verosímil (MV) y ambas vienen dadas por la expresión:

β̂ = (X0 X)−1 X0 y

La deducción de los estimadores MCO consiste en minimizar la suma de cua-


drados de los residuos:

n
X
û2i = û0 û
i=1

que en notación matricial viene dada por:


 0   0 0
û0 û = y − X β̂ y − X β̂ = y0 y − β̂ X 0 y − y0 X β̂ + β̂ X 0 X β̂
0 0
= y0 y − 2β̂ X 0 y + β̂ X 0 X β̂
0
expresión en la que hemos tenido en cuenta que β̂ X0 y = y0 Xβ̂. Exigiendo a
esta expresión la condición necesaria de mínimo, se obtiene:

0
 
∂û0 û ∂ y0 y − 2β̂ 0 X0 y + β̂ X0 Xβ̂
= =0 ⇒
∂ β̂ ∂ β̂
87

−2X0 y + 2X0 Xβ̂ = 0 ⇒ β̂ = (X0 X)−1 X0 y


donde hemos tenido en cuenta la expresión de las derivadas de formas lineales
y cuadráticas respecto a un vector:
0 0
∂ β̂ X0 y ∂ β̂ X0 Xβ̂
= X0 y , = 2X0 Xβ̂
∂ β̂ ∂ β̂

Estimador Máximo Verosimil (MV) β̂


La obtención de los estimadores máximo verosímiles (MV) se lleva a cabo
partiendo de la función de verosimilitud que, bajo el supuesto de normalidad
(u ≈ N (0, σ 2 I) , y ≈ N (Xβ, σ 2 I)), puede expresarse matricialmente como si-
gue:
1 − 12 [(y−Xβ)0 (y−Xβ)]
L(y, σ 2 , β) = n e 2σ
(2πσ 2 ) 2
o equivalentemente:
−n − n 0
L(y, σ 2 , β) = (2π) 2 σ 2 2 e− 2σ2 [(y−Xβ) (y−Xβ)]
1

Consideramos ahora la transformación logarítmica (función monótona no decre-


ciente, por lo que garantiza la coincidencia entre ámbos máximos):
n n 1
ln L(y, β, σ 2 ) = − ln(2π) − ln(σ 2 ) − 2 (y − Xβ)0 (y − Xβ)
2 2 2σ
y aplicando a continuación las condiciones de extremo se obtiene:
∂ ln L 1
= − 2 (−2X0 y + 2X0 Xβ) = 0 ⇒ X0 Xβ = X0 y ⇒ β̂ = (X0 X)X0 y
∂β 2σ

Los estimadores MCO y MV son muy adecuados gracias a sus propiedades es-
tadísticas, ya que se trata de expresiones insesgadas, consistentes, suficientes y
eficientes. El Teorema de Gauss-Markov garantiza que, bajo las hipótesis bási-
cas del modelo de regresión lineal, el estimador MCO de β es óptimo entre la
familia de estimadores lineales e insesgados, por lo que recibe la denominación
ELIO (Estimador Lineal Insesgado Optimo) o BLUE (Best Linear Unbiased
Estimator).

Es importante tener presente que Gretl no distingue entre vectores y matrices


y la denominación genérica es matrix.
Para reconstruir matricialmente los resultados anteriores, lo primero que hare-
mos será establecer el recorrido muestral hasta el año 2016 (Muestra . Establecer
rango), para que el número de filas n sea el correcto (en este caso n=19).
En la opción Añadir . Definir matriz, asignamos un nombre e indicamos que
vamos a construir la matriz a partir de las series del fichero de datos, a conti-
nuación seleccionamos las series correspondientes para el vector y: productividad
y para la matriz X: const, gastos, temperatura.
En la Vista de iconos aparece nuevos iconos que indican matrices denominadas
X e y:
88 SUPUESTO 4. PRODUCTIVIDAD

Cuando abrimos estas matrices en la Vista de Iconos, podemos comprobar que


el vector y es similar a la serie de productividad mientras la matriz X (con
n=19 filas y k=3 columnas) incluye uha primera columna con valores unitarios,
que aparece asociada al término independiente, seguida de otras dos columnas
para los valores de las variables explicativas (gastos y temperatura, respecti-
vamente). Desde esta matriz podemos acceder al menú Transformar, en el que
se encuentran las transformaciones habituales (transponer, invertir, ...) para
rehacer matricialmente el ejercicio.

Con cada transformación que realicemos es recomendable seleccionar Guardar


como y darle el nombre apropiado a la matriz resultante.
Sin embargo, en este caso puede resultar más fácil llevar a cabo todo el procedi-
miento desde la consola de Gretl. Así, si todavía no hubiéramos construido las
matrices X e y, escribiríamos:
matrix y = { productividad }
matrix X = { const , gastos , temperatura }

Nota:
Al construir la matriz X incluimos const para el término independiente y a
continuación loa nombres de las variables explicativas, que es recomendable
introducir en el mismo orden que aparecían en el modelo para que así coincidan
posteriormente los coeficientes estimados.
89

Una vez definidas las matrices necesarias, podemos reconstruir matricialmente


las soluciones del modelo estimado por Mínimos Cuadrados Ordinarios, teniendo
en cuenta las expresiones que aparecen recogidas en la tabla siguiente:
90 SUPUESTO 4. PRODUCTIVIDAD

Expresión Gretl
−1
Vector de coeficientes: β̂ = (X0 X) X0 y matrix b = inv(X’X) * X’y
Residuos û = y − ŷ = y − Xβ̂ matrix u = y - X*b
Suma de cuadrados Pn 2 0
i=1 ûi = û û SSR = u’u
de los residuos
Obs. y parámetros n, k n=rows(X) ; k=rows(b)
2 û0 û
Varianza de u S = s2 = SSR / (n-k)
n−k
Matriz covarianzas d β̂) = S 2 (X0 X)−1
Cov( V = s2 * inv(X’X)
(β̂0 X0 y−nȲ 2 )
k−1 k−1
Contraste F û0 û
≈ Fn−k F=(b’*X’*y-n*mean(y)^2)/(k-1)/s2
n−k
βˆ2
Estadístico t t2 = t2=b[2]/sqrt(V[2,2])
Sβ̂2
0
R2 R2 = 1 − y0 y−n
û û
Ȳ 2
R2=1-u’u/(y’y-n*mean(y)^2)
ln L =
Log.Verosimilitud h  i
0 l=(-n/2)*(1+log(2*$pi*u’u/n))
= − n2 1 + ln 2π ûnû
 0 
Criterio AIC n ln ûnû + 2k + n[1 + ln(2π)] AIC=n*log(u’u/n)+2*k+n*(1+log(2*$pi))

Criterio SIC −2 ln L + k ln(n) SIC=-2*l+k*log(n)


Criterio HQC −2 ln L + 2k ln(ln(n)) HQC=-2*l+2*k*log(log(n))

Script Cálculo matricial:


smpl 1998 2016
matrix b = inv (X ’ X ) * X ’ y
matrix u = y - X * b
SSR = u ’ u
n = rows ( X )
k = rows ( b )
S2 = SSR / (n - k )
V = S2 * inv (X ’ X )
F =( b ’* X ’* y - n * mean ( y ) ^2) /( k -1) / S2
t2 = b [2]/ sqrt ( V [2 ,2])
R2 =1 -u ’ u /( y ’y - n * mean ( y ) ^2)
l =( - n /2) *(1+ log (2* $pi *u ’ u / n ) )
AIC = n * log (u ’ u / n ) +2* k + n *(1+ log (2* $pi ) )
SIC = -2* log ( l ) + k * log ( n )
HQC = -2* log ( l ) +2* k * log ( log ( n ) )

Se puede continuar con esta relación de expresiones hasta reconstruir los distin-
tos contrastes, intervalos de confianza, predicciones, etc. En supuestos posterio-
res ampliaremos estos cálculos matriciales con Gretl.
Es necesario tener presente que las matrices se han ido creando en la Vista de
iconos, y los escalares en el icono denominado Escalares. Si abrimos este icono
aparece una tabla con todos escalares que hemos ido calculando.
SUPUESTO 5

Pobreza

Contenidos: Estimación, Test F de significación, Análisis de Residuos,


ANOVA, Predicción transversal

Nombre del fichero: pobreza.gdt http://cort.as/-LMW_

Página de datos: http://cort.as/-LHjb . pobreza.gdt


Página de scripts: http://cort.as/-LHjE . S5_Pobreza.inp

Enunciado:

Se desea proponer un modelo econométrico para explicar la intensidad de la


pobreza en los países de la UE-28

1. Se sospecha que una de las principales causas de la pobreza es el desempleo.


Analizar la información disponible y estimar el correspondiente modelo
lineal simple.
2. Si se asume que Noruega sigue un patrón de comportamiento similar al de
la UE-28 y se conoce su tasa de paro (4 %) ¿Cuál sería la tasa de pobreza
prevista?
3. Analizar si la explicación de la pobreza mejora teniendo en cuenta otras
variables explicativas como el gasto social, la educación y el crecimiento
económico.
4. Proponer un modelo adecuado para explicar la pobreza ¿Cuál es su capa-
cidad explicativa? ¿Qué país presenta el peor ajuste?
5. Reconstruir los resultados obtenidos en notación matricial
6. Obtener la tasa de pobreza prevista para Noruega sabiendo que su gasto
social es de 19335 euros por habitante, su PIB per capita 69400 euros, su
tasa de educación terciaria 52,1 % y el crecimiento del PIB del 1,1 %

91
92 SUPUESTO 5. POBREZA

Información extraída de EUROSTAT, http://ec.europa.eu/eurostat/data/


database

Solución:

1. Se sospecha que una de las principales causas de la pobreza es el


desempleo. Analizar la información disponible y estimar el correspon-
diente modelo lineal simple.

Se podría comenzar por estudiar la nube de puntos (Ver . Graficos . Graficos X-Y
(scatter)...), que confirma la correlación positiva entre paro y pobreza. Además,
en este caso al estar las observaciones rotuladas se puede ver el nombre del país
al pasar con el ratón sobre los puntos de la nube.

����������������������������������������������������������
���
�����������������

���

���
�������

���

���

���

���
�� �� � � �� ��� ��� ��� ��� ���
����

Nota:
Como podemos observar, en este supuesto las observaciones vienen etiquetadas
con el nombre de los países:

Obs/País Pobreza Obs/País Pobreza


Belgium 21,2 Lithuania 27,3
Bulgaria 40,0 Luxembourg 19,0
Czech Republic 17,8 Hungary 31,1
Denmark 17,8 Malta 23,8
Germany 20,6 Netherlands 16,5
Estonia 26,5 Austria 19,2
Ireland 27,5 Poland 24,7
Greece 36,0 Portugal 27,5
93

Spain 29,2 Romania 40,1


France 18,6 Slovenia 20,4
Croatia 29,3 Slovakia 20,9
Italy 28,1 Finland 17,3
Cyprus 27,4 Sweden 16,9
Latvia 32,7 United Kingdom 24,1

La manera de asignar estas etiquetas es crear un fichero de texto con los nombres
de las observaciones, en este caso los países ordenados por número de observa-
ción. Este fichero se guarda en formato txt (texto plano).
Por otra parte se crea o se abre el fichero de datos de Gretl de la forma tradicional
y desde el menú Datos . Etiquetas de las observaciones es posible importar las
etiquetas, seleccionando el fichero de texto anteriormente creado. De esta forma
en el resto del supuesto irán apareciendo las etiquetas de las observaciones.

Para estimar un modelo lineal, podemos ir al menú Modelo . Mínimos cuadrados


ordinarios, o bien directamente a los iconos de la barra de herramientas de la
ventana principal de Gretl, pulsando el icono que representa los coeficientes (β̂).
Dado que a lo largo del supuesto vamos a proponer varios modelos para explicar
la pobreza, marcamos la Selección por defecto de esta variable en el diálogo de
selección del modelo.

Modelo 1: MCO, usando las observaciones 1–28


Variable dependiente: pobreza

Coeficiente Desv. Típica Estadístico t valor p


const 20,5785 1,84611 11,15 0,0000
paro 0,849508 0,279285 3,042 0,0053
Media de la vble. dep. 25,05357 D.T. de la vble. dep. 6,742649
Suma de cuad. residuos 905,3438 D.T. de la regresión 5,900925
R2 0,262455 R2 corregido 0,234088
F (1, 26) 9,252079 Valor p (de F ) 0,005317
Log-verosimilitud −88,39582 Criterio de Akaike 180,7916
Criterio de Schwarz 183,4561 Hannan–Quinn 181,6062

A la vista de la salida se observa que el coeficiente del paro presenta, tal y


como se esperaba, signo positivo y resulta significativo (se rechaza la hipótesis
de nulidad del coeficiente del paro, con lo cual tiene sentido incluir en el modelo
esta variable explicativa).
Según la estimación obtenida, por cada punto porcentual de aumento del paro
la tasa de pobreza aumenta en casi 0,85.
Cuando nos fijamos en la capacidad explicativa del modelo, vemos que es sólo
del 26,25 %, cosa que resulta comprensible teniendo en cuenta que se trata de
94 SUPUESTO 5. POBREZA

una muestra transversal y una variable difícil de explicar. Parece recomendable


tratar de incorporar más causas que puedan explicar la tasa de pobreza.

2. Si se asume que Noruega sigue un patrón de comportamiento si-


milar al de la UE-28 y se conoce su tasa de paro (4 %) ¿Cuál sería la
tasa de pobreza prevista?

Para obtener la predicción de pobreza en Noruega es necesario introducir en


el archivo de trabajo la información correspondiente a la tasa de paro en este
país. Para ello basta con seleccionar la variable paro y el menú Variable . Editar
valores, cuya parte superior izquierda muestra un signo “+” que una vez seleccio-
nado permite añadir una observación o una variable. En este caso indicamos que
deseamos añadir una observación y, dado que los países están etiquetados, asig-
naremos a la nueva observación el rótulo Noruega o Norwey, e introduciremos
el dato de paro (4), guardando la información. A continuación podemos obtener
predicciones desde el modelo estimado en el menú Análisis . Predicciones.

Para intervalos de confianza 95 %, t(26, ,0, 025) = 2, 056

Observaciones pobreza predicción Desv. Típica Intervalo de 95 %


Noruega 24,0 6,02 11,6 38,3

3. Analizar si la explicación de la pobreza mejora teniendo en cuenta


otras variables explicativas como el gasto social, la educación y el
crecimiento económico.

La incorporación de otras variables explicativas debe llevarse a cabo con pru-


dencia, ya que si incluimos simultáneamente como regresores en el modelo todas
las causas posibles se reducirán los grados de libertad (al aumentar k) y además,
es posible que algunas de esas variables sean “redundantes” en el sentido de que,
además de estar relacionadas con la pobreza (Y) también estarán relacionadas
entre sí. Este problema, que se conoce como colinealidad o multicolinealidad, es
uno de los más habituales y difíciles de solucionar en la modelización economé-
trica, ya que va asociado a la propia naturaleza de los datos.

Podemos comenzar por analizar la matriz de correlaciones y observar qué varia-


bles se encuentran más relacionadas con la pobreza

Coeficientes de correlación, usando las observaciones 1 - 28


valor crítico al 5 % (a dos colas) = 0,3739 para n = 28
95

pobreza paro crecimiento educacion gasto_social


1, 0000 0, 5123 0, 3284 −0, 3385 −0, 6372 pobreza
1, 0000 −0, 0832 −0, 1854 −0, 3316 paro
1, 0000 0, 0079 −0, 4025 crecimiento
1, 0000 0, 5110 educacion
1, 0000 gasto_social
pib
−0, 6127 pobreza
−0, 3502 paro
−0, 3066 crecimiento
0, 5251 educacion
0, 9650 gasto_social
1, 0000 pib

Consideremos el gasto social como segunda variable a incluir en el modelo:

Modelo 2: MCO, usando las observaciones 1–28


Variable dependiente: pobreza

Coeficiente Desv. Típica Estadístico t valor p


const 26,8909 2,35855 11,40 0,0000
paro 0,560768 0,246626 2,274 0,0318
gasto_social −0,000715771 0,000202757 −3,530 0,0016
Media de la vble. dep. 25,05357 D.T. de la vble. dep. 6,742649
Suma de cuad. residuos 604,1710 D.T. de la regresión 4,915978
R2 0,507808 R2 corregido 0,468432
F (2, 25) 12,89657 Valor p (de F ) 0,000142
Log-verosimilitud −82,73342 Criterio de Akaike 171,4668
Criterio de Schwarz 175,4634 Hannan–Quinn 172,6886

Asumiendo otros factores constantes, el gasto social contribuye a reducir la


pobreza de los países, observándose que efectivamente el coeficiente estimado es
negativo y significativo.
Podríamos tratar también de ver si otras variables como la educación o el cre-
cimiento mejoran la explicación de la pobreza, pero en estos casos se observa
que los contrastes de significación t de student llevan asociados niveles críticos
elevados, con lo cual no se rechaza la nulidad de los correspondientes coeficientes.

Modelo 3: MCO, usando las observaciones 1–28


Variable dependiente: pobreza

Coeficiente Desv. Típica Estadístico t valor p


const 25,8217 4,86602 5,307 0,0000
paro 0,640692 0,257758 2,486 0,0206
gasto_social −0,000535321 0,000274000 −1,954 0,0630
crecimiento 0,851952 0,698544 1,220 0,2350
educacion −0,0503350 0,127248 −0,3956 0,6961
96 SUPUESTO 5. POBREZA

Media de la vble. dep. 25,05357 D.T. de la vble. dep. 6,742649


Suma de cuad. residuos 567,3822 D.T. de la regresión 4,966769
R2 0,537778 R2 corregido 0,457391
F (4, 23) 6,689905 Valor p (de F ) 0,001005
Log-verosimilitud −81,85388 Criterio de Akaike 173,7078
Criterio de Schwarz 180,3688 Hannan–Quinn 175,7441

Esta salida permite apreciar claramente la diferencia entre los contrastes de sig-
nificación global e individual. El test F (obtenido a partir de la descomposición
ANOVA como detallaremos posteriormente) permite rechazar la nulidad de to-
dos los coeficientes de las variables explicativas y por tanto concluir que alguna
de las variables propuestas como regresores es significativa.
En cambio los contrastes t de significación individual analizan la significación
de cada variable explicativa.

Test de significación global:


El test F es un contraste de significación global que se formula:

H0 : β2 = β3 = ... = βk = 0 ; H1 : βj 6= 0 , para algún j = 2, · · · , k

Bajo la hipótesis nula todos los coeficientes de las variables explicativas son
nulos, con lo cual el modelo no tiene sentido. En cambio, si rechazamos dicha
hipóteis estamos admitiendo que en el modelo hay alguna variable con coeficiente
significativamente distinto de cero.
Es importante tener en cuenta que esta conclusión es muy modesta, ya que al
rechazar la hipótesis nula del test F únicamente concluimos que al menos uno
de los regresores propuestos es capaz de explicar el comportamiento de Y, pero
no podemos afirmar que el modelo sea globalmente válido (ni que todas las
variables sean significativas) como a veces se concluye erróneamente.
El estadístico de contraste del test F viene dado por la siguiente expresión, que
se distribuye según un modelo F de Snedecor con k-1 grados de libertad en el
numerador y n-k grados de libertad en el denominador:

0
 
β̂ X‘y − nȲ 2
χ2k−1
(k − 1)
F = ≈ k 2− 1 ≈ Fn−k
k−1
û0 û χn−k
(n − k) n−k

A partir del valor muestral de esta discrepancia F ∗ , se obtiene el nivel crítico,


p = P Fn−k ≥ F , que nos permitirá decidir si el resultado es significativo
k−1 ∗


para rechazar la hipótesis.


97

Test de significación individual:


El contraste de significación individual es similar al que ya hemos visto para
el modelo lineal simple en significacion-individual-simple (p.41), si bien en este
caso puede plantearse para cada una de las variables explicativas. Así, dado un
coeficiente j cualquiera el contraste de significación individual se plantea como:

H0 : βj = 0 ; H1 : βj 6= 0

Y el estadístico de contraste sigue una distribución t de Student con n-k grados


de libertad:

β̂j − βj
dβ̂j = ≈ tn−k
Sβ̂j

β̂j
Bajo la hipótesis nula, la discrepancia se reduce a: dβ̂j = , y una vez obtenido
Sβ̂j
su valor muestral d∗β̂ se obtiene el correspondiente nivel crítico que viene dado
 
por: p = P |tn−k | > d∗β̂ /H0

Es interesante tener en cuenta que en los contrastes de significación t de Student


intervienen tanto los estimadores mínimo cuadráticos como sus desviaciones
típicas, que aparecen recopiladas en la segunda columna del output de regresión
de Gretl. Estas desviaciones típicas pueden obtenerse como raíz cuadrada de las
varianzas, que se encuentran en la diagonal de la matriz de varianzas-covarianzas
de los estimadores, accesible desde la opción Análisis . Matriz de covarianzas de
los coeficientes.
 
−1
Esta matriz simétrica viene dada por la expresión S 2 β̂ = S 2 (X 0 X) =
û0 û −1
(X 0 X) y en este caso concreto se obtiene el resultado:
n−k

Matriz de covarianzas de los coeficientes


const paro gasto_social crecimiento educacion
23,678 −0,53185 −5,8620e–05 −0,75826 −0,46368 const
0,066439 2,5725e–05 0,045951 −0,0017069 paro
7,5076e–08 9,9315e–05 −1,8875e–05 gasto_social
0,48796 −0,024479 crecimiento
0,016192 educacion

4. Proponer un modelo adecuado para explicar la pobreza ¿Cuál es


su capacidad explicativa? ¿Qué país presenta el peor ajuste?

A la vista de los resultados anteriores podemos proponer un modelo que explique


la pobreza en función del paro y el gasto social (Modelo 2), cuya capacidad
explicativa es del 50 %. Según los coeficientes estimados, se podría afirmar que
98 SUPUESTO 5. POBREZA

un aumento del paro de un punto porcentual (asumiendo constante el gasto


social) conlleva un aumento de la pobreza en 0,56. Por su parte, un aumento
del gasto social de 1000 euros (asumiendo constante el paro) permitiría reducir
la pobreza en 0,7 puntos porcentuales.
Además de la estimación puntual, se podrían obtener intervalos de confianza
para los parámetros del modelo. Más concretamente, se accede a estos intervalos
desde la salida del Modelo 2, a través de la opción Análisis . Intervalos de confianza
para los coeficientes:
t(25, 0, 025) = 2, 060

Variable Coeficiente Intervalo de confianza 95 %


const 26,8909 22,0334 31,7484
paro 0,560768 0,0528320 1,06870
gasto_social −0,000715771 −0,00113336 −0,000298185

Es posible obtener intervalos con distintos niveles de confianza (y por lo tanto


de precisión) pulsando en el icono α desde la salida:

La capacidad explicativa del modelo aparece recogida en el output de la regresión


(en este caso el coeficiente de determinación es algo superior al 50 %) y puede
analizarse a partir del Análisis de Varianza, disponible en la opción Análisis .
ANOVA

Análisis de Varianza:
Suma de cuadrados gl Media de cuadrados
Regresión 623, 339 2 311, 669
Residuo 604, 171 25 24, 1668
Total 1227, 51 27 45, 4633

R2 = 623, 339/1227, 51 = 0, 507808


F (2, 25) = 311, 669/24, 1668 = 12, 8966 [valor p 0, 0001]

El coeficiente de determinación es R2 = 0, 507808, lo que significa que la pro-


porción de la variación de la regresión (explicada) sobre la variación total de la
pobreza es superior al 50 % o de forma más simple, el modelo explica más del
50 % del comportamiento de la pobreza.
En cuanto al test F se calcula como la media de los cuadrados de la regresión
entre la media de los cuadrados de los residuos. En los modelos con alta capa-
cidad explicativa se obtienen valores elevados de la media de los cuadrados de
99

la regresión y valores reducidos de la media de cuadrados de los residuos, por lo


que se obtendrán valores elevados del estadístico F , que llevan asocados valores
reducidos del nivel crítico y por lo tanto conducen al rechazo de la hipótesis de
nulidad de todos los coeficientes de las variables explicativas del modelo.

Análisis de varianza (ANOVA):


El análisis de la varianza, que ya hemos descrito en el caso simple en ANOVA-
simple (p.56) sigue el mismo planteamiento en el caso general, partiendo de la
descomposición:

VT VNE o de Residuos VE o de Regresión


z }| { z }| { z }| {
n n  2 n  2 n X n   
X 2 X X X
Yi − Ȳ = Yi − Ŷi + Ŷi − Ȳ +2 Yi − Ŷi Ŷi − Ȳ
i=1 i=1 | {z } i=1 i=1 j6=i
=û2i | {z }
=0

La variación total puede ser expresada en notación matricial como:

n n
X 2 X
Yi − Ȳ = Yi2 − nȲ 2 = y0 y − nȲ 2
i=1 i=1

Por su parte, la variación explicada o suma de cuadrados de la regresión viene


dada por:

n  2 n
X X 0
Ŷi − Ȳ = Ŷi2 − nȲ 2 = ŷ0 ŷ − nȲ 2 = β̂ X0 Xβ̂ − nȲ 2 =
i=1 i=1
0 0 0
= β̂ X X(X0 X)−1 X0 y − nȲ 2 = β̂ X0 y − nȲ 2

Y finalmente la variación no explicada o suma de cuadrados de los residuos se


expresa como:

n 
X 2 n
X
Ŷi − Ȳ = û2i = û0 û
i=1 i=1

Así pues, podemos expresar el análisis de la varianza en una tabla como la


siguiente:

Variación o ratio o
Componente gl
Suma de cuadrados media de cuadrados
0
β̂ X0 y−nȲ 2
Explicada o de regresión β̂ 0 X0 y − nȲ 2 k-1 k−1
û0 û
No explicada o de residuos û0 û n-k n−k
y0 y−nȲ 2
TOTAL y0 y − nȲ 2 n-1 n−1
100 SUPUESTO 5. POBREZA

El coeficiente de determinación se define como la proporción de la variación


explicada (o de la regresión) sobre la variación total, y representa la capacidad
explicativa del modelo.

0
û0 û β̂ X0 ŷ − nȲ 2
R2 = 1 − 0
=
y y − nȲ 2 y0 y − nȲ 2

Por su parte, el estadístico F se define como el cociente entre la media de los


cuadrados de regresión y la media de cuadrados de los residuos:

0
 
β̂ X‘y − nȲ 2
(k − 1) k−1
≈ Fn−k
û0 û
(n − k)

Dado que los dos estadísticos permiten evaluar el modelo estimado e involucran
la suma o la media de los cuadrados, existe una relación entre ellos:

R2
  
k−1 n−k
Fn−k =
1 − R2 k−1

La comprobación es inmediata sin más que sustituir R2 en esta última expresión

Desde la salida del modelo estimado en la opción: Análisis . Mostrar variable


observada, estimada, residuos se obtiene la información detallada que permite
observar cómo Rumanía es el país que presenta peor ajuste. De hecho, tal y
como indica la tabla se trata de un valor atípico (que se denota con *) dado
que el error supera 2,5 veces la desviación típica (en este caso la desviación
es por exceso ya que la tasa de pobreza observada es claramente superior a la
estimada).
Rango de estimación del modelo: 1–28
Desviación típica de los residuos = 4,91598

pobreza estimada residuo


Belgium 21,2 21,8 −0,6
Bulgaria 40,0 30,1 9,9
Czech Republic 17,8 26,2 −8,4
Denmark 17,8 17,0 0,8
Germany 20,6 21,1 −0,5
Estonia 26,5 27,3 −0,8
Ireland 27,5 22,3 5,2
Greece 36,0 33,9 2,1
Spain 29,2 30,1 −0,9
France 18,6 21,7 −3,1
Croatia 29,3 31,0 −1,7
Italy 28,1 25,6 2,5
101

Cyprus 27,4 27,8 −0,4


Latvia 32,7 28,4 4,3
Lithuania 27,3 28,3 −1,0
Luxembourg 19,0 14,3 4,7
Hungary 31,1 27,4 3,7
Malta 23,8 26,1 −2,3
Netherlands 16,5 20,1 −3,6
Austria 19,2 19,9 −0,7
Poland 24,7 27,7 −3,0
Portugal 27,5 28,6 −1,1
Romania 40,1 27,7 12,4 *
Slovenia 20,4 26,7 −6,3
Slovakia 20,9 30,4 −9,5
Finland 17,3 20,0 −2,7
Sweden 16,9 18,4 −1,5
United Kingdom 24,1 21,5 2,6

Nota: * denota un residuo superior a 2.5 desviaciones típicas Estadísticos de


evaluación de la predicción
Error medio 8,7549e-15
Error cuadrático medio 4,6452
Raíz del Error cuadrático medio 2,1553
Error absoluto medio 3,436
Porcentaje de error medio −3,0067
Porcentaje de error absoluto medio 14,011
U de Theil 0,5449

Nota:
Es interesante comentar que, además de los datos atípicos, Gretl permite identi-
ficar también las observaciones influyentes en la opción: Análisis . Observaciones
influyentes. Una observación se considera influyente si su presencia en la mues-
tra altera significativamente algún aspecto de la estimación del modelo y para
cuantificar la influencia se tiene en cuenta el producto de dos componentes: uno
es el residuo y el otro está relacionado con el denominado apalancamiento, que
mide si una observación se encuentra alejada del resto de datos de la muestra.
La tercera columna de esta salida de Gretl proporciona el resultado del producto
entre residuo y apalancamiento, mientras la cuarta columna denominada DF-
FIT (Difference between fitted values) se obtiene como diferencia entre el valor
estimado y el valor que se estimaría en el modelo que excluye la observación
i-ésima. En el caso de Rumanía vemos que, además de ser un dato atípico, tiene
una influencia elevada como muestra el resultado de DFFIT.

5. Reconstruir los resultados obtenidos en notación matricial

Vamos a obtener este modelo de forma matricial. para lo cual debemos construir
el vector y y la matriz de datos X. Como ya hemos comentado en un supuesto
102 SUPUESTO 5. POBREZA

anterior, Gretl no distingue entre vectores y matrices y la denominación genérica


es matrix.

1. En la opción Añadir . Definir matriz, asignamos un nombre e indicamos


que vamos a construir la matriz a partir de las series del fichero de datos.

2. Seleccionamos la serie que va a hacer el papel de variable y: pobreza.

3. Una vez aceptados los dos pasos podemos comprobar que en la Vista de
iconos aparece un nuevo icono que corresponde a una matriz y; si la abri-
mos vemos que se trata de un vector formado por los datos de la serie
pobreza en los 28 países analizados.

4. De nuevo seleccionamos Añadir . Definir matriz, nombre X, y añadimos las


series de datos en el mismo orden que aparecieron en el modelo estimado.

5. Una vez aceptado en la Vista de iconos aparece esta matriz. Al abrirla,


en el menú Transformar tenemos acceso a las transformaciones habituales
para rehacer matricialmente el ejercicio.

Sin embargo, en estos casos puede resultar más fácil utilizar la consola de Gretl
para todo el proceso. De hecho, si todavía no hubiésemos construido las matrices
X e y, escribiríamos:
X = { const , paro , gasto_social }
y = { pobreza }

Y luego pasamos a realizar las operaciones:


b = inv (X ’ X ) * X ’ y #V e c t o r de c o e f i c i e n t e s

Podemos comprobar que los coeficientes calculados de esta forma coinciden con
los que hemos obtenido a través del modelo.
A partir de estos resultados es posible obtener el vector de residuos
matrix u = y - X * b
scalar SCR = u ’ u #Suma de l o s c u a d r a d o s de l o s r e s i d u o s o
V a r i a c i ó n no e x p l i c a d a
#Cuando una l í n e a de c ó d i g o e s muy l a r g a podemos s e p a r a r l a con "\"
y p a s a r e l r e s t o a una n u e v a l í n e a

Para reconstruir el test F de Snedecor de significación global podemos calcular:


scalar n = rows ( X ) #Nº de o b s e r v a c i o n e s
scalar k = rows ( b ) #Número de c o e f i c i e n t e s o b i e n s c a l a r k=c o l s (X)
scalar VT = y ’y - n * mean ( y ) ^2 #V a r i a c i o n t o t a l
scalar VE = b ’X ’y - n * mean ( y ) ^2 #V a r i a c i o n e x p l i c a d a
scalar F =( VE /( k -1) ) /( SCR /( n - k ) )
scalar pF = pvalue (F , k -1 , n -k , F )

Para llevar a cabo los contrastes de significación individual necesitaríamos la


matriz de varianzas-covarianzas, de donde podemos extraer las raíces cuadradas
de la diagonal principal. A continuación se calculan separadamente para cada
coeficiente los valores de t y del nivel crítico (probabilidad asociada a las dos
colas, recordando tomar valores absolutos)
103

scalar s2 = SCR /( n - k )
matrix V = s2 * inv (X ’ X ) #M a t r i z v a r i a n z a s c o v a r i a n z a s
matrix se = sqrt ( diag ( V ) ) #R a í z c u a d r a d a de l o s e l e m e n t o s de l a
d i a g o n a l p r i n c i p a l de l a m a t r i z de c o v a r i a n z a s , p o r t a n t o
corresponde a las desviaciones t í p i c a s
scalar t2 = b [2]/ se [2]
scalar pt2 = pvalue (t , n -k , abs ( t2 ) )

6. Obtener la tasa de pobreza prevista para Noruega sabiendo que su


gasto social es de 19335 euros por habitante, su PIB per capita 69400
euros, su tasa de educación terciaria 52,1 % y el crecimiento del PIB
del 1,1 %

Para obtener la tasa de pobreza prevista en Noruega, teniendo en cuenta que


ya hemos añadido esta nueva observación a nuestra base de datos, debemos
introducir los datos relativos a Noruega en las variables explicativas (realmente
sería suficiente con introducir el gasto social, ya que esta variable y el paro son
las únicas explicativas del modelo sobre el que se van a realizar las predicciones).
A continuación desde Análisis . Predicciones se obtiene una previsión de tasa de
pobreza en Noruega del 15,3 %:

Para intervalos de confianza 95 %, t(25, ,0, 025) = 2, 060

Observaciones pobreza predicción Desv. Típica Intervalo de 95 %


Noruega 15,3 5,58 3,8 26,8
104 SUPUESTO 5. POBREZA
SUPUESTO 6

Educación

Contenidos: Estimación, Contrastes, Restricciones lineales, ANOVA,


Multicolinealidad

Nombre del fichero: educación.gdt http://cort.as/-LMWG

Página de datos: http://cort.as/-LHjb . educacion.gdt


Página de scripts: http://cort.as/-LHjE . S6_Educacion.inp

Enunciado:
A partir de una muestra de 51 países se desea estimar un modelo econométrico
para explicar el rendimiento académico de la enseñanza obligatoria, medido a
través de un índice que adopta como base 100 la media de la OCDE. Se dispone
de distintas variables explicativas recogidas en la base de datos educacion.gdt,
que abarcan tanto factores económicos (renta media de los hogares y gasto
educativo por alumno) como académicos (número de profesores por alumno y
tasa de abandono).

1. Estimar un modelo lineal para describir el comportamiento del rendimien-


to académico a partir de las variables explicativas disponibles.
2. A partir del análisis de varianza del modelo anterior interpretar los resul-
tados del test F y el coeficiente de determinación.
3. Contrastar con la información disponible las conclusiones a las que ha
llegado un informe previo:
a) “El rendimiento académico es inelástico respecto a la renta”
b) “El número de profesores y la tasa de abandono tienen impactos mar-
ginales opuestos sobre el rendimiento académico”
4. Reconstruir matricialmente los vectores β̂ M CO y β̂ M CR
5. A la vista de los resultados de los apartados previos ¿Cuál sería el modelo
propuesto para explicar el rendimiento académico?

105
106 SUPUESTO 6. EDUCACIÓN

Solución:

1. Estimar un modelo lineal para describir el comportamiento del ren-


dimiento académico a partir de las variables explicativas disponibles.

El modelo estimado por MCO proporciona la siguiente salida:

Modelo 1: MCO, usando las observaciones 1–51


Variable dependiente: rendimiento

Coeficiente Desv. Típica Estadístico t valor p


const 80,8807 5,78899 13,97 0,0000
renta 0,108085 0,0987140 1,095 0,2792
abandono −0,216686 0,0238905 −9,070 0,0000
profesores 0,285711 0,135686 2,106 0,0407
gasto 0,00170336 0,000649220 2,624 0,0118
Media de la vble. dep. 94,80000 D.T. de la vble. dep. 6,232142
Suma de cuad. residuos 353,8730 D.T. de la regresión 2,773606
R2 0,817777 R2 corregido 0,801932
F (4, 46) 51,60957 Valor p (de F ) 1,95e–16
Log-verosimilitud −121,7622 Criterio de Akaike 253,5245
Criterio de Schwarz 263,1836 Hannan–Quinn 257,2155

Al analizar estos resultados comenzamos examinando el valor del test F, que en


este caso es muy elevado (F ∗ = 51, 6) por lo que lleva asociado un nivel crítico
muy reducido (p = 1, 95e–16) que conduce al rechazo de la hipótesis de nulidad
de todos los coeficientes asociados a las variables explicativas. Como ya hemos
comentado anteriormente esta conclusión únicamente permite afirmar que al
menos una de las variables propuestas en la especificación tiene sentido para
explicar el rendimiento académico y por tanto puede considerarse un requisito
«de mínimos» para seguir adelante con el modelo.
Una vez analizado el test F pasamos a considerar los signos de los coeficientes
de las variables explicativas, que coinciden con los esperados: la renta de los
hogares, el número de profesores y el gasto en educación afectan positivamente
el rendimiento académico mientras el abandono escolar tiene impacto negativo.
En cuanto a la significación individual, todas las variables resultan significativas
al 5 %, excepto la renta cuyo nivel crítico es p = 0, 2792. Por lo tanto, tal y
como sugiere la última frase de la propia salida de Gretl, deberíamos analizar
la conveniencia de mantener este regresor en el modelo.

2. A partir del análisis de varianza del modelo anterior interpretar


los resultados del test F y el coeficiente de determinación.

En la salida del modelo 1, elegimos la opción: Análisis . ANOVA


Análisis de Varianza:
107

Variación Suma de cuadrados gl Media de cuadrados


Regresión 1588,11 4 397,027
Residuo 353,873 46 7,69289
Total 1941,98 50 38,8396

R2 = 1588,11 / 1941,98 = 0,817777


F (4, 46) = 397,027 / 7,69289 = 51,6096 [valor p 1,95e-16]

El coeficiente de determinación es R2 = 0, 817777, mostrando que el modelo


tiene una alta capacidad explicativa (es capaz de explicar más del 81 % de las
variaciones observadas en el rendimiento académico de los países de la muestra).
En cuanto al test F, el resultado coincide con el obtenido en la salida del modelo
estimado y como ya hemos descrito permite rechazar la hipótesis de nulidad de
los coeficientes de todas las variables explicativas del modelo.
El cálculo de ambos resultados puede ser llevado a cabo a partir del siguiente
script.
Script o consola: Cálculo de R2 y F
ols rendimiento const renta abandono profesores gasto
n = $nobs
k = $ncoeff
R2 = $rsq
F =( R2 /(1 - R2 ) ) *(( n - k ) /( k -1) ) #R e l a c i ó n e n t r e F y R2
p = pvalue (F ,k -1 ,n -k , F )

3. Contrastar con la información disponible las conclusiones a las que


ha llegado un informe previo:

 “El rendimiento académico es inelástico respecto a la renta”


 “El número de profesores y la tasa de abandono tienen impactos
marginales opuestos sobre el rendimiento académico”

Se trata de dos restricciones que podemos plantear desde la salida del modelo
mediante la opción: Contrastes . Restricciones lineales, y se enuncian como sigue:

b [ renta ]=0
b [ abandono ]+ b [ profesores ]=0

#A l t e r n a t i v a :
b [2]=0
b [3]+ b [4]=0

#A l t e r n a t i v a :
b2 =0
b3 + b4 =0

Conjunto de restricciones
1: b[renta] = 0
2: b[abandono] + b[profesores] = 0
Estadístico de contraste: F (2, 46) = 1,75789, con valor p = 0,183793
Estimaciones restringidas:
108 SUPUESTO 6. EDUCACIÓN

— proporciones de la varianza —
Coeficiente Desv. Típica Estadístico t valor p
const 86,6544 4,96698 17,45 2,05e-22 ***
renta 0,00000 0,00000 NA NA
abandono -0,196607 0,0215660 -9,117 4,78e-12 ***
profesores 0,196607 0,0215660 9,117 4,78e-12 ***
gasto 0,00155851 0,000654125 2,383 0,0212 **

Desviación típica de la regresión = 2,81706


Observando el nivel de significación del contraste, p=0,183793, podemos con-
cluir que no hay evidencia suficiente para rechazar los supuestos planteados.

Contraste de restricciones lineales:


Los contrastes de restricciones lineales sobre subconjuntos de parámetros del
modelo pueden plantearse en los siguientes términos:

H0 : Rβ = β ∗
H1 : Rβ 6= β ∗

donde R es la matriz que especifica las restricciones, que tiene tantas filas como
restricciones (r) y tantas columnas como parámetros (k).
En el caso que nos ocupa se tiene:
 
0 1 0 0 0
R=
0 0 1 1 0

Por tanto:
 
β1
  β2     
0 1 0 0 0  
 β2 0
Rβ = β 3 =
 =
0 0 1 1 0 β4  β 3 + β 4 0
β5

El test F de restricciones lineales se basa en estimar dos modelos (con y sin


restricciones), denotando por û los residuos del modelo sin restricciones (también
llamado libre) y por ûR los residuos del modelo restringido.
Teniendo en cuenta que el modelo libre estimado por mínimos cuadrados ordi-
narios garantiza el mínimo valor para la suma de cuadrados de los residuos û0 û,
podemos garantizar que la suma de residuos cuadráticos del modelo restringido
será siempre mayor o igual y por tanto se cumple û0R ûR ≥ û0 û.
Así pues, podemos construir la siguiente discrepancia en la que se basan los
contrastes de restricciones:
 0
ûR ûR − û0 û
 
n−k r
≈ Fn−k
û0 û r
109

Si las restricciones impuestas al modelo tienen sentido, entonces la diferencia


û0R ûR − û0 û será reducida y por lo tanto el resultado de la discrepancia se-
rá próximo a cero. En cambio, si el modelo no se adapta a las restricciones
propuestas entonces los residuos cuadráticos del modelo restringido serán muy
superiores a los del modelo libre y por tanto la discrepancia F proporcionará un
resultado elevado.
Los grados del libertad del modelo libre (donde se estiman k parámetros) son
n − k, y los grados de libertad del modelo restringido (con k − r parámetros)
son n − k + r. Por lo tanto el número de grados de libertad del numerador de la
F son (n − k + r) − (n − k) = r
Una vez obtenido el valor de la discrepancia muestral F ∗ , a partir de la distri-
bución F de Snedecor con grados de libertad r en el numerador y n − k en el
denominador se obtiene el nivel crítico, p = P Fn−k ≥ F ∗ . Como es habitual,
r


para valores reducidos de p se rechazan las hipótesis o restricciones planteadas.

4. Reconstruir matricialmente los vectores β̂ M CO y β̂ M CR

Podemos reconstruir los estimadores de los modelos libre y restringido con ayu-
da de la consola, generando las matrices y vectores necesarios. Al igual que
hemos visto en supuestos anteriores denotaremos por y el vector de la variable
dependiente, siendo X la matriz de datos. Los estimadores de Mínimos Cuadra-
dos Ordinarios MCO (p.86) y Mínimos Cuadrados Restringidos MCR (p.144)
vienen dados por las expresiones:

M CO
β̂ = (X0 X)−1 X0 y

M CO
h i−1  M CO

−1 −1
β̂ M CR = β̂ − (X0 X) R0 R (X0 X) R0 Rβ̂ − βR

Así, en este caso se generan inicialmente el vector y y la matriz X:


matrix y = rendimiento
matrix X ={ const , renta , abandono , profesores , gasto }

A partir de ellos el vector de estimadores MCO, que coincide con el que propor-
ciona el modelo libre anteriormente estimado, se obtiene como:
matrix bMCO = inv (X ’ X )* X ’* y

Construimos ahora la matriz de restricciones R y el vector restringido bR:


matrix R ={0 ,1 ,0 ,0 ,0;0 ,0 ,1 ,1 ,0}
matrix bR ={0;0}

Nota:
Para introducir directamente matrices y vectores en Gretl es necesario utilizar
el separador “,” cuando se indica el siguiente elemento columna, y el separador
“;” cuando se cambia de fila.
110 SUPUESTO 6. EDUCACIÓN

A partir de las expresiones anteriores es posible obtener el vector de estimadores


de mínimos cuadrados restringidos (MCR), cuya expresión es:
matrix bMCR = bMCO - inv (X ’ X )* R ’* inv ( R * inv (X ’ X )* R ’)*( R * bMCO - bR )

Se puede comprobar que este vector con los coeficientes restringidos estimados
coincide con la salida del modelo restringido que proporciona el contraste de
restricciones lineales.
Generamos ahora los residuos libres y restringidos:
matrix u =y - X * bMCO
matrix uR =y - X * bMCR

y a partir de ellos el estadístico F:


n = rows ( u )
k = rows ( bMCO )
r = rows ( bR )
F =(( uR ’ uR -u ’ u )/ u ’ u )*( n - k )/ r

5. A la vista de los resultados de los apartados previos ¿Cuál sería el


modelo propuesto para explicar el rendimiento académico?

Tal y como ya hemos comentado, en el modelo 1 parece recomendable excluir la


variable renta que no resultaba significativa. Para comprobarlo podemos realizar
el test de omisión de variables que es un caso particular del test de restricciones
lineales, donde la hipótesis que se contrasta es la nulidad del coeficiente de la
renta.
Desde la salida del modelo seleccionamos la opción Contrastes . Omitir variables:

cuya salida no muestra evidencia significativa para rechazar la nulidad del co-
eficiente de la renta (se observa que el nivel crítico asociado al test F es elevado,
superior a 0,27 por lo que no rechazamos la hipótesis de que ese coeficiente sea
nulo). Además se observa que los tres criterios de información (Akaike, Schwarz
y Hannan-Quinn) se reducen al omitir la renta como regresor, por lo que parece
que el modelo mejora en todos los aspectos:

Contraste sobre el Modelo 1:


Hipótesis nula: el parámetro de regresión es cero para renta
Estadístico de contraste: F(1, 46) = 1,19887, valor p 0,279247
Al omitir variables mejoraron 3 de 3 criterios de información.
111

Modelo 2: MCO, usando las observaciones 1–51


Variable dependiente: rendimiento

Coeficiente Desv. Típica Estadístico t valor p


const 83,1510 5,41634 15,35 0,0000
abandono −0,207807 0,0225195 −9,228 0,0000
profesores 0,366706 0,113989 3,217 0,0023
gasto 0,00162984 0,000647102 2,519 0,0152
Media de la vble. dep. 94,80000 D.T. de la vble. dep. 6,232142
Suma de cuad. residuos 363,0958 D.T. de la regresión 2,779468
R2 0,813028 R2 corregido 0,801094
F (3, 47) 68,12487 Valor p (de F ) 3,88e–17
Log-verosimilitud −122,4183 Criterio de Akaike 252,8366
Criterio de Schwarz 260,5639 Hannan–Quinn 255,7895

Para confirmar que las variables incluídas como regresores en este modelo son
adecuadas como explicativas y no están muy correlacionadas entre sí es reco-
mendable seleccionar desde la salida del modelo la opción Análisis . Colinealidad
que muestra los Factores de Inflación de la Varianza (FIV o VIF). Como pode-
mos observar, en este caso los VIF presentan valores reducidos y por tanto no
existe problema de colinealidad en el modelo estimado.

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
abandono 2,252
profesores 1,503
gasto 1,697
VIF(j) = 1/(1 - R(j)^2), donde R(j) es el coeficiente de correlación
múltiple entre la variable j y las demás variables independientes

Multicolinealidad:
La multicolinealidad o colinealidad es uno de los problemas más frecuentes en
la modelización econométrica.
Se dice que existe multicolinealidad perfecta o extrema en un modelo cuando en
la matriz de datos X, una columna puede ser expresada como combinación lineal
de otras, es decir, cuando existe correlación máxima entre varias de las variables
explicativas. En este caso la matriz de datos es singular, el determinante de la
matriz es nulo, y no es posible invertir la matriz (X0 X), por lo cual no podremos
obtener el vector de coeficientes MCO β̂.
Si bien la multicolinealidad extrema es poco frecuente, resultan habituales las
situaciones en las que algunas de las variables explicativas se encuentran alta-
mente correlacionadas. En este caso decimos que existe un problema de multi-
colinealidad o colinealidad.
112 SUPUESTO 6. EDUCACIÓN

Es importante destacar que la presencia de multicolinealidad no afecta a las


propiedades de los estimadores mínimo cuadráticos que siguen siendo insesgados,
óptimos y consistentes. En cambio, sí afecta a la matriz de varianzas-covarianzas,
que depende de las relaciones existentes entre las variables explicativas, y en
caso de multicolinealidad aumenta su valor. Como consecuencia, las expresiones
de la t de Student aumentan su denominador, con lo cual resulta más difícil
rechazar la hipótesis de nulidad de los parámetros individuales. Además, la
elevada varianza de los estimadores hace que éstos sean muy volátiles, por lo
cual podríamos cometer errores de interpretación estructural del modelo.
Existen varias alternativas para detectar la presencia de multicolinealidad, en-
tre ellas analizar la matriz de correlaciones para observar si entre las variables
explicativas pueden existir niveles elevados de correlación.
Otra forma de detectar la multicolinealidad es el análisis de los factores de
inflación de la varianza (FIV) o Variance Inflation Factors (VIF), que se calculan
mediante la expresión:
!
1
V IFj =
1 − Rj2

donde Rj2 es el coeficiente de correlación múltiple entre la variable j y las res-


tantes variables explicativas.
El nombre de FIV viene justificado por la siguiente expresión:
!
  S2 1
S 2 β̂j = P 2 = V ar(b̂2 )V IFj
(xji − x̄j ) 1 − Rj2
| i {z }
V ar(b̂2 )

donde β̂j es el coeficiente de regresión de Xj y b̂2 es el coeficiente de la regresión


simple de Y /Xj .
Se puede observar que el VIF de una variable es el factor por el que hay que
multiplicar la varianza del estimador simple para obtener la varianza del co-
rrespondiente estimador en el modelo básico, lo que da idea de en qué medida
aumenta la varianza del estimador como consecuencia de la no ortogonalidad de
los regresores.
Si existiese multicolinealidad, la variable Xj estaría muy correlacionada con las
demás variables explicativas, por lo que Rj2 sería elevado (próximo a 1) y en
 
consecuencia el V IFj = 1−R 1
2 tomaría un valor muy elevado.
j

Así pues un criterio para evaluar la existencia o no de multicolinealidad es


fijarnos en el valor del VIF. Si este resultado es superior a 10 (lo que significaría
que Rj2 > 0,90) concluiremos que existe multicolinealidad.
Conviene tener presente que el FIV o VIF no es un criterio exacto para el
análisis de la colinealidad, ya que un resultado elevado del VIF no es condición
necesaria ni suficiente para que exista multicolinealidad, dado que las varianzas
anteriores pueden aumentar como consecuencia de un valor elevado de S 2 o un
valor reducido del denominador de V ar(b̂2 ).
113

En supuestos posteriores ampliaremos estos criterios para detectar la existencia


de multicolinealidad.
114 SUPUESTO 6. EDUCACIÓN
SUPUESTO 7

Sanidad

Contenidos: Estimación MCO, Multicolinealidad, Predicción

Nombre del fichero: sanidad.gdt http://cort.as/-LMWi

Página de datos: http://cort.as/-LHjb . sanidad.gdt


Página de scripts: http://cort.as/-LHjE . S7_Sanidad.inp

Enunciado:

Con el objetivo de analizar la evolución del gasto público en sanidad se dispone


de información anual relativa a diversas macromagnitudes de un país.

1. Considerando el recorrido muestral 1981-2015, estimar un modelo lineal


para explicar el gasto público en sanidad a partir de la información dispo-
nible.
2. Analizar las limitaciones del modelo estimado y proponer alternativas que
se consideren más adecuadas
3. Llevar a cabo predicciones del gasto sanitario a partir del año 2016

Solución:

1. Considerando el recorrido muestral 1981-2015, estimar un modelo


lineal para explicar el gasto público en sanidad a partir de la infor-
mación disponible.

Lo primero que debemos hacer es acortar el recorrido muestral, ya que el fichero


de trabajo tiene un recorrido 1981-2018 y nos piden estimar el modelo sólo hasta
el año 2015. Así pues debemos seleccionar el recorrido adecuado en la ventana
principal de Gretl, opción Muestra . Establecer rango:

115
116 SUPUESTO 7. SANIDAD

Nota:
Debemos prestar atención al recorrido muestral para el cual se realiza la esti-
mación. En muchas ocasiones nos interesa analizar la capacidad predictiva del
modelo, por lo que acortamos el recorrido muestral para llevar a cabo la estima-
ción del modelo sobre ese subperíodo y posteriormente se realizan predicciones
en el recorrido final.
Es importante establecer bien el recorrido muestral porque en otro caso los
resultados de la estimación, contrastes, etc. pueden verse afectados y llevarnos
a conclusiones erróneas.
Una vez adaptado el recorrido, observamos que en la parte inferior de la ventana
de Gretl, sobre la barra de herramientas figura el tipo de estructura del fichero
(anual), el rango completo y la muestra actual.

Una vez establecido el recorrido muestral, podemos estimar un modelo para ex-
plicar la evolución anual del gasto sanitario a partir de las variables explicativas
disponibles:

Modelo 1: MCO, usando las observaciones 1981–2015 (T = 35)


Variable dependiente: gasto

Coeficiente Desv. Típica Estadístico t valor p


const −43849,6 27869,9 −1,573 0,1258
pib 0,0623109 0,00445267 13,99 0,0000
pobtotal 1,21033 0,761088 1,590 0,1219
pob65 −0,618638 0,896017 −0,6904 0,4951
Media de la vble. dep. 59394,17 D.T. de la vble. dep. 11254,60
Suma de cuad. residuos 71026719 D.T. de la regresión 1513,666
R2 0,983508 R2 corregido 0,981912
F (3, 31) 616,2191 Valor p (de F ) 1,05e–27
Log-verosimilitud −303,8192 Criterio de Akaike 615,6383
Criterio de Schwarz 621,8597 Hannan–Quinn 617,7860
ρ̂ −0,221946 Durbin–Watson 2,339189

El estadístico F del contraste de significación global toma un valor elevado y


su nivel crítico un valor muy bajo (p = 1, 05e − 27) por lo cual rechazamos
117

la hipótesis de nulidad de todos los coeficientes de las variables explicativas y


concluimos que algunas de esas variables tienen sentido como explicativas en el
modelo de gasto sanitario.
Se observa que el signo del coeficiente del pib es el esperado (positivo, al aumen-
tar el pib aumenta el gasto público en sanidad) y dicho coeficiente es significa-
tivamente distinto de cero según el test de significación t de student. En cambio
existen problemas con las variables de población, que no resultan significativas
y además en el caso de la población de más de 65 años el coeficiente estimado
es negativo, lo cual resulta difícilmente justificable (teniendo en cuenta que es-
te colectivo suele ser el más relevante para el gasto sanitario, se espera que al
aumentar la población de más de 65 años se incremente el gasto en sanidad).
El modelo estimado proporciona un valor muy elevado del coeficiente de de-
terminación pero debemos relativizar este resultado teniendo en cuenta que se
trata de variables observadas a lo largo del tiempo (series temporales) que tienen
una fuerte inercia y cuya evolución seguirá patrones similares.

Nota:
La mayor parte de las variables económicas tienen trayectorias ascendentes a lo
largo del tiempo: crece el PIB, los precios, los salarios, el consumo, el gasto en
sanidad, etc. Por lo tanto la correlación lineal entre algunas de estas variables
suele ser elevada, debido en parte a la posible relación causal entre ellas, pero
en parte también a la existencia de una tendencia común a estas series.
Por este motivo, cuando calculamos el coeficiente de determinación de un modelo
estimado a partir de variables que evolucionan a lo largo del tiempo, en general
obtendremos valores elevados que debemos relativizar. De hecho, en ocasiones
se obtienen coeficientes de determinación altos con regresiones que son espurias.
En supuestos posteriores se analizará la distinción entre relaciones causales y
casuales, y se introducirán nuevos conceptos como causalidad de Granger o series
temporales cointegradas.

Los signos de los coeficientes estimados para este modelo (negativo en el caso de
la población de 65 o más años) pueden ser indicios de la presencia de multicoli-
nealidad, especialmente teniendo en cuenta que las variables de población (tanto
total como de más de 65 años) pasan a ser significativas cuando se excluye del
modelo una de ellas, observándose que en este caso los coeficientes estimados
son positivos.

Modelo 2: MCO, usando las observaciones 1981–2015 (T = 35)


Variable dependiente: gasto

Coeficiente Desv. Típica Estadístico t valor p


const −25548,4 8538,46 −2,992 0,0053
pib 0,0629663 0,00431460 14,59 0,0000
pobtotal 0,705668 0,210370 3,354 0,0021

Modelo 3: MCO, usando las observaciones 1981–2015 (T = 35)


118 SUPUESTO 7. SANIDAD

Variable dependiente: gasto

Coeficiente Desv. Típica Estadístico t valor p


const 401,651 1592,16 0,2523 0,8024
pib 0,0655204 0,00406271 16,13 0,0000
pob65 0,749806 0,255612 2,933 0,0062

Si observamos la matriz de correlación Ver . Matriz de correlación, se confir-


ma la existencia de correlaciones altas entre las variables explicativas y muy
especialmente entre pobtotal y pob65 (r = 0, 9918).

Coeficientes de correlación, usando las observaciones 1981 - 2015


valor crítico al 5 % (a dos colas) = 0,3338 para n = 35
gasto pib pobtotal pob65
1, 0000 0, 9886 0, 9337 0, 9150 gasto
1, 0000 0, 9127 0, 8941 pib
1, 0000 0, 9918 pobtotal
1, 0000 pob65

Este problema queda patente al analizar los factores de inflación de varianza


desde la salida del modelo 1, Análisis . Colinealidad:

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
pib 6,277
pobtotal 77,140
pob65 64,209

Los valores elevados de los FIV indican problemas de colinealidad entre la po-
blación total y los mayores de 65 años.

Diagnósticos de colinealidad BKW


En la salida del análisis de la colinealidad, además de los factores de inflación
de varianza (FIV o VIF) que ya hemos analizado en FIV (p.111), también se
incluye el diagnóstico propuesto por Belsley 1980y denominado con las iniciales
de sus autores BKW.
Como ya hemos comentado, los VIF no son ni una condición necesaria ni sufi-
ciente para la existencia de colinealidad, ya que de hecho se presentan casos de
colinealidad elevada con valores reducidos de VIF. Por este motivo se plantea
otra alternativa más completa para detectar este problema, que se basa en el
análisis de componentes principales, cuando se considera un conjunto de varia-
bles explicativas entre las cuales pueden existir dependencias lineales. En este
tipo de casos puede ser interesante proyectar las variables sobre ejes ortogonales,
de forma que cada eje es una combinación lineal de las variables, pero ahora son
independientes, no correlacionados.
119

La varianza de cada componente es un autovalor lambda (λ) de la matriz de


varianzas-covarianzas de las variables X originales. La matriz (X0 X) tiene di-
mensión k × k, y por lo tanto tiene k autovalores.
Si un autovalor es nulo indica que existe colinealidad exacta, y si hay varios
se concluye que existen varias relaciones de dependencia lineal exacta. En el
caso de que existan uno o varios autovalores próximos a cero se presentarán
problemas de colinealidad, indicando el número de autovalores próximos a cero
el número de relaciones de colinealidad existentes.
Normalmente, en vez de fijarnos en el valor lambda, vamos a hacerlo en lo que
1/2
se denomina valor de condición: cond = (λmax/λi ) , de forma que si ordenamos
los autovalores de mayor a menor, la primera condición siempre será 1 y a partir
de ahí irá aumentando.
Según los trabajos de Belsley 1980, basados tanto en muestras simuladas como
reales, si los valores de la condición están entre 0 y 10 indican dependencias
débiles, mientras entre 10 y 30 detectan dependencias moderadas y por encima
de 30 dependencias elevadas (muy elevadas si superan 100).
Una vez detectado el posible número de relaciones de colinealidad, debemos
identificar las variables involucradas en esas relaciones, para lo cual nos fijamos
en la descomposición de la varianza. Rotando adecuadamente los ejes, se puede
separar la proporción de varianza de cada variable sobre cada componente, de
modo que la suma de las proporciones de varianza de cada variable suman 1 o
100.
El procedimiento BKW distingue varias situaciones de multicolinealidad según
el nivel del índice de concentración: para valores del índice superiores a 30 se
detecta alta colinealidad mientras para valores superiores a 10 e inferiores a 30
se detecta colinealidad moderada.
Si existe un único índice de condición elevado (superior a 30) o bien existiendo
varios uno es significativamente superior al resto, se entiende que la colinealidad
tendrá efectos adversos sobre la estimación cuando dos o más variables tengan
proporciones de varianza superiores al 50 %.
En cambio, si existe más de un índice de concentración elevado y los resultados
son similares entonces las proporciones de varianza de una única fila no sirven
para detectar la colinealidad y se deben sumar las proporciones de varianza de las
filas que cumplen la condición (índices de concentración elevados), examinando
cuáles de ellas suman más del 50 %.

Diagnósticos de colinealidad de Belsley-Kuh-Welsch:


— proporciones de la varianza —
lambda cond const pib pobtotal pob65
3,973 1,000 0,000 0,000 0,000 0,000
0,023 13,016 0,002 0,084 0,000 0,003
0,003 34,917 0,001 0,719 0,000 0,072
0,000 398,370 0,998 0,196 1,000 0,925

lambda = valores propios de X’X, del más grande al más pequeño


cond = índice de condición
120 SUPUESTO 7. SANIDAD

nota: las columnas de proporciones de la varianza suman 1.0

En el caso que nos ocupa, observamos que hay dos condiciones correspondientes
a la tercera y cuarta fila que son superiores a 30, si bien la última de ellas
presenta un índice de condición muy superior por lo que, siguiendo la sugerencia
de Belsley, Kuh y Welsch debemos prestar atención a esta fila donde aparecen
dos variables pobtotal y pob65 con proporciones de varianza muy elevadas, es
decir, afectadas por la multicolinealidad.

Con los indicadores disponibles parece claro que tenemos un problema de coli-
nealidad entre las variables pobtotal y pob65 y podríamos plantearnos distintas
posibilidades para solucionarlo en la medida de lo posible.

 Aunque una de las recomendaciones habituales en estos casos es ampliar el


recorrido muestral, en situaciones como ésta no es posible ya que no dispo-
nemos de datos anteriores a 1981 y los posteriores a 2015 están reservados
para las predicciones.

 Una alternativa es transformar alguna de las variables que da problemas,


de modo que se mantenga la información pero se evite la correlación lineal.
Algunas opciones habituales consisten en expresar las variables en tasas,
índices, ratios... Por ejemplo, en este caso podemos definir una variable
que cuantifique el peso porcentual de la población de 65 o más años sobre
la población total.

 Otras opciones consisten en buscar alguna proxy de las variables afectadas


por la colinealidad, o bien definir variables cualitativas según categorías
(Alto/Bajo, por ejemplo) que aunque conllevan pérdida de información
solucionan el problema de correlación lineal existente.

 Si las alternativas descritas no son aplicables, se optaría por omitir alguna


de las variables problemáticas, si bien esta opción implica renunciar a la
información aportada por dicha variable.

En este caso vamos a optar por la segunda opción, definiendo en el menú Añadir
. Definir nueva variable la proporción o peso de la población de más de 65 años:
peso65 = pob65 / pobtotal

Una vez incorporada esta nueva variable al archivo de trabajo estimamos un


nuevo modelo: ols gasto const pib peso65

Modelo 7: MCO, usando las observaciones 1981–2015 (T = 35)


Variable dependiente: gasto

Coeficiente Desv. Típica Estadístico t valor p


const −2676,49 2669,21 −1,003 0,3235
pib 0,0683746 0,00375510 18,21 0,0000
peso65 44540,2 18537,4 2,403 0,0222
121

Media de la vble. dep. 59394,17 D.T. de la vble. dep. 11254,60


Suma de cuad. residuos 82579848 D.T. de la regresión 1606,431
R2 0,980825 R2 corregido 0,979627
F (2, 32) 818,4199 Valor p (de F ) 3,34e–28
Log-verosimilitud −306,4566 Criterio de Akaike 618,9132
Criterio de Schwarz 623,5792 Hannan–Quinn 620,5239
ρ̂ −0,129884 Durbin–Watson 2,142818
Contraste de especificación RESET –

Hipótesis nula: La especificación es adecuada


Estadístico de contraste: F (2, 30) = 2,3465
con valor p = P (F (2, 30) > 2,3465) = 0,113029

Podemos comprobar que en este nuevo modelo no se detectan problemas de


especificación (tal y como muestra el resumen del test RESET de Ramsey 189)
ni de colinealidad (como se aprecia en los resultados de los VIF que aparecen a
continuación):

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
pib 3,963
peso65 3,963

3. Llevar a cabo predicciones del gasto sanitario a partir del año 2016

A partir de la salida del modelo estimado, en Análisis . Predicciones Gretl se


obtienen una salida numérica (tabla) y otra gráfica:

������
�����
����������
��������������������������
������

������

������

������

������

������

������
����� ����� � ���� � ���� ����� ����� ����
� ����� ����
� ����

122 SUPUESTO 7. SANIDAD

En el gráfico observamos cómo los valores de gasto observados para esos años
se encuentran dentro de los intervalos o bandas de confianza de las predicciones
(de hecho en este caso son muy próximos a las predicciones puntuales).
Esta información se obtiene de forma más detallada en la tabla que también se
incluye en la salida de las predicciones:

Para intervalos de confianza 95 %, t(32, ,0, 025) = 2, 037

Observaciones gasto predicción Desv. Típica Intervalo de 95 %


2016 82410,00 81813,72 1745,111 78259,05 85368,40
2017 82887,00 82562,08 1902,245 78687,34 86436,83
2018 84954,00 83585,96 1760,435 80000,07 87171,85

Estadísticos de evaluación de la predicción


Error medio 763,08
Raíz del Error cuadrático medio 881,79
Error absoluto medio 763,08
Porcentaje de error medio 0,90863
Porcentaje de error absoluto medio 0,90863
U de Theil 0,66285
Proporción de sesgo, U M 0,74887
Proporción de la regresión, U R 0,14999
Proporción de la perturbación, U D 0,10113

Observamos que el porcentaje de error medio es 0,9 % y coincide con el porcen-


taje de error absoluto medio; la parte positiva es que se trata de un error muy
reducido, el inconveniente es que la coincidencia entre ambos errores indica que
todas las predicciones infravaloran los verdaderos gastos, es decir que el mode-
lo tiene un sesgo de predicción (esto sería un inconveniente si el error tuviera
mayor magnitud).
La misma conclusión se obtiene al analizar el valor del índice U de Theil, cuyo
resultado es moderado (0,66) pero presenta una proporción de sesgo bastante
elevada (74,8 %), con lo cual es posible que podamos mejorar algo en el modelo
para reducir este sesgo.
La evaluación de las predicciones es posible cuando, como en este caso, dispone-
mos de registros del gasto sanitario en el horizonte de predicción y por tanto es
posible calcular el error de predicción. Las predicciones relativas a los periodos
en los que existen registros de la variable dependiente y que por tanto pueden
ser evaluadas se denominan predicciones ex-post.
En cambio las predicciones referidas a períodos para los que no existen registros
de la variable Y se denominan predicciones ex-ante y no pueden ser evaluadas.
Ambos tipos de predicciones son interesantes en la práctica: las predicciones ex-
ante son las más relevantes para anticipar valores futuros, pero las predicciones
ex-post son necesarias para evaluar la capacidad predictiva de los modelos.
123

Nota:
Como podemos observar en el diálogo de predicción, Análisis . Predicciones..
Gretl ofrece varias opciones configurables

 En primer lugar aparece el dominio de predicción: son los periodos poste-


riores a la estimación que tenemos disponibles para la predicción y normal-
mente aparecen cumplimentados de forma automática ya que el programa
identifica los periodos de estimación y la disponibilidad de datos. En cual-
quier caso es posible modificar esta información si se considera necesario.
• Conviene tratar de evitar algunos errores habituales al fijar el dominio
de predicción. Uno de ellos se presenta cuando se ha utilizado todo
el rango para la estimación y como consecuencia aparece un mensaje
indicando que no hay observaciones disponibles fuera de la muestra.
• Otro error frecuente se presenta cuando en el recorrido de estimación
hemos generado alguna variable que se incluye en el modelo como
explicativa y cuando vamos a hacer predicciones aparece el mismo
mensaje anterior porque la variable generada no está disponible para
el horizonte de predicción. La solución consiste en recuperar el rango
completo, generar la variable y a continuación volver a reducir el
rango para realizar la estimación.
 Tipos de predicciones: La predicción estática sólo utiliza valores registra-
dos, mientras la predicción dinámica, a partir del segundo periodo del
horizonte de predicción, utiliza los valores previstos para obtener nuevas
predicciones. En general, los errores de predicción serán más elevados en
este segundo caso (predicción dinámica) porque los errores del periodo k
se acumulan a los del período anterior, k-1, que a su vez utilizan los del
periodo k-2 y así sucesivamente.
• Las diferencias entre la predicción estática y dinámica, que en este
supuesto no resultan relevantes, se apreciarán con más claridad en
124 SUPUESTO 7. SANIDAD

supuestos posteriores al introducir técnicas específicas de análisis de


series temporales.
• La predicción automática, que también se utiliza habitualmente en
series temporales, es una combinación de las predicciones estática
y dinámica. Mientras existen registros para hacer predicciones, se
realiza una predicción estática y cuando ya no se dispone de registros
se realiza una predicción dinámica.
• Las predicciones recursivas k pasos adelante, que habitualmente lla-
maremos predicción con horizonte k, se encuentran también disponi-
bles en Gretl. En esta opción el modelo se reestima hasta el momento
t y se hacen predicciones en el horizonte considerado (por ejemplo,
con k=2, hasta t+2); posteriormente el modelo se estima hasta el pe-
riodo t+1 y se obtienen predicciones hasta t+3 y así sucesivamente.
• A modo de ilustración, si partiendo de nuestro modelo realizamos
predicciones recursivas con 1 paso hacia adelante, obtenemos:

Predicciones recursivas 1 paso(s) adelante

Observaciones gasto predicción


2016 82410,00 81813,72
2017 82887,00 82683,91
2018 84954,00 83714,11

Estadísticos de evaluación de la predicción


Porcentaje de error medio 0,80935
Porcentaje de error absoluto medio 0,80935
U de Theil 0,59219
Proporción de sesgo, U M 0,7167
Proporción de la regresión, U R 0,12057
Proporción de la perturbación, U D 0,16272

El modelo se estima hasta el año 2015 y se obtienen predicciones para el año


2016; posteriormente se estima el modelo hasta 2016 y se predice el año 2017,
etc. Como consecuencia del método empleado en este tipo de predicción los
coeficientes estimados del modelo van cambiando y adaptándose a los nuevos
registros, y resulta habitual que los errores porcentuales y el coeficiente U de
Theil disminuyan.

 Número de observaciones a representar anteriores a la predicción: son las


observaciones que se representan en la salida gráfica y se incluyen en las
tablas de predicción, de modo que para esas observaciones el programa
muestra el valor registrado y si se desea el estimado. Gretl propone un
número de periodos intermedio que parece razonable, pero es posible am-
pliarlo si deseamos tener todo el recorrido muestral o bien reducirlo para
analizar detalladamente la parte final del recorrido.
125

 Mostrar valores ajustados para el rango anterior a la predicción. Si este


check-box está marcado en la salida gráfica de la predicción, el programa
incluye las estimaciones para las observacioens anteriores al horizonte de
predicción y de este modo proporciona una perspectiva más amplia de los
errores de predicción. Si esta opción no está marcada, el gráfico solamente
incluirá los valores previstos para los periodos del horizonte de predicción.
 Representar el intervalo de confianza usando ...; en este caso tenemos tres
opciones: las barras de error (que son las más habituales y las que nos
aparecerán por defecto para representar las bandas de confianza para la
predicción), las líneas inferior y superior y el área sombreada.
 Nivel de confianza, por defecto aparece marcado 1 − α = 0, 95, pero po-
demos establecer otro nivel de confianza cualquiera para los intervalos.
Lógicamente a medida que aumenta el nivel de confianza requerido, el
intervalo tendrá mayor amplitud y por tanto menor precisión.
 Mostrar intervalos de confianza para Y-Observada o Y-media: este último
apartado, que se formalizará posteriormente, no afecta a las predicciones
puntuales pero en cambio sí al intervalo de confianza que es más preciso
para Y-media (valor esperado de Y) que para Y-Observada. Esta situación
se muestra en los gráficos siguientes que representan las predicciones sobre
la variable Y observada y sobre Y media.

������ ������
����� �����
���������� ����������
�������������������������� ������ ��������������������������
������
������

������ ������

������
������
������

������
������
������

������ ������

������
������
������

������ ������
����� � ���� � ���� � ���� � ���� � ���� ����� ����� ����� ����� ����� ����� ����� �����

Para intervalos de confianza 95 %, t(32, ,0, 025) = 2, 037


ostrar intervalo de confianza para Y observada

Observaciones gasto predicción Desv. Típica Intervalo de 95 %


2016 82410,00 81813,72 1745,111 78259,05 85368,40
2017 82887,00 82562,08 1902,245 78687,34 86436,83
2018 84954,00 83585,96 1760,435 80000,07 87171,85

Mostrar intervalo de confianza para Y media

Observaciones gasto predicción Desv. Típica Intervalo de 95 %


2016 82410,00 81813,72 681,756 80425,03 83202,41
2017 82887,00 82562,08 1018,781 80486,89 84637,27
126 SUPUESTO 7. SANIDAD

2018 84954,00 83585,96 720,078 82119,21 85052,71

Podemos observar en esta salida cómo la desviación típica en el caso del inter-
valo de confianza para la Y media es considerablementeh menor en el caso de Y i
observada. En consecuencia los intervalos de confianza: Ŷo − kSŶ0 , Ŷo + kSŶ0 ,
tienen en este caso menor amplitud, dado que k es la misma y la desviación
típica es inferior.

Varianza de la predicción e intervalos de confianza:


La predicción de la variable Y para una observación 0, cuyos regresores presentan
valores recogidos en el vector x0 , se obtiene a través de la expresión:

Ŷ0 = x00 β

Este predictor es insesgado:


   
E Ŷ0 = E x00 β̂ = x00 β = E (Y /x0 )

Definimos el error de predicción como: Ŷ0 − E(Y /x0 ) y al ser el predictor inses-
gado, el valor esperado del error de predicción es nulo:
 
E Ŷ0 − E(Y /x0 ) = 0

Por lo que se refiere a la varianza de la predicción, se tiene:

    0 
V ar Ŷ0 = E Ŷ0 − E(Y /x0 ) Ŷ0 − E(Y0 /x0 )
  0 
= E x00 β̂ − x00 β x00 β̂ − x00 β
  0 
= x00 E β̂ − β β̂ − β x0

= x00 σ 2 (X’X)−1 x0

Entonces la varianza estimada vendrá dada por:

ar(Ŷ0 ) = SŶ2 = S 2 x00 (X0 X)−1 x0


Vd
0

y para obtener intervalos de confianza se parte de la siguiente expresión, con


distribución t de Student:

Yˆ0 − E (Y /x0 )
p ≈ tn−k
S x0 (X’X)−1 x0
127

El intervalo de confianza al nivel 1-α para el valor medio o esperado E (Y /x0 ),


que ya hemos analizado anteriormente en Varianza-prediccion(p.126), viene da-
do por la expresión:
 q q 
Yˆ0 − kS 0 −1 ˆ 0 −1
x0 (X’X) x0 , Y0 + kS x0 (X’X) x0

Por otra parte, para el error de predicción, cuya esperanza es nula se tiene la
varianza:
   
V ar eŶ0 =V ar(Y0 ) + V ar Ŷ0 = σ 2 + σ 2 x00 (X’X)−1 x0 =
=σ 2 1 + x00 (X’X)−1 x0
 

y la discrepancia con distribución t de Student:

Y0 − Yˆ0
p ≈ tn−k
S 1 + x0 (X0 X)−1 x0

Como consecuencia, el intervalo de confianza para el valor observado Y0 se ob-


tiene como:
 q q 
ˆ 0 −1 ˆ 0
Y0 − kS 1+x0 (X’X) x0 , Y0 + kS 1 + x0 (X’X) x0 −1

La comparación entre los intervalos anteriormente obtenidos permite observar


que el segundo, referido al valor observado, tiene una mayor amplitud que el
intervalo correspondiente al valor medio, debido a que la varianza estimada en
el segundo caso es más elevada.
128 SUPUESTO 7. SANIDAD
SUPUESTO 8

Género

Contenidos: Nubes de puntos, Estimación MCO, Variables dummy,


términos de interacción, comparación de modelos, restricciones linea-
les, submuestras

Nombre del fichero: genero.gdt http://cort.as/-LMWti

Página de datos: http://cort.as/-LHjb . genero.gdt


Página de scripts: http://cort.as/-LHjE . S8_Genero.inp

Enunciado:

Con el objetivo de analizar si el género es una variable relevante para explicar el


nivel salarial de los trabajadores, se dispone del archivo genero.gdt correspon-
diente a una muestra de trabajadores para los que se ha recopilado información
relativa a su nivel salarial, su experiencia laboral y el género (a través de una
variable dicotómica con valor unitario si el trabajador es un hombre).

1. Representar conjuntamente las variables salario y experiencia laboral, in-


corporando la información relativa al género

2. Estimar un modelo lineal para el nivel salarial de los trabajadores que


tenga en cuenta su experiencia laboral y su género

3. Un informe reciente afirma que el impacto de la experiencia sobre el salario


para el colectivo masculino es superior en un 25 % al impacto para el
colectivo femenino ¿Apoya la información disponible este supuesto?

4. Justificar si, a la vista de los resultados anteriores, sería aconsejable esti-


mar modelos separados para el salario de los dos colectivos de trabajadores

129
130 SUPUESTO 8. GÉNERO

Solución:

1. Representar conjuntamente las variables salario y experiencia la-


boral, incorporando la información relativa al género

Representamos en primer lugar la nube de puntos entre la experiencia y el salario


(Ver . Gráficos . X-Y (scatter) ...)

�����������������������������������������������������������������
� ��
�����������������

� ��

� ��

� ��
�������

� ��

� ��

� ��

� ��
�� � �� ��
� ��
� ��� ��� ��
� ��

�����������

La información disponible sobre el género permite representar la nube de puntos


con factor de separación (Ver . Gráficos . X-Y con factor de separación ...).
Concretamente en este caso el factor es la variable hombre, y la nube de puntos
resultante representa en distinto color los trabajadores hombres y mujeres.
131

���
������������������
������������������

���

���

���

���

���

���

���
� � � �� ��� ��
� ��� ��� ��� ���
�����������

Este gráfico muestra una separación en la nube de puntos entre las observaciones
relativas a hombres y mujeres, por lo que sería deseable tener en cuenta la
variable dummy ligada al género para explicar el comportamiento de los salarios.

2. Estimar un modelo lineal para el nivel salarial de los trabajadores


que tenga en cuenta su experiencia laboral y su género

Consideramos en primer lugar el modelo que explica al nivel salarial en función


de la experiencia laboral:

Modelo 1: MCO, usando las observaciones 1–42


Variable dependiente: salario

Coeficiente Desv. Típica Estadístico t valor p


const 37,7568 1,45713 25,91 0,0000
experiencia 0,481681 0,0619622 7,774 0,0000
Media de la vble. dep. 47,95238 D.T. de la vble. dep. 6,439938
Suma de cuad. residuos 677,2299 D.T. de la regresión 4,114699
R2 0,601720 R2 corregido 0,591763
F (1, 40) 60,43176 Valor p (de F ) 1,61e–09
Log-verosimilitud −117,9826 Criterio de Akaike 239,9652
Criterio de Schwarz 243,4405 Hannan–Quinn 241,2390

Incorporamos ahora la variable dummy hombre que resulta significativa al 1 %


y cuyo coeficiente estimado indica que los hombres perciben un salario superior
al de las mujeres en 6.818 euros anuales:

Modelo 2: MCO, usando las observaciones 1–42


132 SUPUESTO 8. GÉNERO

Variable dependiente: salario

Coeficiente Desv. Típica Estadístico t valor p


const 34,7121 0,903743 38,41 0,0000
experiencia 0,502812 0,0357392 14,07 0,0000
hombre 6,81830 0,754109 9,042 0,0000
Media de la vble. dep. 47,95238 D.T. de la vble. dep. 6,439938
Suma de cuad. residuos 218,7339 D.T. de la regresión 2,368240
R2 0,871362 R2 corregido 0,864765
F (2, 39) 132,0883 Valor p (de F ) 4,29e–18
Log-verosimilitud −94,24933 Criterio de Akaike 194,4987
Criterio de Schwarz 199,7117 Hannan–Quinn 196,4094

Además, gracias a la incorporación de esta variable la capacidad explicativa ha


aumentado considerablemente, y el coeficiente de determinación corregido pasa
de 0,59 en el modelo simple a 0,86 en el ampliado.
Se confirma que todos los criterios de comparación de modelos mejoran al in-
corporar la variable dummy ya que, al igual que el coeficiente de determinación
corregido, el resultado del logaritmo de la verosimilitud aumenta, y todos los
criterios de información (Akaike, Schwarz y Hannan-Quinn) se reducen.
Para completar el modelo podemos además tener en cuenta que el género podría
afectar al impacto que cada año de experiencia tiene sobre el salario. De hecho la
nube de puntos sugiere que la línea que ajusta las observaciones correspondientes
a hombres (puntos en azul) tiene mayor pendiente que la asociada a mujeres
(puntos en rojo). Así pues, parece aconsejable incorporar desde el menú Añadir
. Definir nueva variable la variable interacción, definida como producto:

experiencia_hombre=experiencia*hombre

Se observa que en el nuevo modelo estimado la variable interacción resulta sig-


nificativa al 3 % mientras la variable dicotómica hombre pasa a ser significativa
al 6 %.

Modelo 3: MCO, usando las observaciones 1–42


Variable dependiente: salario

Coeficiente Desv. Típica Estadístico t valor p


const 35,7389 0,974875 36,66 0,0000
experiencia 0,455478 0,0400515 11,37 0,0000
hombre 3,29655 1,72790 1,908 0,0640
experiencia_hombre 0,170163 0,0759388 2,241 0,0310
Media de la vble. dep. 47,95238 D.T. de la vble. dep. 6,439938
Suma de cuad. residuos 193,2047 D.T. de la regresión 2,254847
R2 0,886376 R2 corregido 0,877406
F (3, 38) 98,81203 Valor p (de F ) 5,36e–18
Log-verosimilitud −91,64311 Criterio de Akaike 191,2862
Criterio de Schwarz 198,2369 Hannan–Quinn 193,8339
133

Los coeficientes estimados en este modelo indican que el hecho de ser hombre
tiene un doble impacto sobre el salario: por una parte se estima que el nivel
salarial inicial de los hombres aumenta en 3.296 euros respecto al de las mujeres
y por otra parte, cada año adicional de experiencia representa para las mujeres
un incremento salarial de 455 euros, aumentando en el caso de los hombres en
170 euros (hasta un total de 625).
De este modo la última estimación obtenida proporciona en realidad dos modelos
diferenciados:

E(salario/hombre = 0) = β1 + β2 experiencia
E(salario/hombre = 1) = (β1 + β3 ) + (β2 + β4 )experiencia

cuya estimación conduce en este caso a los resultados siguientes:


salario=35,738+0,455 experiencia, para mujeres
salario=39,034+0,625 experiencia, para hombres
y además mejora la capacidad explicativa ya que el coeficiente de determinación
corregido del nuevo modelo es de 0,877 y el logaritmo de verosimilitud también
se incrementa.
Si guardamos los modelos a la sesión de iconos y los copiamos a la tabla com-
parativa, podemos comprobar que el tercer modelo resulta ser el más adecuado
para estimar los salarios:

Estimaciones de MCO
Variable dependiente: salario

(1) (2) (3)


const 37,76 ∗∗
34,71 ∗∗
35,74∗∗
(1,457) (0,9037) (0,9749)
experiencia 0,4817 ∗∗
0,5028 ∗∗
0,4555∗∗
(0,06196) (0,03574) (0,04005)

hombre 6,818 ∗∗
3,297∗
(0,7541) (1,728)
experiencia_hombre 0,1702∗∗
(0,07594)
n 42 42 42
R̄2 0,5918 0,8648 0,8774
` −118 −94,25 −91,64

Desviaciones típicas entre paréntesis


* indica significativo al nivel del 10 por ciento
** indica significativo al nivel del 5 por ciento
134 SUPUESTO 8. GÉNERO

3. Un informe reciente afirma que el impacto de la experiencia sobre


el salario para el colectivo masculino es superior en un 25 % al impac-
to para el colectivo femenino ¿Apoya la información disponible este
supuesto?

Como hemos visto anteriormente el hecho de ser hombre afecta principalmente


al impacto de la experiencia en el salario (ya que la variable interacción resulta
más significativa que la variable dicotómica hombre). Concretamente la hipótesis
planteada es:


dY dY
= 1, 25
dX hombre=1 dX hombre=0

y teniendo en cuenta que los impactos vienen dados por:



dY dY
= β2 + β4 ; = β2
dX hombre=1 dX hombre=0

la hipótesis equivale a la restricción lineal:

β2 + β4 = 1, 25β2

o equivalentemente:

β4 − 0, 25β2 = 0

Así pues en el díalogo de restricciones lineales (Modelo 3, Contrastes . Restricciones


lineales), expresamos:
b [4] -0.25* b [2]=0

y la salida obtenida proporciona un nivel crítico superior al 49 % que permite


concluir que no existe evidencia para rechazar el supuesto planteado.

Restricción:
b[experiencia_hombre] - 0,25*b[experiencia] = 0
Estadístico de contraste: F(1, 38) = 0,475182, con valor p = 0,494801

4. Justificar si, a la vista de los resultados anteriores, sería aconsejable


estimar modelos separados para el salario de los dos colectivos de
trabajadores

Es posible separar la muestra inicial de trabajadores en hombres y mujeres y


estimar modelos diferenciados. Para definir dos submuestras podemos utilizar
el menú Muestra . Restringir a partir de criterio, desde donde introduciendo
como criterio la variable dicotómica hombre tendríamos la submuestra de 16
trabajadores hombres:
135

Otra alternativa equivalente para seleccionar esta submuestra sería introducir


como condicion booleana para seleccionar los casos el requisito hombre=1, cuyo
resultado indica que se han quitado 26 observaciones (las correspondientes a las
trabajadoras mujeres) y por lo tanto selecciona una muestra de tamaño 16.
A partir de esta muestra correspondiente a los trabajadores hombres es posible
estimar un modelo para explicar el salario en función de la experiencia:

Modelo 4: MCO, usando las observaciones 1–16


Variable dependiente: salario

Coeficiente Desv. Típica Estadístico t valor p


const 39,0354 1,50309 25,97 0,0000
experiencia 0,625641 0,0679765 9,204 0,0000
Media de la vble. dep. 51,74375 D.T. de la vble. dep. 6,094366
Suma de cuad. residuos 79,01633 D.T. de la regresión 2,375715
R2 0,858170 R2 corregido 0,848039
F (1, 14) 84,70961 Valor p (de F ) 2,58e–07
Log-verosimilitud −35,47954 Criterio de Akaike 74,95909
Criterio de Schwarz 76,50426 Hannan–Quinn 75,03821

Como puede apreciarse el resultado coincide con el obtenido en el segundo apar-


tado.
De modo similar podemos establecer el criterio hombre=0, para lo cual elegimos
la opción, Muestra . Recuperar rango completo, y a continuación Muestra .
Restringir a partir de criterio donde introducimos el requisito hombre=0:
136 SUPUESTO 8. GÉNERO

Nota:
Cuando hemos establecido una restricción y posteriormente queremos introducir
otra nueva, es necesario recuperar primero el rango completo para asegurarnos
de que introducimos correctametne la nueva condición.
En el ejemplo que nos ocupa la primera condición era hombres=1, que es un
subconjunto del total, y si hicieramos seguidamente la segunda restricción, hom-
bres=0, resultaría un conjunto vacío porque lógicamente en el subconjunto de
hombres no hay ninguna mujer. Por este motivo para introducir la nueva res-
tricción siempre debemos restablecer previamente el rango completo.

Modelo 5: MCO, usando las observaciones 1–26


Variable dependiente: salario

Coeficiente Desv. Típica Estadístico t valor p


const 35,7389 0,943056 37,90 0,0000
experiencia 0,455478 0,0387443 11,76 0,0000
Media de la vble. dep. 45,61923 D.T. de la vble. dep. 5,556043
Suma de cuad. residuos 114,1884 D.T. de la regresión 2,181249
R2 0,852038 R2 corregido 0,845873
F (1, 24) 138,2037 Valor p (de F ) 1,91e–11
Log-verosimilitud −56,12919 Criterio de Akaike 116,2584
Criterio de Schwarz 118,7746 Hannan–Quinn 116,9830

Aunque es evidente que la estimación mínimo cuadrática a la que se llega con


submuestras separadas coincide con la obtenida anteriormente a partir de la
muestra total, debemos tener en cuenta que hay diferencias en los grados de
libertad (que para las submuestras serían más reducidos, especialmente para el
colectivo masculino donde n − k = 14). De ahí que resulte aconsejable estimar
el modelo completo con variable cualitativa y término de interacción.

set verbose off


#e s t a i n s t r u c c i ó n e s p a r a l i m i t a r l o s m e n s a j e s de p r og r a m a en l a
salida
smpl full

Nube_Puntos1 <- gnuplot salario experiencia


#E l nombre de l a i z q u i e r d a d e l s i g n o ’<−’ i n d i c a e l nombre d e l
g r á f i c o en l o s i c o n o s de s e s i ó n . S i q u e r e m o s u t i l i z a r e s p a c i o s
en b l a n c o en e l nombre , debemos e s c r i b i r l o e n t r e c o m i l l a d o

Nube_Puntos1 . show
#Con e s t a i n s t r u c c i ó n mostramos un i c o n o de s e s i ó n ( s e r í a l o mismo
p a r a m o s t r a r un modelo

Nube_Puntos2 <- gnuplot salario experiencia hombre -- dummy


Nube_Puntos2 . show
MCO_1 <- ols salario const experiencia
modeltab free
#S i hay m o d e l o s en l a t a b l a de modelos , l o s b o r r a m o s
137

modeltab add
#Añadimos e l ú l t i m o modelo a l a t a b l a de m o d e l o s

MCO_2 <- ols salario const experiencia hombre


modeltab add
series e x p e r i e n c i a _ h o m b r e = experiencia * hombre
MCO_3 <- ols salario const experiencia hombre e x p e r i e n c i a _ h o m b r e
modeltab add
b1_3 = $coeff [1]+ $coeff [3]
b2_4 = $coeff [2]+ $coeff [4]
modeltab show
#M o s t r a r l a t a b l a de m o d e l o s

matrix RR ={0 , -0.25 ,0 ,1}


matrix bR ={0}
restrict
R = RR
q = bR
end restrict
#Son e q u i v a l e n t e s l a f o r m a de e s t a b l e c e r l a s r e s t r i c c i o n e s
restrict
b [ e x p e r i e n c i a _ h o m b r e ] -0 ,25* b [ experiencia ]=0
end restrict

smpl hombre -- dummy


MCO_4 <- ols salario const experiencia
modeltab add
smpl full
smpl hombre ==0 -- restrict
MCO_5 <- ols salario const experiencia
modeltab add
modeltab show

set verbose on
138 SUPUESTO 8. GÉNERO
SUPUESTO 9

Heladería

Contenidos: Estimación MCO, Análisis de residuos, Variables dummy


estacionales, Multicolinealidad, Restricciones lineales, Mínimos Cua-
drados Restringidos (MCR), Comparación de modelos, Predicción.

Nombre del fichero: heladería.gdt http://cort.as/-LMho

Página de datos: http://cort.as/-LHjb . heladeria.gdt


Página de scripts: http://cort.as/-LHjE . S10_Heladeria.inp

Enunciado:

Se desea explicar las ventas trimestrales de helados para lo cual se dispone de


información sobre su precio (en euros), el esfuerzo publicitario (en minutos de
publicidad semanal), la renta disponible (en euros) y el IPC (base 100 en 2011).

1. Estimar hasta 2018 un modelo lineal para explicar las ventas de helados
en función del precio y el esfuerzo publicitario.

2. Estudiar los residuos numérica y gráficamente ¿Qué observación presenta


un peor ajuste?

3. A partir del análisis de varianza interpretar los resultados del test F y el


coeficiente de determinación.

4. ¿Mejoraría el modelo anterior incorporando la existencia de estacionalidad


asociada a la campaña de verano en el tercer trimestre?

5. Contrastar la hipótesis de no existencia de estacionalidad. Reconstruir


M CR
matricialmente el vector β̂ del modelo restringido.

139
140 SUPUESTO 9. HELADERÍA

6. Analizar si sería recomendable estimar un modelo que incorpore todas las


variables explicativas disponibles

7. Comparar distintas especificaciones alternativas para explicar las ventas


trimestrales y llevar a cabo predicciones de ventas con el modelo más
adecuado

Solución:

1. Estimar hasta 2018 un modelo lineal para explicar las ventas de


helados en función del precio y el esfuerzo publicitario.

Se define el recorrido muestral hasta el último trimestre del año 2018 y el modelo
lineal estimado mediante mínimos cuadrados proporciona el siguiente resultado,
donde se aprecia que aunque el coeficiente del precio presenta el signo esperado
(negativo) no resulta significativo, por lo que las ventas son inelásticas respecto
al precio. En cambio, se observa que las ventas presentan una relación lineal
directa significativa con la publicidad:

Modelo 1: MCO, usando las observaciones 2002:4–2018:4 (T = 65)


Variable dependiente: ventas

Coeficiente Desv. Típica Estadístico t valor p


const 1028,63 145,732 7,058 0,0000
precio −2,25852 5,05500 −0,4468 0,6566
publicidad 30,0312 3,08226 9,743 0,0000

Media de la vble. dep. 1300,369 D.T. de la vble. dep. 232,5371


Suma de cuad. residuos 1298739 D.T. de la regresión 144,7322
R2 0,624718 R2 corregido 0,612613
F (2, 62) 51,60465 Valor p (de F ) 6,38e–14
Log-verosimilitud −414,0628 Criterio de Akaike 834,1256
Criterio de Schwarz 840,6488 Hannan–Quinn 836,6994
ρ̂ 0,248358 Durbin–Watson 1,492913

2. Estudiar los residuos numérica y gráficamente ¿Qué observación


presenta un peor ajuste?

Los residuos pueden analizarse tanto en el gráfico, Gráficos . Gráfico de residuos


. Contra el tiempo
141

��������������������������������������������������������
����

����

����

����
�������

����

����

��

����

����

����
����� ����� ����� ����� ����� ����� ����� ����

como en la tabla Análisis . Mostrar variable observada, estimada, residuos

Rango de estimación del modelo: 2002:4–2018:4


Desviación típica de los residuos = 144,732

ventas Estimada residuo


2002:4 1231,00 1323,36 −92,36
2003:1 1243,00 1255,33 −12,33
2003:2 893,00 1043,65 −150,65
2003:3 1413,00 1385,73 27,27
.. .. .. ..
. . . .
2007:3 1590,00 1040,65 549,35 *
.. .. .. ..
. . . .
2018:1 1518,00 1705,80 −187,80
2018:2 1630,00 1651,59 −21,59
2018:3 1580,00 1543,43 36,57
2018:4 1590,00 1689,06 −99,06

Nota: * denota un residuo superior a 2.5 desviaciones típicas


Estadísticos de evaluación de la predicción (T = 65)
Error medio 1,5391e-13
Error cuadrático medio 141,35
Raíz del Error cuadrático medio 11,889
Error absoluto medio 103,11
Porcentaje de error medio −1,0923
Porcentaje de error absoluto medio 7,7703
U de Theil 0,48829

En ambos casos destaca el tercer trimestre de 2007, donde las ventas observadas
son muy superiores a las estimadas por el modelo y por tanto el residuo presenta
un valor positivo muy elevado (549,35) que de hecho aparece señalado como
142 SUPUESTO 9. HELADERÍA

atípico. Como ya hemos descrito anteriormente, el criterio para identificar este


valor se establece en función de su desviación al valor medio Valor-atípico(p.78).

3. A partir del análisis de varianza interpretar los resultados del test


F y el coeficiente de determinación.

Seleccionando desde el modelo estimado la opción de análisis de varianza (Análisis


. ANOVA) se observa que la mayor parte de variación se debe a la regresión, si
bien la variación residual o no explicada tampoco es despreciable en este caso:

Análisis de Varianza:
Suma de cuadrados gl Media de cuadrados
Regresión 2,16197e+06 2 1,08098e+06
Residuo 1,29874e+06 62 20947,4
Total 3,46071e+06 64 54073,5
R^2 = 2,16197e+06 / 3,46071e+06 = 0,624718
F(2, 62)=1,08098e+06/20947,4=51,6047 [valor p 6,38e-14]

Como consecuencia se obtiene un valor moderado del coeficiente de determina-


ción y concluimos que el precio y el esfuerzo publicitario son capaces de explicar
un 62,47 % de las variaciones trimestrales observadas en las ventas.
Por su parte (y en coherencia con este resultado) la F de Snedecor adopta un
valor 51,60 que lleva asociado un nivel crítico muy bajo y permite rechazar la
hipótesis de nulidad de todos los coeficientes.

Relación entre F y R2
La relación entre el estadístico F y el coeficiente de determinación R2 ya ha sido
descrita en ANOVA (p.99)

R2
  
k−1 n−k
Fn−k =
1 − R2 k−1
Podemos escribir distintos scripts relativos a estas medidas dependiendo de la
información de partida:
ols ventas const precio publicidad -- anova
n = $nobs
k = $ncoeff
R2 = $rsq
F =( R2 /(1 - R2 ) ) *(( n - k ) /( k -1) )
p = pvalue (f ,k -1 ,n -k , F )
0
β̂ X0 ŷ−nȲ 2
o bien en términos matriciales: R2 = y0 y−nȲ 2
X ={ const , precio , publicidad }
y ={ ventas }
b = inv (X ’ X )* X ’* y
n = rows ( X )
k = rows ( b )
R2 =( b ’* X ’* y - n * mean ( y )^2)/( y ’y - n * mean ( y )^2)
F =( R2 /(1 - R2 ))*(( n - k )/( k -1))
p = pvalue (f ,k -1 ,n -k , F )
143

4. ¿Mejoraría el modelo anterior incorporando la existencia de esta-


cionalidad asociada a la campaña de verano en el tercer trimestre?

En este caso se pueden añadir variables explicativas estacionales desde el menú


de la ventana principal de Gretl, Añadir . Variables ficticias periódicas
Dado que el fichero es trimestral, Gretl añade cuatro variables trimestrales que
denota por dq1, dq2, dq3 y dq4.
Al añadir al modelo anterior la variable correspondiente al tercer trimestre, se
aprecia que ésta no resulta significativa a ningún nivel (de ahí que no aparezca
ningún asterisco).

Modelo 2: MCO, usando las observaciones 2002:4–2018:4 (T = 65)


Variable dependiente: ventas

Coeficiente Desv. Típica Estadístico t valor p


const 1025,06 145,898 7,026 0,0000
precio −2,56089 5,06912 −0,5052 0,6152
publicidad 30,2861 3,09644 9,781 0,0000
dq3 39,7374 41,8935 0,9485 0,3466

Media de la vble. dep. 1300,369 D.T. de la vble. dep. 232,5371


Suma de cuad. residuos 1279861 D.T. de la regresión 144,8494
R2 0,630173 R2 corregido 0,611985
F (3, 61) 34,64736 Valor p (de F ) 3,37e–13
Log-verosimilitud −413,5869 Criterio de Akaike 835,1739
Criterio de Schwarz 843,8714 Hannan–Quinn 838,6056
ρ̂ 0,230459 Durbin–Watson 1,530488

Por lo tanto consideramos que no hay estacionalidad en el tercer trimestre. Po-


dríamos hacer un contraste de excluir variable o bien de restricciones lineales con
la hipótesis nula b[dq3]=0 o equivalentemente b[4]=0 pero todos ellos nos llevarían
a la misma conclusión ya que sólo afecta a una variable o a una restricción.

Contraste de omisión de variables -


Hipótesis nula: [Los parámetros son cero para las variables]
dq3
Estadístico de contraste: F(1, 61) = 0,899714
con valor p = P(F(1, 61) > 0,899714) = 0,346601
Restricción: b[dq3] = 0
Estadístico de contraste: F(1, 61)=0,899714, con valor p=0,346601

5. Contrastar la hipótesis de no existencia de estacionalidad. Recons-


M CR
truir matricialmente el vector β̂ del modelo restringido.

Para contrastar este supuesto se parte de la especificación del modelo con precio,
publicidad y tres variables ficticias estacionales (por ejemplo, las de los tres pri-
144 SUPUESTO 9. HELADERÍA

meros trimestres), contrastando la restricción de no existencia de estacionalidad,


que equivale a la nulidad de los coeficientes.

Modelo 3: MCO, usando las observaciones 2002:4–2018:4 (T = 65)


Variable dependiente: ventas

Coeficiente Desv. Típica Estadístico t valor p


const 1048,84 151,653 6,916 0,0000
precio −2,86180 5,09128 −0,5621 0,5762
publicidad 30,4325 3,10280 9,808 0,0000
dq1 −60,2133 50,6394 −1,189 0,2392
dq2 9,88737 50,6571 0,1952 0,8459
dq3 23,5471 50,3880 0,4673 0,6420

Media de la vble. dep. 1300,369 D.T. de la vble. dep. 232,5371


Suma de cuad. residuos 1233611 D.T. de la regresión 144,5983
R2 0,643538 R2 corregido 0,613329
F (5, 59) 21,30307 Valor p (de F ) 4,14e–12
Log-verosimilitud −412,3907 Criterio de Akaike 836,7815
Criterio de Schwarz 849,8278 Hannan–Quinn 841,9291
ρ̂ 0,266798 Durbin–Watson 1,454624

El contraste de nulidad de los coeficientes de las 3 variables dicotómicas, equi-


valente a la no existencia de estacionalidad se llevará a cabo desde el modelo 3,
Contrastes . Restricciones lineales:

Conjunto de restricciones
1: b[dq1] = 0
2: b[dq2] = 0
3: b[dq3] = 0
Estadístico de contraste: F(3, 59)=1,03829, con valor p=0,382338

A la vista de la salida no rechazamos que los tres coeficientes son nulos y por lo
tanto podemos asumir la hipótesis de «no estacionalidad».
Por lo que se refiere a la estimación matricial del vector de coficientes del modelo
restringido, se tiene:

M CR M CO
h i−1  M CO

−1 −1
β̂ = β̂ − (X0 X) R0 R (X0 X) R0 Rβ̂ − βR

M CO
donde β̂ = (X0 X)−1 X0 y, es el estimador de mínimos cuadrados ordinarios.

Mínimos cuadrados restringidos


Consideremos una matriz de restricciones R con r filas y k columnas
La hipótesis nula en este caso será:
145

H0 : Rβ = βR

El método de los mínimos cuadrados restringidos, en realidad es un óptimo


condicionado de Lagrange, donde la función objetivo es mı́nβ̂ û0 û, sujeto a la
restricción: Rβ = β R .
La función lagrangiana se expresa por tanto como:

L (β, λ) = û0 û + λ0 (Rβ − β R )

La condición necesaria de óptimo es la nulidad de la derivada primera:

∂L ∂L
= 0k , = 0r
∂ β̂ ∂λ
con lo cual, derivando respecto de β̂, se obtiene:

∂L ∂û0 û ∂λ0 Rβ̂


= +
∂ β̂ ∂ β̂ ∂ β̂
| {z }
−2X0 y+2X0 Xβ̂

∂L
= −2X0 y + 2X0 Xβ̂ + R0 λ = 0k
∂ β̂

∂L
= Rβ̂ − β R = 0r
∂λ

Despejando se obtiene el estimador de Mínimos Cuadrados Restringidos (MCR):


 
M CR 0 −1 1
β̂ = (X X) X y − R0 λ̂
0
; Rβ̂ M CR = β R
2

y teniendo en cuenta la expresión del estimador MCO, se puede expresar:

M CO 1 −1
β̂ M CR = β̂ − (X0 X) R0 λ̂ ; Rβ̂ M CR = β R
2
Premultiplicando por la matriz R, se tiene:
 
M CR M CO 1 0 −1 0
Rβ̂ = R β̂ − (X X) R λ̂ = β R
2

y despejando ahora λ:

h i−1  M CO

−1
λ̂ = 2 R (X0 X) R0 Rβ̂ − βR

con lo que el estimador restringido resulta:


146 SUPUESTO 9. HELADERÍA

M CO
h i−1  M CO

−1 −1
β̂ M CR = β̂ − (X0 X) R0 R (X0 X) R0 Rβ̂ − βR

Con la información disponible en nuestro archivo de trabajo se generan como


en ocasiones anteriores la matriz X y el vector y:

matrix X ={ const , precio , publicidad , dq1 , dq2 , dq3 }


matrix y = ventas

El vector de estimadores MCO se obtiene entonces como:


matrix bMCO = inv (X ’ X )* X ’* y

La matriz de restricciones R en este caso tiene k=5 columnas y r=3 restricciones:


matrix R ={0 ,0 ,0 ,1 ,0 ,0;0 ,0 ,0 ,0 ,1 ,0;0 ,0 ,0 ,0 ,0 ,1}

y el vector restringido bR:


matrix bR ={0;0;0}

Como ya hemos indicado, es importante utilizar el separador “,” cuando se indica


el siguiente elemento columna, y el separador “;” cuando se cambia de fila.
A partir de las expresiones anteriores se obtiene el vector de estimadores de
mínimos cuadrados restringidos (MCR), cuya expresión es:
matrix bMCR = bMCO - inv (X ’ X )* R ’* inv ( R * inv (X ’ X )* R ’)*( R * bMCO - bR )
print bMCR #o e v a l bMCR

El vector obtenido es:


 
1028, 62578469929
M CR
β̂ = −2, 2585163377279
30, 0311852686026
que coincide con los coeficientes estimados en el modelo 1 (Modelo restringido,
sin estacionalidad).
En cuanto al contraste F de restricciones lineales, tal y como hemos descrito en
Contraste-de-restricciones (p.108) se utiliza la expresión:

û0R ûR − û0 û


  
n−k r
≈ Fn−k
û0 û r

Donde û0 û es la suma de residuos cuadráticos del modelo libre (Modelo 3),

scalar utu = $ess


147

y lo mismo para la suma de residuos cuadráticos restringidos û0R ûR en el modelo


restringido (modelo 1, sin estacionalidad). Hay que tener en cuenta que las
funciones $ nos devuelven los resultados del último modelo estimado, por lo que
debemos asegurarnos de volver a estimar el modelo necesario para obtener la
expresión requerida en cada caso.
A partir de los resultados anteriores el valor F se obtiene como:
F =(( uR ’ uR -u ’ u )/ u ’ u )*( n - k )/ r

Contrastes χ2 para restricciones de coeficientes


Para contrastar restricciones lineales en los coeficientes, además del test F, se
pueden utilizar también distintos test χ2 :
Multiplicador de Lagrange (Lagrange Multiplier, LM):

 
 û0R ûR − û0 û 
LM =
û0R ûR
 
n

Razón de verosimilitud (RV) o Likelihood Ratio (LR):

û0R ûR
 
RV = −2 ln λ = n ln
û0 û

Test de Wald (W):

 
 û0R ûR − 0
û û 
W = 0
û û
 
n

En todos los casos la distribución de la discrepancia sigue un modelo χ2r y entre


estos estadísticos se verifica la desigualdad: W ≥ RV ≥ LM

5. Analizar si sería recomendable estimar un modelo que incorpore


todas las variables explicativas disponibles

Al estimar un modelo que incluye como regresores todas las variables explicati-
vas podemos ver que las variables precios e ipc no resultan significativas, a pesar
de que parecería lógico que tuvieran impacto sobre las ventas.

Modelo 4: MCO, usando las observaciones 2002:4–2018:4 (T = 65)


Variable dependiente: ventas
148 SUPUESTO 9. HELADERÍA

Coeficiente Desv. Típica Estadístico t valor p


const 954,970 149,303 6,396 0,0000
precio 7,03223 19,4145 0,3622 0,7185
publicidad 27,6585 3,20174 8,639 0,0000
renta 0,142689 0,0715396 1,995 0,0506
ipc −6,06135 6,53162 −0,9280 0,3571

Media de la vble. dep. 1300,369 D.T. de la vble. dep. 232,5371


Suma de cuad. residuos 1201241 D.T. de la regresión 141,4945
R2 0,652891 R2 corregido 0,629751
F (4, 60) 28,21413 Valor p (de F ) 3,37e–13
Log-verosimilitud −411,5265 Criterio de Akaike 833,0531
Criterio de Schwarz 843,9250 Hannan–Quinn 837,3428
ρ̂ 0,186172 Durbin–Watson 1,609866

Esta situación puede ser debida a que estas variables estén correlacionadas entre
sí, de modo que, como ya hemos visto en otros supuestos anteriores, su incor-
poración como explicativas al modelo resulta en cierto sentido “redundante”.
Para comprobarlo podemos consultar desde la salida del modelo estimado la
opcióin Análisis . Colinealidad.
Se observa que los FIV o VIF adoptan valores elevados para las variables expli-
cativas precio e ipc, lo cual sugiere una posible presencia de colinealidad.

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10,0 pueden indicar un problema de colinealidad

precio 17,258
publicidad 1,262
renta 2,012
ipc 16,101

2 , donde R(j) es el coeficiente de correlación múltiple entre la


1
V IF (j) = 1−R(j)
variable j y las demás variables independientes

Diagnósticos de colinealidad de Belsley-Kuh-Welsch:

— Proporciones de la varianza —
lambda cond const precio publicid˜ renta ipc
4,811 1,000 0,001 0,000 0,007 0,000 0,000
0,171 5,305 0,006 0,000 0,864 0,001 0,000
0,010 21,830 0,994 0,008 0,056 0,079 0,009
0,008 24,653 0,000 0,015 0,061 0,906 0,021
0,000 100,642 0,000 0,976 0,012 0,014 0,970

lambda = Valores propios de X’X, del más grande al más pequeño


cond = Índice de condición
149

Nota: Las columnas de proporciones de la varianza suman 1,0

Si nos fijamos ahora en el análisis BKW descrito en Colinealidad-Belsley-Kuh-


Welsch (p.118), observamos que la última fila de la condición muestra un valor
superior a 100, lo que indica una alta colinealidad. Además la proporción de
varianza para el precio y el ipc superan el valor 0,5 lo que confirma, como ya
suponíamos, que son éstas las variables entre las que existe multicolinealidad.
Si consideramos el modelo sin la variable precio, se tiene:

Modelo 5: MCO, usando las observaciones 2002:4–2018:4 (T = 65)


Variable dependiente: ventas

Coeficiente Desv. Típica Estadístico t valor p


const 960,163 147,551 6,507 0,0000
publicidad 27,7914 3,15791 8,801 0,0000
renta 0,148060 0,0694860 2,131 0,0371
ipc −3,82267 2,09757 −1,822 0,0733

Media de la vble. dep. 1300,369 D.T. de la vble. dep. 232,5371


Suma de cuad. residuos 1203867 D.T. de la regresión 140,4832
R2 0,652132 R2 corregido 0,635024
F (3, 61) 38,11801 Valor p (de F ) 5,29e–14
Log-verosimilitud −411,5975 Criterio de Akaike 831,1951
Criterio de Schwarz 839,8926 Hannan–Quinn 834,6268
ρ̂ 0,200938 Durbin–Watson 1,583427

Contraste de especificación RESET –


Hipótesis nula: [La especificación es adecuada]
Estadístico de contraste: F (2, 59) = 0,338782
con valor p = P (F (2, 59) > 0,338782) = 0,714015
Contraste de heterocedasticidad de White –
Hipótesis nula: [No hay heterocedasticidad]
Estadístico de contraste: LM = 11,8368
con valor p = P (χ2 (9) > 11,8368) = 0,222665

Observamos ahora que todos los coeficientes de las variables resultan significa-
tivos, no hay problemas de multicolinealidad, ni tampoco de especificación o
heterocedastidad, cuestiones que analizaremos en supuestos posteriores.

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad

publicidad 1,246
renta 1,925
ipc 1,685
150 SUPUESTO 9. HELADERÍA

7. Comparar distintas especificaciones alternativas para explicar las


ventas trimestrales y llevar a cabo predicciones de ventas con el mo-
delo más adecuado

Para llegar a una propuesta de modelo definitivo podemos ir salvando los mode-
los anteriormente estimados en vista de iconos y construir una tabla comparativa
de modelos, que aconsejaría utilizar el modelo 2 donde todas las variables expli-
2
cativas son significativas y que presenta el valor más elevado de R , coeficiente
de determinación ajustado.

Estimaciones de MCO
Variable dependiente: ventas

Modelo 1 Modelo 2 Modelo 3


const 1029∗∗ 960,2∗∗ 955,0∗∗
(145,7) (147,6) (149,3)

precio −2,259 7,032


(5,055) (19,41)
publicidad 30,03∗∗ 27,79∗∗ 27,66∗∗
(3,082) (3,158) (3,202)
renta 0,1481 ∗∗
0,1427∗
(0,06949) (0,07154)
ipc −3,823 ∗
−6,061
(2,098) (6,532)
n 65 65 65
R̄2 0,6126 0,6350 0,6298
` −414,1 −411,6 −411,5

Desviaciones típicas entre paréntesis


* indica significativo al nivel del 10 por ciento
** indica significativo al nivel del 5 por ciento

Adoptando como referencia este modelo, podemos llevar a cabo predicciones


para las ventas trimestrales de helados en el año 2019. Concretamente, la salida
de Gretl muestra que las predicciones resultan bastante adecuadas ya que el
error porcentual medio es ligeramente superior al 1 % y el índice U de Theil
adopta un valor bastante reducido (0,3066):

Para intervalos de confianza 95 %, t(62, 0, 025) = 1, 999

Observaciones ventas predicción Desv. Típica Intervalo de 95 %


2019:1 1620,00 1654,52 157,761 1339,16 1969,88
2019:2 1675,00 1677,77 163,270 1351,40 2004,14
2019:3 1690,00 1707,80 163,633 1380,71 2034,90
151

Estadísticos de evaluación de la predicción


Error medio -18,364
Raíz del Error cuadrático medio 22,48
Error absoluto medio 18,364
Porcentaje de error medio -1,1165
Porcentaje de error absoluto medio 1,1165
U de Theil 0,30661
Proporción de sesgo, U M 0,66734
Proporción de la regresión, U R 0,071182
Proporción de la perturbación, U D 0,26148
152 SUPUESTO 9. HELADERÍA
SUPUESTO 10

Vivienda

Contenidos: Estimación MCO, Multicolinealidad, Variables dummy,


Elasticidad, Restricciones lineales, Modelo logit

Nombre del fichero: vivienda.gdt http://cort.as/-LMX0

Página de datos: http://cort.as/-LHjb . vivienda.gdt


Página de scripts: http://cort.as/-LHjE . S10_vivienda.inp

Enunciado:
Una agencia inmobiliaria dispone de una muestra de 48 viviendas situadas en
una misma ciudad para las que ha recopilado información relativa a su precio
(en euros), superficie (en metros cuadrados), habitaciones (número) y necesidad
de reforma (característica recogida mediante una variable dicotómica).

1. Estimar un modelo lineal para el precio de las viviendas, analizando los


resultados
2. Se sospecha que las viviendas que precisan reforma presentan una menor
elasticidad del precio respecto a la superficie. Analizar si la información
disponible apoya este supuesto.
3. Analizar si es posible explicar la necesidad de reforma de una vivienda a
través de su precio y su superficie

Solución:
1. Estimar un modelo lineal para el precio de las viviendas analizando
los resultados

Para estimar el precio de la vivienda consideramos todas las variables explica-


tivas disponibles: la superficie con la que esperamos una correlación positiva, el

153
154 SUPUESTO 10. VIVIENDA

número de habitaciones también con correlación positiva y la necesidad de hacer


reforma para cuyo coeficiente esperamos un signo negativo. Así pues, estima-
mos el modelo con estos regresores en la opción: Modelo . Mínimos Cuadrados
Ordinarios:

Modelo 1: MCO, usando las observaciones 1–48


Variable dependiente: precio

Coeficiente Desv. Típica Estadístico t valor p


const 131,497 23,7760 5,531 0,0000
superficie 3,76245 0,588979 6,388 0,0000
habitaciones −34,7071 29,5135 −1,176 0,2459
reforma −103,791 19,7903 −5,245 0,0000
Media de la vble. dep. 491,6773 D.T. de la vble. dep. 215,4993
Suma de cuad. residuos 191527,8 D.T. de la regresión 65,97654
R2 0,912251 R2 corregido 0,906268
F (3, 44) 152,4767 Valor p (de F ) 2,91e–23
Log-verosimilitud −267,1071 Criterio de Akaike 542,2143
Criterio de Schwarz 549,6991 Hannan–Quinn 545,0428

La salida del modelo estimado incluye el valor de test de significación global


F que es elevado y lleva asociado un nivel crítico muy bajo, por lo que, tal y
como cabía esperar, rechazamos la hipótesis de nulidad de todos los coeficientes
asociados a las variables explicativas.
Al analizar los signos de los coeficientes de la superficie y la reforma vemos que
se comportan según lo esperado. En cambio, en contra de nuestras expectativas
el coeficiente de la variable habitaciones tiene signo negativo, pero no resulta
significativamente distinto de cero, tal y como indica el resultado del contraste
de significación individual con un valor p = 0, 2459.
Además de no resultar significativo, el signo negativo del coeficiente de la va-
riable habitaciones puede estar indicando un problema de colinealidad, dado
que es probable que las variables habitaciones y superficie estén altamente co-
rrelacionadas. De hecho, la matriz de correlaciones disponible en Ver . Matriz
de correlación confirma que la correlación lineal entre ambas variables supera el
96 %

Coeficientes de correlación, usando las observaciones 1 - 48


valor crítico al 5 % (a dos colas) = 0,2845 para n = 48
precio superficie habitaciones
1, 0000 0, 9233 0, 8732 precio
1, 0000 0, 9654 superficie
1, 0000 habitaciones

Esta conclusión se ve confirmada si realizamos un análisis de colinealidad desde


la salida del modelo: Análisis . Colinealidad ya que las variables superficie y
habitaciones tienen resultados superiores a 10 en los Factores de Inflación de la
Varianza (VIF).
155

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
superficie 14,838
habitaciones 14,791
reforma 1,012

Esta conclusión coincide con la proporcionada por el diagnóstico BKW que,


como hemos explicado anteriormente Colinealidad-Belsley-Kuh-Welsch (p.118),
incluye información detallada basada en los componentes y muestra en la última
fila (donde dicho componente es superior a 10) elevadas proporciones de varianza
para las variables superficie y habitaciones.
Dado que la variable no significativa es el número de habitaciones y en este
caso no parecen aplicables las soluciones habituales de transformar la variable
o sustiuirla por otra, podemos realizar un test de omisión de variables, cuyo
nivel crítico coincide con el obtenido en el contraste de significación individual
p = 0, 2459 y confirma que es recomendable omitir como regresor el número de
habitaciones de la vivienda:

Contraste sobre el Modelo 1:


Hipótesis nula: el parámetro de regresión es cero para habitaciones
Estadístico de contraste: F(1, 44) = 1,38291, valor p 0,24593
Al omitir variables mejoraron 3 de 3 criterios de información.

Modelo 2: MCO, usando las observaciones 1–48


Variable dependiente: precio

Coeficiente Desv. Típica Estadístico t valor p


const 130,532 23,8627 5,470 0,0000
superficie 3,09374 0,154077 20,08 0,0000
reforma −105,488 19,8215 −5,322 0,0000
Media de la vble. dep. 491,6773 D.T. de la vble. dep. 215,4993
Suma de cuad. residuos 197547,5 D.T. de la regresión 66,25665
R2 0,909493 R2 corregido 0,905471
F (2, 45) 226,0997 Valor p (de F ) 3,35e–24
Log-verosimilitud −267,8498 Criterio de Akaike 541,6997
Criterio de Schwarz 547,3133 Hannan–Quinn 543,8211

El modelo 2 parece más adecuado que el anterior, mostrando un estadístico


F elevado, coeficientes estimados signitificativos y con los signos esperados y
coeficiente de determinación del 90 %.
Análisis de colinealidad:

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
superficie 1,007
reforma 1,007
156 SUPUESTO 10. VIVIENDA

2. Se sospecha que las viviendas que precisan reforma presentan una


menor elasticidad media del precio respecto a la superficie. Analizar
si la información disponible apoya este supuesto.

La elasticidad media del precio respecto a la superficie viene dada por la expre-
sión:

∆Y
∆Y X X
E= Y = = β̂
∆X ∆X Y Y
X
Nuestro objetivo es comprobar si la elasticidad en las viviendas que precisan
reformas es inferior que en aquellas que no necesitan reforma, es decir, si se
cumple:

superf icie superf icie
β̂ < β̂
precio ref orma=1 precio ref orma=0

Dado que la característica de necesitar reforma podría afectar no sólo a la cons-


tante el modelo como hemos visto en el apartado anterior, sinó también a la
pendiente β̂, podemos flexibilizar el modelo introduciendo un término de inter-
acción que será el producto entre la variable dicotómica reforma y la superficie:
Añadir . Definir nueva variable... ,

superficie_reforma=superficie*reforma

La estimación del modelo 2 que incluye esta nueva variable proporciona el re-
sultado:

Modelo 3: MCO, usando las observaciones 1–48


Variable dependiente: precio

Coeficiente Desv. Típica Estadístico t valor p


const 92,4242 28,0140 3,299 0,0019
superficie 3,37919 0,191211 17,67 0,0000
reforma −16,7125 42,4765 −0,3935 0,6959
superficie_reforma −0,697757 0,298952 −2,334 0,0242
Media de la vble. dep. 491,6773 D.T. de la vble. dep. 215,4993
Suma de cuad. residuos 175783,8 D.T. de la regresión 63,20669
R2 0,919464 R2 corregido 0,913973
F (3, 44) 167,4469 Valor p (de F ) 4,42e–24
Log-verosimilitud −265,0485 Criterio de Akaike 538,0969
Criterio de Schwarz 545,5817 Hannan–Quinn 540,9254
Contraste de omisión de variables –

Hipótesis nula: los parámetros son cero para las variables


reforma
Estadístico de contraste: F (1, 44) = 0,154805
con valor p = P (F (1, 44) > 0,154805) = 0,695885
157

Vemos además que al incluir esta nueva variable de interacción, la variable


dummy reforma ya no resulta significativa (tanto el contraste de significación
t de student como el test de omisión de esta variable proporcionan un nivel
crítico elevado, 0,695885 y los tres criterios de información mejoran al omitir la
variable).
Así pues, se concluye que la necesidad de reforma afecta al impacto que tiene
la superficie sobre el precio, es decir, al precio del metro cuadrado, que para
viviendas sin necesidad de reforma es 3,42 y para viviendas que precisan reforma
se reduce hasta 2,62, tal y como muestra la siguiente salida:

Modelo 4: MCO, usando las observaciones 1–48


Variable dependiente: precio

Coeficiente Desv. Típica Estadístico t valor p


const 85,1549 20,8591 4,082 0,0002
superficie 3,42440 0,151389 22,62 0,0000
superficie_reforma −0,803082 0,131827 −6,092 0,0000
Media de la vble. dep. 491,6773 D.T. de la vble. dep. 215,4993
Suma de cuad. residuos 176402,2 D.T. de la regresión 62,61030
R2 0,919181 R2 corregido 0,915589
F (2, 45) 255,8992 Valor p (de F ) 2,62e–25
Log-verosimilitud −265,1328 Criterio de Akaike 536,2655
Criterio de Schwarz 541,8791 Hannan–Quinn 538,3869

Calculando ahora la elasticidad en el punto medio, se obtienen los siguientes re-


sultados, que validan el supuesto planteado. Más concretamente, se observa que
partiendo de una «vivienda promedio» de la muestra, un aumento porcentual
del 1 % en la superficie lleva asociado un incremento de precio de 0,84 % si la
vivienda no necesita reforma y de sólo 0,79 % si es necesaria dicha reforma:


superf icie 133, 5
β̂ = 3, 4244 = 0, 8411
precio ref orma=0
543, 5


superf icie 122, 9
β̂ = (3, 4244 − 0, 803082) = 0, 7946
precio ref orma=1
405, 2

Script cálculo de elasticidades medias:


set verbose off
smpl full
ols precio const superficie s u p e r f i c i e _ r e f o r m a
smpl reforma ==0 -- restrict
media_precio0 = mean ( precio0 )
m e d i a _ s u p e r f i c i e 0 = mean ( superficie0 )
smpl full
smpl reforma ==1 -- restrict
media_precio1 = mean ( precio1 )
m e d i a _ s u p e r f i c i e 1 = mean ( superficie1 )
smpl full
elasticidad_0 = $coeff [2]* m e d i a _ s u p e r f i c i e 0 / media_precio0
158 SUPUESTO 10. VIVIENDA

elasticidad_1 =( $coeff [2]+ $coeff [3]) * m e d i a _ s u p e r f i c i e 1 / media_precio1


varlist -- type = scalar
set verbose on

3. Analizar si es posible explicar la necesidad de reforma de una vi-


vienda a través de su precio y su superficie

La variable que queremos explicar en este caso, reforma de la vivienda, es una


variable dicotómica que sólo toma valores 0 o 1, por lo que no se cumplen los
requisitos necesarios para estimar un modelo por MCO.

No es posible utilizar MCO para estimar modelos de variables dico-


tómicas:
En un modelo econométrico y = Xβ + u, la perturbación aleatoria u cumple
las hipótesis habituales de normalidad y homocedasticidad.
Sin embargo, en este caso tenemos como dependiente una variable dicotómica
por lo que el modelo sería Yi = x0i β + ui , con

(
1 − x0i β si Yi = 1
ui =
−x0i β si Yi = 0

Por lo tanto ui será una variable dicotómica y no sigue un modelo normal.


Además, ui no será homocedástica, ya que la varianza no se mantiene constante
(V ar(Yi ) = pi (1 − pi ) = V ar(ui )) y por lo tanto los estimadores MCO no serán
eficientes.
Por otra parte, Yi es una variable dicotómica y por lo tanto su valor esperado es
una probabilidad. Sin embargo, nada garantiza que si estimamos el modelo por
MCO los resultados de los valores estimados Ŷi = x0i β̂ estén acotados entre 0 y
1, por lo que conceptualmente los resultados de la estimación minimo cuadrática
no tendrían sentido.
Como consecuencia de estas limitaciones, cuando deseamos explicar el compor-
tamiento de una variable dependiente dicotómica debemos descartar los MCO
y optar por modelos de variable dependiente limitada, entre los que destacan
los modelos logit.

Queremos explicar la variable cualitativa reforma en función del precio y la


superficie, por lo que seleccionamos la opción Modelo . Variable dependiente
limitada . Logit . Binario:

Modelo 5: Logit, usando las observaciones 1–48


Variable dependiente: reforma
159

Desviaciones típicas basadas en el Hessiano


Coeficiente Desv. Típica z Pendiente∗
const 1,86439 1,07679 1,731
precio −0,0236344 0,00702856 −3,363 −0,00527267
superficie 0,0700643 0,0229033 3,059 0,0156309

Media de la vble. dep. 0,375000 D.T. de la vble. dep. 0,489246


R2 de McFadden 0,350169 R2 corregido 0,255695
Log-verosimilitud −20,63542 Criterio de Akaike 47,27084
Criterio de Schwarz 52,88445 Hannan–Quinn 49,39223


Evaluado en la media

Número de casos ’correctamente predichos’ = 36 (75,0 por ciento)


Contraste de razón de verosimilitudes: χ2 (2) = 22,239 [0,0000]

El modelo clasifica bien 36 casos, lo que representa el 75 % del total:

Predicho
0 1
Observado 0 25 5
1 7 11

En esta tabla observamos que el modelo clasifica correctamente 36 casos, que


representan el 75 % del total. Los errores corresponden a 5 falsos positivos,
asociados a viviendas que no necesitan reforma (el valor observado es 0) pero
el modelo predice que sí (valor 1) y también a 7 falsos negativos (casos de
viviendas que sí necesitan reforma con lo cual el valor observado es 1 pero el
modelo predice 0).

Modelo Logit
Dentro de los modelos de variable dependiente cualitativa existen varias alter-
nativas que no vamos a estudiar en detalle:

 Si queremos explicar una variable con dos modalidades (como las de los
ejemplos anteriores) los modelos resultantes son de tipo binomial.

 Si la variable puede adoptar más de dos modalidades, tendríamos un mo-


delo multinomial.

 Cuando la característica presenta varias modalidades que siguen un orden


natural, se trata de modelos ordenados.

 En el caso de que la característica que explicamos corresponda a una


decisión que condiciona las siguientes se trataría de modelos secuenciales.
160 SUPUESTO 10. VIVIENDA

En este caso tratamos de explicar una variable dicotómica y dado que el mo-
delo y = Xβ + u no se puede estimar mediante MCO, vamos a introducir una
variable latente Z, que podemos interpretar como una "propensión al suceso
considerado", de modo que:

(
1, si Z > Z ∗
Y =
0, si Z ≤ Z ∗

donde Z ∗ es un umbral de propensión que habitualmente se fija como Z ∗ = 0 o


Z∗ = M e .
Calculando las probabilidades de éxito y fracaso, se tiene:

pi = P (Y = 1) = P (Z > Z ∗ ) = 1 − F (−x0 β)
1 − pi = P (Y = 0) = P (Z ≤ Z ∗ ) = F (−x0 β)

La función logística viene dada por una probabilidad acumulada F (x) = 1+e1−x .
Por tanto, si asumimos que los errores u se distribuyen según un modelo logístico
se tiene:
0
1 exi β
pi = 1 − F (−x0i β) = 1 − 0 = 0
1 + exi β 1 + exi β
 0
 0
 0
 0 0
pi 1 + exi β = exi β ⇒ pi + pi exi β = exi β ⇒ pi = exi β (1 − pi )

con lo cual se obtiene:


0 pi
exi β =
1 − pi

Tomando logaritmos en la expresión anterior se obtienen los logit:


 
pi
log = x0i β = β1 + β2 X2i + · · · + βk Xki
1 − pi

Ahora el problema se reduce a estimar los coeficientes β con la información


muestral disponible. Teniendo en cuenta que el modelo es no lineal el método
habitualmente empleado consiste en maximizar la función de verosimilitud L.
Cuando los errores u siguen una distribución normal se tiene el modelo probit,
cuyas características y método de estimación resultan similares a los del logit.
Teniendo en cuenta que el modelo logístico y el normal son cercanos excepto en
las colas, será habitual obtener resultados similares.

Una opción interesante en los modelos logit consiste en calcular los odds ratios,
disponibles desde el modelo en el menú Análisis . Logit odds-ratios

Variable Odds-ratio Intervalo conf. 95 %


precio 0,9766 [ 0,963 - 0,990 ]
superficie 1,0726 [ 1,025 - 1,122 ]
161

Podemos observar cómo la variable superficie tiene un odds-ratio superior a la


unidad por lo que al aumentar la superficie (ceteris paribus), la probabilidad
de que la vivienda sea reformada aumenta. En el caso del precio se observa la
situación opuesta, ya que si -ceteris paribus- el precio aumenta, la probabilidad
de que la vivienda tenga que ser reformada disminuye.

Odds y Odds ratio:


Se denomina «odds» o apuesta al cociente entre la probabilidad de éxito (Y=1),
y la probabilidad de fracaso (Y=0). El odd se interpreta como la “ventaja” o
preferencia de la opción 1 frente a la 0, es decir, el número de veces que es
más probable el éxito que el fracaso y se calcula, para cada valor X = xi de la
variable explicativa, mediante la expresión:

Probabilidad de éxito cuando X = xi P (xi )


Oxi = =
Probabilidad de fracaso cuando X = xi 1 − P (xi )

La interpretación de los odds se lleva a cabo adoptando como referencia el


valor unitario: el valor 1 significa que la probabilidad de éxito es igual a la de
fracaso; si el ratio es menor que 1 indica que la alternativa 1 (éxito) tiene menor
probabilidad que la alternativa 0 (fracaso) y en cambio si el resultado del odd
supera la unidad entonces el éxito es más probable que el fracaso.
El principal interés de esta medida es la comparación mediante cociente entre
odds referidos a distintos valores de una variable explicativa (asumiendo las
otras constantes). Así, cuando se consideran dos valores consecutivos, se calcula
el Odds Ratio mediante la expresión:

P (xi +1)
Oxi +1 1−P (xi +1)
OR = = P (xi )
= eβi
Oxi
1−P (xi )

El parámetro eβi es un factor de cambio en el cociente entre odds cuando el


valor de la variable considerada aumenta en una unidad y el resto de variables
explicativas se mantienen constantes.
Así, si el odds ratio toma un valor unitario, este resultado indica que la ventaja
no cambia si la variable X aumenta en una unidad, y por lo tanto no existe
relación entre la variable explicativa y la característica estudiada.
Si el odds ratio es superior a 1, quiere decir que cuando la variable X aumenta
una unidad, los odds o apuestas aumentan mucho. Por lo tanto la variable
incrementa la probabilidad de éxito y dicho incremento será mayor cuanto mayor
sea el odd ratio.
La situación opuesta se presenta cuando el odds ratio es inferior a la unidad,
ya que en ese caso se concluye que ante aumentos en la variable X los odds o
apuestas disminuyen, indicando que existe relación negativa entre la variable
considerada y la probabilidad de éxito.
Estas interpretaciones son válidas sólo cuando el resto de variables X permane-
cen constantes.
162 SUPUESTO 10. VIVIENDA

Script de cálculo de Odd ratio:


set verbose off
smpl full
Logit_1 <- logit reforma const precio superficie
scalar k = critical (N , 0.025)
matrix Odds = $coeff ~( $coeff - k .* $stderr ) ~( $coeff + k .* $stderr )
Odds = exp ( Odds )
print " Odd - rations para la variable reforma , 1 - alpha =0.95 , k =1 ,96 "
printf " \ t Variable \ t Odds - ratio \ t Intervalo conf . 0.95\ n "
loop i =2..3 -- quiet
printf " \ t %s \ t %g \ t [ %g - %g ] \ n " , varname ( $xlist [ i ]) , Odds [
i ,1] , Odds [i ,2] , Odds [i ,3]
endloop
set verbose on

Nota:
El código anterior es un poco avanzdo por lo que haremos alguna aclaración
sobre el mismo.
En primer lugar la forma de construir la matriz Odds, es avanzada y requiere
una pequeña explicación:
$stderr recoge el vector de destiaciones típicas de los coeficientes.
Cuando multiplicamos una constante por un vector, k.*$stderr, la constante
k multiplica a cada elemento del vector (estas operaciones pueden extenderse
a operaciones con vectres, si incluimos un «.» antes de la operación, ésta se
hace elemento a elemento, por ejemplo multiplicando dos vectores elemento a
elemento).
La opción «~» permite unir distintos vectores columna en una matriz.
Por otra parte, en el comando printf, la opción «\t» representa un salto de
tabulador.
$xlist recoge el vector de variables X del último modelos, incluida la cons-
tante (por eso el bucle loop empieza en 2, la 1 corresponde a la constante);
varname($xlist[i]) recoge el nombre de la variable i de la lista de variables ex-
plicativas.
En el comando printf, usamos los formatos de escritura %g para un número real
en formato natural, con todos sus decimales (podría ser %.4g, representaría solo
4 decimales, o %10.4g representaría 10 espacios para la parte entera y 4 para la
parte decimal), %s se utiliza para cadenas de texto como un nombre de variable
o una fecha. Y aunque no es el caso si la expresión incluyera un número entero
se utilizaría %d.
SUPUESTO 11

Tecnología

Contenidos: Nube de puntos, Estimación MCO, Comparación de mo-


delos, Contrastes de restricciones lineales, Variables cualitativas, tér-
minos de interacción, Predicción, Modelos Logit, Modelos Probit,
Test RV

Nombre del fichero: tecnologia.gdt http://cort.as/-LMc2

Página de datos: http://cort.as/-LHjb . tecnologia.gdt


Página de scripts: http://cort.as/-LHjE . S11_Tecnologia.inp

Enunciado:
Se dispone de información relativa a una muestra de empresas sobre las que se
analiza el valor de la producción, el número de trabajadores y si las empresas
pueden ser consideradas tecnológicamente avanzadas.

1. Analizar la nube de puntos que representa conjuntamente la producción y


el número de trabajadores, proponiendo un modelo econométrico adecuado
para explicar la producción.
2. Según la información disponible ¿es la tecnología un factor relevante para
explicar los cambios en la producción? ¿cuál es su efecto?
3. Contrastar el supuesto de que la tecnología cuadruplica la productividad
de las empresas
4. Se estudia la apertura de una nueva empresa con una plantilla de 18
trabajadores. Si para que sea rentable su producción debe ser de al menos
10.000 euros ¿Cuál sería la estrategia más adecuada?
5. Estimar modelos logit y probit para explicar si las empresas pueden con-
siderarse tecnológicamente avanzadas, analizando su bondad.
6. Reconstruir el Test de la Razón de Verosimilitud (LR o RV) para los
modelos anteriores

163
164 SUPUESTO 11. TECNOLOGÍA

Solución:

1. Analizar la nube de puntos que representa conjuntamente la pro-


ducción y el número de trabajadores, proponiendo un modelo econo-
métrico adecuado para explicar la producción.

La nube de puntos que representa conjuntamente la producción de las empresas


y su número de trabajadores puede obtenerse con los procedimientos habituales,
en el icono inferior de Gretl o bien en la opción de menú Ver . Gráficos . Gráfico
X-Y (scatter)

���������������������������������������������������������������������
������
��������������������

������

������
����������

������

�����

�����

�����
�� ��� ��� ��� ��� ��
� ��
� ��� ��

������������

La salida gráfica muestra que la recta mínimocuadrática no se adapta bien a la


nube de puntos y sugiere que podrían existir dos submuestras con comporta-
mientos diferenciados, uno por exceso y otro por defecto.
Este mal comportamiento se confirma si estimamos por mínimos cuadrados
un modelo lineal para la producción en función de los trabajadores, ya que el
coeficiente de determinación no alcanza el 48 %.

Modelo 1: MCO, usando las observaciones 1–35


Variable dependiente: produccion

Coeficiente Desv. Típica Estadístico t valor p


const 5687,83 545,505 10,43 0,0000
trabajadores 202,584 37,1513 5,453 0,0000
Media de la vble. dep. 8500,857 D.T. de la vble. dep. 1425,166
Suma de cuad. residuos 36325934 D.T. de la regresión 1049,183
R2 0,473974 R2 corregido 0,458034
F (1, 33) 29,73456 Valor p (de F ) 4,84e–06
Log-verosimilitud −292,0850 Criterio de Akaike 588,1700
Criterio de Schwarz 591,2807 Hannan–Quinn 589,2438
165

2. Según la información disponible ¿es la tecnología un factor rele-


vante para explicar los cambios en la producción? ¿cuál es su efecto?

El papel de la tecnología puede analizarse de forma gráfica, ya que el menú de


Gretl permite acceder a varios tipos de gráficos X-Y, que aportan distintos tipos
de información.
Podemos obtener un gráfico donde se distinga claramente cuáles son las empresas
tecnológicamente avanzadas, accediendo al menú Ver . Gráficos . Gráfico X-Y
con factor de separación. Esta opción de Gretl exige utilizar como factor una
variable discreta, que en este caso será la tecnología, variable dummy con valor
unitario para las empresas que se consideran tecnológicamente avanzadas:

������
�������������������������
������ �������������������������

������

������

������

�����

�����

�����

�����

�����

�����
�� ��� ��� � �� ��� ��� ��� � �� ���
������������

En esta nube con factor de separación el símbolo azul representa las empresas
tecnológicamente avanzadas mientras las restantes aparecen en rojo. Teniendo
en cuenta que el gráfico sugiere un comportamiento diferenciado de la produc-
ción en ambos tipos de empresas, podríamos completar la especificación del
modelo introduciendo la variable dummy tecnología.

Modelo 2: MCO, usando las observaciones 1–35


Variable dependiente: produccion

Coeficiente Desv. Típica Estadístico t valor p


const 4840,55 432,578 11,19 0,0000
trabajadores 201,867 27,4143 7,364 0,0000
tecnologia 1428,72 267,125 5,349 0,0000
166 SUPUESTO 11. TECNOLOGÍA

Media de la vble. dep. 8500,857 D.T. de la vble. dep. 1425,166


Suma de cuad. residuos 19179906 D.T. de la regresión 774,1912
R2 0,722261 R2 corregido 0,704902
F (2, 32) 41,60805 Valor p (de F ) 1,25e–09
Log-verosimilitud −280,9083 Criterio de Akaike 567,8166
Criterio de Schwarz 572,4826 Hannan–Quinn 569,4273

El modelo estimado confirma que la variable tecnología resulta significativa y el


signo de su coeficiente estimado es el esperado (positivo). Más concretamente,
este coeficiente indica que las empresas avanzadas tecnológicamente aumentan
su producción en 1428 euros respecto a las restantes.
Si bien este modelo ha mejorado considerablemente la capacidad explicativa con
respecto al anterior, cabría la posibilidad de que la tecnología avanzada afectase
no sólo a la producción fija sino también a la productividad por trabajador.
Este efecto podría recogerse mediante un término de interacción para lo cual
generamos una variable (Añadir . Definir nueva variable) como producto de la
dummy tecnología y el número de trabajadores.

Puede comprobarse que este nuevo término, que afecta a la pendiente del mo-
delo, también resulta significativo. Por lo tanto, indica que para las empresas
tecnológicamente avanzadas la productividad por trabajador aumenta en 261
euros con respecto a las que no lo son.
Se observa además que el nuevo modelo estimado mejora sustancialmente el
coeficiente de determinación corregido, que supera el 90 % y el único inconve-
niente es que ha perdido algo de significación la variable trabajadores (cuyo
nivel crítico es ahora del 7,1 % por lo que se denota con un único asterisco).

Modelo 3: MCO, usando las observaciones 1–35


Variable dependiente: produccion

Coeficiente Desv. Típica Estadístico t valor p


const 6998,58 362,683 19,30 0,0000
trabajadores 46,1332 24,7348 1,865 0,0717
tecnologia −2193,46 469,992 −4,667 0,0001
tec_trabaj 261,033 32,0231 8,151 0,0000
Media de la vble. dep. 8500,857 D.T. de la vble. dep. 1425,166
Suma de cuad. residuos 6101674 D.T. de la regresión 443,6532
R2 0,911643 R2 corregido 0,903093
F (3, 31) 106,6169 Valor p (de F ) 2,02e–16
Log-verosimilitud −260,8655 Criterio de Akaike 529,7311
Criterio de Schwarz 535,9525 Hannan–Quinn 531,8787
167

La comparación entre los tres modelos estimados puede llevarse a cabo a tra-
vés de la tabla de modelos que resume los principales indicadores de las tres
alternativas. Como se puede apreciar, esta tabla muestra el coeficiente de deter-
minación corregido y el logaritmo de la verosimilitud, indicadores que tratamos
de maximizar, mientras en las salidas completas de los modelos estimados tam-
bién se incluyen la desviación típica de la regresión y las medidas de información
de Akaike, Schwarz y Hannah-Quinn, que pretendemos minimizar.

Nota:
Al igual que en supuestos anteriores, es recomendable guardar todos los modelos
estimados a la Sesión como iconos. A continuación, desde la Vista de iconos
vamos añadiendo cada modelo a la Tabla de modelos para así poder compararlos
(esto se puede hacer posicionando el ratón en cada modelo y pulsando el botón
derecho: Añadir a la tabla de modelos, o simplemente arrastrando cada modelo
al icono Tabla de modelos).

Estimaciones de MCO
Variable dependiente: produccion

(1) (2) (3)


const 5688∗∗ 4841∗∗ 6999∗∗
(545,5) (432,6) (362,7)
trabajadores 202,6 ∗∗
201,9 ∗∗
46,13∗
(37,15) (27,41) (24,73)
tecnologia 1429 ∗∗
−2193∗∗
(267,1) (470,0)
tec_trabaj 261,0∗∗
(32,02)

n 35 35 35
R̄2 0,4580 0,7049 0,9031
` −292,1 −280,9 −260,9

Desviaciones típicas entre paréntesis


* indica significativo al nivel del 10 por ciento
** indica significativo al nivel del 5 por ciento

La tabla muestra claramente que el modelo más adecuado es el tercero. A partir


de dicho modelo, la producción estimada para las empresas que no son tecnoló-
gicamente avanzadas sería:

Produccion=6998,58+46*Trabajadores

mientras para las empresas tecnológicamente avanzadas se obtiene:


168 SUPUESTO 11. TECNOLOGÍA

Produccion=4805,12+307,03*Trabajadores

Es posible comprobar que se obtienen resultados coincidentes si se filtra la mues-


tra separando por una parte las empresas con tecnología avanzada y por otra
las restantes. Así, si aplicamos la opción Muestra . Restringir a partir de criterio
(con condición tecnología=1 o bien seleccionando la variable ficticia tecnología)
podríamos limitarnos solo a las 21 empresas con tecnología avanzada, estiman-
do para ellas un modelo de la producción en función de los trabajadores que
proporciona un resultado idéntico al anterior:

Produccion=4805,12+307,03*Trabajadores

De modo similar podría hacerse el análisis filtrando la muestra a las empresas


sin tecnología (tecnología=0), para las que se estima el modelo:

Produccion=6998,58+46*Trabajadores

Desde las salidas de estos modelos las gráficas de variable estimada y observada
contra la producción representan las nubes de puntos de las dos submuestras.
En cualquier caso conviene tener presente que cada una de estas estimaciones de
submuestras tiene menos grados de libertad y por tanto, aunque los resultados
sean coincidentes, resulta más recomendable la estimación basada en la muestra
completa incorporando la variable cualitativa ligada a la tecnología y el término
de interacción.
Si una vez realizados los análisis de las submuestras se quiere recuperar la infor-
mación completa basta con seleccionar la opción de menú Muestra . Recuperar
rango completo.

3. Contrastar el supuesto de que la tecnología cuadruplica la produc-


tividad de las empresas

Para contrastar el supuesto planteado según el cual la tecnología cuadruplica la


productividad de las empresas partimos del modelo más completo y solicitamos
la opción de Contrastes . Restricciones lineales, donde debemos introducir la
hipótesis planteada con el formato adecuado.
Dado que la productividad en el modelo sin tecnología es b[2] y en el modelo
con tecnología pasa a ser b[4]+b[2] el supuesto que debemos contrastar es:

b[4]+b[2]=4*b[2]

es decir b[4]-3*b[2]=0.
Estas restricciones pueden también ser expresadas escribiendo entre corchetes las
variables explicativas a las que acompañan los coeficientes (en vez de su número
de orden), tal y como muestra la salida de Gretl. Dicha salida proporciona un
nivel crítico elevado, según el cual no existe evidencia para rechazar el supuesto
planteado y por tanto éste se consideraría admisible.
169

Restricción: b[tec_trabaj] - 3*b[trabajadores] = 0


Estadístico de contraste: F(1, 31) = 1,47401, con valor p = 0,233882
Estimaciones restringidas:
Coeficiente Desv. Típica Estadístico t valor p
----------------------------------------------------------------
const 6590,97 138,207 47,69 2,66e-31 ***
trabajadores 75,5484 5,01733 15,06 4,46e-16 ***
tecnologia −1716,71 260,160 −6,599 1,94e-07 ***
tec_trabaj 226,645 15,0520 15,06 4,46e-16 ***
Desviación típica de la regresión = 446,927

4. Se estudia la apertura de una nueva empresa con una plantilla de


18 trabajadores. Si para que sea rentable su producción debe ser de
al menos 10.000 euros ¿Cuál sería la estrategia más adecuada?

Si adoptamos como válido el modelo con tecnología y el término de interacción,


para llegar a una conclusión sobre la conveniencia de abrir la nueva empresa
podemos llevar a cabo predicciones o simulaciones asumiendo una plantilla de
18 trabajadores y bajo los supuestos con y sin tecnología.
Para ello añadimos dos nuevas observaciones al archivo de trabajo y a conti-
nuación editamos los correspondientes valores, introduciendo los datos de las
nuevas observaciones, ambas con 18 trabajadores pero donde la observación
36 corresponde a una empresa tecnológicamente avanzada (por tanto tecno-
logía=1 y tec_trabaj=18) y la 37 no avanzada (en este caso tecnología=0 y
tec_trabaj=0) .

trabajadores tecnologia tec_trabaj


36 18 1 18
37 18 0 0

Al realizar las predicciones se observa que la producción esperada supera el


umbral de los 10.000 euros únicamente en el caso de que la empresa sea tecno-
lógicamente avanzada, por lo que ésta sería la recomendación.

Para intervalos de confianza 95 %, t(31, ,0, 025) = 2, 040

Observaciones produccion predicción Desv. Típica Intervalo de 95 %


36 10334,11 461,669 9392,53 11275,69
37 7828,98 470,519 6869,35 8788,61

5. Estimar modelos logit y probit para explicar si las empresas pueden


considerarse tecnológicamente avanzadas, analizando su bondad.

Como ya hemos justificado en un supuesto anterior, los modelos logit y probit


son adecuados cuando la variable dependiente es cualitativa, ya que en ese caso
170 SUPUESTO 11. TECNOLOGÍA

no se cumplen los supuestos habituales para aplicar MCO. De hecho, si nos


planteásemos estimar un modelo mínimocuadrático para explicar la variable
tecnología que es dicotómica (y por tanto con valor esperado p) el resultado
sería el siguiente:

Modelo 4: MCO, usando las observaciones 1–35


Variable dependiente: tecnologia

Coeficiente Desv. Típica Estadístico t valor p


const −0,887277 0,452526 −1,961 0,0584
produccion 0,000174956 5,25208e–05 3,331 0,0021
Media de la vble. dep. 0,600000 D.T. de la vble. dep. 0,497050
Suma de cuad. residuos 6,286180 D.T. de la regresión 0,436452
R2 0,251645 R2 corregido 0,228968
F (1, 33) 11,09673 Valor p (de F ) 0,002140
Log-verosimilitud −19,61545 Criterio de Akaike 43,23089
Criterio de Schwarz 46,34159 Hannan–Quinn 44,30470

En la salida del modelo ( Análisis . Mostrar variable observada, estimada, residuos)


observamos que los valores estimados no se corresponden con la interpretación de
la probabilidad (hay resultados superiores a 1, concretamente para las empresas
que ocupan las posiciones 13, 14, 28 y 30) y también la representación gráfica de
la opción Gráficos . Gráfico de variable observada y estimada . contra producción
muestra claramente que el modelo no es adecuado:

����������������������������������������������������������
����
���������
��������
����

� �
����������

����

����

����

����

� �
����� ����� ������ ������ � �����
����������

Así pues, en este caso es recomendable estimar un modelo logit para explicar
las empresas que son tecnológicamente avanzadas. Para ello deberíamos acudir
a la opción de menú Modelos . Variable dependiente limitada . Logit . Binario,
171

donde la variable dependiente será la tecnología y como explicativa podemos


introducir la producción.

En la salida de los modelos logit podemos incluir los valores p o bien la pen-
diente en la media (hay que tener en cuenta que en un modelo logit, a diferencia
de lo que ocurre en los modelos lineales anteriores, la pendiente no es constante
sino que varía en cada punto).

Modelo 5: Logit, usando las observaciones 1–35


Variable dependiente: tecnologia
Desviaciones típicas basadas en el Hessiano
Coeficiente Desv. Típica z Pendiente∗
const −27,1668 10,1758 −2,670
produccion 0,00345941 0,00130168 2,658 0,000300545

Media de la vble. dep. 0,600000 D.T. de la vble. dep. 0,497050


R2 de McFadden 0,392568 R2 corregido 0,307662
Log-verosimilitud −14,30830 Criterio de Akaike 32,61660
Criterio de Schwarz 35,72730 Hannan–Quinn 33,69041


Evaluado en la media

Número de casos ’correctamente predichos’ = 29 (82,9 por ciento)


f (x0 β) en la media de las variables independientes = 0,087
Contraste de razón de verosimilitudes: χ2 (1) = 18,494 [0,0000]

La variable dependiente de este tipo de modelos es una función de la probabi-


lidad de que la empresa sea tecnológicamente avanzada y la salida del modelo
172 SUPUESTO 11. TECNOLOGÍA

logit nos permite apreciar que al aumentar la producción aumenta la probabili-


dad de que la empresa incorpore tecnología avanzada. Si se selecciona la opción
correspondiente, la salida de Gretl devuelve también la pendiente media y se
puede apreciar que, partiendo del valor medio de producción, un aumento de
un euro en el valor producido aumenta la probabilidad de ser tecnológicamente
avanzada en un 3 por 10000 (un aumento de 100 euros aumentaría la probabi-
lidad en un 3 %).

Pendiente modelo logit:


Los coeficientes de los modelos logit y probit no admiten una interpretación
inmediata como los del modelo lineal básico; en este caso los parámetros esti-
mados permiten interpretar los efectos ocasionados por cambios en las variables
explicativas sobre las probabilidades.
En la salida de los modelos logit se aprecia la característica diferencial de estos
modelos en lo que respecta a la interpretación de los efectos marginales, que
dependen de los valores de las variables explicativas. Más concretamente, se
tiene para cada variable explicativa xj :

∂E(Y /x) dF (x0 β)


= βj = f (x0 β)βj ; ∀j = 1, . . . , p
∂xj d(x0 β)

En este caso, dado que la única variable explicativa es la producción se observa


que el efecto marginal en cada punto es el producto del coeficiente estimado
(0,00345941) por la función de densidad en dicho punto. Más concretamente,
Gretl proporciona información relativa a la producción media y así se tiene que
f (x0 β) en la media de las variables independientes es 0,087 y el producto de
ambos resultados conduce a la pendiente asociada a la producción media:

f (x0 β) ∗ β2 = (0, 087) ∗ (0, 00345941) = 0, 000300545

De la información recogida en el modelo logit estimado debemos destacar el


coeficiente R2 propuesto por McFadden 1974 que en ocasiones se denomina
pseudo coeficiente de determinación y mide la bondad del modelo. El R2 de
ln L
McFadden se obtiene a partir de la expresión R2 = 1 − , donde aparecen
ln LR
los logaritmos de la función de verosimilitud del modelo libre lnL y restringido
(con coeficientes nulos en todas las variables explicativas), lnLR . El resultado
del coeficiente de McFadden se encuentra acotado entre 0 y 1 por lo que el valor
obtenido en este caso (0,392568) puede calificarse de moderado.
La salida incluye también el número de casos correctamente predichos por el
modelo que en este caso concreto es 29, lo que supone casi un 83 % del total. Un
análisis más detallado muestra que de los 29 casos clasificados correctamente,
17 corresponden a empresas tecnológicamente avanzadas y 12 corresponden a
173

empresas no tecnológicas, mientras en las restantes observaciones se producirían


errores (concretamente 4 serían falsos negativos y 2 serían falsos positivos).

Nota:
La proporción de aciertos es una de las medidas más intuitivas para evaluar los
modelos logit. En ocasiones también se analizan separadamente la proporción
de éxitos bien clasificados (que se denomina sensibilidad) y la proporción de
fracasos bien clasificados (denominada especificidad). Por lo que se refiere a las
observaciones mal clasificadas, se produce un falso positivo cuando se pronostica
un éxito pero el valor observado es un fracaso (en este supuesto, se clasifica una
empresa como empresa tecnológicamente avanzada cuando en realidad no lo
es), mientras el falso negativo se corresponde con pronósticos de fracaso cuando
la observación es un éxito (en nuestro caso serían empresas tecnológicamente
avanzadas a las que el modelo clasifica en la otra categoría).

Rango de estimación del modelo: 1–35


Desviación típica de los residuos = 1,79769e+308

tecnologia estimada residuo


1 0,000000 0,227720 −0,227720
2 1,000000 0,701493 0,298507
3 0,000000 0,206563 −0,206563
4 0,000000 0,204867 −0,204867
5 1,000000 0,903626 0,096374
6 0,000000 0,201507 −0,201507
7 1,000000 0,624449 0,375551
8 1,000000 0,903626 0,096374
9 1,000000 0,973965 0,026035
10 0,000000 0,454276 −0,454276
11 0,000000 0,294155 −0,294155
12 1,000000 0,999789 0,000211
13 1,000000 0,999997 0,000003
14 1,000000 0,999999 0,000001
15 0,000000 0,768589 −0,768589
16 0,000000 0,259559 −0,259559
17 1,000000 0,624449 0,375551
18 0,000000 0,128632 −0,128632
19 1,000000 0,929833 0,070167
20 0,000000 0,227720 −0,227720
21 1,000000 0,624449 0,375551
22 1,000000 0,929833 0,070167
23 1,000000 0,990620 0,009380
24 1,000000 0,768589 0,231411
25 1,000000 0,990620 0,009380
26 0,000000 0,227720 −0,227720
27 1,000000 0,227720 0,772280
28 1,000000 0,999999 0,000001
174 SUPUESTO 11. TECNOLOGÍA

29 1,000000 0,454276 0,545724


30 1,000000 1,000000 0,000000
31 0,000000 0,903626 −0,903626
32 1,000000 0,294155 0,705845
33 1,000000 0,370669 0,629331
34 0,000000 0,128632 −0,128632
35 0,000000 0,454276 −0,454276

Estadísticos de evaluación de la predicción


Error medio 4,2139e-12
Error cuadrático medio 0,36533
Raíz del Error cuadrático medio 0,60443
Error absoluto medio 0,26788

Conviene destacar que, tal y como se observa en la salida del modelo logit, la
variable estimada es una probabilidad pero en cambio la variable observada es
dicotómica (con valores 0 y 1). Por lo tanto, para poder comparar las predic-
ciones con los registros, será necesario asociar a la variable estimada valores 0
y 1 en función de la probabilidad estimada (generalmente se asigna valor 0 si
la probabilidad estimada es inferior a 0.5, y valor 1 en otro caso). Para ello po-
dríamos guardar la probabilidad estimada en el modelo logit (Guardar . Valores
estimados) y asignarle por ejemplo el nombre de plogit, para posteriormente
definir una nueva variable (Añadir . Definir nueva variable), como:

tecnologia_logit=(plogit>0.5)

Una vez obtenida esta variable podemos generar fácilmente las observaciones
mal clasificadas

falsos= tecnologia_logit-tecnologia
175

Obs. tecnologia tecnologia_logit falsos


1 0 0 0
2 1 1 0
3 0 0 0
4 0 0 0
5 1 1 0
6 0 0 0
7 1 1 0
8 1 1 0
9 1 1 0
10 0 0 0
11 0 0 0
12 1 1 0
13 1 1 0
14 1 1 0
15 0 1 1
16 0 0 0
17 1 1 0
18 0 0 0
19 1 1 0
20 0 0 0
21 1 1 0
22 1 1 0
23 1 1 0
24 1 1 0
25 1 1 0
26 0 0 0
27 1 0 -1
28 1 1 0
29 1 0 -1
30 1 1 0
31 0 1 1
32 1 0 -1
33 1 0 -1
34 0 0 0
35 0 0 0

Como observamos en la tabla, hay 29 aciertos, y 6 errores, 2 de ellos falsos po-


sitivos (valor 1) y 4 falsos negativos (valor -1)

Si ahora repetimos la estimación del modelo logit, pero activando la opción:


Mostrar los valores p, obtendríamos:

Modelo 6: Logit, usando las observaciones 1–35


Variable dependiente: tecnologia
Desviaciones típicas basadas en el Hessiano
Coeficiente Desv. Típica z valor p
const −27,1668 10,1758 −2,670 0,0076
produccion 0,00345941 0,00130168 2,658 0,0079
176 SUPUESTO 11. TECNOLOGÍA

Media de la vble. dep. 0,600000 D.T. de la vble. dep. 0,497050


R2 de McFadden 0,392568 R2 corregido 0,307662
Log-verosimilitud −14,30830 Criterio de Akaike 32,61660
Criterio de Schwarz 35,72730 Hannan–Quinn 33,69041

Número de casos ’correctamente predichos’ = 29 (82,9 por ciento)


f (x0 β) en la media de las variables independientes = 0,087
Contraste de razón de verosimilitudes: χ2 (1) = 18,494 [0,0000]

Observamos que la única diferencia de este modelo con el anterior es que en este
caso incluimos el valor p en vez de la pendiente en el punto medio. Sin embar-
go, como ya hemos señalado esta pendiente en el punto medio puede calcularse
mediante la expresión f (x0 β)β2 , en este caso: 0, 087 × 0, 00345941 = 0, 0003006

Llevamos ahora a cabo la estimación con un modelo probit (Modelos . Va-


riable dependiente limitada . Probit) cuyos resultados son muy similares a los
anteriores.

Modelo 7: Probit, usando las observaciones 1–35


Variable dependiente: tecnologia
Desviaciones típicas basadas en el Hessiano
Coeficiente Desv. Típica z Pendiente∗
const −15,8748 5,44015 −2,918
produccion 0,00201694 0,000691926 2,915 0,000358840

Media de la vble. dep. 0,600000 D.T. de la vble. dep. 0,497050


R2 de McFadden 0,392344 R2 corregido 0,307437
Log-verosimilitud −14,31359 Criterio de Akaike 32,62719
Criterio de Schwarz 35,73788 Hannan–Quinn 33,70100


Evaluado en la media

Número de casos ’correctamente predichos’ = 29 (82,9 por ciento)


Contraste de razón de verosimilitudes: χ2 (1) = 18,484 [0,0000]

Contraste de normalidad de los residuos –


Hipótesis nula: el error se distribuye normalmente
Estadístico de contraste: χ2 (2) = 5,64738
con valor p = 0,0593863

Un aspecto novedoso de los modelos probit es que incluyen el contraste de nor-


malidad, cuyo resumen aparece al final del modelo estimado y que se encuentra
también accesible desde Contrastes . Normalidad. En este caso el nivel crítiso
supera el 5 % por lo que no rechazamos la hipótesis de normalidad en la que se
basa el modelo Probit.
177

6. Reconstruir el Test de la Razón de Verosimilitud (LR o RV) para


los modelos anteriores

Los tests de razón de verosimilitudes vienen incluidos en la salida de modelos


logit y probit estimados con Gretl y contrastan la hipótesis de nulidad de los
coeficientes, bajo la cual el modelo no tendría sentido. Dado que en los modelos
estimados se obtienen niveles críticos reducidos se concluye que existe algún
coeficiente no nulo y por lo tanto el modelo tiene sentido.
El estadístico de la razón de verosimilitud viene dado por la siguiente expresión,
basada en la comparación de los logaritmos de verosimilitud correspondientes a
los modelos restringido (con coeficientes nulos) y no restringido o libre:

LR
LR = −2 ln = −2(ln LR − ln L)
L
Para calcular esta razón de verosimilitud para el modelo Logit anteriormente es-
timado debemos obtener el valor del logaritmo de verosimilitud correspondiente
al modelo libre y al modelo restringido. En primer lugar en la salida del modelo
5, elegimos la opción Guardar . log-verosimilitud que nos permite almacenar el
logaritmo de la verosimilitud del modelo libre, escalar al que denominamos lnL
y cuyo resultado es ln L=-14,308
A continuación omitimos las variables explicativas del modelo (en este caso pro-
ducción) y estimamos el modelo restringido sobre el cual volvemos a seleccionar
la opción Guardar . log-verosimilitud, almacenando de esta forma el logaritmo
de verosimilitud del modelo restringido, ln LR=-23,555
A partir de los resultados anteriores, la razón de verosimilitud se calcula como:

LR=-2*(lnLR-lnL)=18,494

y proporciona el resultado que figura en la salida del Modelo 5, salvo los errores
de redondeo por limitar el número de decimales.
El mismo procedimiento podría ser aplicado para obtener la razón de verosimi-
litudes correspondiente al modelo Probit.
Es interesante tener en cuenta que los logaritmos de verosimilitud anteriormente
calculados permiten también obtener el coeficiente R2 de McFadden a partir de
ln L
su expresión: R2 = 1 − .
ln LR

Script Test LR y R2 de MacFadden:


# modelo l i b r e
modelo1 <- logit tecnologia 0 produccion
lnl = $lnl
# modelo r e s t r i n g i d o
modelo2 <- logit tecnologia 0
lnl_R = $lnl
scalar lr = -2*( lnl_R - lnl )
r2 =1 - lnl / lnl_R
178 SUPUESTO 11. TECNOLOGÍA

Nota
Dado que el hecho de que una empresa sea tecnológicamente avanzada podría
depender de su volumen de producción pero también de su plantilla de traba-
jadores, podríamos estimar modelos logit y probit similares a los anteriores que
considerasen ambas variables como explicativas.
SUPUESTO 12

Empleo

Contenidos: Estimación MCO, Modelos logit, Modelos probit, Odds-


ratios

Nombre del fichero: empleo.gdt http://cort.as/-LMcQ

Página de datos: http://cort.as/-LHjb . empleo.gdt


Página de scripts: http://cort.as/-LHjE . S12_Empleo.inp

Enunciado:
En el marco de una investigación sobre el desempleo juvenil se ha recopilado
información relativa a 280 jóvenes, incluyendo su situación laboral (empleado/no
empleado), su trayectoria educativa (en años de formación) y su experiencia
laboral previa (en años).

1. Estimar un modelo mínimo cuadrático para la variable dicotómica empleo,


analizando los resultados obtenidos
2. Proponer un modelo logit adecuado para explicar la situación laboral
3. A partir del modelo anterior ¿Cómo se interpretan las pendientes medias?
4. Calcular e interpretar los odds-ratios estimados para el modelo logit
5. ¿Cambian los resultados obtenidos si se estima un modelo probit? Justifi-
car qué alternativa es más adecuada.

Solución:
1. Estimar un modelo mínimo cuadrático para la variable dicotómica
empleo, analizando los resultados obtenidos

Tal y como ya hemos justificado anteriormente MCO-cualitativa-dependiente(p.158),


la estimación mínimo cuadrática se basa en hipótesis sobre la perturbación alea-

179
180 SUPUESTO 12. EMPLEO

toria (normalidad, homocedasticidad) que no se cumplen en este caso, al ser la


variable dependiente dicotómica. Por lo tanto, si estimamos el modelo mediante
la opción de menú Modelos . Mínimos cuadrados ordinarios debemos ser pruden-
tes al interpretar los resultados de la salida teniendo en cuenta que, entre otras
cosas, al incumplirse el supuesto de normalidad, los contrastes de significación
no serán válidos.

Modelo 1: MCO, usando las observaciones 1–280


Variable dependiente: empleo

Coeficiente Desv. Típica Estadístico t valor p


const −1,37185 0,121978 −11,25 0,0000
estudios 0,121409 0,00601756 20,18 0,0000
experiencia 0,0590721 0,0295355 2,000 0,0465
Media de la vble. dep. 0,396429 D.T. de la vble. dep. 0,490031
Suma de cuad. residuos 27,11633 D.T. de la regresión 0,312878
R2 0,595257 R2 corregido 0,592335
F (2, 277) 203,6925 Valor p (de F ) 3,93e–55
Log-verosimilitud −70,45129 Criterio de Akaike 146,9026
Criterio de Schwarz 157,8070 Hannan–Quinn 151,2763

La salida muestra también los problemas en los valores estimados que presentan
algunos valores negativos (como el de la observación 64) y otros superiores a la
unidad (observación 131), tal y como puede verse en la siguiente tabla, extracto
de la obtenida desde el modelo estimado, Análisis . M ostar variable observada,
estimada, residuos:

empleo estimada residuo


1 1,000000 0,442751 0,557249
2 1,000000 0,505088 0,494912
3 0,000000 0,327872 −0,327872
.. .. .. ..
. . . .
25 1,000000 0,199934 0,800066 *
.. .. .. ..
. . . .
64 0,000000 -0,344773 0,344773
.. .. .. ..
. . . .
131 1,000000 1,233540 −0,233540
.. .. .. ..
. . . .
279 0,000000 0,019453 −0,019453
280 0,000000 0,505088 −0,505088

Tambien podemos observar estas incoherencias en la representación gráfica a


la que se accede desde el modelo estimado en Gráficos . Gráfico de variable
observada y estimada . contra estudios
181

����������������������������������������������������
� ���
���������
��������

��

� ���
������

��

����

��
� � � � �� ��� ��� ��� ��� ��
� � ��
��������

2. Proponer un modelo logit adecuado para explicar la situación la-


boral

La estimación del modelo logit se lleva a cabo desde el menú Modelo . Variable
dependiente limitada . Logit . Binario y permite distintas alternativas, incluyen-
do la estimación de los niveles críticos asociados a los contrastes de significación
individual o la pendiente en la media.
Se observa que los coeficientes estimados presentan, tal y como cabía esperar,
signos positivos ya que tanto los años de estudio como la experiencia previa
están directamente relacionados con la probabilidad de empleo. Además ambas
variables son significativas, especialmente los estudios ya que el nivel crítico
asociado al contraste en este caso es casi nulo.

Modelo 2: Logit, usando las observaciones 1–280


Variable dependiente: empleo
Desviaciones típicas basadas en el Hessiano
Coeficiente Desv. Típica z valor p
const −20,7416 2,82990 −7,329 0,0000
estudios 1,34896 0,173562 7,772 0,0000
experiencia 0,684576 0,407697 1,679 0,0931

Media de la vble. dep. 0,396429 D.T. de la vble. dep. 0,490031


R2 de McFadden 0,643360 R2 corregido 0,627405
Log-verosimilitud −67,05922 Criterio de Akaike 140,1184
Criterio de Schwarz 151,0228 Hannan–Quinn 144,4922

Número de casos ’correctamente predichos’ = 255 (91,1 por ciento)


Contraste de razón de verosimilitudes: χ2 (2) = 241,942 [0,0000]
182 SUPUESTO 12. EMPLEO

Predicho
0 1
Observado 0 154 15
1 10 101

Nota:
A diferencia del modelo de regresión lineal, en los modelos logit los contrastes
de significación no llevan asociada una distribución t de student sino una Chi-
cuadrado ya que se realizan como casos particulares del test de restricciones
lineales de Wald, que contrastan la hipótesis de nulidad del coeficiente.

La salida del modelo logit estimado proporciona distintos indicadores sobre la


bondad del modelo. Uno de ellos es el R-cuadrado de McFadden cuyo resultado
en este caso es moderadamente alto (0,643360). Como ya hemos descrito, este
indicador se obtiene comparando los logaritmos de verosimilitud del modelo es-
timado y el modelo restringido (sin variables explicativas) mediante la expresión
ln L
R2 = 1 − .
ln LR
Estos logaritmos de verosimilitud se usan también en el test de razón de ve-
rosimilitudes que contrasta la hipótesis de nulidad de los coeficientes de las
variables estudios y experiencia mediante la expresión LR = −2(ln LR − ln L)
cuyo resultado en este caso es elevado y lleva asociado un nivel crítico casi nulo,
conduciendo por tanto al rechazo de la hipótesis.
Contraste de razón de verosimilitudes: Chi-cuadrado(2) = 241,942 [0,0000]
Además, la salida del modelo logit estimado incluye una tabla que clasifica a los
individuos según su situación respecto al empleo, asignando valor 1 a aquellos
individuos para los que se estiman probabilidades de empleo superiores a 0,5 y
valor 0 en caso contrario.
A partir de esta tabla se observa que el modelo estimado clasifica bien al 91,1 %
de los clientes (255 del total de 280) por lo cual puede considerarse adecuado.
En cuanto a los individuos incorrectamente clasificados se observa que 15 son
falsos positivos (se predice, en función de sus estudios y experiencia laboral,
que están empleados cuando de hecho no lo están) y los otros 10 en cambio son
falsos negativos (individuos empleados para los que el modelo logit estima una
probabilidad inferior al 50 %).

Nota:
El número de casos correctamente predichos es un indicador de bondad que
debe ser interpretado con prudencia por varios motivos: en primer lugar, porque
utiliza para la clasificación la misma muestra que para la estimación del modelo
y, en segundo lugar, porque un modelo trivial o ingenuo, sin incluir variables
explicativas, y que asignaría a todos los individuos el grupo de mayor tamaño
(en este caso no empleados) clasificaría bien al 60 % de los clientes (169 del total
de 280).
183

Aunque la salida de Gretl no calcula las características de sensibilidad y especifi-


cidad, su cálculo es sencillo a partir de los resultados de la tabla de clasificación.
La sensibilidad se corresponde con el porcentaje de éxitos bien clasificados (en
este caso serían=101/111=90,99 %) y la especificidad se define como el porcen-
taje de fracasos bien clasificados (154/169=91,12 %).

3. ¿Cómo se interpretan las pendientes medias?

A diferencia de lo que ocurre en los modelos lineales, en un modelo de regre-


sión logística los efectos marginales no son constantes Pendiente-modelo-logit
(p.172), aunque sí lo es su signo. Por tanto, a la vista de la estimación del mo-
delo anterior podemos afirmar que tanto los estudios como la experiencia laboral
tienen un impacto marginal positivo sobre el empleo.

Dado que el efecto marginal depende del punto en el que se evalúe, Gretl per-
mite estimar la pendiente en la media, es decir, adoptando como referencia un
individuo con 13,8 años de estudios y 2,8 años de experiencia laboral (que son
los valores medios de estas variables, accesibles en la opción Variable . Estadís-
ticos principales). Los resultados obtenidos permiten afirmar que, partiendo de
un individuo en esta situación, un aumento de un año en los estudios (ceteris
paribus la experiencia) incrementa la probabilidad de empleo en un 26 % mien-
tras un año adicional de experiencia (ceteris paribus los estudios) aumenta la
probabilidad de empleo un 13 %.

Estos resultados pueden obtenerse directamente si al estimar el modelo logit


marcamos la opción mostrar la pendiente en la media

Modelo 3: Logit, usando las observaciones 1–280


Variable dependiente: empleo
Desviaciones típicas basadas en el Hessiano
Coeficiente Desv. Típica z Pendiente∗
const −20,7416 2,82990 −7,329
estudios 1,34896 0,173562 7,772 0,263656
experiencia 0,684576 0,407697 1,679 0,133801

Tal y como hemos descrito en Pendiente-modelo-logit (p.172) el cálculo de estas


pendientes se lleva a cabo mediante las expresiones siguientes:

f (x0 b) ∗ b2 = 0,195 ∗ 1,34896 = 0,2636

f (x0 b) ∗ b3 = 0,195 ∗ 0,684576 = 0,1338


184 SUPUESTO 12. EMPLEO

4. Calcular e interpretar los odds-ratios estimados para el modelo


logit

La información relativa a los odds-ratios (OR) del empleo se encuentra dis-


ponible desde la salida del logit estimado (modelos 2 o 3) en Analisis . Logit
odds-ratios y proporciona la siguiente salida:

Odds-ratios for empleo:


Variable Odds-ratio 95,0 % Intervalo conf.
estudios 3,8534 [ 2,742 − 5,415 ]
experiencia 1,9829 [ 0,892 − 4,409 ]

que confirma el impacto positivo tanto de los estudios como de la experiencia


sobre la probabilidad de empleo (siendo coherentes por tanto con los resultados
anteriormente comentados de los coeficientes y las pendientes).
En este caso, los odds-ratios cuantifican el efecto para cada una de las variables
de un aumento unitario en dicha variable sobre el “odd” o “apuesta” del empleo,
definido como la proporción entre probabilidad de empleo y de desempleo.
Así pues, un año adicional de estudios, asumiendo constante la experiencia labo-
ral, hace que los odds casi se cuadrupliquen (3,85) mientras que un año adicional
de experiencia laboral, asumiendo constante la duración de los estudios, hace
que los odds (ventajas de probabilidad de empleo sobre desempleo) casi se du-
pliquen (1,98).

El cálculo de los odds-ratio puede ser reconstruido a partir de las opciones dis-
ponibles en Gretl. Así, si desde el modelo logit estimado guardamos la variable
estimada, ésta representará las probabilidades de empleo (que podemos deno-
minar pempleo)
Una vez almacenada esta serie podemos utilizar el menú Añadir . Generar nueva
variable para crear la serie de odds: odd=pempleo/(1-pempleo)
Lógicamente los resultados de esta serie serán distintos para cada individuo,
al depender tanto de su educación como de su experiencia. Si examinamos las
series conjuntamente, podemos encontrar información de interés para calcular
los odds-ratios:

estudios experiencia odd


1 13 4 0,627007
2 14 3 1,21846
3 14 0 0,156274
4 11 3 0,0212948
5 12 3 0,0820577
6 13 3 0,316202
7 10 3 0,00552623
8 11 3 0,0212948
9 17 2 35,1591
10 18 3 268,653
.. .. .. ..
. . . .
185

Así por ejemplo podemos observar que los individuos 1 y 6 tienen los mismos
años de estudio (13) pero su experiencia difiere en un año. Así pues, podemos
calcular a partir de ellos el Odd ratio asociado a la experiencia, cuyo resultado
sería el que muestra la tabla (1,98):

odd(estudios = 13, experiencia = 4) 0, 627007


OR_experiencia = = = 1, 9829
odd(estudios = 13, experiencia = 3) 0, 316202

De modo similar, en el caso del empleo el odd ratio 3,8534 podría calcularse
mediante la comparación de los individuos 5 y 6 de la muestra, ambos con 3
años de experiencia y un año de diferencia en los estudios:

odd(estudios = 13, experiencia = 3) 0, 316202


OR_estudio = = = 3, 8534
odd(estudios = 12, experiencia = 3) 0, 0820577

Nota:
Dado que, a diferencia de lo que sucede con los odds, el resultado del Odds Ratio
(OR) es constante en todo el modelo, podemos llegar a los mismos resultados
comparando otros individuos de la muestra. Así, por ejemplo, el OR_experiencia
podría obtenerse a partir de los odds de los individuos 7 y 17 (ambos con 10
años de estudios y con un año de diferencia en la experiencia) y el OR_empleo
podría calcularse como ratio de los odds de los individuos 7 y 8 (ambos con 3
años de experiencia y con un año de diferencia en los estudios).

5. ¿Cambian los resultados obtenidos si se estima un modelo probit?


Justificar qué alternativa es más adecuada.

La estimación del modelo probit se lleva a cabo de forma similar al anterior,


en este caso desde el menú Modelos . Variable dependiente limitada . Probit .
Binario y proporciona resultados similares en cuanto al signo de los coeficientes
estimados (ambos positivos), el nivel de significación de las variables (más sig-
nificativos los estudios que la experiencia) y el coeficiente de determinación de
McFadden (algo inferior en este caso). También se observa un resultado coinci-
dente en la proporción de individuos correctamente clasificados (91,1 %).
Si se solicita la opción con pendientes en la media se obtiene en este caso 0,24
para el estudio y 0,14 para la experiencia. Así pues, según el modelo probit, par-
tiendo de un “individuo promedio”, un año adicional de estudios (ceteris paribus
la experiencia) incrementa la probabilidad de empleo en un 24 %, mientras un
año adicional de experiencia (ceteris paribus los estudios) aumenta la probabi-
lidad de empleo un 14 % .
Los resultados de estos odds-ratios estimados por el modelo probit no difieren
mucho de los proporcionados por el modelo logit anteriormente estimados. Así
para los estudios el Odds Ratio (OR) del probit es 24 % frente al 26 % que
estimaba el logit y para la variable experiencia los resultados del OR son 14 %
para el probit y 13 % para el logit.
186 SUPUESTO 12. EMPLEO

Modelo 4: Probit, usando las observaciones 1–280


Variable dependiente: empleo
Desviaciones típicas basadas en el Hessiano
Coeficiente Desv. Típica z valor p
const −10,7971 1,29402 −8,344 0,0000
estudios 0,692974 0,0745052 9,301 0,0000
experiencia 0,405672 0,216874 1,871 0,0614

Media de la vble. dep. 0,396429 D.T. de la vble. dep. 0,490031


R2 de McFadden 0,631763 R2 corregido 0,615809
Log-verosimilitud −69,23964 Criterio de Akaike 144,4793
Criterio de Schwarz 155,3837 Hannan–Quinn 148,8530

Número de casos ’correctamente predichos’ = 255 (91,1 por ciento)


Contraste de razón de verosimilitudes: χ2 (2) = 237,581 [0,0000]

Contraste de normalidad de los residuos –


Hipótesis nula: el error se distribuye normalmente
Estadístico de contraste: χ2 (2) = 6,82573
con valor p = 0,0329466

Si bien no existen grandes diferencias en los resultados de la estimación de


los modelos logit y probit, podemos observar que el contraste de normalidad
incorporado en la salida de este último lleva asociado un nivel crítico reducido
(0,0329), con lo cual no sería asumible el supuesto de normalidad ligado al
modelo probit y ello nos llevaría a considerar como alternativa más adecuada la
del modelo logit anteriormente estimado.
logit empleo const estudios experiencia
series pempleo = $yhat
odd = pempleo /(1 - pempleo )
OR_ experi encia = odd ( est =13 , exp =4)/ odd ( est =13 , exp =3)
SUPUESTO 13

Emisiones

Contenidos: Estimación MCO, Test RESET de Ramsey, tests de li-


nealidad, Modelos polinómicos, Variable dummy, Modelo loglineal

Nombre del fichero: emisiones.gdt http://cort.as/-LMcU

Página de datos: http://cort.as/-LHjb . emisiones.gdt


Página de scripts: http://cort.as/-LHjE . S13_Emisiones.inp

Enunciado
Se dispone de información para 100 países sobre las emisiones de CO2 (toneladas
métricas de CO2 per cápita) y el PIB (dólares per cápita, precios constantes).

1. Estimar un modelo de regresión lineal para explicar el volumen de emisio-


nes de CO2, analizando si resulta adecuado
2. Según la curva de Kuznets medioambiental, el volumen de emisiones au-
menta con el PIB hasta cierto punto de retorno. Estimar esta curva me-
diante modelos polinómicos de segundo o tercer grado analizando los re-
sultados
3. ¿Afecta la firma del acuerdo de París al volumen de emisiones?
4. Estimar un modelo loglineal para las emisiones, estudiando si esta opción
sería más adecuada que la curva anterior.

Solución:
1. Estimar un modelo de regresión lineal para explicar el volumen de
emisiones de CO2, analizando si resulta adecuado

La estimación mínimo cuadrática del modelo lineal que explica las emisiones a
partir del PIB per cápita muestra la salida siguiente, donde se aprecia que el

187
188 SUPUESTO 13. EMISIONES

PIB es significativo y el signo de su coeficiente es el esperado. Sin embargo la


capacidad explicativa del modelo es reducida (45 %) y sospechamos que puede
haber problemas de especificación.

Modelo 1: MCO, usando las observaciones 1–100


Variable dependiente: emisiones

Coeficiente Desv. Típica Estadístico t valor p


const 2,47739 0,455024 5,445 0,0000
pib 0,000266996 2,97748e–05 8,967 0,0000
Media de la vble. dep. 4,975097 D.T. de la vble. dep. 4,830199
Suma de cuad. residuos 1268,736 D.T. de la regresión 3,598095
R2 0,450704 R2 corregido 0,445099
F (1, 98) 80,41034 Valor p (de F ) 2,11e–14
Log-verosimilitud −268,9242 Criterio de Akaike 541,8484
Criterio de Schwarz 547,0587 Hannan–Quinn 543,9571

Es recomendable almacenar el modelo estimado en Archivo . Guardar la sesión


como icono y también las series de valores estimados y residuos, ya que serán
útiles para reconstruir algunos resultados de interés. Para ello se accede desde
el modelo a la opción Guardar . Valores estimados (podemos denominar a esta
serie yhat) y Guardar . Residuos (denominamos a esta serie u o uhat).
Al realizar la especificación del modelo mediante el test RESET de Ramsey,
accesible desde el menú Contrastes . Contraste RESET de Ramsey se obtiene
un nivel crítico muy bajo que nos lleva a concluir que la especificación no es
adecuada, lo cual puede ser debido a la inclusión de una única variable explica-
tiva (omitiendo otras causas relevantes), a la forma funcional lineal o a ambos
factores.
Para analizar la especificación del modelo llevaremos a cabo el test RESET de
Ramsey y los contrastes de linealidad disponibles en Gretl. Comenzando con el
test RESET, desde la salida del modelo el menú Contrastes . RESET de Ramsey
permite acceder a varias alternativas para el contraste: cuadrados y cubos, solo
cuadrados, solo cubos o todas las variantes.

Eligiendo la primera opción, que es la activada por defecto, se obtiene el resul-


tado siguiente a partir del cual se concluye que existe evidencia para rechazar
la hipótesis nula de especificación correcta, ya que resultan significativos los
términos incorporados a la regresión auxiliar (que son potencias de la varia-
ble estimada, introducidas como “proxies“ de la parte “no especificada”) y por
tanto el nivel crítico es muy bajo. La misma conclusión se obtiene para otras
especificaciones alternativas (cuadrados, cubos y ambos):
189

Regresión auxiliar para el contraste de especificación RESET


MCO, usando las observaciones 1-100
Variable dependiente: emisiones

Coeficiente Desv. Típica Estadístico t valor p


const 5,70527 0,885292 6,445 4,63e-09 ***
pib 0,00215311 0,000399190 5,394 4,95e-07 ***
ŷ 2 −0,895179 0,196190 −4,563 1,49e-05 ***
ŷ 3 0,0323252 0,00757381 4,268 4,63e-05 ***

Estadístico de contraste: F = 11,507540,


con valor p = P(F(2,96) > 11,5075) = 3,31e–05

Test RESET de Ramsey:


El test denominado RESET (Regression Equation Specification Error Test) pro-
puesto por Ramsey 1969, plantea la hipótesis nula de que el modelo está bien
especificado y en su desarrollo se estima un modelo ampliado donde se incluyen
potencias de la variable estimada como proxies de la parte «no especificada».
En este caso:

Yi = β1 + β2 Xi + γ1 Yˆi2 + γ2 Yˆi3 + ui

Sobre este modelo ampliado, la hipótesis nula de especificación correcta sería


equivalente a la nulidad de los coeficientes asociados a las nuevas variables (cua-
drados y cubos), es decir, H0 : γ1 = 0; γ2 = 0. Por lo tanto, se trata de un
contraste de restricciones lineales, con r = 2 y n − k = 96 y el estadístico de
contraste es F2,96 , que en este caso adopta el resultado 11,50 y lleva asociado
un nivel crítico muy reducido.
Cualquiera de las otras modalidades del test RESET con solo cuadrados o solo
cubos, conduciría a un valor de F más elevado (dado que serían modelos más
restringidos que el anterior). Como consecuencia, siempre que el tamaño de
muestra nos lo permita será recomendable aplicar el test completo con cuadrados
y cubos.

Nota:
Para reconstruir los resultados del contraste de Ramsey es necesario utilizar la
variable estimada en el modelo inicial, que ha sido almacenada como yhat me-
diante la opción de Guardar . Valores estimados. Posteriormente se generan las
variables cuadrado y cubo (yhat_2, yhat_3). La primera de ellas puede generar-
se directamente seleccionando en el archivo de trabajo yhat mediante la opción
de menú Añadir . Cuadrados de las variables seleccionadas y otra alternativa es
utilizar la opción Añadir . Definir nueva variable con las instrucciones:
190 SUPUESTO 13. EMISIONES

yhat_2 = yhat ^2
yhat_3 = yhat ^3

Una vez añadidas estas variables a nuestro archivo de trabajo se estima el mo-
delo ampliado, que incluye como regresores además del pib las variables yhat_2,
yhat_3. Sobre este modelo estimado, el contraste RESET de Ramsey es equi-
valente al resultado obtenido en Contrastes . Restricciones lineales indicando la
hipótesis:

b [ yhat_2 ]=0
b [ yhat_3 ]=0

El estadístico F que proporciona esta salida puede ser también reconstruido


utilizando la expresión

û0R ûR − û0 û


  
n−k r
' Fn−k
û0 û r
Para ello sería necesario guardar la suma de los cuadrados de los residuos del
modelo inicial, que explica las emisiones en función del pib, que será el modelo
restringido (y por tanto podemos denominar SCR_R), y también la suma de
los cuadrados de los residuos del modelo ampliado (no restringido) que denomi-
namos SCR. Estos cálculos resultan más cómodos con el script siguiente:
ols emisiones const pib
n = $nobs
series yhat1 = $yhat
SCR_R = $ess
series yhat_2 = yhat1 ^2
series yhat_3 = yhat1 ^3
ols emisiones const pib yhat_2 yhat_3
r =2
k = $ncoeff
SCR = $ess
F =(( SCR_R - SCR )/ SCR )*(( n - k )/ r )
p = pvalue (F ,r ,n -k , F )

El resultado del test de Ramsey sugiere la conveniencia de incluir nuevas varia-


bles explicativas en el modelo. Así, a modo de ejemplo las emisiones podrían
estar relacionadas directamente con el consumo energético y/o la producción
industrial e inversamente con el uso de energías renovables, aunque es posible
que algunas de estas variables estén correlacionadas con el PIB, y por tanto
introduzcan problemas de colinealidad. Además, la mala especificación puede
estar también relacionada con la forma funcional propuesta, por lo que resul-
ta conveniente contrastar la linealidad a través de los dos tests disponibles en
Gretl.
Desde la salida del modelo inicial estos tests se encuentran disponibles en Con-
trastes . No linealidad (cuadrados) y Contrastes . No linealidad (logs). En ambos
191

casos, los resultados obtenidos muestran niveles críticos reducidos que conducen
al rechazo del supuesto de linealidad.
Regresión auxiliar para el contraste de no linealidad (términos al cuadrado)
MCO, usando las observaciones 1–100
Variable dependiente: uhat

Coeficiente Desv. Típica Estadístico t valor p


const −0,528569 0,518938 −1,019 0,3109
pib 0,000178506 9,31547e-05 1,916 0,0583 *
sq_pib −4,88697e-09 2,42070e-09 −2,019 0,0463 **

R-cuadrado = 0,040323
Estadístico de contraste: T R2 = 4,03227,
con valor p = P(Chi-cuadrado(1) > 4,03227) = 0,0446377

Regresión auxiliar para el contraste de no linealidad (términos logarítmicos)


MCO, usando las observaciones 1–100
Variable dependiente: uhat

Coeficiente Desv. Típica Estadístico t valor p


const −11,3645 2,98405 −3,808 0,0002 ***
pib −0,000176489 5,36737e-05 −3,288 0,0014 ***
l_pib 1,60023 0,415878 3,848 0,0002 ***

R-cuadrado = 0,132424
Estadístico de contraste: T R2 = 13,2424,
con valor p = P(Chi-cuadrado(1) > 13,2424) = 0,00027368

Contraste auxiliar sobre los residuos nR2 → χ2r


Algunos contrastes (entre ellos los tests de linealidad) se basan en regresiones
auxiliares sobre los residuos (o residuos cuadráticos) del modelo inicial y pro-
porcionan como resultado un estadístico chi-cuadrado y el correspondiente nivel
crítico. El planteamiento consiste en estimar un modelo inicial y almacenar los
residuos de este modelo, para a continuación llevar cabo una regresión auxiliar
sobre estos residuos, que en el caso del contraste de linealidad contempla dos
variantes: con logaritmos y con cuadrados.
Si la hipótesis nula fuese cierta, los estos términos adicionales (logaritmos o
cuadrados) tendrían coeficiente nulo. Por lo tanto, este caso corresponde a un
modelo restringido sobre los residuos cuya suma de cuadrados de residuos po-
demos denominar û0R ûR . En cambio, cuando se añaden los términos adicionales
logarítmicos o cuadráticos, se tendría el modelo ampliado o libre con suma de
residuos û0 û.
192 SUPUESTO 13. EMISIONES

Cuando se lleva a cabo la estimación de este modelo auxiliar ampliado para los
residuos el coeficiente de determinación vendrá dado por la expresión: RA2
=
0 0 0
û û ûR ûR − û û
1− 0 =
ûR ûR û0R ûR
Por otra parte, como ya hemos visto anteriormente, el estadístico del multipli-
cador de Lagrange LM Contraste-de-restricciones
 0 (p.108) (p., sigue una distri-
ûR ûR − û0 û

bución chi-cuadrado LM = n → χ2r
û0R ûR
2
Por lo tanto, el estadístico LM puede también ser obtenido como LM = nRA → χ2r ,
2
donde RA es el coeficiente de determinación de la regresión auxiliar y r representa
el número de restricciones, o lo que es lo mismo, el número de variables explicativas
adicionales incluidas en la regresión auxiliar (en este caso logaritmos o cuadrados de
las variables explicativas).

Nota:
Para reconstruir los contrastes de linealidad podemos utilizar los residuos guar-
dados del modelo inicial con Guardar . Residuos (uhat). Además es necesario
generar también las transformaciones del pib mediante cuadrados y logaritmos
(variables sq_pib y l_pib, accesibles ambas directamente desde el menú Aña-
dir). Una vez estimado el modelo auxiliar, que tiene como variable dependiente
uhat y regresores pib y sq_pib (o bien pib y l_pib), los estadísticos de contraste
se obtienen mediante producto del tamaño de muestra (100) y el coeficiente de
determinación de la regresión auxiliar (0,04 en el modelo con cuadrados y 0,1324
en el de logaritmos).
El siguiente script realiza de forma automática estos contrastes de linealidad:
ols emisiones const pib
n = $nobs
series uhat = $uhat
series sq_pib = pib ^2
series l_pib = log ( pib )
ols uhat const pib sq_pib
R2 = $rsq
TR2_2 = n * R2
p_2 = pvalue (X ,1 , TR2_2 )
ols uhat const pib l_pib
R2 = $rsq
TR2_l = n * R2
p_l = pvalue (X ,1 , TR2_l )

2. Según la curva de Kuznets medioambiental, el volumen de emi-


siones aumenta con el PIB hasta cierto punto de retorno. Estimar
esta curva mediante modelos polinómicos de segundo o tercer grado
analizando los resultados
193

Nota:
La relación entre crecimiento económico e indicadores medioambientales ha sido
representada a menudo mediante la Curva de Kuznets Medioambiental (Envi-
ronmental Kuznets Curve, EKC), inspirada en la relación de U invertida entre
desigualdad y crecimiento económico propuesta por Kuznets 1955. Según este
planteamiento los costes medioambientales del crecimiento económico afectan a
la calidad medioambiental, que empeora en las primeras etapas del crecimiento,
para posteriormente mejorar tras cierto punto de inflexión.
Este modelo ha sido objeto de diversas ampliaciones para permitir patrones
más flexibles que se adapten a los diversos comportamientos observados empí-
ricamente tanto con perspectiva espacial como temporal.

Con la información disponible en nuestra base de datos, la estimación de un


modelo polinómico de segundo grado mejora el modelo lineal ya que la variable
sq_pib resulta significativa y el coeficiente de determinación corregido aumenta
de 0,44 a 0,46.

Modelo 2: MCO, usando las observaciones 1–100


Variable dependiente: emisiones

Coeficiente Desv. Típica Estadístico t valor p


const 1,94882 0,518938 3,755 0,0003
pib 0,000445502 9,31547e–05 4,782 0,0000
sq_pib −4,88697e–09 2,42070e–09 −2,019 0,0463
Media de la vble. dep. 4,975097 D.T. de la vble. dep. 4,830199
Suma de cuad. residuos 1217,577 D.T. de la regresión 3,542929
R2 0,472854 R2 corregido 0,461985
F (2, 97) 43,50480 Valor p (de F ) 3,26e–14
Log-verosimilitud −266,8663 Criterio de Akaike 539,7325
Criterio de Schwarz 547,5480 Hannan–Quinn 542,8956

La representación gráfica disponible desde el modelo estimado ( Gráfico . Grá-


fico de variable estimada y observada . Contra pib) muestra una parábola que
efectivamente estima un punto de retorno a partir del cual las emisiones dejan
de crecer (dicho punto se situaría ligeramente por encima de los 40.000 dólares
per capita, próximo a los niveles de PIBpc de países como Noruega o Japón)
194 SUPUESTO 13. EMISIONES

��������������������������������������������������
� ��
���������
��������

� ��

� ��
���������

� ��

��

��
�� ������ ������ ������ ������ �����

���

Sin embargo, siguen existiendo problemas de especificación ya que al realizar el


test de Ramsey sobre este modelo se obtiene nuevamente un nivel crítico muy
bajo (0,0001).

Contraste de especificación RESET –


Hipótesis nula: La especificación es adecuada
Estadístico de contraste: F (2, 95) = 9,4639
con valor p = P (F (2, 95) > 9,4639) = 0,000178633
Por su parte el modelo polinómico de orden 3 mejora significativamente el co-
eficiente de determinación corregido (hasta el 54 %) y estima una forma más
flexible, con un primer punto de inflexión por encima de los 20000 dólares (ni-
veles de PIBpc similares a los de Italia y Francia) a partir del cual las emisiones
decrecen y un segundo punto por encima de los 30000 (PIBpc similar al de
Suecia) que da paso a nuevos incrementos en las emisiones.

\ = 0, 702642 + 0, 00112778 pib − 4, 66882e–08 sq_pib + 6, 15258e–13 pib3


emisiones
(1,254) (6,215) (−4,648) (4,268)
2
T = 100 R̄ = 0, 5431 F (3, 96) = 40, 223 σ̂ = 3, 2650
(entre paréntesis, los estadísticos t)
195

��������������������������������������������������
���
���������
��������

���

���
���������

���

� �

� �
� � � ����� � ����� ������ ������ �����

���

Ademas, es importante tener presente que en este caso, a diferencia de los mo-
delos anteriores, al realizar el test de Ramsey se obtiene un nivel crítico elevado
(0,25) y por tanto no se rechaza el supuesto de especificación correcta

Contraste de especificación RESET –


Hipótesis nula: La especificación es adecuada
Estadístico de contraste: F (2, 94) = 1,3997
con valor p = P (F (2, 94) > 1,3997) = 0,251763

Nota:
Interpretación de los valores t. El contraste de significación individual que
aparece en las salidas de los modelos estimados incluye información relativa al
nivel crítico:
 
p = P |tn−k | > d∗β̂ /H0

Teniendo en cuenta que este valor p será


menor cuanto mayor sea el valor
β̂
absoluto de la discrepancia d∗β̂ = , podemos analizar la conclusión del

Sβ̂
contraste a partir del estadístico t, sin necesidad de conocer con exactitud el
valor del nivel crítico p. Si bien la distribución de probabilidad t de Student
depende de los grados de libertad del modelo, es decir, del tamaño muestral y el
número de parámetros, en general se observa que para valores de la discrepancia
ligeramente superiores a 2 el valor del nivel crítico p es inferior al 5 %, y por
tanto el resultado sería significativo para rechazar la nulidad del coeficiente,
validando así la correspondiente variable.
196 SUPUESTO 13. EMISIONES

3. ¿Afecta la firma del acuerdo de París al volumen de emisiones?

Al ampliar la especificación del modelo polinómico de orden 3 incluyendo como


regresor la variable dicotómica que toma valor unitario si el país ha firmado
el acuerdo de París, se observa que dicha variable no resulta significativa, y lo
mismo sucede en los otros modelos propuestos (polinómico de orden 2 y lineal).
En todos los casos el nivel crítico asociado al test de significación de la variable
acuerdo_Paris supera el 10 %, hecho que se debe a que la mayoría de los países
de la muestra han firmado el acuerdo de París, por lo que esta variable cualitativa
no resulta significativa.

Modelo 4: MCO, usando las observaciones 1–100


Variable dependiente: emisiones

Coeficiente Desv. Típica Estadístico t valor p


const 4,14650 1,14840 3,611 0,0005
pib 0,000269959 2,96091e–05 9,117 0,0000
acuerdo_paris −1,88536 1,19269 −1,581 0,1172
Media de la vble. dep. 4,975097 D.T. de la vble. dep. 4,830199
Suma de cuad. residuos 1236,873 D.T. de la regresión 3,570892
R2 0,464499 R2 corregido 0,453458
F (2, 97) 42,06947 Valor p (de F ) 7,00e–14
Log-verosimilitud −267,6524 Criterio de Akaike 541,3049
Criterio de Schwarz 549,1204 Hannan–Quinn 544,4680

\ = 3, 63537 + 0, 000449959 pib − 4, 92682e–09 sq_pib − 1, 90993 acuerdo_paris


emisiones
(3,142) (4,869) (−2,052) (−1,628)
2
T = 100 R̄ = 0, 4710 F (3, 96) = 30, 379 σ̂ = 3, 5132
(entre paréntesis, los estadísticos t)

\ = 2, 24391 + 0, 00112157 pib − 4, 60970e–08 sq_pib + 6, 06027e–13 pib3


emisiones
(2,010) (6,229) (−4,622) (4,234)

− 1, 72424 acuerdo_paris
(−1,592)

T = 100 R̄2 = 0, 5503 F (4, 95) = 31, 284 σ̂ = 3, 2392


(entre paréntesis, los estadísticos t)

4. Estimar un modelo loglineal para las emisiones, estudiando si esta


opción sería más adecuada que la curva anterior.

La estimación de un modelo loglineal se lleva a cabo a partir de los logaritmos de


las emisiones (l_emisiones) y del pib (l_pib), obteniendo el resultado siguiente:
197

Modelo 5: MCO, usando las observaciones 1–100


Variable dependiente: l_emisiones

Coeficiente Desv. Típica Estadístico t valor p


const −5,33193 0,445347 −11,97 0,0000
l_pib 0,768600 0,0537746 14,29 0,0000
Media de la vble. dep. 0,919524 D.T. de la vble. dep. 1,465514
Suma de cuad. residuos 68,93146 D.T. de la regresión 0,838679
R2 0,675808 R2 corregido 0,672500
F (1, 98) 204,2899 Valor p (de F ) 1,04e–25
Log-verosimilitud −123,2910 Criterio de Akaike 250,5820
Criterio de Schwarz 255,7923 Hannan–Quinn 252,6907
Contraste de especificación RESET –

Hipótesis nula: La especificación es adecuada


Estadístico de contraste: F (2, 96) = 22,0179
con valor p = P (F (2, 96) > 22,0179) = 1,34755e-08

Si bien la primera apariencia podría ser favorable a este modelo debemos analizar
con cuidado la situación, examinando si la especificación es adecuada y si el
modelo tiene suficiente capacidad explicativa.
Por lo que se refiere a la primera cuestión, el test RESET de Ramsey propor-
ciona un nivel crítico reducido y por tanto conduce al rechazo del supuesto de
especificación correcta.
En lo que respecta a la capacidad explicativa, dado que la estimación se ha
llevado a cabo a partir de las variables expresadas en logaritmos es necesario
deshacer este cambio de variables, calculando los residuos o errores sobre las
emisiones, es decir, sobre el antilogaritmo o función exponencial de la variable
l_emisiones estimada con el modelo loglineal. Aunque es posible realizar este
proceso a través de los menús de Gretl, recomendamos para mayor comodidad
utilizar scripts.
ols emisiones const pib
SCR = $ess
#suma de c u a d r a d o s de l o s r e s i d u o s
ols l_emisiones 0 l_pib
series yhat_log = $yhat
series yhat = exp ( yhat_log )
series u = emisiones - yhat
SCR_Log = sum ( u * u )
#suma de c u a d r a d o s de l o s r e s i d u o s

Si se prefiere podemos cuidar un poco más el código para que la salida de Gretl
sea más simplificada:
set echo off
#E v i t a que en l a v e n t a n a de s a l i d a s e i m p r i m a n l o s comandos
ols emisiones const pib -- quiet
#−−q u i e t o m i t e l a s a l i d a ( d e l modelo , de un b u c l e , de un t e s t , e t c
)
SCR = $ess
ols l_emisiones 0 l_pib -- quiet
series yhat_log = $yhat
198 SUPUESTO 13. EMISIONES

series yhat = exp ( yhat_log )


series u = emisiones - yhat
SCR_Log = sum ( u * u )
printf " Suma de cuadrados de los residuos , \ n modelo lineal : %g , \ n
modelo log : %g " ,SCR , SCR_Log

Nota:
Esta función imprime el texto con un formato concreto, cuando escribimos \n
salta de línea y cuando insertamos %g en esa posición imprimirá la variable
que corresponda en un formato numérico determinado. Al final se recogen las
variables que se van a imprimir (en el orden adecuado)

La salida de este código es la siguiente y confirma que la suma de residuos


cuadráticos del modelo log lineal supera a la del modelo lineal inicialmente pro-
puesto, y por consiguiente también a las de los modelos polinómicos estimados
en apartados anteriores:

Suma de cuadrados de los residuos,


modelo lineal: 1268,74,
modelo log: 1500,45
SUPUESTO 14

Metal

Contenidos: Estimación MCO, Violación de supuestos, Test RESET


de Ramsey, Restricciones lineales, Tests de linealidad, Mínimos Cua-
drados No lineales (MCNL), Modelo log-lineal, Endogeneidad, Test
de Hausman, Test de White, Heterocedasticidad, Mínimos Cuadrados
Ponderados (MCP), Predicción

Nombre del fichero: metal.gdt http://cort.as/-LMcc

Página de datos: http://cort.as/-LHjb . metal.gdt


Página de scripts: http://cort.as/-LHjE . S14_Metal.inp

Enunciado:
Se dispone de una muestra de 27 empresas del sector metal sobre las que se
estudian las variables output (Valor añadido), empleo (Número de empleados
equivalentes a tiempo completo) y capital (Stock de capital, valor de planta y
equipamiento).

1. Estimar por mínimos cuadrados un modelo lineal: Yi = β1 + β2 Li + β3 Ki


(1) y analizar la especificación propuesta
2. Se consideran empresas de alto empleo aquéllas con más de 500 empleados.
Contrastar si su output podría tener un comportamiento diferencial
3. Estudiar posibles problemas de endogeneidad del empleo
4. Analizar la existencia de multicolinealidad
5. Se especifica una función de producción Cobb Douglas: Yi = β1 Lβi 2 Kiβ3
(2). Efectuar una transformación lineal del modelo y llevar a cabo su esti-
mación mínimo cuadrática ¿Soluciona esta transformación los problemas
detectados sobre el modelo lineal?

199
200 SUPUESTO 14. METAL

6. Contrastar sobre el modelo anterior el supuesto de rendimientos a escala


constantes
7. ¿Cómo se llevaría a cabo la estimación del modelo Cobb-Douglas mediante
mínimos cuadrados no lineales?
8. Estudiar si existe evidencia para rechazar el supuesto de homocedasticidad
en los modelos propuestos (1) y (2)
9. ¿Cuál sería el output previsto según los modelos anteriores para una em-
presa con 400 trabajadores y un stock de capital de 2500?

Solución:
1. Estimar por mínimos cuadrados un modelo lineal Yi = β1 + β2 Li +
β3 Ki (1) y analizar la especificación propuesta

La estimación mínimo cuadrática del modelo lineal proporciona el resultado


siguiente, donde se observa que los signos de los coeficientes son los esperados
y el empleo sólo resulta significativo al 10 %.

Modelo 1: MCO, usando las observaciones 1–27


Variable dependiente: output

Coeficiente Desv. Típica Estadístico t valor p


const −168,853 204,191 −0,8269 0,4164
empleo 2,21168 1,22324 1,808 0,0831
capital 0,648023 0,132381 4,895 0,0001
Media de la vble. dep. 2488,349 D.T. de la vble. dep. 2758,144
Suma de cuad. residuos 7344681 D.T. de la regresión 553,1983
R2 0,962867 R2 corregido 0,959772
F (2, 24) 311,1583 Valor p (de F ) 6,87e–18
Log-verosimilitud −207,2456 Criterio de Akaike 420,4912
Criterio de Schwarz 424,3787 Hannan–Quinn 421,6472

Para analizar la especificación del modelo llevaremos a cabo el test global RE-
SET de Ramsey y los contrastes de linealidad.
Comenzando con el test RESET, desde la salida del modelo, Contrastes . RESET
de Ramsey seleccionamos la alternativa con cuadrados y cubos que conduce al
resultado sigiuiente:

Regresión auxiliar para el contraste de especificación RESET


MCO, usando las observaciones 1−27
Variable dependiente: output
Coeficiente Desv. Típica z valor p
const −611,003 318,894 1,916 0,0684 *
empleo 1,01703 1,17724 0,8639 0,3970
capital 0,138364 0,210377 0,6577 0,5176
ŷ 2 0,000132280 6,06911e-05 2,180 0,0403 **
ŷ 3 −6,03231e-09 3,40477e-09 −1,772 0,0903 *
201

Estadístico de contraste: F = 5,731472,


con valor p = P(F(2,22) > 5,73147) = 0,00992

El test RESET de Ramsey RESET (p.189) detecta evidencia para rechazar la hi-
pótesis nula de especificación correcta, ya que resultan significativos los términos
incorporados a la regresión auxiliar (que son potencias de la variable estimada,
introducidas como proxies de la parte “no especificada”). La misma conclusión se
obtiene para todas las especificaciones alternativas (solo cuadrados, solo cubos
y ambos).
Si llevamos a cabo el test con todas las opciones se obtiene:

Contraste de especificación RESET (cuadrados y cubos)


Estadístico de contraste: F = 5,731472,
con valor p = P(F(2,22) > 5,73147) = 0,00992
Contraste de especificación RESET (cuadrados sólo)
Estadístico de contraste: F = 7,615687,
con valor p = P(F(1,23) > 7,61569) = 0,0112
Contraste de especificación RESET (cubos sólo)
Estadístico de contraste: F = 5,771357,
con valor p = P(F(1,23) > 5,77136) = 0,0248

Como observamos en esta salida, en todos los casos se rechaza la hipótesis


de nulidad de los coeficientes de ŷ 2 e ŷ 3 , y por lo tanto se concluye que la
especificación no es correcta.
En cuanto a los test de linealidad, disponemos de dos opciones en Gretl, basadas
en regresiones auxiliares con cuadrados y con logarítmos. En la salida del mo-
delo, Contrastes . No linealidad (cuadrados) se obtiene un nivel crítico reducido
que conduce al rechazo del supuesto de linealidad

Regresión auxiliar para el contraste de no linealidad (términos al cuadrado)


MCO, usando las observaciones 1-27
Variable dependiente: uhat
Coeficiente Desv. Típica z valor p
const 822,388 378,505 2,173 0,0408 **
empleo −4,69787 3,13886 −1,497 0,1487
capital 0,0851864 0,251131 0,3392 0,7377
sq_empleo 0,00516010 0,00315540 1,635 0,1162
sq_capital −3,32175e-05 3,27985e-05 −1,013 0,3222

R2 = 0, 314846
Estadístico de contraste: T R2 = 8, 50083,
con valor p = P (χ22 > 8, 50083) = 0, 0142583

De modo similar, en la opción Contrastes . No linealidad (logaritmos) se llega a


la misma conclusión que es el rechazo de la hipótesis nula de linealidad
202 SUPUESTO 14. METAL

Regresión auxiliar para el contraste de no linealidad (términos logarítmicos)


MCO, usando las observaciones 1-27
Variable dependiente: uhat
Coeficiente Desv. Típica z valor p
const 5502,78 2488,97 2,211 0,0377 **
empleo 2,30459 2,43811 0,9452 0,3548
capital -0,0278016 0,203839 -0,1364 0,8928
l_empleo -55,705 819,663 -1,044 0,3078
l_capital -191,208 363,334 -0,5263 0,6040

R2 = 0, 238921
Estadístico de contraste: T R2 = 6, 45086,
con valor p = P (χ22 > 6, 45086) = 0, 0397387

2. Se consideran empresas de alto empleo aquéllas con más de 500


empleados. Contrastar si su output podría tener un comportamiento
diferencial

Para contrastar si existe un comportamiento diferencial en las empresas de alto


empleo, se crea primero la variable dummy alto_empleo=(empleo>500) que adop-
ta valor unitario para las 7 empresas cuyo empleo supera los 500 empleados.
Mediante la nube de puntos de empleo y output (Ver . Graficos . X-Y con
factor de separación ...), se puede apreciar que las empresas de esta categoría
(representadas en rojo) muestran un comportamiento distinto de las restantes:

14000
output (alto_empleo=0)
12000 output (alto_empleo=1)

10000

8000

6000

4000

2000

0
200 400 600 800 1000 1200 1400 1600
empleo

Si estimamos separadamente los dos modelos simples se confirma este compor-


tamiento diferenciado, siendo la ecuación para las empresas sin alto empleo:
203

\ = 233, 028 + 0, 788766 empleo + 0, 687056 capital


output
(210,81) (1,1727) (0,13155)

T = 20 R̄2 = 0, 7883 F (2, 17) = 36, 384 σ̂ = 328, 76


(Desviaciones típicas entre paréntesis)

mientras para 7 las empresas empresas con alto empleo se obtiene:

\ = −2444, 49 + 6, 52652 empleo + 0, 392593 capital


output
(640,09) (1,8634) (0,17825)
2
T = 7 R̄ = 0, 9802 F (2, 4) = 149, 89 σ̂ = 547, 19
(Desviaciones típicas entre paréntesis)

Podemos observar cómo cambian de forma considerable los coeficientes del mo-
delo, lo que parece confirmar el comportamiento diferencial entre ambas sub-
muestras y sugiere la existencia de un cambio estructural.
Para llegar a una conclusión más sólida se lleva a cabo el test propuesto por
Chow para la detección de cambio estructrual. Concretamente, en este caso
se aplica al contraste a la función de producción lineal estimada previamente,
utilizando como criterio de separación la variable alto_empleo.
Como se observa en la salida, el test de Chow Test-de-Chow (p.249) se basa en
una regresión aumentada en la que se añaden como explicativas tanto la variable
dummy alto_empleo como el término de interacción entre dicha variable y los
inputs empleo y capital.

Regresión aumentada para el contraste de Chow


MCO, usando las observaciones 1-27
Variable dependiente: output
Coeficiente Desv. Típica Estadístico t valor p
const 233,028 243,775 0,9559 0,3500
empleo 0,788766 1,35603 0,5817 0,5670
capital 0,687056 0,152122 4,516 0,0002 ***
alto_empleo −2677,52 507,142 −5,280 3,11e-05 ***
al_empleo 5,73775 1,87481 3,060 0,0059 ***
al_capital −0,294462 0,196158 −1,501 0,1482

Suma de cuad. residuos 3035033 D.T. de la regresión 380,1649


R-cuadrado 0,984655 R-cuadrado corregido 0,981002
F(5, 21) 269,5115 Valor p (de F) 2,66e-18
Log-verosimilitud −195,3149 Criterio de Akaike 402,6299
Criterio de Schwarz 410,4049 Crit. de Hannan-Quinn 404,9418

Contraste de Chow de diferencia estructural con respecto a Dummy


F(3, 21) = 9,93977 con valor p 0,0003
204 SUPUESTO 14. METAL

La conclusión, como cabía esperar, es que existe un cambio de estructural, y


se aprecia que son significativas tanto la variable dummy como la interacción
con el empleo. Es decir, para las 7 mayores empresas hay un mayor impacto del
empleo sobre el output (productividad) que para las 20 restantes.
Este cambio estructural está relacionado con la no linealidad detectada anterior-
mente y sugiere la conveniencia de revisar la especificación del modelo teniendo
en cuenta la información proporcionada por la regresión auxiliar del test de
Chow. Más concretamente, si se incluyen como regresores las variables capital,
alto empleo y la interacción entre empleo y la cualitativa alto_empleo (que re-
sultan significativas) se observa que el test RESET de Ramsey ya no detecta al
5 % un problema de especificación:

Contraste de especificación RESET -


Hipótesis nula: La especificación es adecuada
Estadístico de contraste: F(2, 21) = 3,37841
con valor p = P(F(2, 21) > 3,37841) = 0,0534465

Sin embargo, antes de dar por válida esta especificación vamos a seguir explo-
rando nuevas posibilidades en los apartados siguientes.

3. Estudiar posibles problemas de endogeneidad del empleo

Resulta bastante verosímil pensar que el empleo es tanto causa como efecto del
output. Para contrastar la posible endogeneidad del empleo se lleva a cabo una
estimación bietápica del modelo lineal inicial Modelos . Variables instrumentales
. Mínimos cuadrados en dos etapas, utilizando como instrumentos el capital y la
dummy anteriormente generada (alto_empleo).
205

Modelo 1a: MC2E, usando las observaciones 1–27


Variable dependiente: output
Mediante Instrumentos: empleo
Instrumentos: const capital alto_empleo

Coeficiente Desv. Típica Estadístico t valor p


const 680,675 563,958 1,207 0,2392
empleo −4,94281 4,36058 −1,134 0,2682
capital 1,39423 0,458120 3,043 0,0056
Media de la vble. dep. 2488,349 D.T. de la vble. dep. 2758,144
Suma de cuad. residuos 17813528 D.T. de la regresión 861,5279
R2 0,911298 R2 corregido 0,903906
F (2, 24) 128,2619 Valor p (de F ) 1,54e–13
Log-verosimilitud −394,9321 Criterio de Akaike 795,8643
Criterio de Schwarz 799,7518 Hannan–Quinn 797,0202
Contraste de Hausman –

Hipótesis nula: Los estimadores de MCO son consistentes


Estadístico de contraste asintótico: χ2 (1) = 13,6754
con valor p = 0,000217281
Contraste de Instrumento débil –
First-stage F (1, 24) = 5,66101

Esta salida incluye el resultado del test propuesto por Hausman 1978 para de-
tectar la posible existencia de endogeneidad en los regresores. Este contraste,
que se describe en Test-de-Hausman (p.225) asume como hipótesis nula que los
estimadores MCO son consistentes y se basa en la comparación entre dichos
estimadores y los obtenidos por mínimos cuadrados en dos etapas (MC2E). El
resultado obtenido en este caso es muy concluyente, y conduce al rechazo de
la hipótesis de consistencia para los estimadores MCO, por lo cual se confir-
ma el problema de endogeneidad y sería recomendable realizar una estimación
bietápica (MC2E).

4. Analizar la existencia de multicolinealidad

Desde el modelo estimado se solicita desde el menú de análisis la opción mul-


ticolinealidad y se observan unos FIV de 14 para las dos variables explicativas,
lo cual indica la presencia de multicolinealidad moderada. Esta conclusión es
corroborada por el análisis BKW ya que no hay ningún índice de condición
superior a 30 pero sí uno superior a 10 (valor 12,699 de la última fila).

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
empleo 14,051
capital 14,051
2 , donde Rj es el coeficiente de correlación múltiple
1
V IF (j) = 1−R
j
entre la variable j y las demás variables independientes
206 SUPUESTO 14. METAL

Diagnósticos de colinealidad de Belsley-Kuh-Welsch:

— proporciones de la varianza —
lambda cond const empleo capital
2,619 1,000 0,030 0,004 0,005
0,365 2,681 0,512 0,005 0,027
0,016 12,699 0,458 0,992 0,967

lambda = valores propios de X’X, del más grande al más pequeño


cond = índice de condición
nota: las columnas de proporciones de la varianza suman 1.0

Nota:
Para comprobar el cálculo de estos FIV (que lógicamente son coincidentes al
tratarse de sólo dos variables) bastaría seguir los pasos siguientes:

1. Llevar a cabo una regresión auxiliar de empleo sobre capital (o bien capital
sobre empleo)
2. Guardar el coeficiente de determinación $R^2$ como escalar (R2)

3. Generar FIV=1/(1-R2)

Consola o script:
ols empleo const capital
R2 = $rsq
FIV =1/(1 - R2 )

Conviene tener en cuenta que Gretl no deja utilizar usar el término VIF, pero
sí podemos utilizar FIV

5. Se especifica una función de producción Cobb Douglas: Yi = β1 Lβi 2 Kiβ3


(2). Efectuar una transformación lineal del modelo y llevar a cabo
su estimación mínimo cuadrática ¿Soluciona esta transformación los
problemas detectados sobre el modelo lineal?

Una de las funciones de producción más empleadas en el ámbito económico es


la propuesta por Cobb 1928 cuya popularidad se debe en gran medida a su fácil
manejo y el cumplimiento de propiedades consideradas deseables. La función de
Cobb-Douglas viene dada por la expresión Yi = β1 Lβi 2 Kiβ3 , 0 < β2 , β3 < 1 y al
transformar el modelo mediante logaritmos se obtiene la expresión lineal:

ln Yi = ln β1 + β2 ln Li + β3 ln Ki

Así pues, debemos generar las variables en logaritmos mediante la opción de


menú de Gretl Añadir . Definir nueva variable, o bien en este caso de una forma
207

más sencilla, seleccionando las 3 variables (output, empleo y capital) y Añadir


. Logaritmos de las variables seleccionadas. Una vez generadas dichas variables
podemos estimar un modelo mínimo cuadrático que proporciona el resultado que
se recoge a continuación, y donde se observa que ahora los dos inputs resultan
muy significativos:

Modelo 2: MCO, usando las observaciones 1–27


Variable dependiente: l_output

Coeficiente Desv. Típica Estadístico t valor p


const 0,893756 0,344648 2,593 0,0159
l_empleo 0,651855 0,132840 4,907 0,0001
l_capital 0,376981 0,0900120 4,188 0,0003
Media de la vble. dep. 7,457793 D.T. de la vble. dep. 0,795076
Suma de cuad. residuos 0,947301 D.T. de la regresión 0,198673
R2 0,942364 R2 corregido 0,937561
F (2, 24) 196,2016 Valor p (de F ) 1,34e–15
Log-verosimilitud 6,913329 Criterio de Akaike −7,826658
Criterio de Schwarz −3,939147 Hannan–Quinn −6,670697

Conviene tener presente que en este modelo, a diferencia del lineal, los coefi-
cientes estimados son elasticidades del output respecto al empleo y al capital
respectivamente.

Nota:
Una de las características más interesantes del modelo de Cobb-Douglas es que
presenta valores constantes de las elasticidades respecto a los inputs (a diferencia
del modelo lineal, donde la elasticidad varía en cada punto). De hecho, este
modelo tiene su origen en investigaciones desarrolladas en 1927 por P. Douglas
sobre la economía estadounidense, en las que observó que la distribución de
la renta entre el trabajo y el capital se mantenía estable a lo largo del tiempo
(aproximadamente 70 % para el trabajo y 30 % para el capital). Esta regularidad
le llevó a consultar con su amigo el matemático C. Cobb, proponiendo ambos
la función de producción que lleva su nombre Cobb 1928.

Una vez estimado el modelo loglineal, al realizar los contrastes habituales de


especificación se observa que el test RESET de Ramsey proporciona un nivel
crítico p=0,29, por lo que no rechazamos la hipótesis de especificación correcta.
Respecto a los contrastes de linealidad, se observa que los resultados obtenidos
no resultan significativos para rechazar al 5 %.

Contraste de especificación RESET -


Hipótesis nula: La especificación es adecuada
Estadístico de contraste: F(2, 22) = 1,29902
con valor p = P(F(2, 22) > 1,29902) = 0,292916
Contraste de no linealidad (cuadrados) -
208 SUPUESTO 14. METAL

Hipótesis nula: la relación es lineal


Estadístico de contraste: LM = 5,43474
con valor p = P(Chi-cuadrado(2) > 5,43474) = 0,0660483
Contraste de no linealidad (logaritmos) -
Hipótesis nula: la relación es lineal
Estadístico de contraste: LM = 5,19843
con valor p = P(Chi-cuadrado(2) > 5,19843) = 0,0743317

Sobre el modelo logarítmico estimado se comprueba mediante el test de Chow


que ya no existe cambio estructural entre las empresas de muchos trabajadores
(es decir, con alto_empleo=1) y el resto:

Contraste de Chow de diferencia estructural con respecto a alto_empleo --


Hipótesis nula: no hay diferencia estructural
Estadístico de contraste: F(3, 21) = 2.19419
con valor p = P(F(3, 21) > 2.19419) = 0.118805

Así pues, se observa que el hecho de linealizar las variables mediante logaritmos
ha solucionado muchos de los inconvenientes detectados sobre el modelo lineal.
Tampoco existen ahora problemas de endogeneidad del empleo, como podemos
comprobar mediante la estimación MC2E y el test de Hausman, cuyo nivel crí-
tico es elevado:

Modelo 2a: MC2E, usando las observaciones 1–27


Variable dependiente: l_output
Mediante Instrumentos: l_empleo
Instrumentos: const l_capital alto_empleo

Coeficiente Desv. Típica Estadístico t valor p


const 1.20430 0.453821 2.654 0.0139
l_empleo 0.403478 0.254776 1.584 0.1264
l_capital 0.527535 0.160324 3.290 0.0031
Media de la vble. dep. 7.457793 D.T. de la vble. dep. 0.795076
Suma de cuad. residuos 1.085289 D.T. de la regresión 0.212651
R2 0.934173 R2 corregido 0.928688
F (2, 24) 162.0008 Valor p (de F ) 1.16e–14
Log-verosimilitud −28.99022 Criterio de Akaike 63.98044
Criterio de Schwarz 67.86795 Hannan–Quinn 65.13640
Contraste de Hausman –

Hipótesis nula: Los estimadores de MCO son consistentes


Estadístico de contraste asintótico: χ2 (1) = 1.90453
con valor p = 0.167572
Contraste de Instrumento débil –
First-stage F (1, 24) = 10.8562
209

Por último puede verse que el modelo logarítmico no presenta síntomas de mul-
ticolinealidad ya que los FIV se reducen considerablemente:

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
l_empleo 5.006
l_capital 5.006

6. Contrastar sobre el modelo anterior el supuesto de rendimientos a


escala constantes

La hipótesis de rendimientos a escala constantes asume que, ante aumentos


proporcionales en los inputs, el output responderá aumentando en la misma
proporción. Sobre el modelo potencial esta hipótesis se expresa como:

β2 β3
λYi = β1 (λLi ) (λKi )

 β +β 
β1 Lβi 2 Kiβ3
2 3
λYi = λ

Por lo tanto la hipótesis de rendimientos a escala constantes equivale a la res-


tricción lineal β2 + β3 = 1 o β2 + β3 − 1 = 0. Los parámetros β2 y β3 son las
elasticidades del output respecto a los factores de producción empleo y capital
respectivamente.
Este contraste se lleva a cabo en Gretl desde la salida del modelo estimado
Contrastes . Restricciones lineales introduciendo la hipótesis:
b [ l_empleo ]+ b [ l_capital ]=1

El resultado obtenido proporciona un nivel crítico de 0,666 por lo que se concluye


que no existe evidencia significativa para rechazar la hipótesis de rendimientos
a escala constantes.
Restricción:
b[l_empleo] + b[l_capital] = 1
Estadístico de contraste: F (1, 24) = 0,1909, con valor p = 0,666075
Estimaciones restringidas:

Coeficiente Desv. Típica Estadístico t valor p


const 1,03107 0,139179 7,408 9,26e–08 ***
l_empleo 0,605845 0,0796545 7,606 5,83e–08 ***
l_capital 0,394155 0,0796545 4,948 4,26e–05 ***

Desviación típica de la regresión = 0.195431


210 SUPUESTO 14. METAL

7. ¿Cómo se llevaría a cabo la estimación del modelo Cobb-Douglas


mediante mínimos cuadrados no lineales?

Para llevar a cabo la estimación por Mínimos Cuadrados No Lineales (MCNL)


en Gretl es necesario introducir el modelo especificado, las derivadas respecto a
cada uno de los parámetros y valores iniciales para éstos. Así, en nuestro caso
caso podemos comenzar por generar los escalares b1 b2 y b3 a los que asignamos
en la consola valores iniciales (por ejemplo 1) y a continuación desde la opción
de menú Modelo -> Mínimos Cuadrados No Lineales introducimos la siguiente
especificación (cabría también la posibilidad de añadir los valores iniciales de
los escalares si no se han definido previamente):

Script modelo no lineal:


scalar b1 =1
scalar b3 =1
scalar b2 =1

#estos escalares pueden estar definidos aquí o bien definirse antes mediante la
consola. Si se vuelve a escribir el modelo ya no hace falta definirlos
output = b1 * empleo ^ b2 * capital ^ b3
deriv b1 = empleo ^ b2 * capital ^ b3
deriv b2 = b1 * empleo ^ b2 * log ( empleo ) * capital ^ b3
deriv b3 = b1 * empleo ^ b2 * capital ^ b3 * log ( capital )

#También podemos sustituir las derivadas analíticas por la inclusión de la si-


guiente expresión:
params b1 , b2 , b3

En este caso el programa hace una aproximación numérica de las derivadas,


proporcionando la estimación del modelo y predicciones aunque las propiedades
de los estimadores no son tan satisfactorias.

Los modelos estimados, incluyendo derivadas analíticas (3) y sin ellas (3a) son
los siguientes:

Modelo 3: MC. no lineales, usando las observaciones 1–27


output = b1 * empleo^b2 * capital^b3

Estimación Desv. Típica Estadístico t valor p


b1 0,828471 0,304377 2,722 0,0119
b2 0,513586 0,185127 2,774 0,0105
b3 0,615112 0,148790 4,134 0,0004
Media de la vble. dep. 2488,349 D.T. de la vble. dep. 2758,144
Suma de cuad. residuos 6196871 D.T. de la regresión 508,1367
R2 no centrado 0,968670 R2 centrado -0,020827
Log-verosimilitud -204,9515 Criterio de Akaike 415,9031
Criterio de Schwarz 419,7906 Hannan–Quinn 417,0590
GNR: R2 = 1,11022e-16, max |t| = 9,17869e-08
211

La convergencia parece ser razonablemente completa

Modelo 3a: MC. no lineales, usando las observaciones 1–27


output = b1 * empleo^b2 * capital^b3

Estimación Desv. Típica Estadístico t valor p


b1 0,828471 0,304377 2,722 0,0119
b2 0,513586 0,185127 2,774 0,0105
b3 0,615112 0,148790 4,134 0,0004
Media de la vble. dep. 2488,349 D.T. de la vble. dep. 2758,144
Suma de cuad. residuos 6196871 D.T. de la regresión 508,1367
R2 no centrado 0,968670 R2 centrado -0,020827
Log-verosimilitud -204,9515 Criterio de Akaike 415,9031
Criterio de Schwarz 419,7906 Hannan–Quinn 417,0590
GNR: R2 = 1,9984e-15, max |t| = 2,00813e-07
La convergencia parece ser razonablemente completa

Como podemos apreciar los resultados obtenidos por ambos métodos son prác-
ticamente iguales y en este caso únicamente cambian algunos procedimientos
internos relativos al cálculo y las aproximaciones.
Podemos observar que el ajuste de este modelo potencial mejora el correspon-
diente al modelo lineal (Modelo 1) ya que la suma de residuos cuadráticos ha
disminuido desde 7344681 hasta 6196871. En cambio no es posible comparar di-
rectamente los residuos del modelo transformado en logaritmos debido al cambio
de escala operado sobre la variable output.

Nota:
Para poder comparar los residuos del modelo transformado respecto a los origi-
nales, habría que guardar los valores estimados
  del modelo transformado, log Ŷ ,
[

calcular los antilogaritmos, Ŷ = exp log


[ Ŷ , y a continuación calcular los re-
siduos como diferencia entre los valores observados y los estimados: û = Y − Ŷ .
A partir de estos residuos ya es posible calcular la suma de los cuadrados de los
residuos y comparar el resultado con los correspondientes a otros modelos
y_hat = $yhat
output_hat = exp ( y_hat )
Residuos = output - output_hat
matrix u ={ Residuos ]
SCR =u ’ u

El resultado obtenido en este caso sería: SCR=12139412,2824531, casi el doble


del obtenido en los modelos sin transformar.

Por lo que se refiere al contraste de rendimientos a escala constantes, puede


comprobarse que sobre el modelo potencial se rechazaría la hipótesis, ya que las
212 SUPUESTO 14. METAL

sumas de los coeficientes de empleo y capital, b2 y b3 sugieren ahora la existencia


de rendimientos a escala crecientes al superar la unidad. Más concretamente, la
salida del contraste de restricciones proporciona un nivel crítico p=0,03 como
se observa en la salida siguiente:

Restricción:
b2 + b3 = 1
Estadístico de contraste: F(1, 24)=4.84691, con valor p=0.0375523

8. Estudiar si existe evidencia para rechazar el supuesto de homoce-


dasticidad en los modelos propuestos (1) y (2)

Comenzando por el modelo lineal (1) es previsible que se presente heteroce-


dasticidad, como consecuencia de los problemas de especificación detectados,
especialmente teniendo en cuenta que se rechazaba la linealidad del modelo.
Como primera aproximación podemos realizar la estimación mínimocuadrática
con matriz de varianzas-covarianzas robusta y comparar los resultados con los
inicialmente obtenidos.

Modelo 1: MCO, usando las observaciones 1–27


Variable dependiente: output

Coeficiente Desv. Típica Estadístico t valor p


const −168.853 204.191 −0.8269 0.4164
empleo 2.21168 1.22324 1.808 0.0831
capital 0.648023 0.132381 4.895 0.0001
Modelo 1c: MCO, usando las observaciones 1–27
Variable dependiente: output
Desviaciones típicas robustas ante heterocedasticidad, variante HC1
Coeficiente Desv. Típica Estadístico t valor p
const −168.853 245.070 −0.6890 0.4974
empleo 2.21168 1.83298 1.207 0.2393
capital 0.648023 0.208791 3.104 0.0048

Observamos cambios considerables en las desviaciones típicas y en consecuen-


cia en los estadísticos t y los niveles críticos asociados. Estos cambios indican
presencia de heterocedasticidad ya que si se cumpliese el supuesto de homoce-
dasticidad las desviaciones típicas de la estimación robusta coincidirían con las
inicialmente estimadas.
El contraste de la hipótesis de homocedasticidad puede llevarse a cabo a través
de diversos contrastes estadísticos, entre ellos los propuestos por White 1980
y Breusch_Pagan, que se encuentran disponibles en el menú Contrastes de
Gretl. La hipótesis nula de estos contrastes es la existencia de homocedastici-
dad, H0 : σ12 = σ22 = · · · = σn2 = σ 2 y en este caso el nivel crítico obtenido
en ambos casos es muy bajo, por lo que conduce al rechazo del supuesto de
homoscedasticidad.
213

Desviación típica de la regresión = 0.195431


Contraste de heterocedasticidad de White
MCO, usando las observaciones 1-27
Variable dependiente: û2

Coeficiente Desv. Típica Estadístico t valor p


const −571854,0 185009,0 −3,091 0,0055 ***
empleo 2785,45 1692,079 1,645 0,1148
capital 187,274 134,0869 1,389 0,1795
sq_empleo 0,955103 4,26201 0,2241 0,8248
X2_X3 −1,69655 0,862137 −1,968 0,0624 *
sq_capital 0,146871 0,0507168 2,896 0,0086 ***

R-cuadrado = 0,815795
Estadístico de contraste: T R2 = 22, 026463,
con valor p = P (χ25 > 22, 026463) = 0, 000518

Nota:
El desarrollo del test de White, propuesto en White 1980 y que se detalla en
p.240, se basa en una regresión auxiliar sobre los residuos cuadráticos para la
que existen dos versiones: solo cuadrados o cuadrados y dobles productos. Si
bien la segunda opción es posible por ser más completa, en algunas ocasiones
será necesario utilizar la primera si los grados de libertad disponibles no son
suficientemente elevados (hay que tener en cuenta que al aumentar el numero
de variables los dobles productos aumentan de forma considerable: así, para un
modelo con dos variables explicativas solo hay una variable producto, pero si se
tienen cuatro variables explicativas, entonces el número de productos aumentará
hasta 3 × 2 = 6; en general el número de términos será (k − 2)!.
El test de White tiene una ventaja importante sobre otros contrastes que ha-
remos a continuación, y es que no solamente detecta la existencia de hetero-
cedasticidad sino que además proporciona pistas para corregirla, ya que en su
salida muestra qué variables se encuentran más relacionadas con los residuos
cuadráticos.

La presencia de heterocedasticidad puede ser confirmada mediante las distintas


modalidades disponibles en Gretl de los contrastes de White y Breusch-Pagan.
Como hemos comentado anteriormente, en todos los casos se obtienen niveles
críticos reducidos que conducen al rechazo de la hipótesis de homocedasticidad.:

Contraste de heterocedasticidad de White (cuadrados sólo) MCO


R-cuadrado = 0,781828
Estadístico de contraste: TR^2 = 21,109343,
con valor p = P(Chi-cuadrado(4) > 21,109343) = 0,000301
Contraste de heterocedasticidad de Breusch-Pagan
214 SUPUESTO 14. METAL

Suma de cuadrados explicada = 25,9787


Estadístico de contraste: LM = 12,989366,
con valor p = P(Chi-cuadrado(2) > 12,989366) = 0,001511
Contraste de heterocedasticidad de Breusch-Pagan,
con estimador robusto de la varianza de Koenker
Suma de cuadrados explicada = 1,92237e+12
Estadístico de contraste: LM = 8,911089,
con valor p = P(Chi-cuadrado(2) > 8,911089) = 0,011614

Por lo que se refiere al modelo loglineal anteriormente estimado, Modelo 2, los


contrastes de homocedasticidad proporcionan en todos los casos niveles críticos
elevados, y se concluye que no existe evidencia para rechazar el supuesto de
homocedasticidad. Estos resultados no son sorprendentes, teniendo en cuenta
que al tomar logaritmos la dispersión de las variables se atenúa y evita problemas
de heterocedasticidad en los residuos (de hecho, una de las transformaciones
habituales para corregir la heterocedasticidad es la transformación logarítmica).

Contraste de heterocedasticidad de White


R-cuadrado = 0,237060
Estadístico de contraste: TR^2 = 6,400612,
con valor p = P(Chi-cuadrado(5) > 6,400612) = 0,269165
Contraste de heterocedasticidad de White (cuadrados sólo)
R-cuadrado = 0,161359
Estadístico de contraste: TR^2 = 4,356682,
con valor p = P(Chi-cuadrado(4) > 4,356682) = 0,359881
Contraste de heterocedasticidad de Breusch-Pagan
Suma de cuadrados explicada = 8,25974
Estadístico de contraste: LM = 4,129871,
con valor p = P(Chi-cuadrado(2) > 4,129871) = 0,126827
Contraste de heterocedasticidad de Breusch-Pagan (variante robusta de Koenker)
Suma de cuadrados explicada = 0,0101675
Estadístico de contraste: LM = 3,475359,
con valor p = P(Chi-cuadrado(2) > 3,475359) = 0,175928

Dado que en el Modelo 1 hemos constatado un problema de heterocedasticidad


sería recomendable llevar a cabo la estimación por Mínimos Cuadrados Ponde-
rados (MCP) utilizando para ello los pesos adecuados. Observando la salida del
test de White, la variable que resulta más significativa para explicar los residuos
al cuadrado, û2 es la variable capital2 .

Nota:
Cuando se presenta un problema de heterocedasticidad, se alteran los supues-
tos básicos del modelo MCO, puesto que la matriz de varianzas covarianzas es
215

E(u0 u) = σ 2 Ω en vez de E(u0 u) = σ 2 I. En este tipo de situaciones es necesario


transformar el modelo mediante una matriz P con las ponderaciones adecua-
das, dando lugar al procedimiento de Mínimos Cuadrados Ponderados (MCP)
desarrollado por Aitken 1935 y que se describe en 17.
En este caso concreto, la salida de la regresión auxiliar de White indica que
la variable más ligada a la heterocedasticidad es capital2 . De hecho, podría-
mos asumir que los residuos cuadráticos son directamente proporiconales a esta
variable dado que su coeficiente tiene signo positivo, es decir: σi2 = σ 2 Xi2 .
Nuestro objetivo será entonces encontrar una ponderación, que denotaremos
por Pi o wi tal que la E(wi ui )2 sea constante o equivalentemente que wi ui sean
homocedásticos:

E (wi ui )2 = σ 2 ⇒ wi2 E u2i = wi2 σi2 = σ 2


   

Bajo el esquema asumido σi2 = σ 2 Xi2 se obtendría al sustituir la siguiente ex-


presión para los pesos o ponderaciones:

1
wi2 σ 2 Xi2 = σ 2 ⇒ wi =
Xi

Así pues, para llevar a cabo la estimación por Mínimos Cuadrados Ponderados
(MCP) sería necesario generar una serie de pesos definida como:
1
W =
capital

La opción de estimación por Mínimos Cuadrados Ponderados se encuentra en:


Modelos . Otros modelos lineales . Mínimos cuadrados ponderados:

Modelo 4: MC.Ponderados, usando las observaciones 1–27


Variable dependiente: output
Variable utilizada como ponderación: W
Coeficiente Desv. Típica Estadístico t valor p
const 54,5320 143,581 0,3798 0,7074
empleo 2,18651 1,00009 2,186 0,0388
capital 0,569773 0,112650 5,058 0,0000

Estadísticos basados en los datos ponderados:


Suma de cuad. residuos 2003,453 D.T. de la regresión 9,136586
R2 0,932147 R2 corregido 0,926492
F (2, 24) 164,8518 Valor p (de F ) 9,52e–15
Log-verosimilitud −96,45301 Criterio de Akaike 198,9060
Criterio de Schwarz 202,7935 Hannan–Quinn 200,0620
Estadísticos basados en los datos originales:
216 SUPUESTO 14. METAL

Media de la vble. dep. 2488,349 D.T. de la vble. dep. 2758,144


Suma de cuad. residuos 8949651 D.T. de la regresión 610,6571

Es importante tener en cuenta que Gretl ofrece una alternativa automática para
solucionar la existencia de homocedasticidad, de especial interés cuando el test
de White no muestra claramente una variable que explique el comportamiento
de û2 . Esta opción se encuentra disponible en la opción de menú Modelos .
Otros modelos lineales . con corrección de heterocedasticidad:

Modelo 4a: con corrección de heterocedasticidad, usando las observaciones


1–27
Variable dependiente: output
Sin términos al cuadrado en la ecuación de la varianza
Coeficiente Desv. Típica Estadístico t valor p
const 169,953 143,200 1,187 0,2469 Estadísticos
empleo 1,19695 0,876100 1,366 0,1845
capital 0,647943 0,112867 5,741 0,0000

basados en los datos ponderados:


Suma de cuad. residuos 53,45657 D.T. de la regresión 1,492433
R2 0,920621 R2 corregido 0,914006
F (2, 24) 139,1730 Valor p (de F ) 6,26e–14
Log-verosimilitud −47,53228 Criterio de Akaike 101,0646
Criterio de Schwarz 104,9521 Hannan–Quinn 102,2205
Estadísticos basados en los datos originales:

Media de la vble. dep. 2488,349 D.T. de la vble. dep. 2758,144


Suma de cuad. residuos 10441249 D.T. de la regresión 659,5847

Como podemos observar, la suma de los cuadrados de los residuos en el modelo


4a (estimado con corrección automática de heterocedasticidad) es sensiblemente
217

superior al modelo 4 (estimado mediante MCP), lo que nos sugiere que nuestra
ponderación es más adecuada que la utilizada por Gretl. Sin embargo, el diálogo
de la opción automática incluye la opción Ecuación de la varianza incluye términos
al cuadrado, que al ser activada mejora sensiblemente el resultado. De hecho,
como se observa en la siguiente salida, esta corrección no solo mejora la suma
de cuadrados de los residuos sino también la significación de las variables del
modelo, por lo que resulta muy adecuada:

Modelo 4b: con corrección de heterocedasticidad, usando las observaciones


1–27
Variable dependiente: output

Coeficiente Desv. Típica Estadístico t valor p


const −4,62882 118,426 −0,03909 0,9691
empleo 2,04738 0,843289 2,428 0,0231
capital 0,624042 0,105805 5,898 0,0000

Estadísticos basados en los datos ponderados:


Suma de cuad. residuos 50,40953 D.T. de la regresión 1,449275
R2 0,952079 R2 corregido 0,948085
F (2, 24) 238,4111 Valor p (de F ) 1,47e–16
Log-verosimilitud −46,73998 Criterio de Akaike 99,47995
Criterio de Schwarz 103,3675 Hannan–Quinn 100,6359
Estadísticos basados en los datos originales:

Media de la vble. dep. 2488,349 D.T. de la vble. dep. 2758,144


Suma de cuad. residuos 7793827 D.T. de la regresión 569,8621

9. ¿Cuál sería el output previsto según los modelos anteriores para


una empresa con 400 trabajadores y un stock de capital de 2500?

Para obtener la predicción de output se añade una nueva observación desde


el menú Datos . Añadir observaciones y se introducen los datos de trabajo y
capital. Es necesario volver a generar las variables en logaritmos (Añadir .
Logaritmos de las variables seleccionadas) para que las series incluyan los datos
correspondientes a la nueva observación.
Una vez introducida la información necesaria, las predicciones con el modelo
lineal son automáticas desde la opción Análisis . Predicciones que proporciona
para la observación 28 un output previsto de 2335.
Para llevar a cabo la predicción con el modelo loglineal debemos tener en cuenta
que el modelo proporciona la predicción del logaritmo del output (l_outhat),
con lo cual sería necesario generar el output previsto como exp(l_outhat), que
proporciona un resultado de 2318,88.
Por último el modelo de Cobb-Douglas estimado por MCNL, proporciona una
predicción de output cuyo resultado es 2211,94, ligeramente inferior a los pro-
porcionados por los modelos lineales.
218 SUPUESTO 14. METAL
SUPUESTO 15

Inmigrantes

Contenidos: Estimación MCO, Endogeneidad, MC2E, Variables ins-


trumentales,Test de Hausman, Test de instrumento débil, Predicción

Nombre del fichero: inmigrantes.gdt http://cort.as/-LMcl

Página de datos: http://cort.as/-LHjb . inmigrantes.gdt


Página de scripts: http://cort.as/-LHjE . S15_Inmigrantes.inp

Enunciado:

Con el objetivo de explicar la evolución de la entrada de inmigrantes en un país


se dispone de información anual relativa a diversas magnitudes durante más de
dos décadas. Se desea estimar un modelo econométrico con información muestral
hasta 2016 y realizar predicciones a partir de ese año.

1. Estimar un modelo mínimo cuadrático para explicar la entrada de inmi-


grantes en función del crecimiento económico, el paro y el gasto social.

2. Se sospecha que la variable gasto social podría no ser exógena al depen-


der de la entrada de inmigrantes. ¿Cuál sería la conclusión del test de
Hausman?

3. Comparar los resultados obtenidos por los procedimientos de mínimos


cuadrados ordinarios y mínimos cuadrados bietápicos para la estimación
y predicción del número de inmigrantes.

219
220 SUPUESTO 15. INMIGRANTES

Solución:

1. Estimar un modelo mínimo cuadrático para explicar la entrada de


inmigrantes en función del crecimiento económico, el paro y el gasto
social.

Al estimar el modelo se observa que las variables son significativas y sus coeficien-
tes presentan los signos esperados (la entrada de inmigrantes está relacionada
directamente con el crecimiento económico y con el gasto social, pero en cambio
presenta una relación inversa con el paro).

Modelo 1: MCO, usando las observaciones 1992–2016 (T = 25)


Variable dependiente: inmigrantes

Coeficiente Desv. Típica Estadístico t valor p


const −408,211 44,7949 −9,113 0,0000
crecimiento 13,0639 3,29451 3,965 0,0007
gastosocial 83,4850 1,50394 55,51 0,0000
paro −17,0571 2,95348 −5,775 0,0000
Media de la vble. dep. 907,4399 D.T. de la vble. dep. 173,4114
Suma de cuad. residuos 3601,236 D.T. de la regresión 13,09532
R2 0,995010 R2 corregido 0,994297
F (3, 21) 1395,856 Valor p (de F ) 2,55e–24
Log-verosimilitud −97,60042 Criterio de Akaike 203,2008
Criterio de Schwarz 208,0763 Hannan–Quinn 204,5531
ρ̂ −0,491498 Durbin–Watson 2,924041

Además no se detectan problemas de colinealidad entre las variables explicativas,


tal y como puede comprobarse desde modelo, Análisis . Colinealidad. Los FIV
presentan valores muy moderados (próximos a la unidad) y el análisis BKW solo
muestra un índice de condición superior a 30, en cuya fila se observa que tan
sólo la variable paro tiene una varianza superior al 50 %, por lo que no parece
que exista colinealidad.

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
crecimiento 1,310
1
gastosocial 1,212 V IFj = , donde Rj es el coeficiente de
1 − Rj2
paro 1,129
correlación múltiple entre la variable j y las demás variables independientes
Diagnósticos de colinealidad de Belsley-Kuh-Welsch:

— proporciones de la varianza —
lambda cond const crecimie gastosoc paro
3,842 1,000 0,000 0,009 0,001 0,000
0,147 5,107 0,002 0,740 0,002 0,005
0,009 21,166 0,006 0,235 0,711 0,230
0,002 41,463 0,992 0,016 0,287 0,764
221

lambda = valores propios de X’X, del más grande al más pequeño


cond = índice de condición
nota: las columnas de proporciones de la varianza suman 1.0

Al realizar el test RESET de Ramsey (modelo 1, Contrastes . Contraste RESET


de Ramsey . Cuadrados y cubos) se observa que no existe evidencia suficiente
para rechazar la hipótesis de especificación correcta.

Regresión auxiliar para el contraste de especificación RESET


MCO, usando las observaciones 1992-2016 (T = 25)
Variable dependiente: inmigrantes

Coeficiente Desv. Típica Estadístico t valor p


const −927,466 647,038 −1,433 0,1680
crecimiento 21,4148 11,6194 1,843 0,0810
gastosocial 140,811 72,8252 1,934 0,0682
paro −28,6238 15,1854 −1,885 0,0748
ŷ 2 −0,000642166 0,000859881 −0,7468 0,4643
ŷ 2 1,95055e-07 2,77052e-07 0,7040 0,4899

Estadístico de contraste: F = 0,372663,


con valor p = P(F(2,19) > 0,372663) = 0,694

Nota:
Como ya hemos comentado al describir el test RESET de Ramsey, RESET
(p.189), cuando los grados de libertad lo permiten la opción de cuadrados
y cubos es la más completa para realizar la regresión auxiliar. Una opción
interesante también puede ser solicitar desde el modelo estimado la opción
Contrastes . Contraste RESET de Ramsey . Todas las variantes, que no incluye
la salida completa del contraste, pero proporciona un resumen del test en todas
las posibles variantes:

Contraste de especificación RESET (cuadrados y cubos)


Estadístico de contraste: F = 0,372663,
con valor p = P(F(2,19) > 0,372663) = 0,694
Contraste de especificación RESET (cuadrados sólo)
Estadístico de contraste: F = 0,256117,
con valor p = P(F(1,20) > 0,256117) = 0,618
Contraste de especificación RESET (cubos sólo)
Estadístico de contraste: F = 0,191845,
con valor p = P(F(1,20) > 0,191845) = 0,666

Como se puede observar, en ninguno de los casos se rechaza la hipótesis de


especificación correcta.
222 SUPUESTO 15. INMIGRANTES

En cuanto a los contrastes de linealidad, podemos acceder a sus dos variantes


en Contrastes . No linealidad (cuadrados) y Contrastes . No linealidad (logs):

Contraste de no linealidad (cuadrados) -


Hipótesis nula: la relación es lineal
Estadístico de contraste: LM = 1,58187
con valor p = P(Chi-cuadrado(3) > 1,58187) = 0,663508
Contraste de no linealidad (logaritmos) -
Hipótesis nula: la relación es lineal
Estadístico de contraste: LM = 3,15227
con valor p = P(Chi-cuadrado(3) > 3,15227) = 0,368739

Observamos que en ninguno de los casos rechazamos la hipótesis de linealidad.


Así pues, en esta primera etapa no se detectan problemas de especificación en
el modelo propuesto.

2. Se sospecha que el gasto social podría no ser exógena al depender


de la entrada de inmigrantes. ¿Cuál sería la conclusión del test de
Hausman?

Para analizar posibles problemas de endogeneidad del gasto social llevamos a


cabo la estimación del modelo mediante la opción de menú Modelo . Variables
instrumentales . Mínimos Cuadrados en dos etapas.
La especificación del modelo es la misma que antes pero el método de esti-
mación cambia y debemos indicar cuáles son las variables instrumentales que
deberán cumplir el requisito de estar correlacionadas con el gasto social y no
correlacionadas con el error.

Variables instrumentales:
Uno de los supuestos básicos de la estimación MCO es que la matriz X es
no estocástica y por tanto X0 u = 0. Sin embargo, si alguna de las variables
explicativas es endógena o presenta errores de medida, entonces la matriz X será
estocástica y por tanto no se cumplirá el requisito anterior, ya que: E [u/X] 6= 0.
Esta alteración de las hipótesis afectaría a las estimaciones mínimo cuadráticas,
ya que los estimadores serán ahora sesgados:
 M CO 
−1
E β̂ = β + (X0 X) X0 E (u/X) 6= β

M CO
También se puede comprobar que en este caso el estimador β̂ es inconsis-
tente.
En este tipo de situaciones puede ser adecuado cambiar el método de estima-
ción, introduciendo variables instrumentales. Así, si entre las variables explica-
tivas hay una variableXj que está correlacionada con la perturbación, entonces
223

podemos buscar una variable proxy Zj que esté altamente correlacionada con
Xj y no lo esté con u, E (u/Zj ) = 0. Esta variable Zj que se denomina variable
instrumental o instrumento, puede ser utilizada para estimar en una primera
etapa la variable original y a continuación, en una segunda etapa, sustituir en
el modelo la variable por su estimación, X̂j .

Este procedimiento de estimación, desarrollado por Theil 1953, Theil 1958 y


Basmann 1957, se denomina de variables instrumentales (VI) o Mínimos Cua-
drados en dos etapas (MC2E) y el razonamiento puede ampliarse para usar
varias variables explicativas o instrumentos para Xj y también que sean varias
Xj las relacionadas con los residuos.

En este caso Z0 û = 0, y sustituyendo û, se tiene:

VI
 
Z0 û = Z0 y − Xβ̂ =0

Despejando se obtiene el estimador con variables instrumentales:

VI −1 −1
β̂ = (Z0 X) Z0 y = β + (Z0 X) Z0 
|{z}
Xβ+

En este caso, el estimador es insesgado, puesto que:

 V I
−1
E β̂ = β + (Z0 X) Z0 E() = β
| {z }
=0

En este caso podemos considerar como variables instrumentales el crecimiento y


el paro (que ya estaban incorporadas como regresores y asumimos exógenas) y
también la cobertura sanitaria (proporción de la población con derecho a cober-
tura sanitaria) que está disponible en nuestra base de datos y previsiblemente
estará relacionada con la variable gasto social.
224 SUPUESTO 15. INMIGRANTES

El
Nota:
El programa Gretl permite llevar a cabo la estimación bietápica tanto desde las
opciones de menú como mediante el comando TSLS (Two-Stage Least Squares).
Al llevar a cabo la estimación mediante variables instrumentales es necesario
incluir un número de instrumentos suficientemente elevado para que la ecuación
se encuentre identificada. Más concretamente, tal y como se explica con más de-
talle en las prácticas relativas a modelos multiecuacionales, SEM-Identificacion
(p.311) debe satisfacerse la denominada “condición de orden” según la cual el
número de instrumentos incorporados al modelo no puede ser inferior al de
regresores endógenos (en este caso 1).
resultado de esta estimación bietápica aparece recogido a continuación y con-
firma la significación de las variables explicativas, cuyos coeficientes estimados
presentan los mismos signos que los del modelo anterior. Además, esta salida
incluye el test de Hausman (p.225) que permite contrastar la exogeneidad del
gasto social a partir de la comparación entre los estimadores MCO y MC2E y
también el test de instrumentos débiles, que permite detectar posibles problemas
en las variables utilizadas como instrumentos.
En este caso el test de Hausman proporciona un nivel crítico inferior al 3 %,
y por tanto conduce al rechazo del supuesto de exogeneidad del gasto social,
sugiriendo la conveniencia de llevar a cabo la estimación por mínimos cuadrados
bietápicos.
Por su parte, el test de instrumento débil cuya hipótesis nula es la nulidad del
coeficiente o debilidad de la variable instrumental proporciona un nivel crítico
bajo y por tanto confirma la adecuación de la cobertura sanitaria como instru-
mento.

Modelo 2: MC2E, usando las observaciones 1992–2016 (T = 25)


225

Variable dependiente: inmigrantes


Mediante Instrumentos: gastosocial
Instrumentos: const crecimiento paro cobertura

Coeficiente Desv. Típica Estadístico t valor p


const −473,405 64,6857 −7,319 0,0000
crecimiento 10,0289 4,17396 2,403 0,0256
gastosocial 87,1589 2,83008 30,80 0,0000
paro −16,5703 3,36028 −4,931 0,0001
Media de la vble. dep. 907,4399 D.T. de la vble. dep. 173,4114
Suma de cuad. residuos 4624,599 D.T. de la regresión 14,83978
R2 0,994659 R2 corregido 0,993896
F (3, 21) 603,2707 Valor p (de F ) 1,59e–20
Log-verosimilitud −171,6056 Criterio de Akaike 351,2111
Criterio de Schwarz 356,0866 Hannan–Quinn 352,5634
ρ̂ −0,217550 Durbin–Watson 2,222494
Contraste de Hausman –

Hipótesis nula: Los estimadores de MCO son consistentes


Estadístico de contraste asintótico: χ2 (1) = 4,82192
con valor p = 0,0281
Contraste de Instrumento débil –
First-stage F (1, 21) = 11,9488

Test de Hausman:
Como hemos comentado anteriomente, cuando la matriz X es estocástica, en-
M CO
tonces el estimador β̂ es inconsistente. Sin embargo en esta misma situación
VI
el estimador β̂ es consistente y de ahí que el test de Hausman se base en la
comparación entre los dos estimadores.
M CO
La hipótesis nula del contraste de Hausman es que los estimadores β̂ son
consistentes, lo cual equivale a asumir que la matriz X es no estocástica. En cam-
bio, bajo la hipótesis alternativa la matriz X sería estocástica y los estimadores
MCO inconsistentes.
M CO
Si se rechaza la hipótesis, entonces los estimadores β̂ no resultan adecuados
al no ser consistentes y por lo tanto procede llevar a cabo la estimación de
Mínimos cuadrados en dos etapas, mediante variables instrumentales. Si por el
contrario no se rechaza la hipótesis, no hay evidencia de inconsistencia en los
estimadores MCO y estos serán los más adecuados al ser eficientes.
El estadístico de contraste del test de Hausman utiliza el test de restricciones
de Wald (con una restricción) y por lo tando sigue una distribución χ2 con un
grado de libertad.

Contraste de instrumento débil:


226 SUPUESTO 15. INMIGRANTES

El test de instrumento débil es un contraste de restricciones lineales cuya hipó-


tesis nula es que la nulidad del coeficiente de la variable instrumental (es decir,
dicho instrumento es débil). Este contraste se lleva a cabo sobre la primera eta-
pa de la estimación MC2E y se basa en una distribución F de Snedecor cuyos
grados de libertad del numerador coinciden con el número de variables instru-
mentales (1 en este caso) y en el denominador con los grados de liberdad de la
regresión (n-k). Cuando el valor del estadístico F es suficientemente elevado y
el nivel crítico asociado es bajo se rechaza la hipótesis de nulidad del coeficiente
de la variable instrumental y por tanto se concluye que dicho instrumento no es
débil.

Para una mejor interpretación de estos resultados puede ser interesante recons-
truir la estimación bietápica del modelo y los dos contrastes de hipótesis realiza-
dos. Comenzando por la primera etapa, debemos estimar la variable explicativa
que podría ser endógena (gasto social) en función de crecimiento, paro y cober-
tura.

Modelo 3: MCO, usando las observaciones 1992–2016 (T = 25)


Variable dependiente: gastosocial

Coeficiente Desv. Típica Estadístico t valor p


const 1,21728 6,34271 0,1919 0,8497
crecimiento −0,0610724 0,436807 −0,1398 0,8901
paro 0,320611 0,365649 0,8768 0,3905
cobertura 0,164153 0,0474883 3,457 0,0024
Media de la vble. dep. 17,79155 D.T. de la vble. dep. 1,956755
Suma de cuad. residuos 48,32283 D.T. de la regresión 1,516933
R2 0,474143 R2 corregido 0,399020
F (3, 21) 6,311593 Valor p (de F ) 0,003198
Log-verosimilitud −43,71132 Criterio de Akaike 95,42263
Criterio de Schwarz 100,2981 Hannan–Quinn 96,77489
ρ̂ 0,481714 Durbin–Watson 0,984437

A partir de esta salida, que almacenamos en la vista de iconos, podemos guardar


la variable estimada (gastosocialhat) que utilizaremos en la segunda etapa y
también los residuos (uhat).
También es posible a partir de esta salida llevar a cabo el contraste de instru-
mento débil, que será equivalente a un test de restricciones lineales donde la
hipótesis es la nulidad del coeficiente de la variable instrumento cobertura:

Restricción:
b[cobertura] = 0
Estadístico de contraste: F(1, 21)=11,9488, con valor p=0,00236134
227

Nota:
Como podemos observar el estadístico F=11,94 coincide con el incluido en la
salida del modelo estimado por mínimos cuadrados en dos etapas y confirma
la adecuación de la cobertura sanitaria como instrumento. Aunque en cada
salida de Gretl aparecen los correspondientes valores críticos, generalmente se
presentan problemas de instrumento débil cuando el valor de F es inferior a 10.

En la segunda etapa estimamos los inmigrantes a partir de las variables creci-


miento, paro y gastosocialhat que es la variable estimada en la primera etapa
(de este modo se evita el problema de endogeneidad de gastosocial).

Modelo 4: MCO, usando las observaciones 1992–2016 (T = 25)


Variable dependiente: inmigrantes

Coeficiente Desv. Típica Estadístico t valor p


const −473,405 540,731 −0,8755 0,3912
crecimiento 10,0289 34,8916 0,2874 0,7766
gastosocialhat 87,1589 23,6576 3,684 0,0014
paro −16,5703 28,0898 −0,5899 0,5615
Media de la vble. dep. 907,4399 D.T. de la vble. dep. 173,4114
Suma de cuad. residuos 323161,7 D.T. de la regresión 124,0510
R2 0,552232 R2 corregido 0,488265
F (3, 21) 8,633094 Valor p (de F ) 0,000631
Log-verosimilitud −153,8114 Criterio de Akaike 315,6227
Criterio de Schwarz 320,4982 Hannan–Quinn 316,9750
ρ̂ 0,449372 Durbin–Watson 1,035706

En la salida se observa que los coeficientes estimados coinciden con los de la


salida del modelo bietápico pero en cambio no sucede lo mismo con las varianzas
de los estimadores, lo cual afecta a sus contrastes de significación.
Este hecho se debe a que hemos utilizado los valores gastosocialhat obtenidos
en la primera etapa para calcular la suma de residuos cuadráticos û0 û y la ma-
triz de varianzas-covarianzas, cuando esta variable solamente se utiliza para la
estimación y en cambio para calcular los errores se deberían utilizar los valores
de la variable observada gastosocial (tal y como hace Gretl en la estimación bie-
tápica donde sí proporciona los resultados correctos de las desviaciones típicas,
los estadísticos t y los niveles críticos).
Por lo que se refiere al test de Hausman, dado que hemos salvado los residuos de
la primera etapa de MC2E vamos ahora a plantear nuevamente la estimación de
la segunda etapa, si bien en este caso en vez de introducir la variable estimada
gastosocialhat incorporaremos separadamente gastosocial y uhat.

Modelo 5: MCO, usando las observaciones 1992–2016 (T = 25)


Variable dependiente: inmigrantes
228 SUPUESTO 15. INMIGRANTES

Coeficiente Desv. Típica Estadístico t valor p


const −473,405 53,5543 −8,840 0,0000
crecimiento 10,0289 3,45568 2,902 0,0088
gastosocial 87,1589 2,34306 37,20 0,0000
paro −16,5703 2,78203 −5,956 0,0000
uhat −5,76433 2,93491 −1,964 0,0636
Media de la vble. dep. 907,4399 D.T. de la vble. dep. 173,4114
Suma de cuad. residuos 3018,950 D.T. de la regresión 12,28607
R2 0,995817 R2 corregido 0,994980
F (4, 20) 1190,311 Valor p (de F ) 1,80e–23
Log-verosimilitud −95,39582 Criterio de Akaike 200,7916
Criterio de Schwarz 206,8860 Hannan–Quinn 202,4820
ρ̂ −0,577828 Durbin–Watson 3,118490

Sobre este modelo, el test de Hausman es equivalente a contrastar si el coeficiente


del residuo es nulo (es decir, si la variable gasto social es exógena). Si se rechaza
la hipótesis nula se concluye que la variable está correlacionada con el error de
la ecuación estructural, detectando evidencia de endogeneidad de esa variable.
El test de restricciones lineales conduce a la salida:

Restricción:
b[uhat] = 0
Estadístico de contraste: F(1, 20)=3,85754, con valor p=0,0635743

La conclusión es que existe evidencia para rechazar la exogeneidad del gasto


público, si bien esta salida proporciona una F de Snedecor (que lleva asociado un
nivel crítico del 6,3 %) mientras la salida de la estimación bietápica devuelve una
Chi-cuadrado obtenida mediante la W de Wald cuyo nivel crítico es inferior al
3 %. Tal y como ya hemos descrito, ambos resultados se encuentran relacionados
teniendo en cuanta que sus expresiones son las siguientes:
F =(( SCRR - SCR )/ SCR )*( n - k )/ r
W =(( SCRR - SCR )/ SCR )*( n )

Así pues, se cumple W=F*n*r/(n-k) y a partir del resultado F obtenido se obtiene


en este caso W=3.85754*25/20=4.82192.

Script Mínimos cuadrados en dos etapas y test de Hausman:


set verbose off
#Modelo 1 . Mínimos c u a d r a d o s en d o s e t a p a s
tsls inmigrantes 0 crecimiento gastosocial paro ; 0 crecimiento
paro
cobertura
#Modelo 2 . MCO, P r i m e r a e t a p a
ols gastosocial 0 crecimiento paro cobertura
series uhat = $uhat
series gast osocia lhat = $yhat
n = $nobs
# C o n t r a s t e de i n s t r u m e n t o d é b i l
restrict
b [ cobertura ]=0
229

end restrict
#Modelo 3 . MCO, Segunda e t a p a
ols inmigrantes 0 crecimiento g astoso cialha t paro
#Modelo a u x i l i a r c o n t r a s t e de Hausman
ols inmigrantes 0 crecimiento gastosocial paro uhat
k = $ncoeff
SCR = $ess
#c o n t r a s t e de Hausman
restrict
b [ uhat ]=0
end restrict
#modelo r e s t r i n g i d o
ols inmigrantes 0 crecimiento gastosocial paro
SCR_R = $ess
r =1
F = (( SCR_R - SCR ) / SCR ) *( n - k ) / r
W = (( SCR_R - SCR ) / SCR ) * n
pF = pvalue (F ,r ,n -k , F )
pW = pvalue (X ,r , W )
printf " Valor F = %g , Valor W ( Hausman )= %g , \ n " ,F , W
printf "F , nivel crítico = %g , W , nivel crítico = %g , \ n " ,pF , pW
set verbose on

3. Comparar los resultados obtenidos por los procedimientos de mí-


nimos cuadrados ordinarios y mínimos cuadrados bietápicos para la
estimación y predicción el número de inmigrantes.

A la vista de los resultados obtenidos se observa que no existen grandes di-


ferencias entre los coeficientes estimados por la estimación mínimo cuadrática
MCO (Modelo 1) y la estimación bietápica MC2E (Modelo 2). Sin embargo, la
segunda alternativa resulta más adecuada teniendo en cuenta el resultado del
test de Hausman que detecta endogeneidad en la variable gastosocial.
Para analizar la capacidad predictiva de las dos alternativas basta con recuperar
los dos modelos desde la vista de iconos y acceder desde cada uno de ellos a la
opción del menú Análisis . Predicciones..., donde obtenemos:

Predicciones con el Modelo 1. MCO


Para intervalos de confianza 95 %, t(21, ,0, 025) = 2, 080

Observaciones inmigrantes predicción Desv. Típica Intervalo de 95 %


2017 1458,10 1432,24 15,8144 1399,36 1465,13
2018 1410,62 1398,65 15,6023 1366,21 1431,10

Estadísticos de evaluación de la predicción


230 SUPUESTO 15. INMIGRANTES

Error medio 18,911


Error cuadrático medio 20,146
Raíz del Error cuadrático medio 4,4884
Error absoluto medio 18,911
Porcentaje de error medio 1,3108
Porcentaje de error absoluto medio 1,3108
U de Theil 0,25205
Proporción de sesgo, U M 0,88119
Proporción de la regresión, U R 0,11881
Proporción de la perturbación, U D 0

Figura 15.0.1: Gráficos de predicciones


����� �����
����������� �����������
���������� ����������
����� �������������������������� ����� ��������������������������

����� �����

����� �����

����� �����

����� �����

� ��� ���

� ��� ���

� ��� ���

� ��� ���

� ���� ����� ����� ����� ����� ����
� ����
� ����� ����� ����� ����� ����� ����� �����

(a) MCO (b) MC2E

Predicciones con el Modelo 2. MC2E


Para intervalos de confianza 95 %, z(0, 025) = 1, 96

Observaciones inmigrantes predicción Desv. Típica Intervalo de 95 %


2017 1458,10 1452,29 21,7528 1409,66 1494,93
2018 1410,62 1416,30 20,7462 1375,64 1456,96

Estadísticos de evaluación de la predicción


Error medio 0,062455
Error cuadrático medio 5,7441
Raíz del Error cuadrático medio 2,3967
Error absoluto medio 5,7438
Porcentaje de error medio −0,0022739
Porcentaje de error absoluto medio 0,40048
U de Theil 0,11966
Proporción de sesgo, U M 0,00011822
Proporción de la regresión, U R 0,99988
Proporción de la perturbación, U D 0

Como se puede apreciar en las tablas y los gráficos proporcionados por Gretl,
231

los dos modelos consiguen una buena predicción, los valores observados se en-
cuentran en el intervalo de confianza de la predicción, pero en el gráfico (b)
correspondiente al modelo bietápico observamos cómo los registros de inmi-
grantes se aproximan más a las predicciones, por lo que el modelo 2 (MC2E)
parece más adecuado que el 1 (MCO) en cuanto a su capacidad predictiva.
Esta afirmación queda confirmada al observar los indicadores incluidos en las
tablas de predicción de ambos modelos. Los porcentajes de error medio y abso-
luto medios, así como el coeficiente U de Theil son sensiblemente inferiores en el
Modelo 2, por lo que el procedimiento de mínimos cuadrados en dos etapas re-
sulta recomendable tanto para la estimación del modelo como para la predicción
del número de inmigrantes.
232 SUPUESTO 15. INMIGRANTES
SUPUESTO 16

Importaciones

Contenidos: Contraste RESET, cambio estructural, CUSUM, Test de


Chow, Test RV de Quandt, Variable dummy, Predicción

Nombre del fichero: importaciones.gdt http://cort.as/-LMd0

Página de datos: http://cort.as/-LHjb . importaciones.gdt


Página de scripts: http://cort.as/-LHjE . S16_Importaciones.inp

Enunciado:

A partir de la información recopilada en el archivo importaciones.gdt se desea


proponer un un modelo econométrico para explicar la evolución de las importa-
ciones de acero de un país

1. Estimar un modelo lineal para explicar la evolución de las importaciones


de acero hasta 2016 y obtener predicciones a partir de 2017.

2. Llevar a cabo la validación del modelo anterior incorporando las modifi-


caciones necesarias.

3. Se sospecha que la firma de un acuerdo comercial que entró en vigor en el


año 2005 puede haber afectado al patrón de comportamiento de las impor-
taciones. Estudiar cómo podría incorporarse al modelo esta información.

4. Analizar si la ampliación del modelo afecta a su validación y a las predic-


ciones de importaciones a partir de 2017.

233
234 SUPUESTO 16. IMPORTACIONES

Solución:
1. Estimar un modelo lineal para explicar las importaciones de acero
hasta 2016 y obtener predicciones a partir de 2017.

La estimación por MCO con la información muestral hasta 2016 proporciona el


resultado siguiente donde se observa que el ipi, con coeficiente estimado positivo,
es la variable explicativa más significativa:

Modelo 1: MCO, usando las observaciones 1995–2016 (T = 22)


Variable dependiente: importaciones

Coeficiente Desv. Típica Estadístico t valor p


const 271,586 518,841 0,5234 0,6070
ipi 10,4066 0,818736 12,71 0,0000
precio −5,08865 3,32880 −1,529 0,1437
tipo_cambio −292,965 209,786 −1,396 0,1795

Media de la vble. dep. 1354,002 D.T. de la vble. dep. 497,5032


Suma de cuad. residuos 287745,6 D.T. de la regresión 126,4352
R2 0,944640 R2 corregido 0,935413
F (3, 18) 102,3811 Valor p (de F ) 1,68e–11
Log-verosimilitud −135,4833 Criterio de Akaike 278,9667
Criterio de Schwarz 283,3308 Hannan–Quinn 279,9947
ρ̂ −0,234554 Durbin–Watson 2,423240

A la vista de los contrastes de significación individual parece recomendable


omitir la variable tipo de cambio, con lo cual mejora la significación del precio y
aumenta el coeficiente de determinación corregido. Además la información para
esta variable sólo está disponible desde 1996 por lo que su introducción limita
el tamaño de muestra, que en el modelo siguiente aumenta hasta 29:

Modelo 2: MCO, usando las observaciones 1988–2016 (T = 29)


Variable dependiente: importaciones

Coeficiente Desv. Típica Estadístico t valor p


const −124,853 276,971 −0,4508 0,6559
ipi 10,0038 0,416546 24,02 0,0000
precio −4,00252 2,34084 −1,710 0,0992

Media de la vble. dep. 1163,192 D.T. de la vble. dep. 552,5180


Suma de cuad. residuos 335211,2 D.T. de la regresión 113,5462
R2 0,960784 R2 corregido 0,957767
F (2, 26) 318,4941 Valor p (de F ) 5,19e–19
Log-verosimilitud −176,7999 Criterio de Akaike 359,5998
Criterio de Schwarz 363,7017 Hannan–Quinn 360,8845
ρ̂ −0,107603 Durbin–Watson 2,198392

La estimación mínimocuadrática proporciona coeficientes con los signos espera-


dos para las variables explicativas, confirmando que las importaciones de acero
235

evolucionan paralelamente al índice de producción industrial y en cambio pre-


sentan una evolución inversa a la de los precios del acero. Además este modelo
presenta una elevada capacidad explicativa, ya que el coeficiente de determina-
ción supera el 96 %.
Como punto de partida, las predicciones de las importaciones en función del ipi
y el precio serían las resumidas a continuación, con errores porcentuales muy
moderados (3,4 %) si bien el índice U de Theil supera la unidad y se observa un
elevado componente de sesgo. Estos resultados se deben a que la expresión del
índice de Theil se basa en la comparación entre tasas de variación previstas y
observadas Evaluación-de-modelos (p.81), y a que en este caso, en los dos únicos
períodos del horizonte de predicción, las importaciones previstas son inferiores
a las observadas:

�����
�������������
����������
����� ��������������������������

�����

�����

�����

�����

�����

�����

�����

����
����� ����� ����� ����� � ���� ����� � ���� �����

Para intervalos de confianza 95 %, t(26, ,0, 025) = 2, 056

Observaciones importaciones Predicción Desv. típica Intervalo de 95 %


2017 2235,30 2162,41 122,211 1911,20 2413,62
2018 2283,90 2204,02 122,722 1951,76 2456,28

Estadísticos de evaluación de la predicción (T = 2)


236 SUPUESTO 16. IMPORTACIONES

Error medio 76,388


Error cuadrático medio 76,468
Raíz del Error cuadrático medio 8,7446
Error absoluto medio 76,388
Porcentaje de error medio 3,3793
Porcentaje de error absoluto medio 3,3793
U de Theil 1,6438
Proporción de sesgo, U M 0,99791
Proporción de la regresión, U R 0,0020891
Proporción de la perturbación, U D 0

2. Llevar a cabo la validación del modelo anterior incorporando las


modificaciones necesarias.

En lo que se refiere a la especificación no se detectan problemas destacables ya


que tanto el test RESET de Ramsey como los contrastes de linealidad en sus
variantes de cuadrados y logaritmos proporcionan niveles críticos elevados.
Regresión auxiliar para el contraste de especificación RESET
MCO, usando las observaciones 1988-2016 (T = 29)
Variable dependiente: importaciones

Coeficiente Desv. Típica Estadístico t valor p


const −180,383 509,603 −0,3540 0,7265
ipi 7,58292 11,4300 0,6634 0,5134
precio −0,969463 6,83671 −0,1418 0,8884
ŷ 2 4,43533e-05 0,000916388 0,04840 0,9618
ŷ 3 2,84541e-08 2,31760e-07 0,1228 0,9033

Estadístico de contraste: F = 0,436424,


con valor p = P(F(2,24) > 0,436424) = 0,651

Contraste de no linealidad (cuadrados) -

Hipótesis nula: [La relación es lineal]


Estadístico de contraste: LM = 1,91157
con valor p = P(Chi-cuadrado(2) > 1,91157) = 0,38451

Contraste de no linealidad (logaritmos) -

Hipótesis nula: [La relación es lineal]


Estadístico de contraste: LM = 1,29172
con valor p = P(Chi-cuadrado(2) > 1,29172) = 0,524212

Cabe señalar sin embargo que el análisis de los valores observados, estimados y
residuos (tanto gráficamente como a través de la tabla disponible desde la salida
del modelo) permite apreciar un cambio de comportamiento en las importaciones
237

a mediados de la década de los 2000. De hecho, la tabla detecta en el año 2004


un valor atípico (que se denota con asterisco *) ya que el residuo, en este caso de
signo negativo, excede en valor absoluto las 2,5 desviaciones típicas consideradas
admisibles.

����������������������������������
�����
���������
����� ��������

�����

�����
�������������

�����

�����

�����

����

����

����
����� ����� ����� ����� ����� ����

Más concretamente, la importaciones registradas ese año son de 1012,14 To-


neladas mientras el modelo estima 1388,46 y por tanto el residuo es -376,319
que supera el margen admitido (tal y como indica la misma tabla la desviación
típica de la regresión es de 113,546 con lo cual la desviación máxima sería en
valor absoluto 283,865).
Rango de estimación del modelo: 1988–2016
Desviación típica de los residuos = 113,546

importaciones Estimada residuo


1988 452,5 475,277 −22,7765
1989 491 510,737 −19,7367
.. .. .. ..
. . . .
2004 1012,14 1388,46 −376,319 *
.. .. .. ..
. . . .
2015 1992,13 2002,79 −10,6604
2016 2158,02 2093,12 64,8956

Nota: * denota un residuo superior a 2.5 desviaciones típicas


Estadísticos de evaluación de la predicción (T = 29)
Error medio −1,0781e-13
Error cuadrático medio 107,51
Raíz del Error cuadrático medio 10,369
Error absoluto medio 75,881
Porcentaje de error medio −1,0426
Porcentaje de error absoluto medio 8,0887
U de Theil 1,0521
238 SUPUESTO 16. IMPORTACIONES

Por lo que se refiere al posible incumplimiento de las hipótesis sobre la perturba-


ción aleatoria, una primera aproximación consiste en llevar a cabo la estimación
del modelo con la opción de matriz de varianzas-covarianzas robusta (HAC), que
no afecta al vector de coeficientes estimados pero sí puede afectar a la matriz
de varianzas covarianzas, que se reestima teniendo en cuenta que la diagonal
principal podría no ser constante.
Si no existe un problema de heterocedasticidad en el modelo la corrección de
matriz de varianzas-covarianzas robusta no afectará a los resultados de la esti-
mación anterior. En el caso del modelo de importaciones se observa que sí se
producen efectos como consecuencia de este ajuste en la matriz var-cov, ya que
cambia la conclusión del contraste de significación individual (concretamente la
variable precio deja de ser significativa).

Modelo 3: MCO, usando las observaciones 1988–2016 (T = 29)


Variable dependiente: importaciones
Desviaciones típicas HAC, con ancho de banda 2 (Kernel de Bartlett)

Coeficiente Desv. Típica Estadístico t valor p


const −124,853 311,616 −0,4007 0,6919
ipi 10,0038 0,358523 27,90 0,0000
precio −4,00252 2,60516 −1,536 0,1365

Media de la vble. dep. 1163,192 D.T. de la vble. dep. 552,5180


Suma de cuad. residuos 335211,2 D.T. de la regresión 113,5462
R2 0,960784 R2 corregido 0,957767
F (2, 26) 595,4160 Valor p (de F ) 1,93e–22
Log-verosimilitud −176,7999 Criterio de Akaike 359,5998
Criterio de Schwarz 363,7017 Hannan–Quinn 360,8845
ρ̂ −0,107603 Durbin–Watson 2,198392

Estimación con matriz de varianzas covarianzas robusta


El problema de la heterocedasticidad afecta a algunas de las características
de los estimadores mínimo cuadráticos. Puede comprobarse fácilmente que la
esperanza de estos estimadores sigue siendo nula y por lo tanto los MCO siguen
siendo insesgados, pero en cambio la presencia de heterocedasticidad afecta a su
matriz de varianzas-covarianzas. Más concretamente, si calculamos la matriz de
varianzas convarianzas de vector de estimadores mínimo cuadráticos se tiene:

 M CO
 
M CO
  M CO 0 
V ar β̂ = E β̂ − β β̂ −β
−1 0
= E[(X0 X) X0 u (X0 X)−1 X0 u ]
−1 −1
= E[(X0 X) X0 uu0 X(X0 X) ]
−1 −1
= (X0 X) X0 E(uu0 )X(X0 X)

En el caso de que, como asumimos en las hipótesis iniciales, la matriz de varian-


zas covarianzas de u sea escalar, se tiene:
239

E(u0 u) = σ 2 I
y en consecuencia:
 M CO 
−1
V ar β̂ = σ 2 (X0 X)

En cambio si se incumplen las hipótesis básicas la matriz de var-cov de los


residuos será:

E(u0 u) = σ 2 Ω
y por lo tanto se obtiene una expresión distinta de la matriz var-cov de los
estimadores mínimo cuadráticos:
 M CO 
−1
V ar β̂ = σ 2 (X0 X) X0 ΩX(X 0 X)

En esta situación, la estimación MCO con matriz de varianzas covarianzas ro-


busta consiste en aproximar esta última expresión, para lo cual se estima la parte
desconocida (σ 2 Ω) a partir de los residuos cuadráticos del modelo estimado.
Gretl considera distintos criterios para estimar la expresión σ 2 Ω, cuyas de-
nominaciones HC hacen referencia a la consistencia bajo heterocedasticidad
(Heteroskedasticity-consistent standard errors) y abarcan varias modalidades:
HC0, HC1, HC2, HC3 y HC3a, a las que se unen otras adicionales para series
temporales o datos de panel.
A modo de ejemplo la opción HC0 se basa en la estimación siguiente:

 2 
û1 0 ··· 0
0 û22 ··· 0 
S 2 Ω̂ =  . .. .. ..
 
 .. . . .


0 0 ··· û2n

En cambio HC1 introduce sobre la expresión de HC0 una corrección de grados


n
de libertad,
n−k
Por su parte la alternativa HC2, considera una corrección de los residuos al
û2i
cuadrado, que sustituye por: , donde hi = xi (X 0 X)−1 x0i , es decir, el
1 − hi
elemento i de la diagonal principal de la matriz X(X 0 X)−1 X 0 . Una variante
de esta expresión conduce a la solución denominada HC3.
Conviene tener presente en cualquier caso que esta estimación robusta no solu-
ciona el problema de la heterocedasticidad, pero al menos corrige la estimación
de la matriz de varianzas-covarianzas de los estimadores MCO. Cuando la intro-
ducción de esta estimación robusta no altera los resultados del modelo estimado,
esto nos indicaría que no existen problemas de heterocedasticidad; por el contra-
rio cuando su introducción conlleva cambios en los resultados de las varianzas
240 SUPUESTO 16. IMPORTACIONES

y los contrastes de significación debemos sospechar que existe un problema de


heterocedasticidad.

Nota:
Existen distintas opciones de Gretl para la estimación robusta de la matriz de
varianzas covarianzas. Estas opciones son configurables desde la opción de menú
Herramientas . Preferencias . General en la pestaña HCCME, y el capítulo 19
de la Guía de Usuario de Gretl se dedica al análisis de estas opciones según la
estructura de datos.
Si bien no existe un consenso claro sobre cuál es la mejor alternativa (HC0 ,
HC1 , HC2 , HC3 y HC3a ), tal y como se argumenta en Davidson 2004, HC0
es probablemente la opción menos recomendable de las cinco, si bien es la más
generalmente utilizada por motivos de compatibilidad. De hecho ésta es la al-
ternativa incluida por defecto en Gretl.

Dado que la introducción de la estimación robusta mostraba cambios en el mo-


delo estimado para las importaciones, sospechamos que existe un problema de
heterocedasticidad. Los contrastes disponibles desde la salida del modelo es-
timado en Contrastes . Heterocedasticidad permiten acceder al test de White
cuyo resultado confirma la existencia de heterocedasticidad, al llevar asociado
un nivel crítico muy reducido.

Contraste de heterocedasticidad de White


MCO, usando las observaciones 1988-2016 (T = 29)
Variable dependiente: û2

Coeficiente Desv. Típica Estadístico t valor p


const 2,55105e+06 464657,5 490,1 39e-05,***
ipi −3737,33 1167,47 −3,201 0,0040 ***
precio −42931,4 7761,64 −5,531 1,26e-05 ***
sq_ipi 1,34545 2,25339 0,5971 0,5563
X2_X3 31,6557 8,21296 3,854 0,0008 ***

R-cuadrado = 0,728968

Estadístico de contraste: T R2 = 21,140069,


con valor p = P(Chi-cuadrado(5) > 21,140069) = 0,000762

El test propuesto por White 1980 establece la hipótesis nula de homocedasti-


cidad:
241

H0 : σi2 = σ 2 ∀i = 1, · · · , n
H1 : σi2 6= σj2 para algún i 6= j

La resolución del contraste se basa en la regresión de los residuos cuadráticos


del modelo estimado sobre las variables explicativas del modelo, sus cuadrados
y todos los productos cruzados, es decir:

k
X
û2 = α0 + αij Xi Xj + η
i,j=1

Bajo la hipótesis nula de homoscedasticidad se cumple nR2 ≈ χ2m , tal y como


hemos descrito en Test-de-White (p.240). En esta distribución chi-cuadrado los
grados de libertad m corresponden al número de regresores de este modelo
auxiliar sobre los residuos cuadráticos (es decir, número de parámetros menos
1, ya que se excluye el término independiente).
En caso de que el número de grados de libertad fuera reducido se podría pro-
poner un modelo similar al anterior pero excluyendo los productos cruzados de
variables.

De modo similar al test de White se podría llevar a cabo el test propuesto por
Breusch_Pagan cuya hipótesis nula es idéntica al anterior (homocedasticidad)
y que conduce a la misma conclusión (rechazar la hipótesis) tal y como muestra
la salida siguiente:
Contraste de heterocedasticidad de Breusch-Pagan
MCO, usando las observaciones 1988-2016 (T = 29)
Variable dependiente: û2 escalado (variante robusta de Koenker)

Coeficiente Desv. Típica Estadístico t valor p


const −188877,55422 3,−3 408,0 0021,***
ipi 94,0871 83,3514 1,129 0,2693
precio 1617,29 468,404 3,453 0,0019 ***

Suma de cuadrados explicada = 6,20118e+09

Estadístico de contraste: LM = 9,164358,


con valor p = P(Chi-cuadrado(2) > 9,164358) = 0,010233

Estos dos contrastes confirman el rechazo de la hipótesis de homocedasticidad


por lo que sería aconsejable llevar a cabo la estimación del modelo mediante la
opción automática Modelo . Otros modelos lineales . Con corrección de heteroce-
dasticidad o bien buscar soluciones del problema de la heterocedasticidad para
estimar el modelo por Mínimos Cuadrados Ponderados (MCP) tal y como se
estudia con detalle en el supuesto siguiente (17. Alquiler, p. en la página 253).
242 SUPUESTO 16. IMPORTACIONES

Teniendo en cuenta que otro de los posibles incumplimientos de las hipótesis


sobre la perturbación aleatoria es la presencia de autocorrelación, podemos exa-
minar la salida del modelo estimado prestando atención a la última línea donde
aparecen los resultados del, coeficiente de autocorrelación de orden 1, ρ y el
estadístico Durbin-Watson.

Contraste de Durbin-Watson
El contraste de autocorrelación de Durbin 1950Durbin 1951 se basa en la espe-
cificación de un modelo autorregresivo de orden 1 o AR(1) donde cada pertur-
bación ut se relaciona con la perturbación retardada un período ut−1 según el
esquema:
ut = ρut−1 + t ,
|ρ| < 1 , t ≈ N (0, σ 2 I)

El contraste de ausencia de autocorrelación de orden 1 se expresa:

H0 : ρ = 0
H1 : ρ 6= 0
y dado que las perturbaciones u no son observables el contraste debe llevarse a
cabo a partir de los errores de estimación û. Partiendo de estos residuos, Durbin
y Watson (1950) definen la expresión:

n
P 2
(ût − ût−1 )
t=2
dDW = n
û2t
P
t=1

que, para tamaños elevados de muestra, puede obtenerse aproximadamente co-


mo: dDW ≈ 2(1 − ρ̂) siendo ρ̂ el coeficiente de autocorrelación estimado.
Los valores de este coeficiente de autocorrelación permiten interpretar de forma
muy intuitiva los resultados del contraste de autocorrelación de Durbin-Watson:

 Si no existe autocorrelación de primer orden entonces ρ̂ w 0 y el estadístico


dDW toma valores cercanos a 2

 Si existe autocorrelación positiva extrema, entonces ρ̂ w 1 y como conse-


cuencia el estadístico de Durbin-Watson será dDW ≈ 0

 En la situación opuesta, asociada a la máxima autocorrelación negativa se


tiene ρ̂ w −1 y por lo tanto dDW será próximo al valor 4

Los valores anteriores sirven de referencia para interpretar el estadístico Durbin-


Watson, que no sigue ningún modelo de probabilidad conocido. Si bien existen
tablas de probabilidad basadas en regresiones auxiliares actualmente es posible
calcular probabilidades asintóticas basadas en simulación, como las proporcio-
nadas por Gretl.
243

Es necesario tener presente que los desarrollos descritos en este contraste co-
rresponden a esquemas autorregresivos de orden 1 y pueden ser generalizados
para contemplar autocorrelación de otro orden, tal y como describiremos en
supuestos posteriores Test-de-Breusch-Pagan (p.261).

En el modelo estimado para las importaciones se observa que el estadístico


Durbin-Watson muestra un valor cercano a 2, lo que nos indica que no existen
problemas de autocorrelación de orden 1.
Además, si observamos el valor p asociado al test Durbin-Watson, desde la salida
del modelo Contrastes . Valor p del estadístico Durbin-Watson se obtiene un nivel
crítico elevado que confirma esta conclusión:

Estadístico de Durbin-Watson = 2,19839


valor p = 0,562223

Por lo que se refiere a la hipótesis de normalidad, desde la opción de menú


Contrastes . Normalidad de los residuos, se obtiene una salida gráfica que en la
parte superior izquierda indica el valor de la discrepancia χ22 y su nivel crítico
p = 0, 0091. Estos resultados corresponden al test de Doornik-Hansen e indican
que se rechaza la hipótesis de normalidad.
Además, en el gráfico podemos observar que la principal causa de no normalidad
es el valor atípico que aparece en la cola izquierda con un valor próximo a -400.

������
�������������������������������������������� �������������������
�������������������������������� ���������������������
�������

������

�������

������
��������

�������

������

�������

������

�������

��
���� ���� ���� ���� ���� �� ���� ���� ����
�����

Contraste de Normalidad
La hipótesis de normalidad de la perturbación aleatoria es la base de todo el
proceso inferencial sobre el modelo lineal básico. Por tanto, el incumplimiento
de este supuesto podría afectar seriamente a los contrastes de hipótesis desarro-
llados.
244 SUPUESTO 16. IMPORTACIONES

El contraste de normalidad que proporciona Gretl de forma directa es el test


propuesto por Doornik 1984.

 Hipótesis nula H0 : La asimetría y la curtosis son nulas

 Hipótesis alternativa H1 : existe asimetría y/o curtosis

 El test agrupa los valores de los residuos y compara la función de densidad


teórica de los residuos bajo la hipótesis nula de normalidad con el histogra-
ma de los datos agrupados. Si la discrepancia entre las dos distribuciones
es elevada rechazamos la hipótesis de normalidad.
m3
 La discrepancia de este test se basa en las medidas de asimetría g1 = 3 y
m22
m4
curtosis o apuntamiento g2 = 2 − 3, donde m indican los momentos cen-
m2
trados de los residuos (el momento de orden 3 m3 representa la asimetría
en la distribución de los residuos y el de orden 4 m4 mide el apuntamiento.
Si el modelo fuese normal estándar g1 = 0 ; g2 = 0 (la segunda medida
suele expresarse en desviaciones respecto a 3 que es el valor de referencia
en distribuciones mesocúrticas o de apuntamiento normal).

 De ser cierta la hipótesis de normalidad la discrepancia ĝ12 +ĝ22 se distribuye


aproximadamente como una χ2 (2)

Además del test de Doornik-Hansen que proporciona Gretl desde la salida del
modelo es recomendable realizar otros contrastes de normalidad. Para ello debe-
mos guardar los residuos del modelo (Guardar . Residuos) con la denominación
que consideremos adecuada (por defecto Gretl propone el nombre uhat2, donde
2 es el número de modelo estimado).
Una vez guardada la serie de residuos, si en la ventana principal de Gretl marca-
mos esta variable, desde el menú Variable . Contraste de Normalidad, se obtiene
la salida:

Contraste de Normalidad de uhat2:


Contraste de Doornik-Hansen = 9,39996, con valor p 0,00909546
W de Shapiro-Wilk = 0,90922, con valor p 0,016403
Contraste de Lilliefors = 0,141688, con valor p ~= 0,14
Contraste de Jarque-Bera = 18,8233, con valor p 8,17642e-05

Los tests de Doornik-Hansen, Shapiro-Wilk y Jarque-Bera indican que debemos


rechazar la hipótesis de normalidad.

Otros Contrastes de Normalidad

 El test desarrollado por Shapiro 1965 se aplica preferiblemente para mues-


tras pequeñas, n < 50.
245

El procedimiento de esta prueba consiste en calcular la media X̄ y la


varianza muestral, S 2 , y ordenar las observaciones de menor a mayor
x(1) ≤ x(2) ≤ · · · ≤ x(n)
La discrepancia del estadístico de Shapiro-Wilk viene dada por la expre-
sión:

Pn 2
( i=1 αi x(i))
W =
nS 2
Donde αi representa la correlación entre los valores x(i) y los
 valores pro-
medios de los rangos aleatorios X̄(1) ≤ X̄(2) ≤ · · · ≤ X̄(n) procedentes
de muestras con distribución normal, independientes e idénticamente dis-
tribuidas.

• Es decir se tomarían muestras aleatorias y ordenadas: x1 (1) ≤ x1 (2) ≤


P2 (2) ≤ · · · ≤ x2 (n), . . . . a partir de las cuales
· · · ≤ x1 (n), x2 (1) ≤ x
se construye: X̄(i) = j xj (i).
• Si la variable sigue un modelo normal, los valores ordenados de la
variable guardarán una correlación con los promedios obenidos alea-
toriamente de distribuciones normales, y esta correlación se recoge
en el coeficiente de ponderación αi .

 El test de Kolmogorov-Smirnov basado en los trabajos de Kolmogorov


1933 y Smirnov 1948 considera la discrepancia:

D = máx FM uestral (x) − FN (0,σ) (x)

• La distribución del estadístico de Kolmogorov-Smirnov es indepen-


diente de la distribución poblacional especificada en la hipótesis nula
y los valores críticos de este estadístico están tabulados.
• Si la distribución postulada es la normal (en el caso de u supondremos
que la distribución es normal con esperanza nula y desviación típica
σ) se llevará a cabo la estimación de sus parámetros a partir de la
información muestral y se obtendrán los valores críticos aplicando
la corrección de significación propuesta por Lilliefors, que también
aparece tabulada.

 El test de normalidad de Jarque-Bera , al igual que el de Doornik-Hansen,


se basa en el estudio de la forma gráfica de la distribución. Más concre-
tamente, el contraste de normalidad desarrollado por Bera 1984 examina
las discrepancias de la distribución observada respecto a la curva campa-
niforme característica del modelo normal.
La discrepancia del test de Jarque-Bera se define mediante la expresión:
 
n 1
dJB = g12 + g22
6 4
donde aparece el tamaño muestral n y los coeficientes muestrales de asi-
metría y apuntamiento g1 y g2 elevados al cuadrado. Bajo la hipótesis nula
de normalidad esta expresión se distribuye según un modelo χ2 (2) .
246 SUPUESTO 16. IMPORTACIONES

Mediante simulaciones de Montecarlo, se comprueba empíricamente que bajo la


hipótesis nula de normalidad, los contrastes de Shapiro-Wilk y Doornik-Hansen
son más potentes y por lo tanto es recomendable su uso. Sin embargo, es ne-
cesario tener en cuenta que en muestras pequeñas la potencia de los cuatro
contrastes es reducida.

3. Se sospecha que la firma de un acuerdo comercial que entró en vigor


en el año 2005 puede haber afectado al patrón de comportamiento de
las importaciones. Estudiar cómo podría incorporarse al modelo esta
información.

Para detectar posibles cambios estructurales en el modelo podemos realizar el


test RV de Quandt, en la opción Contrastes . Contraste de RV de Quant (QLR),
que proporciona dos salidas, una gráfica y otra de texto:

���
���������������������������������
���������������������
���

��

��

��

��

��
����� ����� ����� �����

Ambas salidas indican que en el año 2005 se produce un cambio significativo.


Más concretamente, la salida de texto es la siguiente:

Contraste de razón de verosimilitudes de Quandt para cambio estructural


en un punto desconocido, con recorte del 15 por ciento:
El valor máximo de F(3, 23) = 11,2631 corresponde a la observación 2005
Valor p asintótico = 5,18724e-06 para Chi-cuadrado(3)= 33,7892

Observamos que en el año 2005 se produce la mayor discrepancia F, y el valor


p asintótico es suficientemente bajo para rechazar la hipótesis de estabilidad
estructural; por lo tanto se concluye que en el año 2005 se produce un cambio
estructural en el modelo de importaciones.

Contraste de RV de Quandt
247

El test RV de Quandt desarrollado por Quandt 1960, contrasta la hipótesis


nula de estabilidad estructural y se basa en dividir el recorrido en dos submues-
tras ordenadas, de modo que ninguno de los dos extremos sea inferior al 15 %.
Para cada periodo de potencial ruptura, j, (dentro del 70 % de observaciones
centrales), se calcula la discrepancia entre los residuos cuadráticos del modelo
restringido (con estabilidad en los coeficientes) y del modelo libre.

û0R ûR − û0 û


 
nj − k
Fn∗kj −k =
û0 û k

Si denotamos por n0 el tamaño de muestra correspondiente al primer 15 % de


las observaciones, los tamaños siguientes serían n0 +1 , n0 +2, . . . (nj representa
genéricamente estos tamaños).

Calculamos las discrepancias F anteriores, para cada uno de los periodos inter-
medios:

Fn∗k0 −k , Fn∗k0 +1−k , Fn∗k0 +2−k , · · · , Fn∗k0 +h−k

y seleccionamos la máxima discrepancia que corresponde a un periodo t∗ , para


el que calculamos el estadístico de la Razón de Verosimilitud:

û0R ûR
 
RV = nt∗ ln → χ2r
û0 û

El test RV de Quandt proporciona la salida de texto relativa al periodo t∗ para


el que se produce la máxima discrepancia del valor F, el estadístico RV y el
correspondiente valor p asintótico. Si este valor p es suficientemente bajo para
rechazar la hipótesis nula de estabilidad estructural, entonces concluiremos que
existe un cambio estructural en el periodo t∗ detectado.

Es importante destacar que una de las ventajas del test RV de Quandt es su


capacidad para contrastar la estabilidad estructural y detectar, en el caso de
que se produzcan rupturas, el período en el que éstas se presentan.

A diferencia del test RV de Quandt que detecta el posible año de ruptura, el


test de Chow exige disponer de información exógena sobre dicho período por lo
que, además de recabar información relativa a las variables investigadas, resulta
recomendable realizar previamente el contraste de razón de verosimilitudes de
Quandt.

En este caso, teniendo en cuenta que ya se ha detectado a través del test de


Quandt el período de ruptura (2005), podemos llevar a cabo el test de Chow
cuya hipótesis es también la estabilidad estructural:
248 SUPUESTO 16. IMPORTACIONES

Regresión aumentada para el contraste de Chow


MCO, usando las observaciones 1988-2016 (T = 29)
Variable dependiente: importaciones

Coeficiente Desv. Típica Estadístico t valor p


const −866,849 271,883 −3,188 0,0041 ***
ipi 2,81384 1,30732 2,152 0,0421 **
precio 11,1937 3,52084 3,179 0,0042 ***
splitdum 718,650 838,976 0,8566 0,4005
sd_ipi 6,55248 2,36289 2,773 0,0108 **
sd_precio −13,3003 5,26016 −2,528 0,0188 **

Suma de cuad. residuos 135762,8 D.T. de la regresión 76,82924


R-cuadrado 0,984117 R-cuadrado corregido 0,980664
F(5, 23) 285,0196 Valor p (de F) 6,85e-20
Log-verosimilitud −163,6941 Criterio de Akaike 339,3881
Criterio de Schwarz 347,5919 Crit. de Hannan-Quinn 341,9575

Contraste de Chow de cambio estructural en la observación 2005


F(3, 23) = 11,2631 con valor p 0,0001

Como podemos observar, el test de Chow incorpora una variable dicotómica


splitdum que adopta valores nulos hasta el año 2004 y valores unitarios a partir
de 2005 (año del posible cambio estructural). También incluye la interacción
entre esta variable dicotómica y el resto de variables explicativas del modelo.
Gracias a esta especificación, el test de Chow aporta mucha información ya que,
además de la conclusión asociada al nivel crítico del contraste, proporciona una
regresión auxiliar que resulta de gran ayuda para, cuando se detecte un cambio
estructural, incorporar adecuadamente dicho cambio al modelo econométrico.
En el caso del modelo de importaciones, la salida del contraste de Chow conduce
a un nivel crítico muy reducido, confirmando la existencia de cambio estructu-
ral en el año 2005, y además detecta que las variables significativas son las
interacciones de splitdum con el ipi y con el precio.
A partir de esta salida ampliada con el cambio estructural, el modelo estimado
para las importaciones sería:
249

Yˆt = −866, 85 + 2, 81IP It + 11, 19Pt , para períodos anteriores a 2005


Yˆt = −148, 20 + 9, 37IP It − 2, 11Pt , para períodos desde 2005 en adelante

Contraste de Chow
El test propuesto por Chow contrasta la hipótesis nula de estabilidad estruc-
tural mientras la alternativa será que en determinada observación t∗ se produce
un cambio estructural. Si denotamos por n1 , n2 los tamaños de las dos sub-
muestras del recorrido muestral considerado, la hipótesis nula exige que tanto
los coeficientes del modelo como su dispersión se mantengan estables en todo el
recorrido, es decir H0 : βn1 = βn2 = β; σn1 = σn2 = σ
Para llevar a cabo este contraste se define una variable dicotómica (escalón)
asociada al cambio estructural en determinada observación o período que deno-
tamos por t∗ :
(
0 para t < t∗
W =
1 para t ≥ t∗

Una vez definida esta variable (que Gretl genera automáticamente con la deno-
minación splitdum) se especifica el modelo ampliado o libre:

y = β1 + β2 X2 + · · · + βk Xk + γ1 W + γ2 W X2 + · · · + γk W Xk + u

donde se han incluido también las variables de interacción entre la dicotómica


W y el resto de variables explicativas. Este modelo proporciona una suma de
residuos cuadráticos û0 û.
Por su parte el modelo restringido será:

y = β1 + β2 X2 + · · · + βk Xk + u
y la suma de residuos cuadráticos de este modelo restringido viene dada por
û0R ûR .
En esta situación, el test de Chow contrasta el supuesto de estabilidad estruc-
tural que equivale a la restricción:

H0 : γ 1 = γ 2 = · · · = γ k = 0
y el correspondiente estadístico de contraste de restricciones lineales es:

û0R ûR − û0 û


 
n − 2k k
≈ Fn−2k
û0 û k

Teniendo en cuenta la salida del test de Chow sobre el modelo de importaciones


sería aconsejable revisar la especificación ya que la variable splitdum no resulta
significativa (y por tanto el acuerdo comercial no tiene impacto sobre el término
250 SUPUESTO 16. IMPORTACIONES

independiente), pero en cambio sí resultan significativos los términos de interac-


ción entre splitdum y las variables explicativas (es decir, el cambio estructural
ligado al acuerdo comercial afecta a los coeficientes tanto del IPI como del índice
de precios del acero).
Para estimar el modelo ampliado ello es neceario previamente recuperar el rango
muestral completo y generar las variables de interacción:

smpl full
acuerdo_ipi = acuerdo * ipi
acue rdo_pr ecio = acuerdo * precio
smpl 1987 2016

y a continuación especificamos el modelo ampliado:

Modelo4 <- ols importaciones const ipi precio acuerdo_ipi


acue rdo_pr ecio

cuya estimación MCO proporciona el resultado siguiente:

Modelo 4: MCO, usando las observaciones 1988–2016 (T = 29)


Variable dependiente: importaciones

Coeficiente Desv. Típica Estadístico t valor p


const −791,378 255,780 −3,094 0,0050
ipi 2,99395 1,28312 2,333 0,0283
precio 10,2940 3,34181 3,080 0,0051
acuerdo_ipi 7,87165 1,78210 4,417 0,0002
acuerdo_precio −9,47414 2,76250 −3,430 0,0022

Media de la vble. dep. 1163,192 D.T. de la vble. dep. 552,5180


Suma de cuad. residuos 140093,8 D.T. de la regresión 76,40185
R2 0,983610 R2 corregido 0,980879
F (4, 24) 360,0860 Valor p (de F ) 4,81e–21
Log-verosimilitud −164,1494 Criterio de Akaike 338,2988
Criterio de Schwarz 345,1353 Hannan–Quinn 340,4399
ρ̂ 0,132595 Durbin–Watson 1,676019

En este modelo se observa una clara ganancia de capacidad explicativa respecto


a los anteriores ya que el coeficiente de determinación corregido supera el 98 %
y las medidas de información (criterios de Akaike, Schwarz y Hannan-Quinn) se
reducen considerablemente. Además, como ya hemos señalado anteriormente, al
introducir el cambio estructural, éste abarca dos patrones de comportamiento
distintos para las importaciones, antes y después del acuerdo comercial de 2005.
Más concretamente, se observa que a partir del acuerdo comercial las importa-
ciones pasan a estar más estrechamente relacionadas con el IPI y menos con los
precios
Yˆt = −791, 378 + 2, 99IP It + 10, 29Pt para períodos anteriores a 2005
Yˆt = −791, 378 + 10, 866P It + 0, 82Pt para períodos desde 2005 en adelante
251

4. Analizar si la ampliación del modelo afecta a su validación y a las


predicciones de importaciones a partir de 2017. El análisis del mode-
lo ampliado con el cambio estructural permite apreciar que se han producido
mejoras tanto en la estimación como en los contrastes y la predicción.
Así, en la estimación se aprecia que el coeficiente de determinación corregido
supera el 98 % y las medidas de información se reducen respecto a modelos
anteriores. Además, en la etapa de validación se solucionan los principales pro-
blemas detectados, ya que no existe evidencia para rechazar las hipótesis de
homocedasticidad y normalidad.
Los contrastes de homocedasticidad llevan asociados niveles críticos elevados
(cabe señalar que en este caso es recomendable aplicar el test de White sólo con
cuadrados para evitar que la matriz de datos sea singular).

Contraste de heterocedasticidad de White -


Hipótesis nula: [No hay heterocedasticidad]
Estadístico de contraste: LM = 7,70024
con valor p = P(Chi-cuadrado(10) > 7,70024) = 0,65809
Contraste de heterocedasticidad de White (cuadrados sólo) -
Hipótesis nula: [No hay heterocedasticidad]
Estadístico de contraste: LM = 6,82886
con valor p = P(Chi-cuadrado(8) > 6,82886) = 0,555205
Contraste de heterocedasticidad de Breusch-Pagan -
Hipótesis nula: [No hay heterocedasticidad]
Estadístico de contraste: LM = 2,809
con valor p = P(Chi-cuadrado(4) > 2,809) = 0,59028

En cuanto al supuesto de normalidad, al analizar los residuos del modelo am-


pliado se observa que todos los contrastes de normalidad disponibles en Gretl
muestran niveles críticos elevados:

������
�������������������������������������������� �������������������
�������������������������������� ���������������������
������

������
��������

������

������

������

��
���� ���� �� ���� ����
�����

Contraste de Normalidad de uhat4:


Contraste de Doornik-Hansen = 2,83977, con valor p 0,241742
W de Shapiro-Wilk = 0,949089, con valor p 0,17333
252 SUPUESTO 16. IMPORTACIONES

Contraste de Lilliefors = 0,148465, con valor p ~= 0,1


Contraste de Jarque-Bera = 1,74339, con valor p 0,418241

A partir del modelo anterior es posible obtener tanto predicciones puntuales co-
mo bandas de confianza que mejoran las proporcionadas por modelos anteriores.
Más concretamente, los errores porcentuales son inferiores al 2 % y el índice de
Theil se sitúa en 0,68. Así pues, la evaluación de las predicciones a partir del
año 2017 muesta resultados bastante mejores que los asociados a los modelos
previamente estimados.

Para intervalos de confianza 95 %, t(24, ,0, 025) = 2, 064

Observaciones importaciones Predicción Desv. típica Intervalo de 95 %


2017 2235,30 2205,13 88,2657 2022,96 2387,30
2018 2283,90 2250,85 89,9221 2065,26 2436,44

Estadísticos de evaluación de la predicción (T = 2)


Error medio 31,61
Error cuadrático medio 31,643
Raíz del Error cuadrático medio 5,6252
Error absoluto medio 31,61
Porcentaje de error medio 1,3984
Porcentaje de error absoluto medio 1,3984
U de Theil 0,68006
Proporción de sesgo, U M 0,99793
Proporción de la regresión, U R 0,0020657
Proporción de la perturbación, U D −2,6186e-16
SUPUESTO 17

Alquiler

Contenidos: Estimación MCO, Heterocedasticidad, test de White,


test de Breusch-Pagan, test de Koenker, Mínimos cuadrados pon-
derados

Nombre del fichero: alquiler.gdt http://cort.as/-LMd8

Página de datos: http://cort.as/-LHjb . alquiler.gdt


Página de scripts: http://cort.as/-LHjE . S17_Alquiler.inp

Enunciado:

Se especifica un modelo econométrico para explicar el gasto en alquiler de vi-


vienda en una ciudad considerando como variables explicativas la distancia de la
vivienda al centro de la ciudad (en Kms), su antigüedad (en años) y su superficie
(en metros cuadrados).

1. Estimar un modelo econométrico para explicar el gasto en alquiler de


vivienda en función de los regresores disponibles.

2. Analizar cómo se vería afectado el modelo anterior si se introduce la esti-


mación robusta de la matriz de varianzas-covarianzas

3. Contrastar la hipótesis de homocedasticidad

4. A la vista de los resultados anteriores ¿Qué transformación sería recomen-


dable sobre el modelo de alquiler?

253
254 SUPUESTO 17. ALQUILER

Solución:

1. Estimar un modelo econométrico para explicar el gasto en alquiler


de vivienda en función de los regresores disponibles.

La estimación mínimo cuadrática del modelo proporciona coeficientes con los


signos esperados, ya que el gasto en alquiler disminuye al aumentar la distancia
y la edad de la vivienda, pero en cambio aumenta con la superficie de la misma.

Modelo 1: MCO, usando las observaciones 1–80


Variable dependiente: alquiler

Coeficiente Desv. Típica Estadístico t valor p


const 599,438 5,48495 109,3 0,0000
distancia −16,9402 2,45516 −6,900 0,0000
edad −0,117377 0,0573094 −2,048 0,0440
superficie 0,138320 0,0485654 2,848 0,0057
Media de la vble. dep. 589,6500 D.T. de la vble. dep. 17,92608
Suma de cuad. residuos 14449,18 D.T. de la regresión 13,78843
R2 0,430825 R2 corregido 0,408358
F (3, 76) 19,17557 Valor p (de F ) 2,35e–09
Log-verosimilitud −321,3697 Criterio de Akaike 650,7395
Criterio de Schwarz 660,2676 Hannan–Quinn 654,5596

Todas las variables resultan significativas y respecto a la capacidad explicativa


se aprecia que el coeficiente de determinación es bastante modesto, superando
ligeramente el 43 %.
Para analizar la especificación del modelo llevamos a cabo un contraste RESET
de Ramsey (todas las variantes):

Contraste de especificación RESET (cuadrados y cubos)


Estadístico de contraste: F = 1,211055,
con valor p = P(F(2,74) > 1,21106) = 0,304
Contraste de especificación RESET (cuadrados sólo)
Estadístico de contraste: F = 2,139777,
con valor p = P(F(1,75) > 2,13978) = 0,148
Contraste de especificación RESET (cubos sólo)
Estadístico de contraste: F = 2,152709,
con valor p = P(F(1,75) > 2,15271) = 0,146

En todos los casos observamos valores de p superiores a 0,14 por lo que no


rechazamos la hipótesis de que el modelo está bien especificado.
El análisis del modelo estimado permite apreciar que no existe problema de
colinealidad entre las variables explicativas, ya que los FIV son próximos a la
255

unidad y las condiciones del diagnóstico BKW Colinealidad-Belsley-Kuh-Welsch


(p.118), presentan valores bajos (inferiores a 30 en todos los casos):

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
distancia 1,131
edad 1,192
superficie 1,066
2 , donde Rj es el coeficiente de correlación múltiple
1
V IFj = 1−R
j
entre la variable j y las demás variables independientes

Diagnósticos de colinealidad de Belsley-Kuh-Welsch:

— proporciones de la varianza —
lambda cond const distancia edad superfic
3,381 1,000 0,007 0,020 0,015 0,011
0,432 2,799 0,000 0,505 0,142 0,010
0,131 5,075 0,009 0,171 0,649 0,515
0,056 7,754 0,984 0,304 0,194 0,464

lambda = valores propios de X’X, del más grande al más pequeño


cond = índice de condición
nota: las columnas de proporciones de la varianza suman 1.0

Nota:
Si realizamos el contraste RESET de Ramsey con cuadrados y cubos obtenemos
la salida siguiente:

Regresión auxiliar para el contraste de especificación RESET


MCO, usando las observaciones 1-80
Variable dependiente: alquiler

Coeficiente Desv. Típica Estadístico t valor p


const 161033,301348 0,5344 0,5947 ,
distancia −6669,22 12626,6 −0,5282 0,5989
superficie 54,4220 103,082 0,5279 0,5991
edad −46,1865 87,4875 −0,5279 0,5991
ŷ 2 −0,685182 1,27282 −0,5383 0,5920
ŷ 3 0,000398211 0,000724329 0,5498 0,5841

ATENCIÓN: ¡matriz de datos casi singular!


Estadístico de contraste: F = 1,211055,
con valor p = P(F(2,74) > 1,21106) = 0,304
256 SUPUESTO 17. ALQUILER

Podemos observar una nota de Gretl que nos indica «ATENCIÓN: ¡matriz de
datos casi singular!». Esto nos indica que hay un problema de colinealidad entre
las variables explicativas del modelo ampliado, tal y como puede comprobarse
si guardamos la variable estimada ŷ sobre el modelo original, y generamos a
continuación las variables cuadrados y cubos ŷ 2 e ŷ 3 :

ols alquiler const distancia edad superficie


yhat = $yhat
yhat2 = yhat * yhat
yhat3 = yhat * yhat2
ols alquiler const distancia edad superficie yhat2 yhat3
vif

Los resultados del análisis de colinealidad sobre este modelo serían los recogidos
a continuación y confirman el problema existente. Se observan unos valores VIF
excesivamente altos y también el diagnóstico de colinealidad de Belsley-Kuh-
Welsch muestra índices de condición muy elevados en las dos últimas filas, con
proporción de varianza elevadas en la práctica totalidad de variables.
Así pues, podemos concluir que en este modelo ampliado hay una colinealidad
muy elevada, casi exacta y por eso Gretl alerta con el aviso de que la matriz de
datos es casi singular:

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
distancia 30088415,108
edad 2794328,099
superficie 4828085,835
yhat2 128770961,825
yhat3 32263494,074
2 , donde Rj es el coeficiente de correlación múltiple
1
V IFj = 1−R
j
entre la variable j y las demás variables independientes

Diagnósticos de colinealidad de Belsley-Kuh-Welsch:

— proporciones de la varianza —
lambda cond const distancia edad superfic yhat2 yhat3
5,316 1,000 0,000 0,000 0,000 0,000 0,000 0,000
0,435 3,494 0,000 0,000 0,000 0,000 0,000 0,000
0,148 5,995 0,000 0,000 0,000 0,000 0,000 0,000
0,100 7,289 0,000 0,000 0,000 0,000 0,000 0,000
0,000 2490,637 0,000 0,000 0,000 0,000 0,000 0,000
0,000 834529,612 1,000 1,000 1,000 1,000 1,000 1,000

lambda = valores propios de X’X, del más grande al más pequeño


cond = índice de condición
nota: las columnas de proporciones de la varianza suman 1.0
257

En este tipo de situaciones es recomendable realizar el test RESET con solo


cuadrados o solo cubos, ya que en estos casos no tendríamos este problema de
colinealidad con los datos.

Partiendo del modelo MCO estimado para el alquiler, el análisis de la tabla de


valores observados, estimados y residuos muestra que existen algunos errores de
magnitud elevada:
Rango de estimación del modelo: 1–80
Desviación típica de los residuos = 13,7884

alquiler estimada residuo


1 600,00 593,84 6,16
2 600,00 603,72 −3,72
.. .. .. ..
. . . .
62 560,00 595,95 −35,95 *
63 640,00 602,11 37,89 *
64 625,00 602,44 22,56
65 550,00 600,49 −50,49 *
.. .. .. ..
. . . .
80 600,00 594,26 5,74

Nota: * denota un residuo superior a 2.5 desviaciones típicas

Para tener una visión más clara e informativa de estos residuos es aconsejable
solicitar desde el mismo modelo la opción Gráficos . Gráfico de residuos . contra
cada una de las variables explicativas (distancia, superficie y edad).

���������������������������������������������������������� ����������������������������������������������������������
��� ���

��� ���

��� ���

��� ���

��� ���
�������

�������

�� �

��� ���

��� ���

��� ���

��� ���

��� ���

��� ���
��� � �� � �� � �� ���� � ��� ���
� ���� ��� ��� ��� ��
� ���� ���

��������� ����
258 SUPUESTO 17. ALQUILER

����������������������������������������������������������
� ��

� ��

� ��

� ��

� ��
�������

��

���

���

���

���

���

���
� ��� �� ���� �
� ����
���������

A la vista de estas salidas no se observan patrones claros para la superficie y


la edad, pero en cambio parece que la dispersión de los residuos está inversa-
mente relacionada con la distancia: los residuos asociados a viviendas próximas
al centro son muy dispersos pero al aumentar la distancia al centro esa dis-
persión disminuye. Así pues, se sospecha de la existencia de heterocedasticidad
relacionada inversamente con la variable distancia.

2. Analizar cómo se vería afectado el modelo anterior si se introduce


la estimación robusta de la matriz de varianzas-covarianzas

Si desde el menú de estimación solicitamos la estimación robusta de la matriz


de varianzas covarianzas (Desviaciones típicas robustas), la salida proporciona
los estimadores mínimo cuadráticos (coincidentes con los del modelo anterior)
pero nuevas estimaciones de la desviación típica, que modifican los valores del
estadístico t y por tanto los niveles críticos de los contrastes de significación
individual. En este caso se observa que todas las variables pasan a ser más
significativas, especialmente la edad cuyo nivel crítico anterior superaba el 4 %

Modelo 2: MCO, usando las observaciones 1–80


Variable dependiente: alquiler
Desviaciones típicas robustas ante heterocedasticidad, variante HC1
Coeficiente Desv. Típica Estadístico t valor p
const 599,438 4,44676 134,8 0,0000
distancia −16,9402 2,07948 −8,146 0,0000
edad −0,117377 0,0401862 −2,921 0,0046
superficie 0,138320 0,0385122 3,592 0,0006
259

Media de la vble. dep. 589,6500 D.T. de la vble. dep. 17,92608


Suma de cuad. residuos 14449,18 D.T. de la regresión 13,78843
R2 0,430825 R2 corregido 0,408358
F (3, 76) 29,95564 Valor p (de F ) 6,89e–13
Log-verosimilitud −321,3697 Criterio de Akaike 650,7395
Criterio de Schwarz 660,2676 Hannan–Quinn 654,5596

3. Contrastar la hipótesis de homocedasticidad

Los indicios sobre la existencia de heterocedasticidad se ven confirmados por


los contrastes de homocedasticidad disponibles en Gretl. Así, si desde el modelo
seleccionamos la opción Contrastes . Heterocedasticidad . Contraste de White
se obtiene:

Contraste de heterocedasticidad de White


MCO, usando las observaciones 1-80
Variable dependiente: û2

Coeficiente Desv. Típica Estadístico t valor p


const 205,802 432,961 0,4753 0,6360
distancia −775,279 393,753 −1,969 0,0529 *
superficie 4,52036 6,71884 0,6728 0,5033
edad 7,79665 7,40025 1,054 0,2957
sq_distancia 251,145 115,053 2,183 0,0324 **
X2_X3 1,76479 2,01950 0,8739 0,3852
X2_X4 −3,94905 3,23867 −1,219 0,2268
sq_superficie −0,0515626 0,0397147 −1,298 0,1984
X3_X4 0,0467424 0,0553726 0,8441 0,4015
sq_edad −0,0566668 0,0538532 −1,052 0,2963

R-cuadrado = 0,286159
Estadístico de contraste: T R2 = 22,892689,
con valor p = P(Chi-cuadrado(9) > 22,892689) = 0,006442

También se puede elegir la opción de solo cuadrados que conduce a la misma


conclusión:

Contraste de heterocedasticidad de White (cuadrados sólo)


MCO, usando las observaciones 1-80
Variable dependiente: û2
260 SUPUESTO 17. ALQUILER

Coeficiente Desv. Típica Estadístico t valor p


const 179,406 349,555 0,5132 0,6093
distancia −937,060 247,186 −3,791 0,0003 ***
superficie 6,48962 6,32180 1,027 0,3080
edad 7,64802 6,26343 1,221 0,2260
sq_distancia 314,378 96,2680 3,266 0,0017 ***
sq_superficie −0,0398295 0,0348160 −1,144 0,2564
sq_edad −0,0494111 0,0517860 −0,9541 0,3432

R-cuadrado = 0,263395
Estadístico de contraste: T R2 = 21,071579,
con valor p = P(Chi-cuadrado(6) > 21,071579) = 0,001781

Así, el test de White proporciona información de interés tanto en la modalidad


completa como la de solo cuadrados. ya que en ambos casos se obtienen niveles
críticos muy reducidos (p=0,006 y p=0,001 respectivamente) que conducen al
rechazo del supuesto de homocedasticidad y se detecta también la relevancia
en esta regresión auxiliar de la variable distancia (cuyo coeficiente estimado es
negativo) y su cuadrado.

Script: Test de White (completo y solo cuadrados)


set verbose off
ols alquiler const distancia edad superficie -- quiet
series uhat_2 = $uhat * $uhat
series sq_distancia = distancia * distancia
series sq_edad = edad * edad
series sq_superficie = superficie * superficie
series X2_X3 = distancia * edad
series X2_X4 = distancia * superficie
series X3_X4 = edad * superficie
print " TEST DE WHITE COMPLETO ( cuadrados dobles productos ) "
ols uhat_2 const distancia edad superficie sq_distancia X2_X3 X2_X4
sq_edad X3_X4 sq_superficie
n = $nobs
k = $ncoeff
R2 = $rsq
nR2 = n * R2
p = pvalue (X ,k -1 , nR2 )
printf "R - cuadrado = %g \ n Estadistico de contraste : nR ^2 = %g \ n " ,
R2 , nR2
printf " con valor p = P ( Chi - duadrado ( %g )> %g ) = %.6 f ) \ n \ n \ n " ,k -1 , nR2 , p
print " TEST DE WHITE COMPLETO ( cuadrados dobles productos ) "
ols uhat_2 const distancia edad superficie sq_distancia sq_edad
sq_superficie
n = $nobs
k = $ncoeff
R2 = $rsq
TR2 = T * R2
p = pvalue (X ,k -1 , nR2 )
printf "R - cuadrado = %g \ n Estadistico de contraste : nR ^2 = %g \ n " ,
R2 , nR2
printf " con valor p = P ( Chi - duadrado ( %g )> %g ) = %.6 f ) \ n " ,k -1 , nR2 , p
set verbose on

A la misma conclusión conduce el test de Breusch Pagan, Modelo 1: Contrastes .


Heterocedasticidad . Breusch-Pagan que efectúa la regresión sobre residuos cua-
261

dráticos escalados y estima un coeficiente significativo negativo para la variable


distancia.

Contraste de heterocedasticidad de Breusch-Pagan


MCO, usando las observaciones 1-80
Variable dependiente: û2 escalado

Coeficiente Desv. Típica Estadístico t valor p


const 1,62473 0,890180 1,825 0,0719 *
distancia −1,11435 0,398461 −2,797 0,0065 ***
superficie 8,29452e-05 0,00788193 0,01052 0,9916
edad 0,00675324 0,00930103 0,7261 0,4700

Suma de cuadrados explicada = 55,5477


Estadístico de contraste: LM = 27,773844,
con valor p = P(Chi-cuadrado(3) > 27,773844) = 0,000004

De modo similar, podemos observar el test de Koenker, Contrastes . Heteroce-


dasticidad . Koenker:

Contraste de heterocedasticidad de Breusch-Pagan


MCO, usando las observaciones 1-80
Variable dependiente: û2 escalado (variante robusta de Koenker)

Coeficiente Desv. Típica Estadístico t valor p


const 112,835 160,780 0,7018 0,4849
distancia −201,268 71,9679 −2,797 0,0065 ***
superficie 0,0149811 1,42359 0,01052 0,9916
edad 1,21974 1,67990 0,7261 0,4700

Suma de cuadrados explicada = 1,81206e+06


Estadístico de contraste: LM = 10,189088,
con valor p = P(Chi-cuadrado(3) > 10,189088) = 0,017025

Test de Breusch-Pagan y Koenker


En el test de Breusch_Pagan la hipótesis nula es la misma que en el test de
White: H0 : σi2 = σ 2 ∀i = 1, · · · , n; sin embargo la hipótesis alternativa puede
ahora ser expresada como:

H1 : σi2 = h(Zα)
donde Z es un subconjunto de las variables explicativas del modelo (podrían ser
todas), α es el nuevo vector de parámetros y h es una función lineal.
Se trata de un contraste de homocedasticidad, pero a diferencia del test de Whi-
te, la regresión auxiliar no se basa en ampliar los regresores sino en transformar
262 SUPUESTO 17. ALQUILER

o escalar los residuos. Así, la variable dependiente de la regresión auxiliar va a


ser en este caso:

û2i
ê2i =
σ̂ 2
û0 û
donde σ̂ 2 es el estimador máximo verosímil de la varianza: σ̂ 2 = , por tanto:
n
nû2
ê2i = PT i
û2i
i=1

El contraste consiste en estimar una regresión auxiliar de estos residuos cuadrá-


ticos escalados sobre las variables del modelo:
e2i = α1 + α2 X2i + · · · + αk Xki + vi
o en términos matriciales:

e2 = Xα + v

Sobre este nuevo modelo el contraste se basa en los multiplicadores de Lagrange


(LM) construidos a partir de la suma de cuadrados de la regresión (variación
explicada, VE) mediante la expresión:

VE
BP = → χ2k−1
2
que bajo la hipótesis nula converge a una distribución Chi-cuadrado con k-1
grados de libertad.
El contraste de Koenker 1980 es una variante del contraste de Breusch-
Pagan, en el que se utiliza el Multiplicador de Lagrange (LM) como estadístico
de contraste nR2 ≈ χ2k−1 .

Script: Test de Breusch-Pagan


set verbose off
ols alquiler const distancia edad superficie -- quiet
series uhat_2 = $uhat * $uhat
n = $nobs
k = $ncoeff
S2 = sum ( uhat_2 ) / n
series u h at _2 _ es ca l ad o = uhat_2 / S2
ols u ha t_ 2 _e sc a la d o const distancia edad superficie
series u h a t _ 2 _ e s c a l a d o _ h a t = $yhat
VE = sst ( u h a t _ 2 _ e s c a l a d o _ h a t )
BP = VE /2
p = pvalue (X ,k -1 , BP )
scalar nR2 = n * $rsq
scalar p1 = pvalue (X , k -1 , nR2 )
print " CONTRASTE DE BREUSCH - PAGAN "
printf " Suma de cuadrados explicada = %g \ n " , VE
printf " Estadístico de contraste : LM = %g \ n " , BP
printf " con valor p = P ( Chi - cuadrado ( %g )> %g ) = %.6 f ) \ n \ n " ,k -1 , BP , p
print " CONTASTE DE KOENKER "
printf " Estadístico de contraste : nR ^2= %g \ n " , nR2
printf " con valor p = P ( Chi - cuadrado ( %g )> %g ) = %.6 f ) \ n \ n " ,k -1 , nR2 , p1
set verbose on
263

Los contrastes de Breusch-Pagan y Koenker presentan ventajas, ya que no re-


ducen los grados de libertad del modelo y no exigen la hipótesis de normalidad
sobre los residuos. Por su parte, el test de White es el más general dado que
no exige supuestos previos al comportamiento de los residuos (normalidad) ni
tampoco requiere conocer con antelación qué variables explicativas pueden estar
causando la heteroscedasticidad. De hecho, la regresión auxiliar de este contraste
puede ser de gran ayuda para detectar qué variables causan la heterocedasti-
cidad y cuál es su estructura. En el caso concreto del modelo de alquiler, la
regresión auxiliar del test de White sobre los residuos cuadráticos confirma que
la dispersión está inversamente relacionada con la distancia (ya que se estima
para esta variable un coeficiente significativo negativo).

4. A la vista de los resultados anteriores ¿Qué transformación sería


recomendable sobre el modelo de alquiler?

A la vista de estos resultados parece aconsejable estimar el modelo de alqui-


ler incorporando la corrección de heterocedasticidad. Si optamos por el método
de mínimos cuadrados ponderados, teniendo en cuenta la información ante-
rior, parece claro que el esquema más verosímil de la heterocedasticidad sería
V ar(u)
V ar(ui ) = siendo di la distancia de la vivienda al centro de la ciudad.
di

����������������������������������������������������������������
����
����������������
����

����

����

����
��������

����

����

����

����

����

����
� ��� �
� ���� �� ���

���������

Solución al problema de heterocedasticidad: MCP


Como hemos comentado anteriormente, cuando tenemos un problema de hete-
rocedasticidad, se produce una alteración de supuesto básico del modelo MCO,
puesto que la matriz de varianzas covarianzas es E(u0 u) = σ 2 Ω en vez de
E(u0 u) = σ 2 I.
264 SUPUESTO 17. ALQUILER

Por lo tanto en este tipo de situaciones no resulta adecuada una estimación


por MCO y debemos utilizar el método de mínimos cuadrados ponderados
(MCP). El problema se centra en buscar una matriz determinista P, tal que
−1
Ω = (P 0 P ) . A partir de esta matriz se plantea el modelo transformado:

Py = PXβ + Pu

sobre el cual se cumple:


E(Pu) = PE(u) = 0

0
Cov(Pu) = E Pu(Pu) = E(Puu0 P0 ) =


=PE(uu0 )P0 = σ 2 PΩP0 =



z }| {
=σ P P −1 P 0−1 P0 = σ 2 I
2

Por lo tanto, sobre este modelo transformado habremos resuelto el problema de


heterocedasticidad.
Con este planteamiento, el problema se centra ahora en construir la matriz P,
y para ello, dado que la Pvarianza se estima a partir de los residuos cuadráticos
0 n 2
û û û
como: S 2 = = i=1 i
, es recomendable observar la salida del test de
n−k n
White que proporciona una regresión auxiliar de los residuos cuadráticos sobre
las variables explicativas, sus cuadrados y, en su caso, sus productos cruzados.
Sobre la salida de la regresión auxiliar de White es recomendable examinar qué
variables resultan más significativa para explicar el comportamiento de los resi-
duos al cuadrado, y cuál es el signo de su coeficiente estimado que nos indicará
si la relación entre esta variable y la dispersión es directa o inversa.
Supongamos que la variable más significativa es Xi y su coeficiente tiene signo
positivo. Esto querría decir que la varianza de las perturbaciones crece propor-
cionalmente a esta variable; es decir: σi2 = σ 2 Xi .
Entonces, sería necesario encontrar una ponderación Pi , tal que la E(Pi ui )2 sea
constante o equivalentemente que Pi ui sean homocedásticos:

E (Pi ui )2 = σ 2 ⇒ Pi2 E u2i = Pi2 σi2 = σ 2


   

Bajo el esquema asumido anteriormente σi2 = σ 2 Xi se obtendría al sustituir la


siguiente expresión para los pesos:

1
Pi2 σ 2 Xi = σ 2 ⇒ Pi = √
Xi

De modo análogo, si la variable que resultase más significativa en vez de Xi


1
fuese Xi2 , un desarrollo similar al anterior conduciría a los pesos: Pi = .
Xi
Por otra parte, si los coeficientes estimados tienen signo negativo indican una
relación inversa entre la dispersión y la variable. Por lo tanto el esquema de la
265

2 σ2
heterocedasticidad sería del tipo: σi = , y repitiendo el desarrollo anterior
√ Xi
se tendría: Pi = Xi .
También podría ocurrir en algunos casos que la variable más significativa en la
regresión auxiliar fuese una variable de interacción (o doble producto) Xi Xj , en
cuyo caso se seguiría el mismo esquema anteriormente descrito para deducir los
pesos adecuados

Si nos centramos en el modelo econométrico estimado anteriormente para el


alquiler, teniendo en cuenta la relación observada
√ en la regresión auxiliar de
White los pesos se generarán como peso = distancia, y la matriz P en este
caso sería:

√ 
distancia1 √ 0 ··· 0
 0 distancia2 ··· 0 
P = .. .. .. ..
 
.

 . . √ . 
0 0 ··· distancian

En Gretl generamos desde la opción de menú Añadir . Definir nueva variable la


serie de pesos o ponderaciones: peso=sqrt(distancia) y la estimación MCP
disponible en el menú Modelo . Otros Modelos lineales . Mínimos cuadrados
ponderados proporciona el diálogo siguiente:
266 SUPUESTO 17. ALQUILER

a partir del cual se obtiene la salida:

Modelo 3: MC.Ponderados, usando las observaciones 1–80


Variable dependiente: alquiler
Variable utilizada como ponderación: peso
Coeficiente Desv. Típica Estadístico t valor p
const 599,505 4,27731 140,2 0,0000
distancia −15,6262 1,78322 −8,763 0,0000
edad −0,120912 0,0445030 −2,717 0,0082
superficie 0,117676 0,0370310 3,178 0,0021

Estadísticos basados en los datos ponderados:

Suma de cuad. residuos 7541,334 D.T. de la regresión 9,961329


R2 0,532918 R2 corregido 0,514481
F (3, 76) 28,90411 Valor p (de F ) 1,42e–12
Log-verosimilitud −295,3602 Criterio de Akaike 598,7204
Criterio de Schwarz 608,2485 Hannan–Quinn 602,5405
Estadísticos basados en los datos originales:

Media de la vble. dep. 589,6500 D.T. de la vble. dep. 17,92608


Suma de cuad. residuos 14596,17 D.T. de la regresión 13,85839

En este modelo estimado por MCP se mantienen los signos de los coeficientes,
que son negativos para distancia y edad, mientras para la superficie se estima
un coeficiente positivo casi simétrico al de edad.
Para examinar los indicadores de bondad es necesario acudir a los estadísticos
basados en datos no ponderados, que son comparables con el modelo inicial e
inevitablemente (al ser los estimadores MCO óptimos) indican en este caso un
peor ajuste. De hecho la estimación por MCP siempre llevará asociada una ma-
yor suma de residuos cuadráticos que la estimación MCO ya que éste es el coste
de la corrección de la heterocedasticidad (concretamente en este caso la suma de
residuos cuadráticos pasa de 14.449,18 a 14.596,17 mientras la desviación típica
de la regresión aumenta de 13,78843 a 13,85839).
Como ya hemos indicado anteriormente, existe una alternativa para corregir la
heterocedasticidad de forma automática, que resulta especialmente recomenda-
ble cuando desconocemos su estructura. Esta opción automática de Gretl se
encuentra disponible en el menú Modelo . Otros Modelos lineales . Con co-
rrección de heterocedasticidad que permite incorporar una variante con términos
cuadráticos:

Modelo 3: con corrección de heterocedasticidad, usando las observaciones 1–80


Variable dependiente: alquiler
Sin términos al cuadrado en la ecuación de la varianza
267

Coeficiente Desv. Típica Estadístico t valor p


const 599,979 3,16412 189,6 0,0000
distancia −15,0134 1,17660 −12,76 0,0000
edad −0,114814 0,0347776 −3,301 0,0015
superficie 0,101760 0,0204584 4,974 0,0000
Estadísticos basados en los datos ponderados:

Suma de cuad. residuos 225,8953 D.T. de la regresión 1,724038


R2 0,720009 R2 corregido 0,708956
F (3, 76) 65,14566 Valor p (de F ) 5,87e–21
Log-verosimilitud −155,0369 Criterio de Akaike 318,0738
Criterio de Schwarz 327,6019 Hannan–Quinn 321,8939
Estadísticos basados en los datos originales:

Media de la vble. dep. 589,6500 D.T. de la vble. dep. 17,92608


Suma de cuad. residuos 14739,38 D.T. de la regresión 13,92621

Modelo 4: con corrección de heterocedasticidad, usando las observaciones 1–80


Variable dependiente: alquiler

Coeficiente Desv. Típica Estadístico t valor p


const 599,003 2,91668 205,4 0,0000
distancia −14,4740 1,20743 −11,99 0,0000
edad −0,118028 0,0295414 −3,995 0,0001
superficie 0,0998896 0,0209045 4,778 0,0000
Estadísticos basados en los datos ponderados:

Suma de cuad. residuos 208,1076 D.T. de la regresión 1,654768


R2 0,671270 R2 corregido 0,658294
F (3, 76) 51,73092 Valor p (de F ) 2,53e–18
Log-verosimilitud −151,7562 Criterio de Akaike 311,5125
Criterio de Schwarz 321,0406 Hannan–Quinn 315,3325
Estadísticos basados en los datos originales:

Media de la vble. dep. 589,6500 D.T. de la vble. dep. 17,92608


Suma de cuad. residuos 14983,62 D.T. de la regresión 14,04112

Como podemos observar, en el modelo de alquiler los resultados con corrección


automática de heterocedasticidad son similares a los obtenidos por MCP si bien
los indicadores basados en residuos son ligeramente peores en estas opciones
automáticas de Gretl.

Nota:
Este método de corrección automática de heterocedasticidad solo es recomenda-
ble cuando no se identifica la causa del problema y por tanto los pesos adecuados
268 SUPUESTO 17. ALQUILER

para la estimación MCP. El procedimiento de corrección automática supone que


existe una heterocedasticidad multiplicativa y utiliza como ponderación el inver-
so de la varianza estimada. Más concretamente, este procedimiento automático
de Gretl se desarrolla en las siguientes etapas:

1. Estimación inicial MCO


2. Guardar los residuos cuadráticos del modelo y tomar logaritmos log û2i


3. Generar los cuadrados de las variables (en el caso general de que se desee
incluir esta opción, generalmente proporciona mejores resultados).

4. Obtener los logaritmos de los residuos cuadráticos log û2i en función de




las variables originales y sus cuadrados (si se opta por la alternativa sin
cuadrados se excluyen estas últimas)
1
5. Generar la variable de ponderación como wi =
log (û2i )

Estimar por mínimos cuadrados ponderados el modelo inicial, utilizando como


variable de ponderación la anterior.

set verbose off


list xlist = const distancia edad superficie
list ylist = alquiler
sq_distancia = distancia * distancia
sq_edad = edad * edad
sq_superficie = superficie * superficie
list xlist2 = const distancia edad superficie sq_distancia sq_edad
sq_superficie
ols ylist xlist -- quiet
series u2 = $uhat * $uhat
series l_u2 = log ( u2 )
ols l_u2 xlist2 -- quiet
series P = 1/ exp ( $yhat )
wls P ylist xlist
set verbose on
SUPUESTO 18

Energía

Contenidos: Estimación MCO, heterocedasticidad, test de White, test


de Breusch-Pagan, test de Koenker, Mínimos cuadrados ponderados
(MCP)

Nombre del fichero: energia.gdt http://cort.as/-LMdL

Página de datos: http://cort.as/-LHjb . energia.gdt


Página de scripts: http://cort.as/-LHjE . S18_Energia.inp

Enunciado:

Se desea estimar un modelo econométrico para explicar el comportamiento del


consumo energético a partir de una base de datos de 72 países para los que se
dispone de información de esta variable (expresada en términos percápita), el
PIB percápita, el crecimiento anual medio durante la última década ( %) y la
participación de la industria en el PIB nacional ( %). La variable dicotómica ue
adopta valor unitario para los países pertenecientes a la Unión Europea.

1. Analizar conjuntamente las variables consumo energético y PIB percápita,


estimando un modelo lineal simple para el consumo.

2. Completar la especificación del modelo anterior, analizando si la propuesta


resulta adecuada.

3. Contrastar el supuesto de homocedasticidad ¿Sería necesario introducir


transformaciones? ¿Cuáles?

269
270 SUPUESTO 18. ENERGÍA

Solución:

1. Analizar conjuntamente las variables consumo energético y PIB,


ambas en térmionos percápita, estimando un modelo lineal simple
para el consumo.

El análisis conjunto de las variables a través de la nube de puntos (Ver . Graficos


. Grafico X-Y (scatter)) permite apreciar que la dispersión es muy reducida para
los países de bajo nivel de PIB percápita y aumenta con el nivel de esta variable,
sugiriendo por tanto la existencia de heterocedasticidad.

����������������������������������������������������������������������������������������
��
���������������������
��

��
����������������������������

��

��

��

��

��

��

��
�� ������ �����
� ������ ������ �����

�������������

La estimación mínimo cuadrática del modelo confirma la capacidad explicativa


del PIBpc, si bien como era previsible el test de Ramsey detecta problemas de
especificación, sugiriendo la conveniencia de añadir nuevas variables.

Modelo 1: MCO, usando las observaciones 1–72


Variable dependiente: energia

Coeficiente Desv. Típica Estadístico t valor p


const 0,801720 0,137325 5,838 0,0000
pib 0,000131334 8,41203e–06 15,61 0,0000
Media de la vble. dep. 2,180791 D.T. de la vble. dep. 1,875559
Suma de cuad. residuos 55,72219 D.T. de la regresión 0,892206
R2 0,776895 R2 corregido 0,773708
F (1, 70) 243,7543 Valor p (de F ) 1,69e–24
Log-verosimilitud −92,93722 Criterio de Akaike 189,8744
Criterio de Schwarz 194,4278 Hannan–Quinn 191,6871
Contraste de especificación RESET –
271

Hipótesis nula: La especificación es adecuada


Estadístico de contraste: F (2, 68) = 3,32396
con valor p = P (F (2, 68) > 3,32396) = 0,0419469

2. Completar la especificación del modelo anterior, analizando si la


propuesta resulta adecuada.

Para solucionar los problemas de especificación estimamos un modelo donde


incluimos como regresores todas las variables explicativas disponibles en la base
de datos y que podrían estar relacionadas con el consumo percápita de energía:

Modelo 2: MCO, usando las observaciones 1–72


Variable dependiente: energia

Coeficiente Desv. Típica Estadístico t valor p


const 0,0895883 0,394374 0,2272 0,8210
pib 0,000120771 8,85247e–06 13,64 0,0000
industria 0,0171389 0,0110582 1,550 0,1259
ue 0,825302 0,235378 3,506 0,0008
crecimiento 0,0143728 0,0497795 0,2887 0,7737
Media de la vble. dep. 2,180791 D.T. de la vble. dep. 1,875559
Suma de cuad. residuos 45,79952 D.T. de la regresión 0,826786
R2 0,816625 R2 corregido 0,805677
F (4, 67) 74,59267 Valor p (de F ) 5,95e–24
Log-verosimilitud −85,87744 Criterio de Akaike 181,7549
Criterio de Schwarz 193,1382 Hannan–Quinn 186,2866

En la salida del modelo estimado se observa que el crecimiento medio de la


última década no resulta significativo para explicar el consumo per cápita de
energía, por lo que llevamos a cabo un contraste de omisión de dicha variable
(Contraste . Omitir variables):

Contraste sobre el Modelo 2:


Hipótesis nula: el parámetro de regresión es cero para crecimiento
Estadístico de contraste: F(1, 67) = 0,083364, valor p 0,773681
Al omitir variables mejoraron 3 de 3 criterios de información.

Modelo 3: MCO, usando las observaciones 1–72


Variable dependiente: energia

Coeficiente Desv. Típica Estadístico t valor p


const 0,123202 0,374251 0,3292 0,7430
pib 0,000120602 8,77335e–06 13,75 0,0000
industria 0,0170201 0,0109759 1,551 0,1256
ue 0,839704 0,228477 3,675 0,0005
272 SUPUESTO 18. ENERGÍA

Media de la vble. dep. 2,180791 D.T. de la vble. dep. 1,875559


Suma de cuad. residuos 45,85651 D.T. de la regresión 0,821194
R2 0,816396 R2 corregido 0,808296
F (3, 68) 100,7877 Valor p (de F ) 5,65e–25
Log-verosimilitud −85,92221 Criterio de Akaike 179,8444
Criterio de Schwarz 188,9511 Hannan–Quinn 183,4698

Se observa que los coeficientes estimados presentan los signos esperados, indican-
do que el consumo energético aumenta con el pib percápita, con la pertenencia
del país a la unión europea y con el peso industrial en el pib, si bien todavía
hay problemas de significación para esta última variable. Además el modelo
mejora respecto al simple, ya que el coeficiente de determinación corregido au-
menta desde 0,77 hasta 0,808 y los criterios de información de Akaike, Schwarz
y Hannan-Quinn disminuyen sus resultados.
Entre los aspectos dudosos de este modelo, observamos que el peso industrial
tiene un nivel crítico de 0,1256, con lo que no rechazamos que su coeficiente sea
nulo. Sin embargo, tal y como indicaba la nube de puntos inicial es posible que
existan problemas de heterocedasticidad y por tanto resulta aconsejable llevar
a cabo la estimación mínimo cuadrática con la opción de desviaciones típicas
robustas, que corrige la matriz de varianzas covarianzas de los estimadores y en
consecuencia también los contrastes de significación. De hecho, en este caso al
introducir dicha corrección se observa que la participación industrial pasa a ser
significativa:

Modelo 4: MCO, usando las observaciones 1–72


Variable dependiente: energia
Desviaciones típicas robustas ante heterocedasticidad, variante HC0
Coeficiente Desv. Típica Estadístico t valor p
const 0,123202 0,243841 0,5053 0,6150
pib 0,000120602 1,39455e–05 8,648 0,0000
industria 0,0170201 0,00727070 2,341 0,0222
ue 0,839704 0,292428 2,871 0,0054

Media de la vble. dep. 2,180791 D.T. de la vble. dep. 1,875559


Suma de cuad. residuos 45,85651 D.T. de la regresión 0,821194
R2 0,816396 R2 corregido 0,808296
F (3, 68) 69,15316 Valor p (de F ) 1,28e–20
Log-verosimilitud −85,92221 Criterio de Akaike 179,8444
Criterio de Schwarz 188,9511 Hannan–Quinn 183,4698

3. Contrastar el supuesto de homocedasticidad ¿Sería necesario in-


troducir transformaciones? ¿Cuáles?

El contraste de White (en sus dos variantes, completo y solo cuadrados) se


encuentra disponible desde el modelo 4 en el menú Contrastes . Heterocedasti-
cidad . Contraste de White. Este test proporciona un resultado concluyente para
273

rechazar la hipótesis nula de homocedasticidad y además la regresión auxiliar


aporta información de gran interés sobre las posibles causas del problema, ya
que se observa que el PIB, con coeficiente positivo, es la variable más estrecha-
mente relacionada con los residuos cuadráticos y por tanto la posible causa de
la heterocedasticidad.

Contraste de heterocedasticidad de White


MCO, usando las observaciones 1–72
Variable dependiente: û2

Coeficiente Desv. Típica Estadístico t valor p


const −0,724698 1,22340 −0,5924 0,5557
pib 0,000249127 6,20148e-05 4,017 0,0002 ***
industria 0,0343036 0,0693453 0,4947 0,6225
ue −4,14010 1,43393 −2,887 0,0053 ***
sq_pib −1,56875e-09 8,88936e-10 −1,765 0,0825 *
X2_X3 −3,97110e-06 1,40457e-06 −2,827 0,0063 ***
X2_X4 −3,47444e-05 2,26344e-05 −1,535 0,1298
sq_industria −0,000381281 0,000916939 −0,4158 0,6790
X3_X4 0,139222 0,0471569 2,952 0,0044 ***

R-cuadrado = 0,483595
Estadístico de contraste: T R2 = 34,818823,
con valor p = P(χ2 (8) > 34,818823) = 0,000029

Además del test de White estándar, también se puede utilizar el contraste con
solo cuadrados que como podemos observar conduce a la misma conclusión (re-
chazar la hipótesis de homocedasticidad) y apunta también a la variable PIB
como causante del problema de heterocedasticidad, por ser la más significativa
de la regresión auxiliar. Conviene tener presente que esta modalidad de solo
cuadrados es una variante restringida del contraste anterior (donde se omiten
las variables de interacción o dobles productos) y por lo tanto, siempre que los
grados de libertad lo permitan, sería recomendable llevar a cabo el contraste de
White en su versión completa.

Contraste de heterocedasticidad de White (cuadrados sólo)


MCO, usando las observaciones 1–72
Variable dependiente: û2

Coeficiente Desv. Típica Estadístico t valor p


const −0,885097 1,07775 −0,8212 0,4145
pib 0,000112502 3,80976e-05 2,953 0,0044 ***
industria 0,0582505 0,0636834 0,9147 0,3637
ue −0,663448 0,316177 −2,098 0,0397 **
sq_pib −1,25212e-09 8,92559e-10 −1,403 0,1654
sq_industria −0,000850352 0,000886012 −0,9598 0,3407

R-cuadrado = 0,354971
Estadístico de contraste: T R2 = 25,557948,
274 SUPUESTO 18. ENERGÍA

con valor p = P(χ2 (5) > 25,557948) = 0,000109

Reconstrucción del test de White:


Para reconstruir la regresión auxiliar del test de White bastaría guardar los
residuos cuadráticos del modelo anterior y generar las variables que intervienen
en la misma (cuadrados de pib e industria, y productos cruzados). En el caso
de que existan variables dummy como ue no tiene sentido incluir sus cuadrados
ya que conduciría a un problema de colinealidad perfecta.
Las instrucciones del contraste de White se recogen a continuación. El primer
comando set verbose off tiene como único objeto que la salida sea más limpia,
sin incluir mensajes de instrucciones que se van procesando o cuando se guardan
escalares, etc.
set verbose off
ols energia const pib industria ue -- quiet
series uhat_2 = $uhat * $uhat
series sq_pib = pib * pib
series sq_industria = industria * industria
series X2_X3 = pib * industria
series X2_X4 = pib * ue
series X3_X4 = industria * ue
print " TEST DE WHITE COMPLETO ( cuadrados dobles productos ) "
ols uhat_2 const pib industria ue sq_pib X2_X3 X2_X4 sq_industria
X3_X4
n = $nobs
k = $ncoeff
R2 = $rsq
nR2 = n * R2
p = pvalue (X ,k -1 , TR2 )
printf "R - cuadrado = %g \ n Estadistico de contraste : nR ^2 = %g \ n " ,
R2 , nR2
printf " con valor p = P ( Chi - cuadrado ( %g )> %g ) = %.6 f ) \ n \ n \ n " ,k -1 , nR2 , p
print " TEST DE WHITE COMPLETO ( cuadrados dobles productos ) "
ols uhat_2 const pib industria ue sq_pib sq_industria
n = $nobs
k = $ncoeff
R2 = $rsq
nR2 = n * R2
p = pvalue (X ,k -1 , nR2 )
printf "R - cuadrado = %g \ n Estadistico de contraste : nR ^2 = %g \ n " ,
R2 , nR2
printf " con valor p = P ( Chi - cuadrado ( %g )> %g ) = %.6 f ) \ n " ,k -1 , nR2 , p
set verbose on

El supuesto de homocedasticidad puede ser también contrastado a través de


los tests de Breusch Pagan y de Koenker, que se basan en regresiones auxiliares
sobre los residuos cuadráticos escalados y conducen a la misma conclusión que el
test de White: existe evidencia significativa de heterocedasticidad en el modelo
y la variable PIB es la más directamente relacionada con este problema, ya que
resulta ser la más significativa en todas las regresiones auxiliares y presenta en
todos los casos coeficiente estimado positivo.

Con traste de heterocedasticidad de Breusch-Pagan


MCO, usando las observaciones 1-72
Variable dependiente: û2 escalado
275

Coeficiente Desv. Típica Estadístico t valor p


const 0,228687 0,726654 0,3147 0,7539
pib 9,32503e-05 1,70345e-05 5,474 6,87e-07 ***
industria 0,000703880 0,0213109 0,03303 0,9737
ue −0,658146 0,443615 −1,484 0,1425

Suma de cuadrados explicada = 81,5425


Estadístico de contraste: LM = 40,771262,
con valor p = P(Chi-cuadrado(3) > 40,771262) = 0,000000

Contraste de heterocedasticidad de Breusch-Pagan


MCO, usando las observaciones 1-72
Variable dependiente: û2 escalado (variante robusta de Koenker)

Coeficiente Desv. Típica Estadístico t valor p


const −0,491246 0,462803 −1,061 0,2922
pib 5,93907e-05 1,08492e-05 5,474 6,87e-07 ***
industria 0,000448298 0,0135729 0,03303 0,9737
ue −0,419171 0,282537 −1,484 0,1425

Suma de cuadrados explicada = 33,0766


Estadístico de contraste: LM = 23,076590,
con valor p = P(Chi-cuadrado(3) > 23,076590) = 0,000039

Estos contrastes pueden ser reproducidos con este script:

set verbose off


ols energia const pib industria ue -- quiet
series uhat_2 = $uhat * $uhat
n = $nobs
k = $ncoeff
S2 = sum ( uhat_2 ) / n
series u h at _2 _ es ca l ad o = uhat_2 / S2
ols u ha t_ 2 _e s ca la d o const pib industria ue
series u h a t _ 2 _ e s c a l a d o _ h a t = $yhat
VE = sst ( u h a t _ 2 _ e s c a l a d o _ h a t )
BP = VE /2
p = pvalue (X ,k -1 , BP )
scalar nR2 = n * $rsq
scalar p1 = pvalue (X , k -1 , nR2 )
print " CONTRASTE DE BREUSCH - PAGAN "
printf " Suma de cuadrados explicada = %g \ n " , VE
printf " Estadístico de contraste : LM = %g \ n " , BP
printf " con valor p = P ( Chi - cuadrado ( %g )> %g ) = %.6 f ) \ n \ n " ,k -1 , BP , p
print " CONTASTE DE KOENKER "
printf " Estadístico de contraste : nR ^2= %g \ n " , nR2
printf " con valor p = P ( Chi - cuadrado ( %g )> %g ) = %.6 f ) \ n \ n " ,k -1 , nR2 , p1
set verbose on

A la vista de los resultados anteriores, parece aconsejable introducir cambios


en la estimación del modelo, pasando a utilizar mínimos cuadrados ponderados.
276 SUPUESTO 18. ENERGÍA

Además tanto la nube de puntos inicial como las regresiones auxiliares de los
tests de homocedasticidad sugieren que la dispersión es directamente proporcio-
nal al pib percápita y la misma conclusión se obtendría al examinar la gráfica de
residuos respecto al pib, accesible desde el modelo estimado y que proporciona
el resultado siguiente:

���������������������������������������������������������
����
��������������
��������������
� �

����

� �

���
�������

� �

����

��

����

��
�� � ����� ������ ������ �����
� �����

�������������

Dado que según todos los análisis anteriores la estructura de la heterocedasti-


cidad parece ser del tipo V ar(ui ) = V ar(u)xi donde xi es el pib per cápita, se
1
deducen los pesos wi = √ .
pibi

Así pues, la variable de ponderaciones puede ser generada desde el menú Añadir .
Definir nueva variable mediante la expresión peso=1/sqrt(pib) o bien directamente
desde dentro del diálogo de la estimación por mínimos cuadrados ponderados
en la opción de menú Modelo . Otros modelos lineales . Mínimos cuadrados
ponderados, utilizando la opción designada con el icono + (Nueva variable) en
la parte superior izquierda.
277

En cualquiera de los casos la estimación proporciona el resultado siguiente, don-


de se aprecian algunos cambios en la magnitud de los coeficientes estimados res-
pecto a la estimación anterior y se incluyen dos grupos de estadísticos, referidos
respectivamente a los datos ponderados (modelo transformado con los pesos) y
a los datos originales (estos últimos son los comparables con los proporcionados
por el modelo mínimo cuadrático):

Modelo 5: MC.Ponderados, usando las observaciones 1–72


Variable dependiente: energia
Variable utilizada como ponderación: peso
Coeficiente Desv. Típica Estadístico t valor p
const 0,0227000 0,243183 0,09335 0,9259
pib 0,000119584 1,03972e–05 11,50 0,0000
industria 0,0189417 0,00761859 2,486 0,0154
ue 0,974000 0,219156 4,444 0,0000

Estadísticos basados en los datos ponderados:

Suma de cuad. residuos 0,461227 D.T. de la regresión 0,082357


R2 0,801280 R2 corregido 0,792513
F (3, 68) 91,39663 Valor p (de F ) 8,25e–24
Log-verosimilitud 79,65556 Criterio de Akaike −151,3111
Criterio de Schwarz −142,2045 Hannan–Quinn −147,6857
Estadísticos basados en los datos originales:

Media de la vble. dep. 2,180791 D.T. de la vble. dep. 1,875559


Suma de cuad. residuos 46,10869 D.T. de la regresión 0,823449

Es necesario tener en cuenta que la transformación realizada en este modelo


afecta tanto a los estadísticos basados en datos ponderados como a los valores
estimados por el modelo y los residuos correspondientes. Sin embargo, para
evitar errores Gretl realiza las transformaciones necesarias para proporcionar
los valores referidos a la variable de referencia que es en este caso el consumo
278 SUPUESTO 18. ENERGÍA

energético. Así, tanto en los gráficos como en la tabla disponible desde Análisis
. Mostrar variable observada estimada y residuos que se reproduce parcialmente
a continuación aparecen valores de los consumos energéticos percápita:
Rango de estimación del modelo: 1–72
Desviación típica de los residuos = 0,823449

energia estimada residuo


Albania 0,648291 0,623526 0,024765
Algeria 1,138239 1,469111 −0,330872
Argentina 1,846824 1,996012 −0,149189
Australia 5,593221 3,424135 2,169086 *
Austria 4,033582 4,808147 −0,774564
Belgium 5,585584 4,367194 1,218390
Bolivia 0,737363 0,881648 −0,144286
Botswana 1,127810 1,400851 −0,273041
Bulgaria 2,370149 1,904375 0,465774
Cambodia 0,355372 0,533740 −0,178367
Chile 1,806740 1,687756 0,118984
.. .. .. ..
. . . .

Nota: * denota un residuo superior a 2.5 desviaciones típicas Estadísticos de


evaluación de la predicción
Error medio 0,0081564
Error cuadrático medio 0,80025
Raíz del Error cuadrático medio 0,89457
Error absoluto medio 0,52971
Porcentaje de error medio −11,199
Porcentaje de error absoluto medio 26,453
U de Theil 0,20338
SUPUESTO 19

Tabaco

Contenidos: Estimación MCO, Multicolinealidad, Endogeneidad, Mí-


nimos Cuadrados en dos etapas (MC2E), Multicolinealidad, cambio
estructural, variable dummy, Test de White, Mínimos cuadrados pon-
derados, Durbin Watson, autocorrelación, AR, Cochrane-Orcutt, nor-
malidad predicción

Nombre del fichero: tabaco.gdt http://cort.as/-LMdUL

Página de datos: http://cort.as/-LHjb . tabaco.gdt


Página de scripts: http://cort.as/-LHjE . S19_Tabaco.inp

Enunciado:

Se dispone de información anual relativa al consumo de tabaco (en kg por adul-


to), su precio (en euros por paquete), la renta disponible (en euros por habitante)
y la proporción de población de 20 a 24 años en enseñanza universitaria ( %).
Además se ha recabado información sobre la cantidad destinada a campañas
de prevención antitabaco (en millones de euros) y se ha definido una variable
dummy asociada a la ley antitabaco que entró en vigor en 2011.
A partir de esta base de datos se desea estimar modelos econométricos adecuados
para explicar la evolución del consumo de tabaco durante el período 1991-2015
y obtener predicciones a partir de 2016.

1. Estimar un modelo econométrico para explicar el consumo de tabaco a


partir de su precio, la renta y el gasto destinado a prevención antitabaco,
analizando si esta especificación resulta adecuada

2. Se sospecha que la variable prevención podría ser endógena ¿Sería reco-


mendable llevar a cabo una estimación bietápica del consumo de tabaco?

3. Contrastar las hipótesis habituales sobre la perturbación aleatoria

279
280 SUPUESTO 19. TABACO

4. A la vista de los resultados anteriores, estudiar métodos alternativos para


la estimación del modelo, analizando cómo se ven afectadas las prediccio-
nes

5. Analizar la existencia de cambio estructural ligado a la ley antitabaco.

6. ¿Cómo afectan las distintas alternativas de estimación a las predicciones


de consumo de tabaco?

Solución:

1. Estimar un modelo econométrico para explicar el consumo de ta-


baco a partir de su precio, la renta y el gasto destinado a prevención
antitabaco, analizando si esta especificación resulta adecuada

En primer lugar debemos cambiar el rango de trabajo de la muestra Muestra .


Establecer rango. . . muestral, final 2015, para a continuación utilizar la opción
Modelo . Mínimos cuadrados ordinarios con el objetivo de estimar un modelo
que explique el consumo de tabaco considerando las variables explicativas renta,
precio y prevención:

Modelo 1: MCO, usando las observaciones 1991–2015 (T = 25)


Variable dependiente: consumo

Coeficiente Desv. Típica Estadístico t valor p


const 0,887289 0,315457 2,813 0,0104
renta 6,49867e–05 1,72528e–05 3,767 0,0011
precio −0,162805 0,137834 −1,181 0,2507
prevencion −0,000329923 0,000183796 −1,795 0,0871

Media de la vble. dep. 2,222680 D.T. de la vble. dep. 0,257012


Suma de cuad. residuos 0,232067 D.T. de la regresión 0,105123
R2 0,853616 R2 corregido 0,832704
F (3, 21) 40,81939 Valor p (de F ) 6,09e–09
Log-verosimilitud 23,02161 Criterio de Akaike −38,04322
Criterio de Schwarz −33,16772 Hannan–Quinn −36,69097
ρ̂ 0,326217 Durbin–Watson 1,203500

Esta estimación mínimo cuadrática (que almacenamos en Archivo . Guardar a


sesión como icono como Modelo 1) ha sido llevada a cabo a partir de la informa-
ción relativa a 25 años y, tal y como cabía esperar, proporciona un coeficiente
positivo para la renta y negativos para el gasto en prevención y el precio del ta-
baco, si bien en este último caso no es posible rechazar la nulidad del parámetro
con el contraste de significación individual t de Student.
Teniendo en cuenta que es posible que tanto el gasto en prevención como la renta
disponible evolucionen de forma paralela al ciclo económico, podemos estudiar
si existe multicolinealidad. Desde la salida del modelo estimado la opción Aná-
lisis . Colinealidad proporciona la siguiente salida, donde se observa que tanto
281

los VIF como el diagnóstico BKW confirman la existencia de multicolinealidad,


que afecta especialmente a las variables prevención y renta (cuyos FIV superan
el valor 50 y cuyas proporciones de varianza son muy elevadas en la última fila,
con índice de condición muy superior a 30).

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
renta 49,078
precio 5,503
prevencion 54,843
2 , donde Rj es el coeficiente de correlación múltiple
1
V IFj = 1−R
j
entre la variable j y las demás variables independientes

Diagnósticos de colinealidad de Belsley-Kuh-Welsch:

— Proporciones de la varianza —
lambda cond const renta precio prevención
3,940 1,000 0,000 0,000 0,000 0,000
0,056 8,387 0,041 0,001 0,001 0,015
0,003 34,257 0,186 0,033 0,948 0,011
0,001 82,677 0,773 0,967 0,050 0,974

lambda = eigenvalues of inverse covariance matrix


cond = Índice de condición
Nota: Las columnas de proporciones de la varianza suman 1.0

According to BKW, cond≥30 indicates "strong"near linear dependence,


and 10 < cond ≤ 30 "moderately strong". Parameter estimates whose
variance is mostly associated with problematic cond values may themselves
be considered problematic.

Count of condition indices >= 30: 2


Variance proportions >= 0.5 associated with cond >= 30:
const renta precio prevenci
0,959 0,999 0,998 0,985

Nota:
Como ya hemos señalado en supuestos anteriores, la presencia de multicolineali-
dad puede estar afectando a nuestras estimaciones, tanto en el signo y magnitud
de los coeficientes estimados como en su significación. Incluso, en situaciones
extremas, podrían llegar a observarse contradicciones entre el test F de signifi-
cación global y los contrastes t de significación individual (de modo que según
el test F, con valor p bajo, alguna de las variables explicativas sería significativa
y según los contrastes t, todos ellos con p elevado, ninguna lo sería).

Aunque el problema de la colinealidad es muy habitual en los modelos economé-


tricos su solución no es en absoluto sencilla, ya que la eliminación de la variable
282 SUPUESTO 19. TABACO

prevención como regresor implicaría omitir alguna de las potenciales explicacio-


nes del consumo de tabaco. Por ello es recomendable tratar de reemplazar la
variable prevención por otra que, aportando información similar, no se encuentre
correlacionada con la renta. Algunas alternativas de este tipo han sido descritas
en supuestos anteriores Multicolinealidad-Alternativas (p.120) y de modo simi-
lar en este caso podríamos expresar el gasto en prevención en términos relativos
(como porcentaje sobre el PIB o sobre el gasto total), o bien en términos reales
(dividiendo este gasto por un índice deflactor) e incluso definir una variable
dummy con valor unitario cuando el gasto en prevención sea considerado “alto”
(por ejemplo, si supera algún umbral que se considere representativo).
También conviene tener en cuenta que es habitual que los modelos econométricos
presenten varios problemas simultáneamente, en cuyo caso la solución a los
mismos también puede ser simultánea. Así pues, al mejorar la especificación o
estimación del modelo, podría solucionarse el problema de multicolinealidad tal
y como veremos en apartados posteriores
Dado que la presencia de multicolinealidad no afecta a las predicciones, podemos
utilizar el modelo previamente estimado para predecir el consumo de tabaco a
partir del año 2016:

Para intervalos de confianza 95 %, t(21, ,0, 025) = 2, 080

Observaciones consumo Predicción Desv. típica Intervalo de 95 %


2016 2,307 2,385 0,1325 2,110 2,661
2017 2,514 2,593 0,1173 2,349 2,837
2018 2,765 2,691 0,1636 2,350 3,031
2019 3,482 2,530 0,2982 1,910 3,150

Estadísticos de evaluación de la predicción (T = 4)


Error medio 0,21738
Error cuadrático medio 0,48068
Raíz del Error cuadrático medio 0,69331
Error absoluto medio 0,29586
Porcentaje de error medio 5,878
Porcentaje de error absoluto medio 9,139
U de Theil 1,1893
Proporción de sesgo, U M 0,20452
Proporción de la regresión, U R 3,3639e-05
Proporción de la perturbación, U D 0,79545

Los resultados de las medidas de evaluación muestran porcentajes moderados


de error (inferiores al 10 %) y no detectan sesgo, ya que hay errores de distinto
signo. Los rasgos más negativos son el elevado índice de Theil, debido sobre todo
al resultado de 2019 (la predicción para este año es muy inferior al consumo
observado de tabaco, que de hecho se encuentra fuera del intervalo de confianza
al 95 %).
283

2. Se sospecha que la variable prevención podría ser endógena ¿Sería


recomendable llevar a cabo una estimación bietápica del consumo de
tabaco?

Para analizar la posible endogeneidad del gasto en prevención se lleva a cabo


una estimación por mínimos cuadrados en dos etapas, lo cual exige introducir
en el modelo variables instrumentales adecuadas. Dichas variables deben estar
correlacionadas con la prevención y no correlacionadas con la perturbación alea-
toria, y su elección es relevante ya que condiciona el resultado de la estimación
bietápica y también del test de Hausman.
Así, inicialmente podemos contemplar la posibilidad de incluir como instrumen-
to la proporción de población universitaria, variable “proxy” del nivel formati-
vo, que podría afectar a la concienciación social antitabaco. Sin embargo, como
podemos observar en el resultado de la regresión MC2E, esta opción no resul-
ta adecuada ya que el contraste de instrumento débil incluido en esta salida
proporciona un valor del estadístico F inferior a 10 y no permite rechazar la
hipótesis de debilidad de la variable universidad (equivalente a la nulidad de su
coeficiente en la primera etapa de la estimación MC2E).

Modelo 2a: MC2E, usando las observaciones 1991–2015 (T = 25)


Variable dependiente: consumo
Mediante Instrumentos: prevencion
Instrumentos: const renta precio universitarios

Coeficiente Desv. Típica Estadístico t valor p


const 0,896162 0,581725 1,541 0,1384
renta 6,44688e–05 3,33398e–05 1,934 0,0667
precio −0,164230 0,158628 −1,035 0,3123
prevencion −0,000324106 0,000369363 −0,8775 0,3902

Media de la vble. dep. 2,222680 D.T. de la vble. dep. 0,257012


Suma de cuad. residuos 0,232078 D.T. de la regresión 0,105125
R2 0,853609 R2 corregido 0,832696
F (3, 21) 40,00009 Valor p (de F ) 7,29e–09
Log-verosimilitud −159,8842 Criterio de Akaike 327,7683
Criterio de Schwarz 332,6438 Hannan–Quinn 329,1206
ρ̂ 0,326030 Durbin–Watson 1,202919

Contraste de Hausman –
Hipótesis nula: [Los estimadores de MCO son consistentes]
Estadístico de contraste asintótico: χ2 (1) = 0,000392364
con valor p = 0,984196
Contraste de Instrumento débil –
First-stage F (1, 21) = 6,91145

Si en cambio se lleva a cabo la estimación MC2E incluyendo como variables


instrumentales la proporción de población universitaria y la ley antitabaco se
observa que los resultados cambian en varios sentidos: por una parte mejora
284 SUPUESTO 19. TABACO

la significación de las variables renta y prevención en la regresión y por otra


parte los dos contrastes relativos a las variables instrumentales confirman su
idoneidad. Tal como se observa en la salida del modelo, el test de instrumento
débil proporciona un valor de F superior a 10, que permite rechazar la nulidad
de los coeficientes o “debilidad” de las variables universidad y ley_antitabaco
como instrumentos de la prevención. Además, en este caso se incluye también el
resultado del test de Sargan no es significativo para rechazar la hipótesis nula
de que todos los instrumentos son válidos.

Una vez confirmada la validez de los instrumentos utilizados, es interesante ana-


lizar también el resultado del test de Hausman cuya hipótesis nula, como hemos
descrito en Test-de-Hausman (p.225), es la consistencia de estimadores MCO.
En este caso, el nivel crítico obtenido es del 6,3 % y apunta a posibles problemas
de endogeneidad de la variable prevención, confirmando que la estimación por
MC2E es más adecuada que por MCO.

Modelo 2: MC2E, usando las observaciones 1991–2015 (T = 25)


Variable dependiente: consumo
Mediante Instrumentos: prevencion
Instrumentos: const renta precio universitarios ley_antitabaco

Coeficiente Desv. Típica Estadístico t valor p


const 0,451864 0,440297 1,026 0,3164
renta 9,04020e–05 2,47860e–05 3,647 0,0015
precio −0,0928638 0,152707 −0,6081 0,5496
prevencion −0,000615345 0,000270722 −2,273 0,0336

Media de la vble. dep. 2,222680 D.T. de la vble. dep. 0,257012


Suma de cuad. residuos 0,258717 D.T. de la regresión 0,110995
R2 0,838250 R2 corregido 0,815143
F (3, 21) 37,37336 Valor p (de F ) 1,33e–08
ρ̂ 0,372516 Durbin–Watson 1,179076

Contraste de Hausman –
Hipótesis nula: [Los estimadores de MCO son consistentes]
Estadístico de contraste asintótico: χ2 (1) = 3,45378
con valor p = 0,0631072
Contraste de sobreidentificación de Sargan –
Hipótesis nula: [Todos los instrumentos son válidos]
Estadístico de contraste: LM = 1,28145
con valor p = P (χ2 (1) > 1,28145) = 0,25763
Contraste de Instrumento débil –
First-stage F (2, 20) = 10,5699
285

Nota:
Los contrastes de instrumento débil descritos en Contraste-instrumento-debil
(p.225) y los contrastes de sobreidentificación propuestos por Sargan (1958,
1975) y generalizados por Hansen, pueden ser utilizados de forma complemen-
taria para analizar la idoneidad de las variables utilizadas como instrumento.
Como ya hemos señalado, el contraste de instrumento débil es un caso particular
del test de restricciones lineales, concretamente de la hipótesis de nulidad de los
coeficientes de los instrumentos.
Por su parte, el test de identificación de Sargan-Hansen contrasta la hipóte-
sis nula de que todos los instrumentos son válidos y únicamente se incluye en
situaciones de sobreidentificación, es decir, cuando el número de instrumentos
propuestos supera al de variables explicativas que podrían ser endógenas.

A partir del modelo estimado por MC2E se obtienen las siguientes predicciones
para el consumo de tabaco:

Para intervalos de confianza 95 %, z(0, 025) = 1, 96

Observaciones consumo Predicción Desv. típica Intervalo de 95 %


2016 2,307 2,352 0,1417 2,074 2,629
2017 2,514 2,609 0,1244 2,366 2,853
2018 2,765 2,818 0,1923 2,441 3,195
2019 3,482 2,754 0,3479 2,072 3,436

Estadísticos de evaluación de la predicción (T = 4)


Error medio 0,13368
Error cuadrático medio 0,36883
Raíz del Error cuadrático medio 0,60731
Error absoluto medio 0,2304
Porcentaje de error medio 3,3124
Porcentaje de error absoluto medio 7,1435
U de Theil 0,9158
Proporción de sesgo, U M 0,13136
Proporción de la regresión, U R 0,12312
Proporción de la perturbación, U D 0,74552

Estas predicciones basadas en MC2E resultan más adecuadas que las obtenidas
a partir del modelo MCO ya que proporcionan menores errores porcentuales, se
reduce el índice de Theil y la proporción de sesgo.
Teniendo en cuenta todos los resultados anteriores, se concluye que la varia-
ble prevención plantea varios problemas (colinealidad, endogeneidad, ...). Por
lo tanto, si se desea mantener como explicativa esta variable en el modelo de
consumo de tabaco sería recomendable llevar a cabo la estimación por MC2E.
No obstante, dados los problemas de colinealidad y endogeneidad que este regre-
sor introduce en el modelo, podemos plantearnos reemplazarlo por otra variable
286 SUPUESTO 19. TABACO

o bien omitirlo. De hecho, si partiendo del modelo mínimo cuadrático inicial


(Modelo 1) se plantea la omisión de la variable prevención, se obtiene la sali-
da siguiente donde se observa que, aunque el modelo no mejora su capacidad
explicativa, el precio pasa a ser significativo:

Modelo 3: MCO, usando las observaciones 1991–2015 (T = 25)


Variable dependiente: consumo

Coeficiente Desv. Típica Estadístico t valor p


const 1,39060 0,151677 9,168 0,0000
renta 3,56090e–05 5,72931e–06 6,215 0,0000
precio −0,243650 0,136690 −1,783 0,0885

Media de la vble. dep. 2,222680 D.T. de la vble. dep. 0,257012


Suma de cuad. residuos 0,267675 D.T. de la regresión 0,110304
R2 0,831155 R2 corregido 0,815805
F (2, 22) 54,14851 Valor p (de F ) 3,18e–09
Log-verosimilitud 21,23727 Criterio de Akaike −36,47455
Criterio de Schwarz −32,81792 Hannan–Quinn −35,46035
ρ̂ 0,386127 Durbin–Watson 1,112691

Por lo que respecta a las predicciones de este modelo, resultan peores que las
asociadas a los dos anteriores ya que aumentan tanto los porcentajes de error
como el índice de Theil.

Para intervalos de confianza 95 %, t(22, ,0, 025) = 2, 074

Observaciones consumo Predicción Desv. típica Intervalo de 95 %


2016 2,307 2,424 0,1372 2,139 2,708
2017 2,514 2,574 0,1226 2,319 2,828
2018 2,765 2,543 0,1484 2,235 2,851
2019 3,482 2,271 0,2739 1,703 2,839

Estadísticos de evaluación de la predicción (T = 4)


Error medio 0,31414
Error cuadrático medio 0,61899
Raíz del Error cuadrático medio 0,78676
Error absoluto medio 0,4023
Porcentaje de error medio 8,8436
Porcentaje de error absoluto medio 12,559
U de Theil 1,5325
Proporción de sesgo, U M 0,25756
Proporción de la regresión, U R 0,47921
Proporción de la perturbación, U D 0,26323
287

Nota:
Teniendo en cuenta que el problema de la multicolinealidad no afecta a la pre-
dicción es lógico que el Modelo 1, aun presentando esta limitación, consiga una
mejor capacidad explicativa y mejores predicciones que los otros modelos esti-
mados. De ahí la recomendación de tratar de solucionar la colinealidad mediante
transformaciones de las variables explicativas, evitando su omisión del modelo.

3. Contrastar las hipótesis habituales sobre la perturbación aleatoria

Adoptando como referencia el último modelo estimado (Modelo 4) vamos a ana-


lizar las hipótesis sobre la perturbación aleatoria, que incluyen esperanza nula,
matriz de varianzas-covarianzas escalar (homocedasticidad y no autocorrelación)
y normalidad.
El supuesto de esperanza nula no es contrastable dado que los residuos de las
estimaciones mínimo cuadráticas tienen siempre media nula como consecuencia
del propio método de estimación.
Por lo que se refiere a la hipótesis de matriz de varianzas-covarianzas escalar,
para contemplar su posible incumplimiento puede ser interesante estimar el
modelo anterior con la opción robusta, denominada HAC (Heterokedasticity and
Autocorrelation Consistent) que contempla la existencia de heterocedasticidad y
autocorrelación y afecta ligeramente a los contrastes de significación individual,
especialmente al de la variable precio.

Modelo 4a: MCO, usando las observaciones 1991–2015 (T = 25)


Variable dependiente: consumo
Desviaciones típicas HAC, con ancho de banda 2 (Kernel de Bartlett)

Coeficiente Desv. Típica z valor p


const 1,39060 0,0640110 21,72 0,0000
renta 3,56090e–05 7,26593e–06 4,901 0,0000
precio −0,243650 0,122764 −1,985 0,0472

Media de la vble. dep. 2,222680 D.T. de la vble. dep. 0,257012


Suma de cuad. residuos 0,267675 D.T. de la regresión 0,110304
R2 0,831155 R2 corregido 0,815805
F (2, 22) 80,01250 Valor p (de F ) 8,04e–11
Log-verosimilitud 21,23727 Criterio de Akaike −36,47455
Criterio de Schwarz −32,81792 Hannan–Quinn −35,46035
ρ̂ 0,386127 Durbin–Watson 1,112691

Para contrastar el supuesto de homocedasticidad podemos solicitar el test de


White desde la salida del modelo en el menú Contrastes . Heterocedasticidad
. Contraste de White utilizando la opción sólo cuadrados para disponer de más
grados de libertad. La salida sugiere que existe heterocedasticidad ya que el ni-
vel crítico asociado al contraste es inferior al 5 %, y la regresión auxiliar muestra
288 SUPUESTO 19. TABACO

que variable renta al cuadrado es la más relacionada con la dispersión).

Contraste de heterocedasticidad de White (cuadrados sólo)


MCO, usando las observaciones 1991-2015 (T = 25)
Variable dependiente: û2

Coeficiente Desv. Típica Estadístico t valor p


const −0,0274448 0,154408 −0,1777 0,8607
renta −2,21762e-05 1,34665e-05 −1,647 0,1152
precio 0,389560 0,260416 1,496 0,1503
sq_renta 3,10811e-10 1,65508e-10 1,878 0,0751 *
sq_precio −0,0902235 0,0545088 −1,655 0,1135

R-cuadrado = 0,382871

Estadístico de contraste: T R2 = 9,571784,


con valor p = P(Chi-cuadrado(4) > 9,571784) = 0,048293

De modo similar podría llevarse a cabo el test de Breusch-Pagan cuyo resultado


es más concluyente y confirma a la renta como variable causante de la hetero-
cedasticidad:

Contraste de heterocedasticidad de Breusch-Pagan


MCO, usando las observaciones 1991-2015 (T = 25)
Variable dependiente: û2 escalado

Coeficiente Desv. Típica Estadístico t valor p


const 0,388687 2,89465 0,1343 0,8944
renta 0,000283564 0,000109340 2,593 0,0166 **
precio −4,58945 2,60862 −1,759 0,0924 *

Suma de cuadrados explicada = 36,5217

Estadístico de contraste: LM = 18,260827,


con valor p = P(Chi-cuadrado(2) > 18,260827) = 0,000108

Así pues, los contrastes detectan la presencia de heterocedasticidad e indican


que ésta se encuentra directamente relacionada con la renta o con su cuadrado.
Por lo que se refiere al problema de autocorrelación, que es muy habitual en
datos temporales, en las salidas de los modelos que hemos estimado hasta ahora
se observan indicios de autocorrelación de orden 1 ya que el estadístico Durbin-
Watson es cercano a 1 y los niveles de correlación estimados son próximos al
50 %.
Concretamente en el último modelo que usa como explicativas precio y renta, la
estimación mínimo cuadrática proporciona rho= 0,386127 y Durbin-Watson=1,112691.
289

El menú disponible desde la salida de modelo incluye la opción Contrastes . Valor


p del estadísticos Durbin Watson cuyo resultado conduce al rechazo del supuesto
de no autocorrelación:

Estadístico de Durbin-Watson = 1,11269


valor p = 0,00322386

Nota:
Tal y como ya hemos descrito en Test-de-Durbin-Watson (p.242), el esta-
dístico propuesto por Durbin 1950Durbin 1951 viene dado por la expresión
n
(ût −ût−1 )2
P

dDW = t=2
n y sus valores de referencia son 2 para el caso de no auto-
û2t
P
t=1
correlación, 0 para máxima autocorrelación positiva y 4 para máxima autoco-
rrelación negativa.
El cálculo del estadístico Durbin Watson puede llevarse a cabo a partir de la serie
de residuos del modelo estimado y dicha serie retardada, mediante el siguiente
script:

ols consumo const renta precio -- quiet


series u = $uhat
DW = sum (( u - u ( -1))^2)/ sum ( u ^2)

Entre las distintas alternativas para escribir el script anterior se encuentra la de


sustituir el denominador por: $ess

Teniendo en cuenta que el estadístico Durbin-Watson contrasta la hipótesis de


no autocorrelación de orden 1 sería posible ampliar este test desde el menú
Contrastes . Autocorrelación donde se accede a información más completa en
dos sentidos: por una parte permite introducir un orden de autocorrelación p
superior a 1 y por otra parte proporciona una batería de contrastes relativos a
la hipótesis de no existencia de autocorrelación hasta el orden p fijado.
En este caso, a diferencia de lo que sucedía con el test de Durbin-Watson, los
resultados obtenidos no permiten rechazar el supuesto de no autocorrelación:
Contraste Breusch-Godfrey de autocorrelación de primer orden
MCO, usando las observaciones 1991-2015 (T = 25)
Variable dependiente: uhat

Coeficiente Desv. Típica Estadístico t valor p


const −0,00857852 0,147851 −0,05802 0,9543
renta −2,82570e-06 5,89826e-06 −0,4791 0,6368
precio 0,0493995 0,137262 0,3599 0,7225

R-cuadrado = 0,094400

Estadístico de contraste: LMF = 2,189036,


con valor p = P(F(1,21) > 2,18904) = 0,154
290 SUPUESTO 19. TABACO

Estadístico alternativo: T R2 = 2,359991,


con valor p = P(Chi-cuadrado(1) > 2,35999) = 0,124

Ljung-Box Q’ = 1,22448,
con valor p = P(Chi-cuadrado(1) > 1,22448) = 0,268

Contraste de Breusch-Godfrey
El contraste de autocorrelación de Breusch-Godfrey (BG) desarrollado por Breusch
1978 Godfrey 1978 es más general que el test de DurbinWatson (DW) en un do-
ble sentido, en primer lugar porque este último sólo se puede aplicar cuando el
modelo no incluye regresores estocásticos (no contiene variables endógenas); en
segundo lugar el DW sólo permite contrastar si existe autocorrelación de orden
1 (un único retardo).
Por el contrario el test BG es más potente y no tiene las restricciones anteriores,
por lo que permite contrastar la no existencia de autocorrelación de cualquier
orden.
Este contraste se basa en la consideración del modelo: yt = β1 + β2 Xt2 + · · · +
βk Xtk + ut
sobre el que establecemos la hipótesis nula de que los residuos no están correla-
cionados hasta el retardo r:

H0 : ρ1 (ut ) = ρ2 (ut ) = · · · = ρr (ut ) = 0

En este caso podemos plantear la regresión auxiliar:

ût = β1 + β2 Xt2 + · · · + βk Xtk + ρ1 ût−1 + ρ2 ût−2 + · · · + ρr ût−r + t


Donde εt es una perturbación que cumple los supuestos básicos. Si rechazamos la
nulidad de los coeficientes auxiliares ρj = 0, ∀j = 1, . . . , r entonces rechazaremos
la hipótesis de no autocorrelación hasta el orden r.
Este test es un caso particular del contraste auxiliar sobre los residuos Test-TR2
(p.191), donde nR2 → χ2r .

Por lo que respecta a la hipótesis de normalidad de las perturbaciones, puede ser


contrastada desde el modelo estimado mediante la opción de menú Contrastes .
Normalidad que lleva a cabo el test de Doornik Hansen, basado en la comparación
entre la distribución de frecuencias de los residuos y la distribución teórica
normal. En este caso el contraste proporciona un nivel crítico muy reducido,
por lo que conduce al rechazo del supuesto de normalidad, conclusión que no
resulta sorprendente a la vista de los resultados de los contrastes anteriores
(los problemas de heterocedasticidad y autocorrelación detectados afectan a los
residuos de la estimación).
291

6
Estadístico para el contraste de normalidad: Frecuencia relativa
Chi-cuadrado(2) = 13,172 [0,0014]
N(8,8818e-017 0,1103)

4
Densidad

0
-0,4 -0,3 -0,2 -0,1 0 0,1 0,2 0,3
uhat1

Distribución de frecuencias para uhat0, observaciones 1-25


Número de cajas = 7, Media = 3,55271e-017, Desv.típ.=0,110304

intervalo punto medio Frec. rel acum.


< -0,30596 -0,35075 1 4,00 % 4,00 % *
-0,30596 - -0,21636 -0,26116 0 0,00 % 4,00 %
-0,21636 - -0,12677 -0,17156 0 0,00 % 4,00 %
-0,12677 - -0,037171 -0,081969 7 28,00 % 32,00 % **********
-0,037171 - 0,052424 0,0076265 12 48,00 % 80,00 % *****************
0,052424 - 0,14202 0,097222 2 8,00 % 88,00 % **

Contraste de la hipótesis nula de distribución Normal:


Chi-cuadrado(2) = 13,172 con valor p=0,00138

Nota:
Tal y como ya hemos descrito en Test-Normalidad-DH (p.243) el contraste de
normalidad de Doornik-Hansen se basa en el análisis gráfico de los residuos
(simetría y curtosis). Para completar la información de este contraste es re-
comendable guardar los residuos del modelo estimado y una vez seleccionada
esta variable desde el menú principal de Gretl solicitar Variable-Contrastes de
normalidad que proporciona, además del test de Doornik-Hansen anteriormente
descrito, otros contrastes clásicos como el propuesto por Lilliefors 1967Lillie-
fors como extensión del test de Kolmogorov-Smirnov y el de Jarque y Bera
Contrastes-Normalidad (p.244)
Los resultados obtenidos en este caso aunque con diferencias en los niveles crí-
ticos, conducen al rechazo del supuesto de normalidad y sugieren por tanto
la necesidad de introducir cambios en el modelo econométrico de consumo de
tabaco.

Contraste de Normalidad de uhat4:


292 SUPUESTO 19. TABACO

Contraste de Doornik-Hansen = 13,1724, con valor p 0,0013793


W de Shapiro-Wilk = 0,874924, con valor p 0,00543939
Contraste de Lilliefors = 0,18886, con valor p ~= 0,02
Contraste de Jarque-Bera = 16,0826, con valor p 0,000321888

4. A la vista de los resultados anteriores, estudiar métodos alternati-


vos para la estimación del modelo, analizando cómo se ven afectadas
las predicciones

De acuerdo con las conclusiones del apartado anterior es recomendable estimar el


modelo explicativo del consumo de tabaco mediante procedimientos de Mínimos
Cuadrados Generalizados (MCG) que asumen la existencia de una matriz de
varianzas-covarianzas no escalar.
Así, dado que se ha detectado heterocedasticidad podríamos llevar a cabo la
estimación por Mínimos cuadrados ponderados (MCP) y para la determinación
de los pesos es recomendable analizar las regresiones auxiliares de los contrastes
de homocedasticidad realizados anteriormente.
Teniendo en cuenta que en dichas regresiones la renta es una variable signifi-
cativa y con coeficiente estimado positivo, podemos asumir que la varianza de
las perturbaciones es directamente proporcional a la renta y en consecuencia las
ponderaciones o pesos deberían ser del tipo: peso=1/sqrt(renta)

Nota:
Tal y como hemos justificado en MCP (p.263), nuestro objetivo es construir una
matriz de pesos P (o bien una variable de ponderación W que debemos incluir
en el modelo), en cuya determinación resultan de gran ayuda las regresiones
auxiliares de los contrastes de homoscedasticidad.
Así, en la salida del test de Breusch-Pagan observamos que la variable Xi (renta)
resulta ser significativa al 5 % en el modelo auxiliar y su coeficiente tiene signo
positivo, por lo que deberíamos asumir que existe una relación del tipo: σi2 =
σ 2 Xi .
Se trata entonces de encontrar una variable de ponderaciones Wi , tal que
E(Wi ui )2 = σ 2 , es decir, que los residuos del modelo transformado sean homo-
cedásticos:
E (Wi ui )2 = σ 2 ⇒ Wi2 E u2i = Wi2 σi2 = σ 2
   

Teniendo en cuenta la estructura anterior σi2 = σ 2 Xi , se obtienen los pesos:


1
Wi2 σ 2 Xi = σ 2 ⇒ Wi = √
Xi
de donde la matriz P resulta:
 1 

X1
0 ··· 0
 0 √1 ··· 0 
 X2 
P = . . . .
 .. .. .. .. 
 

1
0 0 ··· √
X n
293

 Si en la regresión auxiliar la variable fuera significativa y el signo de su


coeficiente fuera negativo, entonces la relación entre la variable Xi y la
varianza σi2 sería inversa:

σ2
σi2 =
Xi

y realizando este cambio en la justificación anterior, se tendría una variable de


ponderación:

p
Wi = Xi

 Si la variable que resultase más significativa en el test de White fuese Xi2


con signo positivo, entonces la relación con la varianza sería:

σi2 = σ 2 Xi2

1
y en este caso la variable de ponderación que obtendríamos sería: Wi = .
Xi

 Pueden considerarse otras alternativas como que el regresor más signifi-


cativo de la regresión auxiliar fuese una interacción entre dos variables,
siendo su coeficiente positivo o negativo, en cuyo caso se obtendrían los
pesos adecuados siguiendo el mismo procedimiento descrito.

Modelo 4: MC.Ponderados, usando las observaciones 1991–2015 (T = 25)


Variable dependiente: consumo
Variable utilizada como ponderación: peso

Coeficiente Desv. Típica Estadístico t valor p


const 1,38640 0,139641 9,928 0,0000
renta 3,58290e–005 5,53111e–006 6,478 0,0000
precio −0,245600 0,130581 −1,881 0,0733

Estadísticos basados en los datos ponderados:

Suma de cuad. residuos 0,001240 D.T. de la regresión 0,007509


R2 0,848063 R2 corregido 0,834250
F (2, 22) 61,39838 Valor p (de F ) 9,96e–10
Log-verosimilitud 88,41591 Criterio de Akaike −170,8318
Criterio de Schwarz −167,1752 Hannan–Quinn −169,8176
ρ̂ 0,385211 Durbin–Watson 1,113216

Estadísticos basados en los datos originales:


294 SUPUESTO 19. TABACO

Media de la vble. dep. 2,222680 D.T. de la vble. dep. 0,257012


Suma de cuad. residuos 0,267717 D.T. de la regresión 0,110313

A partir de este Modelo (6) podemos realizar nuevas predicciones (que iremos
guardando mediante el icono «+», como en los modelos anteriores para así poder
hacer posteriormente una comparación entre las predicciones de los distintos
modelos:

Para intervalos de confianza 95 %, t(22, ,0, 025) = 2, 074

Observaciones consumo Predicción Desv. típica Intervalo de 95 %


2016 2,307 2,424 0,0782 2,262 2,587
2017 2,514 2,575 0,0522 2,467 2,684
2018 2,765 2,544 0,0946 2,348 2,741
2019 3,482 2,270 0,2384 1,776 2,765

Estadísticos de evaluación de la predicción (T = 4)


Error medio 0,3134
Error cuadrático medio 0,61937
Raíz del Error cuadrático medio 0,787
Error absoluto medio 0,4028
Porcentaje de error medio 8,8124
Porcentaje de error absoluto medio 12,578
U de Theil 1,5333
Proporción de sesgo, U M 0,25603
Proporción de la regresión, U R 0,48169
Proporción de la perturbación, U D 0,26228

Nota:
La propuesta anterior no es la única alternativa para solucionar el problema
de la heterocedasticidad en nuestro modelo. Así, dado que en algunas regresio-
nes auxiliares se observa que también la renta cuadrática es significativa, sería
posible estimar el modelo por MCP con σi2 = σ 2 renta2 y peso = renta
1
. Esta op-
ción conduce a resultados similares a los anteriores, con indicadores algo peores
(mayor suma de residuos cuadráticos basados en datos originales)
Otra alternativa sería la corrección automática de Gretl disponible en el menú
Modelo . Otros modelos lineales . Con corrección de heterocedasticidad, Funcion-
Heterocedasticidad (p. en la página 267), que en este caso conduce a un resultado
ligeramente peor.

Por otra parte, para solucionar el problema de autocorrelación de primer orden


detectado por el test de Durbin Watson se puede llevar a cabo la estimación
del modelo en el menú Modelo . Series temporales . Modelos AR (MCG) en las
opciones AR(1) y AR (General).
Más concretamente, en el AR(1) se puede pedir la estimación iterativa de Co-
chrane Orcutt (1949) y se obtiene, a partir del modelo rho-diferenciado un re-
295

sultado donde el valor de rho es muy reducido y por tanto DW se acerca más a
2.

Modelo 5: Cochrane–Orcutt , usando las observaciones 1992–2015 (T = 24)


Variable dependiente: consumo
ρ = 0,449767
ρ̂ = 0,449767

Coeficiente Desv. Típica Estadístico t valor p


const 1,49176 0,239956 6,217 0,0000
renta 3,22052e–005 6,57125e–006 4,901 0,0001
precio −0,231626 0,136348 −1,699 0,1041

Estadísticos basados en los datos rho-diferenciados:

Media de la vble. dep. 2,237792 D.T. de la vble. dep. 0,250938


Suma de cuad. residuos 0,238894 D.T. de la regresión 0,106658
R2 0,835060 R2 corregido 0,819352
F (2, 21) 14,57125 Valor p (de F ) 0,000107
ρ̂ 0,075375 Durbin–Watson 1,580986

Nota:
De modo similar podemos utilizar la opción AR (General) donde será necesario
especificar el número de retardos propuesto. Lógicamente, si incluimos un solo
retardo, el resultado es coincidente con la estimación anterior

Modelo de Cochrane Orcutt (modelo rho-diferenciado)


Consideremos un modelo inicial del tipo: Yt = β1 + β2 Xt + ut
Supongamos ahora que ut presenta autocorrelación de orden 1, de modo que
puede ser expresado como: ut = ρut−1 + t , donde |ρ| < 1, y  ≈ N (0, σ 2 I).
Sustituyendo esta expresión en el modelo inicial obtenemos:

Yt = β1 + β2 Xt + ρut−1 + t

Considerando el modelo inicial en el período t−1, y multiplicando ambos miem-


bros por ρ, se tiene:

ρYt−1 = ρβ1 + ρβ2 Xt−1 + ρut−1


y calculando la diferencia entre las dos últimas ecuaciones, obtenemos:

Yt − ρYt−1 = β1 (1 − ρ) + β2 (Xt − ρXt−1 ) + r


296 SUPUESTO 19. TABACO

Podemos transformar este modelo definiendo nuevas variables: Yt∗ = Yt − ρYt−1 ,


y Xt∗ = Xt − ρXt−1 , y especificar el nuevo modelo:

Yt∗ = β1∗ + β2 Xt∗ + t

En este caso hemos eliminado la autocorrelación de la perturbación t y el


modelo transformado se puede estimar mediante MCO.
La opción de Cochrane Orcutt disponible en Gretl proporciona un procedimiento
iterativo de estimación, basado en un algoritmo que realiza el cálculo anterior
en diversas iteraciones hasta alcanzar el punto de parada.

Una ventaja adicional de este nuevo modelo es que los residuos obtenidos en la
estimación de Cochrane Orcutt siguen un patrón normal.

6
Estadístico para el contraste de normalidad:
Frecuencia relativa
Chi-cuadrado(2) = 3,539 [0,1704]
N(1,2027e-016 0,10666)
5

4
Densidad

0
-0,3 -0,2 -0,1 0 0,1 0,2 0,3
uhat4

En cambio las predicciones obtenidas con este modelo autorregresivo resultan


menos adecuadas a la vista de los resultados obtenidos para los errores porcen-
tuales y el índice de Theil

Para intervalos de confianza 95 %, t(21, ,0, 025) = 2, 080

Observaciones consumo Predicción Desv. típica Intervalo de 95 %


2016 2,307 2,249 0,1067 2,027 2,471
2017 2,514 2,464 0,1169 2,221 2,707
2018 2,765 2,465 0,1189 2,218 2,713
2019 3,482 2,222 0,1193 1,974 2,470

Estadísticos de evaluación de la predicción (T = 4)


297

Error medio 0,41683


Error cuadrático medio 0,64874
Raíz del Error cuadrático medio 0,80544
Error absoluto medio 0,41683
Porcentaje de error medio 12,878
Porcentaje de error absoluto medio 12,878
U de Theil 1,6149
Proporción de sesgo, U M 0,41284
Proporción de la regresión, U R 0,18172
Proporción de la perturbación, U D 0,40543

5. Analizar la existencia de cambio estructural ligado a la ley antita-


baco.

La existencia de un cambio estructural podría ser la causa de alguno de los


problemas detectados anteriormente en el modelo de consumo de tabaco (hete-
rocedasticidad, autocorrelación y no normalidad) por lo que su detección resulta
de gran interés.
Para contrastar la hipótesis nula de estabilidad del modelo disponemos de varias
alternativas. Así, mediante el test de razón de verosimilitudes RV de Quandt
Test-RV-Quant (p.246) podemos detectar el año en el que se produce la ruptura,
que coincide con la entrada en vigor de la ley antitabaco en 2011.
Tal y como puede verse en la salida del test RV de Quandt, el año 2011 se
maximiza la F asociada a la razón de verosimilitudes y el nivel crítico asintótico
asociado es casi nulo, por lo que conduce al rechazo de la hipótesis de estabilidad
del modelo.

Contraste de razón de verosimilitudes de Quandt para cambio estructural


en un punto desconocido, con recorte del 15 por ciento:
El valor máximo de F(3, 19) = 11,8886 corresponde a la observación 2011
Valor p asintótico = 2,22446e-006 para Chi-cuadrado(3)= 35,6657

Desde el mismo menú de contrastes podemos también llevar a cabo el test de


Chow Test-de-Chow(p. en la página 249), utilizando para establecer el punto
de ruptura la variable dicotómica ley_antitabaco, y el resultado proporciona
un nivel crítico suficientemente bajo para rechazar el supuesto de estabilidad
estructural y concluir que existe un cambio estructural asociado a la ley antita-
baco de 2011.

Regresión aumentada para el contraste de Chow


MCO, usando las observaciones 1991-2015 (T = 25)
Variable dependiente: consumo
298 SUPUESTO 19. TABACO

Coeficiente Desv. Típica Estadístico t valor p


const 1,33387 0,111768 11,93 2,84e-010 ***
renta 4,28562e-05 3,89409e-06 11,01 1,10e-09 ***
precio −0,330324 0,0959485 −3,443 0,0027 ***
ley_antitabaco 2,18525 1,52568 1,432 0,1683
le_renta −9,19257e-05 2,57468e-05 −3,570 0,0020 ***
le_precio 0,781636 0,284289 2,749 0,0128 **

Suma de cuad. residuos 0,093035 D.T. de la regresión 0,069976


R-cuadrado 0,941315 R-cuadrado corregido 0,925872
F(5, 19) 60,95253 Valor p (de F) 4,88e-11
Log-verosimilitud 34,44724 Criterio de Akaike −56,89449
Criterio de Schwarz −49,58123 Crit. de Hannan-Quinn −54,86610

Contraste de Chow de diferencia estructural con respecto a ley_antitabaco


F(3, 19) = 11,8886 con valor p 0,0001
A través de la regresión aumentada de Chow disponemos de información sobre
el impacto de la ley antitabaco, que afecta al impacto marginal del precio sobre
el consumo de tabaco y también al efecto marginal de la renta (de hecho, se
observa que ambos efectos cambian de signo después de 2011). Sin embargo,
la variable dummy ley_antitabaco no resulta significativa por lo que podemos
reconstruir el modelo omitiendo dicha variable e incorporando únicamente los
términos de interacción generados como producto.
smpl full
ley_renta = ley _antit abaco * renta
ley_precio = le y_anti tabaco * precio
smpl 1991 2015

Al estimar el modelo ampliado con cambio estructural se observa que se solu-


cionan los problemas anteriormente detectados. Así, la salida siguiente muestra
el resumen de los contrastes RESET de Ramsey, de homocedasticidad de White
y de normalidad, observándose que en todos los casos los niveles críticos son
elevados.

Modelo 6: MCO, usando las observaciones 1991–2015 (T = 25)


Variable dependiente: consumo

Coeficiente Desv. Típica Estadístico t valor p


const 1,34559 0,114361 11,77 0,0000
renta 4,29945e–005 3,99392e–006 10,76 0,0000
precio −0,337954 0,0982866 −3,438 0,0026
ley_renta −5,98323e–005 1,30112e–005 −4,599 0,0002
ley_precio 1,02329 0,234752 4,359 0,0003

Media de la vble. dep. 2,222680 D.T. de la vble. dep. 0,257012


Suma de cuad. residuos 0,103080 D.T. de la regresión 0,071791
R2 0,934979 R2 corregido 0,921974
F (4, 20) 71,89772 Valor p (de F ) 1,40e–11
Log-verosimilitud 33,16558 Criterio de Akaike −56,33115
Criterio de Schwarz −50,23677 Hannan–Quinn −54,64083
ρ̂ 0,006135 Durbin–Watson 1,958278
299

Contraste de especificación RESET –


Hipótesis nula: [La especificación es adecuada]
Estadístico de contraste: F (2, 18) = 0,169364
con valor p = P (F (2, 18) > 0,169364) = 0,845531
Contraste de heterocedasticidad de White (cuadrados sólo) –
Hipótesis nula: [No hay heterocedasticidad]
Estadístico de contraste: LM = 14,4133
con valor p = P (χ2 (8) > 14,4133) = 0,071608
Contraste de normalidad de los residuos –
Hipótesis nula: [El error tiene distribución Normal]
Estadístico de contraste: χ2 (2) = 2,32828
con valor p = 0,312191

También el estadístico de Durbin-Watson de la salida, cuyo valor es próximo a


2, indica que no existen problemas de autocorrelación de primer orden.
Una ventaja adicional de este último modelo es que mejora significativamente
las predicciones de consumo de tabaco.

Para intervalos de confianza 95 %, t(20, ,0, 025) = 2, 086

Observaciones consumo Predicción Desv. típica Intervalo de 95 %


2016 2,307 2,716 0,1199 2,466 2,966
2017 2,514 2,525 0,0823 2,353 2,697
2018 2,765 2,830 0,1230 2,574 3,087
2019 3,482 3,637 0,3530 2,901 4,374

Estadísticos de evaluación de la predicción (T = 4)


Error medio −0,1601
Error cuadrático medio 0,22108
Raíz del Error cuadrático medio 0,4702
Error absoluto medio 0,1601
Porcentaje de error medio −6,2447
Porcentaje de error absoluto medio 6,2447
U de Theil 0,21258
Proporción de sesgo, U M 0,5244
Proporción de la regresión, U R 0,001219
Proporción de la perturbación, U D 0,47438
300 SUPUESTO 19. TABACO

4,5
consumo
Predicción
Intervalo de 95 por ciento
4

3,5

2,5

2
2004 2006 2008 2010 2012 2014 2016 2018

6. ¿Cómo afectan las distintas alternativas de estimación a las predic-


ciones de consumo de tabaco?

Tal y como hemos visto en los apartados anteriores, los distintos modelos estima-
dos llevan asociadas predicciones diferentes para el horizonte 2016-2019 con las
correspondientes medidas de evaluación. Más concretamente, la tabla siguiente
resume las principales medidas de evaluación de predicciones asociadas a las
predicciones estáticas obtenida con los seis modelos estimados. Como es lógico,
el último modelo -que incorpora mediante variables cualitativas el cambio es-
tructural asociado a la ley antitabaco- mejora sustancialmente la calidad de las
predicciones de consumo de tabaco ne el horizonte considerado.

Mod. 1 Mod. 2 Mod. 3 Mod. 4 Mod. 5 Mod. 6


MCO MC2E Omite MCP AR(1) Cambio
prevención Estructural
RECM 0,48068 0,36883 0,61899 0,61937 0,64874 0,22108
PEM 5,878 3,3124 8,8436 8,8124 12,878 -6,2447
PEAM 9,.139 7,1435 12,559 12,578 12,878 6,2447
U Theil 1,189 0,9158 1,5325 1,5333 1,6149 0,21258
Sesgo 0,20452 0,13136 0,25756 0,25603 0,41284 0,5244
301

Nota:
También podemos optar por utilizar otros procedimientos de predicción dis-
tintos del estático, lo cual afectaría a los resultados de la predicción. Así, las
predicciones cambian si se utiliza el procedimiento recursivo con horizonte h=1,
en cuyo caso se haría la predicción para 2016 con información hasta 2015 (ob-
teniendo por tanto el mismo resultado que en el caso estático para este año).
Posteriormente se estimaría nuevamente el modelo con la información hasta
2016 y se obtendría la predicción para 2017 (que ya sería distinta a la predic-
ción estática) y lo mismo para 2017 (en este caso basada en el modelo estimado
con información muestral hasta 2016).
Puede comprobarse que, al considerar horizontes de predicción de amplitud 1, las
predicciones basadas en el procedimiento dinámico reducen el error porcentual
medio.
302 SUPUESTO 19. TABACO
SUPUESTO 20

Industria

Contenidos: Contrastes sobre u, Endogeneidad, Predicción, Test de


Hausman, Identificación, MC2E, Test Breusch-Pagan de diagonali-
dad, MC3E

Nombre del fichero: industria.gdt http://cort.as/-LMdd

Página de datos: http://cort.as/-LHjb . industria.gdt


Página de scripts: http://cort.as/-LHjE . S20_Industria.inp

Enunciado:

Con el objetivo de analizar la evolución del sector industrial español se ha re-


copilado en el archivo industria.gdt información temporal referida a los salarios
(W, Indice de coste salarial total de la industria), los precios (P, Indice de Pre-
cios Industriales), la producción (Q, Indice de Producción Industrial) y el Valor
Añadido Bruto (V)

1. Se propone la ecuación de salarios en función de los precios Wt = α1 +


α2 Pt + ut . Obtener su estimación mínimo cuadrática hasta 2016 y analizar
los resultados

2. ¿Está el modelo bien estimado? ¿Cumple las hipótesis exigidas?

3. Obtener las predicciones de salario a partir de 2017

4. ¿Sería recomendable añadir las cantidades como variable explicativa? Es-


timar el modelo Wt = α1 + α2 Pt + α3 Qt + ut comparando los resultados
con los del modelo simple.

5. Para analizar la posible endogeneidad del precio se estima la ecuación de


salarios mediante Variables Instrumentales ¿Cuáles son las conclusiones
del test de Hausman?

303
304 SUPUESTO 20. INDUSTRIA

6. Se propone el modelo simplificado de salario-precio (M1):

Wt = α1 + α2 Pt + α3 Qt + u1t
Pt = β1 + β2 Wt + β3 Vt + u2t

¿Está este modelo identificado? Analizar el resultado de su estimación


hasta 2016 y obtener predicciones a partir de ese año

7. Se considera ahora un nuevo modelo (M2) cuya primera ecuación incluye


como explicativa la variable precio retardado Pt−1 . Estudiar los resultados
de su estimación y predicción.

Solución:

1. Se propone la ecuación de salarios en función de los precios Wt =


α0 + α1 Pt + ut . Obtener su estimación mínimo cuadrática hasta 2016 y
analizar los resultados.

Al llevar a cabo la estimación mínimo cuadrática del modelo simple (una vez
seleccionado el recorrido muestral 1997-2016) se observa que el coeficiente es-
timado para el precio tiene signo negativo, al contrario de lo esperado. Este
resultado podría ser debido a que los precios son causa de los salarios pero
también dependen de dicha variable, es decir, a la posible existencia de endo-
geneidad en la variable precios, que afectaría a los resultados de la estimación
MCO.
Además, la salida del modelo estimado presenta otros problemas, como el bajo
coeficiente de determinación, que sugiere la necesidad de incorporar más varia-
bles explicativas en el modelo.

Modelo 1: MCO, usando las observaciones 1997–2016 (T = 20)


Variable dependiente: W

Coeficiente Desv. Típica Estadístico t valor p


const 176,770 25,3537 6,972 0,0000
P −0,735560 0,220289 −3,339 0,0037

Media de la vble. dep. 92,61000 D.T. de la vble. dep. 15,20363


Suma de cuad. residuos 2712,012 D.T. de la regresión 12,27466
R2 0,382491 R2 corregido 0,348185
F (1, 18) 11,14937 Valor p (de F ) 0,003652
Log-verosimilitud −77,47591 Criterio de Akaike 158,9518
Criterio de Schwarz 160,9433 Hannan–Quinn 159,3406
ρ̂ 0,795821 Durbin–Watson 0,159790
305

Nota:
Como ya hemos comentado en supuestos anteriores, el problema de endogenei-
dad afecta a una de las hipótesis básicas del modelo econométrico (ausencia de
correlación entre X y u) y puede estar relacionado con problemas de especifica-
ción del modelo como pueden ser las variables omitidas.
Las consecuencias de la endogeneidad son importantes ya que los estimadores
MCO dejarían de ser consistentes. De ahí la importancia de detectar mediante
el test de Hausman Test-de-Hausman (p.225) la endogeneidad de las variables
explicativas y utilizar métodos de estimación alternativos como Mínimos Cua-
drados en dos etapas (MC2E) o Variables Instrumentales (VI).

2. ¿Está el modelo bien estimado? ¿Cumple las hipótesis exigidas?

El test RESET de Ramsey proporciona en este caso un nivel crítico muy bajo
por lo que rechazamos la hipótesis de especificación correcta.

Regresión auxiliar para el contraste de especificación RESET


MCO, usando las observaciones 1997-2016 (T = 20)
Variable dependiente: W

Coeficiente Desv. Típica Estadístico t valor p


const −18679,8 13624,4 −1,371 0,1893
P 95,8795 68,4927 1,400 0,1806
ŷ 2 1,30271 1,01446 1,284 0,2174
ŷ 3 −0,00425591 0,00366887 −1,160 0,2631

Estadístico de contraste: F = 8,010876,


con valor p = P(F(2,16) > 8,01088) = 0,00389

Como consecuencia de los problemas de especificación del modelo, se observan


también incumplimientos de las hipótesis sobre u. De hecho si observamos el
gráfico accesible en la salida del modelo estimado: Gráficos . Gráfico de resi-
duos contra el tiempo vemos que cada residuo es bastante similar al anterior,
sugiriendo la existencia de autocorrelación.
306 SUPUESTO 20. INDUSTRIA

Residuos de la regresión (= W observada - estimada)


20
15
10
5
0
residuo

-5
-10
-15
-20
-25
-30
1998 2000 2002 2004 2006 2008 2010 2012 2014 2016

Este problema de correlación positiva de orden 1 se confirma si examinamos el


estadístico Durbin-Watson de la salida del modelo

rho 0,795821 Durbin-Watson 0,159790

y también si consultamos en el menú de Contrastes . Valor p del estadístico


Durbin-Watson el correspondiente nivel crítico que en este caso es muy reducido.

Estadístico de Durbin-Watson = 0,15979


El valor p es "muy pequeño" (la integral de Imhof no
ha podido ser evaluada así que no hay un valor definido disponible)

Si llevamos a cabo el test de White para contrastar el supuesto de homocedas-


ticidad se observa que no hay evidencia para rechazar esta hipótesis ya que el
nivel crítico es elevado (p=0,28).

Contraste de heterocedasticidad de White


MCO, usando las observaciones 1997-2016 (T = 20)
Variable dependiente: û2

Coeficiente Desv. Típica Estadístico t valor p


const −5976,30 4568,35 −1,308 0,2082
P 105,730 81,1078 1,304 0,2098
sq_P −0,451849 0,356310 −1,268 0,2218

R-cuadrado = 0,124432

Estadístico de contraste: T R2 = 2,488643,


con valor p = P(Chi-cuadrado(2) > 2,488643) = 0,288136

De modo similar se comprueba que no hay problemas con la normalidad de


los residuos, puesto que el resultado del contraste de Doornik-Hansen sobre el
modelo estimado es el siguiente:
307

�����
�������������������������������������������� �������������������
�������������������������������� ��������������������
������

�����

������

�����
��������

������

�����

������

�����

������

��
��� ��� ��� ��� �� ��� ��� ��� � ��
�����

Además, si guardamos los residuos del modelo podemos comprobar que esta
conclusión coincide con la de los otros tests de normalidad, ya que todos ellos
proporcionan niveles críticos elevados.

Contraste de Normalidad de uhat1:


Contraste de Doornik-Hansen = 3,27339, con valor p 0,194622
W de Shapiro-Wilk = 0,933695, con valor p 0,181834
Contraste de Lilliefors = 0,204408, con valor p ~= 0,03
Contraste de Jarque-Bera = 1,96844, con valor p 0,373731

3. Obtener las predicciones de salario a partir de 2017

Aunque como hemos visto anteriormente el modelo estimado tiene problemas de


especificación y autocorrelación, podemos obtener a título ilustrativo prediccio-
nes para los salarios, si bien, tal y como era previsible y se aprecia en la salida,
los errores de predicción son elevados:

Para intervalos de confianza 95 %, t(18, ,0, 025) = 2, 101

Observaciones W Predicción Desv. típica Intervalo de 95 %


2017 112,9 99,9 12,77 73,1 126,8
2018 112,7 99,4 12,74 72,6 126,1

Estadísticos de evaluación de la predicción (T = 2)


308 SUPUESTO 20. INDUSTRIA

Error medio 13,159


Error cuadrático medio 13,16
Raíz del Error cuadrático medio 3,6277
Error absoluto medio 13,159
Porcentaje de error medio 11,666
Porcentaje de error absoluto medio 11,666
U de Theil 66,727
Proporción de sesgo, U M 0,9998
Proporción de la regresión, U R 0,00020163
Proporción de la perturbación, U D 0

4. ¿Sería recomendable añadir las cantidades como variable explica-


tiva? Estimar el modelo Wt = α1 + α2 Pt + α3 Qt + ut comparando los
resultados con los del modelo simple.

A través del menú Contrastes . Añadir variables se contrasta la hipótesis de


coeficiente nulo para la cantidad (según la cual esta variable no debería ser
incluida como explicativa en el modelo). Tal y como puede verse en la salida
obtenida, esta hipótesis se rechaza, ya que el nivel crítico es muy bajo y además
en el modelo ampliado se reducen (y por tanto mejoran) los tres criterios de
información.

Modelo 2: MCO, usando las observaciones 1997–2016 (T = 20)


Variable dependiente: W

Coeficiente Desv. Típica Estadístico t valor p


const −13,4662 13,9159 −0,9677 0,3468
P 0,0709480 0,0777372 0,9127 0,3742
Q 1,15594 0,0741966 15,58 0,0000

Media de la vble. dep. 92,61000 D.T. de la vble. dep. 15,20363


Suma de cuad. residuos 177,5154 D.T. de la regresión 3,231421
R2 0,959581 R2 corregido 0,954826
F (2, 17) 201,7961 Valor p (de F ) 1,43e–12
Log-verosimilitud −50,21202 Criterio de Akaike 106,4240
Criterio de Schwarz 109,4112 Hannan–Quinn 107,0072
ρ̂ 0,468104 Durbin–Watson 0,991169

En este nuevo modelo se observa que, a diferencia de lo que sucedía en el simple,


el coeficiente estimado para el precio tiene signo positivo pero no es significati-
vamente distinto de cero y se podría sospechar que existe endogeneidad en esta
variable.
Además, aunque algunos indicadores como el coeficiente de determinación corre-
gido han mejorado respecto al modelo anterior, todavía se observan problemas
de especificación (el test RESET de Ramsey sigue proporcionando un nivel crí-
tico muy reducido), y de autocorrelación de orden 1 (tal y como muestra el
estadístico Durbin-Watson cuyo valor es inferior a 1).
309

5. Para analizar la posible endogeneidad del precio se estima la ecua-


ción de salarios mediante Variables Instrumentales ¿Cuáles son las
conclusiones del test de Hausman?

Se parte en este caso del menú Modelo . Variables instrumentales . Mínimos


cuadrados en dos etapas donde se introduce la especificación del modelo.
Para llevar a cabo la estimación necesitamos variables instrumentales que debe-
rían ser exógenas y no estar relacionadas con las perturbaciones. En este caso
podemos asumir exogeneidad para la variable producción (Q) y también para
la variable VAB del sector industrial (V) disponible en el archivo de trabajo:

Con esta especificación, la estimación de Mínimos cuadrados en dos etapas


(MC2E) proporciona la salida siguiente, que incluye los correspondientes con-
trastes:

Modelo 3: MC2E, usando las observaciones 1997–2016 (T = 20)


Variable dependiente: W
Mediante Instrumentos: P
Instrumentos: const Q V

Coeficiente Desv. Típica Estadístico t valor p


const −33,4773 16,1156 −2,077 0,0532
P 0,189864 0,0909199 2,088 0,0521
Q 1,23153 0,0826140 14,91 0,0000

Media de la vble. dep. 92,61000 D.T. de la vble. dep. 15,20363


Suma de cuad. residuos 201,9503 D.T. de la regresión 3,446655
R2 0,954098 R2 corregido 0,948698
F (2, 17) 179,1942 Valor p (de F ) 3,76e–12
Log-verosimilitud −115,5019 Criterio de Akaike 237,0038
Criterio de Schwarz 239,9910 Hannan–Quinn 237,5869
ρ̂ 0,404032 Durbin–Watson 1,139473
310 SUPUESTO 20. INDUSTRIA

Contraste de Hausman –
Hipótesis nula: [Los estimadores de MCO son consistentes]
Estadístico de contraste asintótico: χ2 (1) = 42,5122
con valor p = 7,02434e-011
Contraste de Instrumento débil –
First-stage F (1, 17) = 83,9893

Esta salida permite observar que los signos de los dos coeficientes son positivos
y las variables, en distintos niveles, resultan significativas.
Además, la salida confirma la sospecha de endogeneidad de la variable precio
ya que el nivel crítico es bajo y se rechaza la hipótesis nula del test de Haus-
man (según la cual las variables explicativas serían exógenas y los estimadores
MCO consistentes). También se incluye en esta salida el test de debilidad de
los instrumentos, con un resultado F muy elevado que conduce al rechazo de la
hipótesis de nulidad de los coeficientes de las VI (equivalente a su “debilidad”).

Nota:
La estimación por Variables Instrumentales o Mínimos Cuadrados en dos etapas
necesita disponer de un número suficiente de instrumentos (superior al número
de variables explicativas endógenas). En caso de que este requisito no se cumpla
Gretl proporciona un mensaje informativo según el cual es necesario añadir más
instrumentos.
Cuando el número de instrumentos es suficiente (es decir, cuando la ecuación es-
tá identificada, tal y como se describe más adelante, SEM-Identificacion p.311),
entonces Gretl lleva a cabo la estimación MC2E del modelo y proporciona los re-
sultados del test de Hausman (que permite contrastar la exogeneidad) y del tests
de instrumentos débiles. Este segundo test, descrito en Contraste-instrumento-
debil (p.225) es un contraste de restricciones lineales y permite analizar la ido-
neidad de las variables propuestas como instrumentos.
Por último, cuando el número de instrumentos es superior al requerido (ecua-
ción sobreidentificada) Gretl proporciona todos los resultados anteriores y uno
adicional: el test de sobreidentificación de Sargan cuya hipótesis nula es la ade-
cuación de todos los instrumentos propuestos para la estimación.

6. Se propone el modelo simplificado de salario-precio (M1):

Wt = α1 + α2 Pt + α3 Qt + u1t
Pt = β1 + β2 Wt + β3 Vt + u2t

¿Está este modelo identificado? Analizar el resultado de su estimación


hasta 2016 y obtener predicciones a partir de ese año

Para estimar en Gretl este modelo de ecuaciones simultáneas (Simultáneous


Equation Model, SEM) es necesario utilizar el menú Modelo . Ecuaciones si-
311

multáneas donde se introduce la especificación del modelo, incluyendo en líneas


separadas las ecuaciones de salario (W) y precio (P) e indicando a continuación
que ambas variables son endógenas.
equation W const P Q
equation P const W V
endog W P

Nota:
La especificación de modelos de ecuaciones simultáneas es distinta de la utilizada
para modelos uniecuacionales y exige utilizar comandos para las ecuaciones
(equation) y las variables endógenas (endog). En el caso de que el sistema de
ecuaciones incluya alguna identidad éstas se recogerían como identity.
Para completar la especificación es necesario introducir las variables endógenas
mediante el comando endog. De este modo el programa añadirá automática-
mente como instrumentos (instr) las variables predeterminadas del modelo y la
constante const.

Como podemos observar, en la parte inferior de esta opción aparece un des-


plegable para seleccionar el método de estimación del modelo. Por lo tanto, es
importante como paso previo a la estimación llevar a cabo un análisis de la
identificación del modelo.

Ecuaciones simultáneas. Identificación


Los modelos de ecuaciones simultáneas pueden expresarse matricialmente como:

Y = Yα + Xβ + U
expresión que es conocida como forma estructural del sistema, donde aparecen
como explicativas tanto las variables predeterminadas (con coeficientes β) como
las endógenas (con coeficientes α).
312 SUPUESTO 20. INDUSTRIA

Alternativamente estos modelos pueden ser expresados en forma reducida,


únicamente en función de las variables predeterminadas como:

Y = XΠ + V
donde Π y V representan los nuevos vectores de parámetros y perturbaciones,
respectivamente.
Uno de los rasgos diferenciales de los sistemas de ecuaciones simultáneas es
el problema de la identificación, equivalente a analizar si los parámetros de la
forma estructural pueden ser obtenidos a partir de los parámetros de la forma
reducida. Diremos que una ecuación está identificada cuando tengamos suficien-
te información para estimar sus parámetros estructurales y un modelo estará
identificado cuando lo estén todas sus ecuaciones.
El requisito de identificación dependerá de cómo hayan sido especificadas las
ecuaciones del modelo y resulta importante para la estimación (los modelos no
identificados no pueden ser estimados).
Existen unas condiciones necesarias y suficientes para estudiar si un sistema
es identificado, lo cual equivaldría a analizar si las distintas ecuaciones que lo
componen son distinguibles unas de otras.
Para ello se analiza el sistema de ecuaciones que expresa los parámetros estructu-
rales en función de los reducidos, de modo que si este sistema es incompatible el
modelo resulta no identificado, mientras si el sistema es compatible determinado
tiene una única solución y por tanto el modelo es exactamente identificado y si
el sistema es compatible pero indeterminado el modelo está sobreidentificado.

Sistema de ecuaciones Modelo


Incompatible No identificado
Compatible determinado Exactamente identificado
Compatible indeterminado Sobreidentificado

Las condiciones necesarias de orden se plantean en función del número de va-


riables predeterminadas y endógenas de cada ecuación (que denotamos por k 0
y m0 respectivamente) y del conjunto del modelo (k y m) mientras la condición
necesaria y suficiente hace referencia a una matriz A, construida a partir de los
coeficientes del modelo.
Más concretamente, la condición necesaria de orden puede expresarse como:

k + m − (k 0 + m0 ) ≥ m − 1
o de forma simplificada k − k 0 ≥ m0 − 1. En ambos casos la igualdad indicará
identificación y el mayor estricto sobreidentificación.
Por su parte, la condición necesaria y suficiente de rango exige que la matriz A,
construida para cada ecuación con los coeficientes de las variables excluidas de
la ecuación analizada -endógenas y predeterminadas- e incluidas en el resto de
las ecuaciones del modelo, tenga rango m-1.
313

No identificada Identificada Sobreidentificada


k − k 0 < m0 − 1 k − k 0 = m0 − 1 k − k 0 => m0 − 1
o, r(A) < m − 1 y, r(A) = m − 1 y, r(A) = m − 1

En este caso podemos comprobar que las ecuaciones del sistema propuesto están
perfectamente identificadas ya que el modelo tiene dos variables endógenas (W
y P) y dos predeterminadas (Q y V). Por lo tanto, m = 2, k = 2 y se cumple
para las ecuaciones:

m’ k’ k-k’ m’-1 Conclusión


Ecuación 1 (W) 2 1 1 1 Identificada
Ecuación 2 (P) 2 1 1 1 Identificada

Se satisfacen también las condiciones suficientes de rango sobre las matrices A


de coeficientes (que en este caso son escalares, por tanto con rango 1, coincidente
con m-1) y en consecuencia, la estimación de cada una de las ecuaciones y del
sistema podría llevarse a cabo por Mínimos cuadrados en dos etapas (MC2E)
utilizando como instrumentos las variables predeterminadas Q y V. El resultado
obtenido es el siguiente:

Sistema de ecuaciones, Mínimos cuadrados en dos etapas

Ecuación 1: MC2E, usando las observaciones 1997–2016 (T = 20)


Variable dependiente: W
Instrumentos: const Q V

Coeficiente Desv. Típica Estadístico t valor p


const −33,4773 16,1156 −2,077 0,0532
P 0,189864 0,0909199 2,088 0,0521
Q 1,23153 0,0826140 14,91 0,0000

Media de la vble. dep. 92,61000 D.T. de la vble. dep. 15,20363


Suma de cuad. residuos 201,9503 D.T. de la regresión 3,446655

Ecuación 2: MC2E, usando las observaciones 1997–2016 (T = 20)


Variable dependiente: P
Instrumentos: const Q V

Coeficiente Desv. Típica Estadístico t valor p


const 50,2969 8,46532 5,942 0,0000
W −0,825826 0,0483134 −17,09 0,0000
V 0,000855545 5,75841e–005 14,86 0,0000

Media de la vble. dep. 114,4163 D.T. de la vble. dep. 12,78320


Suma de cuad. residuos 134,3711 D.T. de la regresión 2,811438

Matriz de covarianzas cruzada residual


314 SUPUESTO 20. INDUSTRIA

(Correlaciones por encima de la diagonal principal)

10, 098 (−0, 431)


−3, 5461 6, 7186

logaritmo del determinante = 4,01215

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 3,70718 [0,0542]

La salida de Gretl proporciona la estimación de las dos ecuaciones (salarios y


precios) incluyendo las medidas habituales (concretamente se observa que el
coeficiente de determinación es elevado en ambos casos). Además, al final de la
salida se incluye la información relativa a la correlación entre los residuos de las
dos ecuaciones y el resultado del test de Breusch Pagan cuya hipótesis nula es
la diagonalidad o ausencia de correlación Breusch-Pagan-diagonalidad (p.318).

Nota:
Teniendo en cuenta el resultado obtenido en este caso, la hipótesis de diagona-
lidad podría ser rechazada al 10 % pero no al 5 % que es el nivel habitualmente
considerado. En cualquier caso, dado que las dos ecuaciones del modelo están
exactamente identificadas la solución sería única y por tanto los resultados de
otros métodos de estimación alternativos que utilizan información completa se-
rían coincidentes con los ya vistos para MC2E.

Por lo que se refiere a la predicción, partiendo del modelo estimado por MC2E
podemos obtener en Análisis predicciones tanto para los salarios como para los
precios.
Los resultados obtenidos muestran que las predicciones de salarios mejoran sig-
nificativamente respecto a las obtenidas con el modelo uniecuacional (el error
porcentual es ahora inferior al 2 %). Sin embargo el índice de Theil todavía
resulta elevado (superior a la unidad) y scon una alta proporción de sesgo.
Predicciones para W:

Para intervalos de confianza 95 %, t(17, ,0, 025) = 2, 110

Observaciones W Predicción Desv. típica Intervalo de 95 %


2017 112,9 112,1 2,59 106,7 117,6
2018 112,7 115,6 2,59 110,1 121,1

Estadísticos de evaluación de la predicción (T = 2)


315

Error medio −1,0633


Error cuadrático medio 2,1264
Raíz del Error cuadrático medio 1,4582
Error absoluto medio 1,8414
Porcentaje de error medio −0,94412
Porcentaje de error absoluto medio 1,6333
U de Theil 14,524
Proporción de sesgo, U M 0,25007
Proporción de la regresión, U R 0,74993
Proporción de la perturbación, U D 4,9109e-019

Predicciones para P:

Para intervalos de confianza 95 %, t(17, ,0, 025) = 2, 110

Observaciones P Predicción Desv. típica Intervalo de 95 %


2017 104,467 111,155 3,8136 103,109 119,201
2018 105,247 109,975 3,8136 101,929 118,021

Estadísticos de evaluación de la predicción (T = 2)


Error medio −5,7078
Error cuadrático medio 5,7914
Raíz del Error cuadrático medio 2,4065
Error absoluto medio 5,7078
Porcentaje de error medio −5,447
Porcentaje de error absoluto medio 5,447
U de Theil 6,0611
Proporción de sesgo, U M 0,97136
Proporción de la regresión, U R 0,028642
Proporción de la perturbación, U D 1,007e-018

7. Se considera ahora un nuevo modelo (M2) cuya primera ecuación


incluye como explicativa la variable precio retardado Pt−1 . Estudiar
los resultados de su estimación y predicción.

El nuevo modelo viene especificado en los siguientes términos:

Wt = α1 + α2 Pt + α3 Qt + α4 Pt−1 + u1t
Pt = β1 + β2 Wt + β3 Vt + u2t

Para especificar este nuevo modelo en el menú Modelo . Ecuaciones simultáneas


se introduce en la primera ecuación la variable precio retardada que se denota
por P(-1) (Gretl utiliza también la notación P_1) y se incorpora automática-
mente como variable instrumental para la estimación.
El modelo quedará entonces especificado en Gretl como:.
316 SUPUESTO 20. INDUSTRIA

equation W const P Q P ( -1)


equation P const W V
endog W P

y previamente a su estimación deberemos estudiar nuevamente su identificación.


En este caso, teniendo en cuenta las condiciones de orden y rango, se observa
que la ecuación de precios pasa a estar sobreidentificada ya que m = 2, k = 3 y
se cumple:

m’ k’ k-k’ m’-1 Conclusión


Ecuación 1 (W) 2 2 1 1 Identificada
Ecuación 2 (P) 2 1 2 1 Sobreidentificada

Puede comprobarse que se cumplen también las condiciones suficientes de rango


sobre las matrices A de coeficientes. Más concretamente, para obtener estas
matrices podemos escribir el modelo incluyendo en el primer miembro de cada
ecuación todas las variables para así identificar los coeficientes nulos:

Wt − α1 − α2 Pt − α3 Qt − 0Vt − α4 Pt−1 = u1t


−β2 Wt − β1 + Pt − 0Qt − β3 Vt − α4 Pt−1 = u2t

A partir de esta expresión, los coeficientes de las variables excluidas de la primera


ecuación dan lugar a la matriz A1 = (−β3 ) y de modo análogo los coeficientes de
las variables excluidas de la segunda ecuación dan lugar a la matriz A2 = (−α3 ).
En ambos casos se trata de escalares y por tanto su rango es 1 por lo que se
cumple la condición suficiente, rango(A) = m − 1.
Dado que el modelo M2 está sobreidentificado podemos llevar a cabo su estima-
ción por MC2E con el resultado siguiente, donde se observa que el tamaño de
muestra se ha reducido al introducir como explicativa una variable retardada:

Sistema de ecuaciones, Mínimos cuadrados en dos etapas

Ecuación 1: MC2E, usando las observaciones 1998–2016 (T = 19)


Variable dependiente: W
Instrumentos: const Q P_1 V

Coeficiente Desv. Típica Estadístico t valor p


const −35,7698 25,3697 −1,410 0,1790
P 0,518612 0,307633 1,686 0,1125
Q 1,27107 0,138112 9,203 0,0000
P_1 −0,336322 0,243279 −1,382 0,1871

Media de la vble. dep. 93,86842 D.T. de la vble. dep. 14,51069


Suma de cuad. residuos 289,5936 D.T. de la regresión 4,393887

Ecuación 2: MC2E, usando las observaciones 1998–2016 (T = 19)


317

Variable dependiente: P
Instrumentos: const Q P_1 V

Coeficiente Desv. Típica Estadístico t valor p


const 49,2450 10,4697 4,704 0,0002
W −0,828241 0,0503054 −16,46 0,0000
V 0,000863107 6,60334e–05 13,07 0,0000

Media de la vble. dep. 114,6390 D.T. de la vble. dep. 13,09356


Suma de cuad. residuos 133,9098 D.T. de la regresión 2,892985

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

15, 242 (−0, 518)


−5, 3692 7, 0479

logaritmo del determinante = 4,36429

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 5,099 [0,0239]

La salida proporciona información relativa a las ecuaciones estimadas para sa-


lario y precio y también a la matriz de covarianzas cruzadas residual (basada
en las series de residuos û1t y û2t de las dos ecuaciones estimadas), incluyendo
el contraste de diagonalidad de Breusch-Pagan que examinaremos a continua-
ción y que en este caso conduce a un nivel crítico reducido, rechazando por
tanto la hipótesis de diagonalidad o no autocorrelación entre los residuos de las
ecuaciones del modelo.

Ecuaciones simultáneas. Estimación


La estimación de los modelos multiecuacionales puede ser llevada a cabo por dis-
tintos procedimientos, y para seleccionar el más adecuado en cada caso debemos
tener en cuenta dos tipos de criterios:

1. La existencia de endogeneidad
2. La existencia de correlación cruzada entre las distintas ecuaciones del mo-
delo

Como ya hemos visto anteriormente, la endogeneidad puede ser detectada me-


diante el test de Hausman que contrasta la hipótesis nula de exogeneidad, en
cuyo caso los estimadores MCO serán consistentes y por tanto no se requiere
una estimación bietápica con variables instrumentales.
Por lo que respecta a la existencia de correlación cruzada, debemos tener en
cuenta que en un modelo multiecuacional, además de asumir para cada ecuación
318 SUPUESTO 20. INDUSTRIA

los supuestos habituales del modelo de regresión lineal, se especifica un supuesto


adicional denominado homocedasticidad interecuaciones.
Este supuesto va referido a la matriz de varianzas-covarianzas del sistema de
m ecuaciones, que se asume constante en toda la muestra y viene dada por la
expresión:

    
u1i σ11 ··· σ1m
Cov(ui ) = E  ... 
  . .. ..  = Σ
u1i ··· umi  =  .. . . 
 

umi σm1 ··· σmm


cuyos elementos pueden ser estimados a través de los residuos de las distintas
ecuaciones:

1 0
σ̂ij = û ûj
n i
Se obtiene así la denominada Matriz de covarianzas cruzada residual, sobre la
que se calcula el logaritmo del determinante como una medida de evaluación del
modelo.
El test de diagonalidad propuesto por Breusch 1980 contrasta la hipótesis
de no autocorreleación interecuaciones según la cual la matriz es diagonal y el
peso de las submatrices triangulares es nulo o despreciable (no hay autocorrela-
ciones). El estadístico de contraste viene dado por la siguiente expresión donde
aparecen los coeficientes de correlación lineal rij :
X
2
LM = rij ' χ2m(m−1)/2
i,j

Si el resultado de este estadístico es elevado y el nivel crítico bajo, rechazamos


la hipótesis de que la matriz es diagonal y concluimos que existe correlación
entre los residuos de las distintas ecuaciones. En este caso resultan adecuados
métodos de estimación denominados «de información completa» que tengan
en cuenta las correlaciones existentes en el sistema, entre ellos el método de
Mínimos Cuadrados en tres etapas (MC3E o 3SLS) propuesto en Zellner 1960.
A modo de síntesis, la tabla siguiente resume los métodos de estimación ade-
cuados para los modelos multiecuacionales teniendo en cuenta los dos criterios
anteriormente descritos.

No existen variables Existen variables


explicativas endógenas explicativas endógenas
No existe correlación
MCO MC2E o VI
interecuaciones
Existe correlación
SUR MC3E, MVIC, MVIL
interecuaciones

Como podemos observar, el método MCO sería aplicable únicamente si las ecua-
ciones que componen el sistema no están conectadas ni por la existencia de en-
dogeneidad de las variables explicativas ni por la correlación entre los errores
de las ecuaciones.
319

En el caso de que las ecuaciones aparezcan conectadas únicamente por la exis-


tencia de variables explicativas endógenas sería adecuada la estimación MC2E,
que para modelos perfectamente identificados coincidiría con el procedimiento
denominado Mínimos Cuadrados Indirectos (MCI), consistente en estimar la
forma reducida del modelo despejando posteriormente a partir de ella la forma
estructural.
Cuando además de existir variables explicativas endógenas se detectan corre-
laciones entre los errores de las distintas ecuaciones del modelo (es decir, la
matriz de correlaciones cruzadas no es diagonal), entonces los estimadores la
estimación se lleva a cabo por Mínimos Cuadrados en tres etapas (MC3E) u
otros métodos como Máxima Verosimilitud con Información Completa (MVIC)
o Máxima Verosimilitud con Información Limitada (MVIL).
Por último, la estimación SUR (Seemingly Unrelated Regressions) será adecuada
en aquellas situaciones donde no existen variables explictivas endógenas pero
las ecuaciones del modelo están conectadas por la existencia de correlaciones
cruzadas

En el caso del modelo salario-precios M2 los criterios anteriormente descritos


nos situarían en el cuarto cuadrante, ya que las variables explicativas P y W
son endógenas y además el resultado del test Breusch-Pagan conduce al rechazo
del supuesto de diagonalidad. Por lo tanto es recomendable estimar el modelo
mediante procedimientos como MC3E que tienen en cuenta la estructura de
correlación entre los residuos y proporcionan la siguiente salida:

Sistema de ecuaciones, Mínimos cuadrados en tres etapas

Ecuación 1: MC3E, usando las observaciones 1998–2016 (T = 19)


Variable dependiente: W
Instrumentos: const Q P_1 V

Coeficiente Desv. Típica z valor p


const −33,4845 22,4171 −1,494 0,1353
P 0,406017 0,247244 1,642 0,1006
Q 1,25248 0,121198 10,33 0,0000
P_1 −0,230192 0,186160 −1,237 0,2163

Media de la vble. dep. 93,86842 D.T. de la vble. dep. 14,51069


Suma de cuad. residuos 242,6282 D.T. de la regresión 3,573500

Ecuación 2: MC3E, usando las observaciones 1998–2016 (T = 19)


Variable dependiente: P
Instrumentos: const Q P_1 V

Coeficiente Desv. Típica z valor p


const 49,2450 9,60764 5,126 0,0000
W −0,828241 0,0461634 −17,94 0,0000
V 0,000863107 6,05964e–05 14,24 0,0000
320 SUPUESTO 20. INDUSTRIA

Media de la vble. dep. 114,6390 D.T. de la vble. dep. 13,09356


Suma de cuad. residuos 133,9098 D.T. de la regresión 2,654785

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

12, 770 (−0, 501)


−4, 7549 7, 0479

logaritmo del determinante = 4,21053

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 4,7729 [0,0289]

Contraste de sobreidentificación de Hansen–Sargan:


χ2 (1) = 0,933256 [0,3340]

Se observa que el método MC3E mejora la bondad de la estimación respecto a


MC2E, ya que los coeficientes de determinación de las ecuaciones de salarios y
precio aumentan ligeramente, y se reduce el logaritmo del determinante de la
matriz de covarianzas cruzadas.
El test Breusch-Pagan de diagonalidad confirma que los residuos de ambas ecua-
ciones están correlacionados y por tanto es lógico que métodos de estimación
completa como MC3E mejoren el resultado bietápico. Además en este caso, al
tratarse de un modelo sobreidentificado (ya que el número de instrumentos su-
pera el de variables endógenas) se incluye un resultado adicional que es el test de
Hansen-Sargan, cuya hipótesis nula es que todos los instrumentos son válidos.
En este caso dado que el nivel crítico es superior a 0,3 no se rechaza dicha
hipótesis y por tanto quedan validados los instrumentos.
De modo similar podríamos analizar los resultados de estimación con máxima
verosimilitud con información limitada (MVIL o LIML) y con máxima verosi-
militud con información completa (MVIC o FIML).
SUPUESTO 21

Delitos

Contenidos: Estimación MCO, Test de Chow, Endogeneidad, MC2E,


Variables instrumentales, Test de White, MCP, SEM, identificación,
MC3E, Test Breusch Pagan de diagonalidad, predicción

Nombre del fichero: delitos.gdt http://cort.as/-LMdq

Página de datos: http://cort.as/-LHjb . delitos.gdt


Página de scripts: http://cort.as/-LHjE . S21_Delitos.inp

Enunciado:

Se dispone de una muestra de corte transversal de 50 ciudades de tamaño si-


milar, para las que se ha recopilado información relativa al número de delitos
denunciados anualmente (D, miles de delitos), el nivel de protección policial (P,
índice de protección policial), el peso que representa la población marginal (M,
en tantos por mil) y la renta media mensual por hogar (R, en miles de euros)

1. Estimar un modelo lineal para explicar el comportamiento de los delitos


en función de la protección policial y la población marginal: Di = α1 +
α2 Pi + α3 Mi + u1i

2. Sabiendo que las 10 últimas ciudades de la muestra son capitales de pro-


vincia ¿deberíamos contemplar un comportamiento diferenciado de los de-
litos?

3. Analizar si la variable protección policial podría ser endógena y cómo se


vería afectado el modelo

4. Estimar un modelo lineal para explicar los niveles de protección policial


utilizando como regresores el número de delitos y la renta media mensual
por hogar de cada ciudad: Pi = β1 + β2 Di + β3 Ri + u2i

321
322 SUPUESTO 21. DELITOS

5. Estudiar la identificación y la estimación del siguiente modelo de ecuacio-


nes simultáneas:

Di = α1 + α2 Pi + α3 Mi + u1i
Pi = β1 + β2 Di + β3 Ri + u2i

6. Obtener predicciones para el número de delitos y el nivel de protección


policial en una capital de provincia donde la renta media mensual se sitúa
en 2000 euros y el 15 % de la población es considerada marginal

Solución:

1. Estimar un modelo lineal para explicar el comportamiento de los


delitos en función de la protección policial y la población marginal:
Di = α1 + α2 Pi + α3 Mi + u1i

La estimación del modelo por el método de mínimos cuadrados proporciona


la salida siguiente, donde puede apreciarse que, al contrario de lo que cabría
esperar, el coeficiente estimado para la protección policial tiene signo positivo.
Este hecho podría deberse a que la variable protección policial, que aparece como
explicativa en el modelo de delitos, previsiblemente será una variable endógena y
como consecuencia se encontrará correlacionada con las perturbaciones, dando
lugar a estimadores MCO que son sesgados (este es el denominado sesgo de
simultaneidad y puede afectar a los signos de los coeficientes y también a su
significación).

Modelo 1: MCO, usando las observaciones 1–50


Variable dependiente: delitos

Coeficiente Desv. Típica Estadístico t valor p


const −0,587795 0,192268 −3,057 0,0037
policia 0,00518691 0,00320322 1,619 0,1121
marginal 0,00899936 0,00144630 6,222 0,0000

Media de la vble. dep. 1,029100 D.T. de la vble. dep. 0,146723


Suma de cuad. residuos 0,415959 D.T. de la regresión 0,094075
R2 0,605673 R2 corregido 0,588893
F (2, 47) 36,09519 Valor p (de F ) 3,18e–10
Log-verosimilitud 48,78284 Criterio de Akaike −91,56568
Criterio de Schwarz −85,82961 Hannan–Quinn −89,38136

Como ya hemos comentado en supuestos anteriores, otra de las posibles razones


para el cambio de signo en los coeficientes estimados es la presencia de mul-
ticolinealidad. Sin embargo en este caso no parece que exista este problema,
ya que los factores de inflación de varianza son inferiores a 10 y el diagnóstico
de Belsley-Kuh-Welsch (BKW) no detecta ninguna relación entre las variables
explicativas.
323

Factores de inflación de varianza (VIF)


Mínimo valor posible = 1.0
Valores mayores que 10.0 pueden indicar un problema de colinealidad
policia 1,388
marginal 1,388
VIF(j) = 1/(1 - $R(j)^2$), donde R(j) es el coeficiente de correlación múltiple
entre la variable j y las demás variables independientes
Diagnósticos de colinealidad de Belsley-Kuh-Welsch:
--- Proporciones de la varianza ---
lambda cond const policia marginal
2,993 1,000 0,001 0,001 0,000
0,004 26,905 0,424 0,854 0,027
0,003 34,594 0,576 0,146 0,972
lambda = eigenvalues of inverse covariance matrix
cond = Índice de condición
Nota: Las columnas de proporciones de la varianza suman 1.0
According to BKW, cond >= 30 indicates "strong" near linear dependence,
and cond between 10 and 30 "moderately strong". Parameter estimates whose
variance is mostly associated with problematic cond values may themselves
be considered problematic.
Count of condition indices >= 30: 1
Variance proportions >= 0.5 associated with cond >= 30:
const marginal
0,576 0,972
Count of condition indices >= 10: 2
Variance proportions >= 0.5 associated with cond >= 10:
const policia marginal
0,999 0,999 1,000

Tampoco se detectan problemas en el proceso de validación del modelo, dado que


los contrastes habituales proporcionan niveles críticos elevados, tal y como puede
verse en los resúmenes de las salidas del test RESET de Ramsey, el contraste
de homocedasticidad de White y el test de normalidad de Doornik-Hansen.

Contraste de heterocedasticidad de White (cuadrados sólo) -


Hipótesis nula: [No hay heterocedasticidad]
Estadístico de contraste: LM = 7,46388
con valor p = P(Chi-cuadrado(4) > 7,46388) = 0,113313
Contraste de heterocedasticidad de Breusch-Pagan -
Hipótesis nula: [No hay heterocedasticidad]
Estadístico de contraste: LM = 0,815448
con valor p = P(Chi-cuadrado(2) > 0,815448) = 0,665162
Contraste de heterocedasticidad de Breusch-Pagan (variante robusta) -
Hipótesis nula: [No hay heterocedasticidad]
Estadístico de contraste: LM = 1,37949
324 SUPUESTO 21. DELITOS

con valor p = P(Chi-cuadrado(2) > 1,37949) = 0,501704


Contraste de normalidad de los residuos -
Hipótesis nula: [El error tiene distribución Normal]
Estadístico de contraste: Chi-cuadrado(2) = 4,27082
con valor p = 0,118196

Nota:
Como se puede observar, en la salida del modelo estimado en este caso no se
encuentra el test de Durbin-Watson, debido a que no tendría sentido contrastar
la existencia de autocorrelación de orden 1 en esta muestra de ciudades (que
aparecerán ordenadas según algún criterio arbitrario como el orden alfabético,
el distrito postal, . . . .).
Si bien Gretl no contempla los contrastes de autocorrelación en archivos de
corte transversal como el considerado en este caso, existen situaciones donde las
observaciones podrían aparecer conectadas espacialmente, por lo que algunas
funciones de Gretl permiten realizar contrastes específicos como el de Moran.
Dado que las técnicas de econometría espacial han alcanzado un gran auge
durante los últimos años es previsible que aumente la disponibilidad de opciones
de este tipo.

2. Sabiendo que las 10 últimas ciudades de la muestra son capitales de


provincia ¿deberíamos contemplar un comportamiento diferenciado
de los delitos?

Para contrastar la estabilidad estructural se aplica, a partir de la salida de la


regresión anterior, el test de Chow, (Contrastes . Contraste de Chow) indicando
que la ruptura podría producirse en la observación 41 (ya que las últimas 10
observaciones corresponden a las capitales de provincia).

El programa Gretl realiza este contraste mediante una regresión auxiliar en la


que introduce la variable splitdum que es una dummy con valor unitario en
las últimas 10 observaciones, capitales de provincia y también las variables de
interacción entre dicha dummy y las explicativas protección policial y población
marginal. Tal y como muestra la salida, ninguna de estas variables añadidas al
modelo resulta significativa y el nivel crítico del contraste es elevado por lo que
no se rechaza el supuesto de estabilidad estructural y se concluye que los delitos
en las capitales de provincia no tienen un comportamiento diferenciado del resto
de ciudades de la muestra.

Regresión aumentada para el contraste de Chow


MCO, usando las observaciones 1960-2009 (T = 50)
Variable dependiente: delitos
325

Coeficiente Desv. Típica Estadístico t valor p


const −0,657888 0,205957 −3,194 0,0026 ***
policia 0,00581984 0,00356755 1,631 0,1100
marginal 0,00929914 0,00162222 5,732 8,34e-07 ***
Dummy 0,372063 0,682611 0,5451 0,5885
Du_policia −0,00562014 0,00873421 −0,6435 0,5233
Du_marginal −0,000705147 0,00424483 −0,1661 0,8688

Suma de cuad. residuos 0,396791 D.T. de la regresión 0,094963


R-cuadrado 0,623845 R-cuadrado corregido 0,581100
F(5, 44) 14,59459 Valor p (de F) 1,97e-08
Log-verosimilitud 49,96231 Criterio de Akaike −87,92462
Criterio de Schwarz −76,45249 Crit. de Hannan-Quinn −83,55597

Contraste de Chow de diferencia estructural con respecto a Dummy


F(3, 44) = 0,708538 con valor p 0,5521

Nota:
Otra opción para aplicar este test sería definir una variable dicotómica con valor
unitario en las capitales de provincia:
series c a p i t a l _ p r o v i n c i a =( obs >40)

y posteriormente llevar a cabo el test de Chow, eligiendo la variable generada


anteriormente en la opción Nombre de variable ficticia a utilizar

3. Analizar si la variable protección policial podría ser endógena y


cómo se vería afectado el modelo

Mediante el menú de Gretl Modelo . Variables instrumentales . MC2E, podemos


estimar el mismo modelo anterior mediante variables instrumentales, contras-
tando si éstas son necesarias para solucionar la endogeneidad o si por el contrario
los estimadores MCO serían consistentes (hipótesis nula del test de Hausman).

La estimación por mínimos cuadrados bietápicos (MC2E) o variables instru-


mentales (VI) requiere introducir, además de la variable dependiente (delitos)
y las explicativas (policía y marginal), los instrumentos disponibles, que serán
variables predeterminadas, en este caso la población marginal y la renta:
326 SUPUESTO 21. DELITOS

Nota:
Como ya hemos descrito Variables-Instrumentales (p.222), es necesario tener en
cuenta que para la estimación por MC2E resulta imprescindible introducir sufi-
cientes variables instrumentales ya que en otro caso no se satisface la condición
de orden para la identificación SEM-Identificacion (p.311).
Así, si en la entrada anterior incluyésemos únicamente la variable instrumental
población marginal (omitiendo la renta), obtendríamos un mensaje que recuerda
la necesidad de incluir al menos un instrumento adicional.

El resultado de la estimación MC2E presenta diferencias respecto a la obtenida


mediante MCO ya que ha cambiado el signo del coeficiente para la protección
policial y ha mejorado su significación.

Modelo 2: MC2E, usando las observaciones 1–50


Variable dependiente: delitos
Mediante Instrumentos: policia
Instrumentos: const renta marginal

Coeficiente Desv. Típica Estadístico t valor p


const −0,223262 0,266919 −0,8364 0,4071
policia −0,0143338 0,00573613 −2,499 0,0160
marginal 0,0136609 0,00213858 6,388 0,0000

Media de la vble. dep. 1,029100 D.T. de la vble. dep. 0,146723


Suma de cuad. residuos 0,744637 D.T. de la regresión 0,125870
R2 0,363728 R2 corregido 0,336652
F (2, 47) 22,55282 Valor p (de F ) 1,36e–07
Log-verosimilitud −9,058939 Criterio de Akaike 24,11788
Criterio de Schwarz 29,85395 Hannan–Quinn 26,30221

Contraste de Hausman –
327

Hipótesis nula: [Los estimadores de MCO son consistentes]


Estadístico de contraste asintótico: χ2 (1) = 34606,6
con valor p = 0
Contraste de Instrumento débil –
First-stage F (1, 47) = 59,3952

Nota:
Podemos reconstruir de forma intuitiva las dos etapas de este resultado de
MC2E. En una primera etapa se estima la variable protección policial en función
de las VI renta y población marginal, y partiendo de esta ecuación estimada se
puede guardar la variable policia_estimada.
A continuación, en la segunda etapa se estiman los delitos en función de la
variable previamente almacenada como policia_estimada y la población margi-
nal, llegando a estimadores coincidentes con los obtenidos mediante el método
de VI-MC2E
ETAPA 1: Policía en función de VI renta y marginal

Modelo 3: MCO, usando las observaciones 1–50


Variable dependiente: policia

Coeficiente Desv. Típica Estadístico t valor p


const 1,86342 5,94499 0,3134 0,7553
marginal 0,231680 0,0371617 6,234 0,0000
renta 11,3049 1,46687 7,707 0,0000

Media de la vble. dep. 54,12900 D.T. de la vble. dep. 4,943585


Suma de cuad. residuos 381,0261 D.T. de la regresión 2,847269
R2 0,681819 R2 corregido 0,668279
F (2, 47) 50,35727 Valor p (de F ) 2,06e–12
Log-verosimilitud −121,7180 Criterio de Akaike 249,4361
Criterio de Schwarz 255,1722 Hannan–Quinn 251,6204

ETAPA 2: Delitos en función de marginal y policía estimada en la etapa an-


terior

Modelo 4: MCO, usando las observaciones 1–50


Variable dependiente: delitos

Coeficiente Desv. Típica Estadístico t valor p


const −0,223262 0,180425 −1,237 0,2221
marginal 0,0136609 0,00144558 9,450 0,0000
policia_etapa1 −0,0143338 0,00387736 −3,697 0,0006

Media de la vble. dep. 1,029100 D.T. de la vble. dep. 0,146723


Suma de cuad. residuos 0,340234 D.T. de la regresión 0,085082
R2 0,677460 R2 corregido 0,663735
F (2, 47) 49,35910 Valor p (de F ) 2,83e–12
Log-verosimilitud 53,80666 Criterio de Akaike −101,6133
Criterio de Schwarz −95,87725 Hannan–Quinn −99,42899
328 SUPUESTO 21. DELITOS

Conviene tener en cuenta que el modelo de la segunda etapa proporciona los


estimadores MC2E, pero sin embargo no sucede lo mismo con las desviacio-
nes típicas (matriz de varianzas-covarianzas de los estimadores) y los contrastes
de significación. Ello se debe a que en el modelo que hemos obtenido paso a
paso aparecen las desviaciones típicas y contrastes asociados a la segunda eta-
pa, mientras la salida proporcionada por Gretl muestra las desviaciones típicas
correctas asociadas a la estimación MC2E.
Tampoco coinciden los resultados del coeficiente de determinación, ya que en
el modelo reconstruido aparece el valor de R2 de la segunda etapa mientras la
estimación de Gretl por MC2E calcula el coeficiente de determinación como el
cuadrado de la correlación entre la variable dependiente y la variable con los
valores ajustados.

Además, la salida de la estimación MC2E incluye el resultado del test de Haus-


man, cuya hipótesis nula es la consistencia de los estimadores (o equivalente-
mente, la ausencia de correlación entre las variables explicativas y las perturba-
ciones). En este caso el nivel crítico es bajo, por lo que se rechaza este supuesto,
desaconsejando por tanto la estimación por MCO.
También se incluye en la salida el test de instrumento débil Contraste-instrumento-
debil (p.225) cuya hipótesis es la nulidad de los coeficientes de las variables
instrumentales de la primera etapa. En este caso el resultado obtenido en el
estadístico F es elevado y permite rechazar esa hipótesis al 10 %, confirmando
así la adecuación de los instrumentos.

Nota:
Podríamos reconstruir estos resultados de los contrastes de Hausman y de instru-
mentos débiles, aprovechando la estimación de la protección policial en función
de la renta y la población marginal.
Así, para obtener el test de Hausman podemos aprovechar la estimación anterior
de la ecuación reducida de protección policial, a partir de la cual se almacenan
los residuos. A continuación se estima el modelo de delitos añadiendo entre las
explicativas los residuos previamente almacenados.
Si la protección policial fuera exógena (y por tanto incorrelada con los residuos)
entonces éstos no serían significativos en la ecuación de las delitos. En cambio
si, como sucede en este caso, dichos residuos resultan significativos (se rechaza
la nulidad de su coeficiente) detectamos endogeneidad de la protección policial.
Script:

ols policia const marginal renta


series r e s i d u o s _ p o l i c i a _ E t a p a 1 = $uhat
ols delitos 0 marginal policia r e s i d u o s _ p o l i c i a _ E t a p a 1

Modelo 5: MCO, usando las observaciones 1–50


329

Variable dependiente: delitos

Coeficiente Desv. Típica Estadístico t valor p


const −0,223262 0,00765942 −29,15 0,0000
marginal 0,0136609 6,13680e–005 222,6 0,0000
policia −0,0143338 0,000164602 −87,08 0,0000
residuos_policia_Etapa1 0,0441896 0,000247655 178,4 0,0000

Media de la vble. dep. 1,029100 D.T. de la vble. dep. 0,146723


Suma de cuad. residuos 0,000600 D.T. de la regresión 0,003612
R2 0,999431 R2 corregido 0,999394
F (3, 46) 26936,95 Valor p (de F ) 1,28e–74
Log-verosimilitud 212,3133 Criterio de Akaike −416,6267
Criterio de Schwarz −408,9786 Hannan–Quinn −413,7142

Además, sobre la salida de la primera etapa se puede contrastar la validez de


los instrumentos mediante el contraste F de restricciones. Más concretamente,
la restricción sería en este caso la nulidad del coeficiente de la renta, que es la
variable instrumental que no aparece en la ecuación como explicativa (la variable
marginal sí aparece en la ecuación de delitos).

Restricción:
b[renta] = 0
Estadístico de contraste: F(1, 47)=59,3952, con valor p=6,99895e-010
Estimaciones restringidas:
Coeficiente Desv. típica Estadístico t valor p
-----------------------------------------------------------------
const 18,6741 8,23368 2,268 0,0279 **
marginal 0,238802 0,0553098 4,318 7,86e-05 ***
renta 0,000000 0,000000 NA NA
Desviación típica de la regresión = 4,23905

Script:

ols policia const marginal renta


restrict
b [ renta ]=0
end restrict

4. Estimar un modelo lineal para explicar los niveles de protección


policial utilizando como regresores el número de delitos y la renta
media mensual por hogar de cada ciudad: Pi = β1 + β2 Di + β3 Ri + u2i

La estimación mínimo cuadrática de este modelo aparece recogida a continuación


y muestra que las variables delitos y renta son significativas para explicar el
330 SUPUESTO 21. DELITOS

nivel de protección policial. Se observa además que en este caso la capacidad


explicativa es elevada.

A través de los contrastes habituales sobre el modelo se observa que no hay pro-
blemas de especificación (test RESET de Ramsey) pero sí de heterocedasticidad
(test de White).

Modelo 6: MCO, usando las observaciones 1–50


Variable dependiente: policia

Coeficiente Desv. Típica Estadístico t valor p


const 2,54364 1,17206 2,170 0,0351
delitos 26,2831 0,777663 33,80 0,0000
renta 15,5245 0,411355 37,74 0,0000

Media de la vble. dep. 54,12900 D.T. de la vble. dep. 4,943585


Suma de cuad. residuos 27,51072 D.T. de la regresión 0,765072
R2 0,977027 R2 corregido 0,976049
F (2, 47) 999,4302 Valor p (de F ) 3,08e–39
Log-verosimilitud −56,01075 Criterio de Akaike 118,0215
Criterio de Schwarz 123,7576 Hannan–Quinn 120,2058

Contraste de especificación RESET –


Hipótesis nula: [La especificación es adecuada]
Estadístico de contraste: F (2, 45) = 0,17892
con valor p = P (F (2, 45) > 0,17892) = 0,836765
Contraste de heterocedasticidad de White –
Hipótesis nula: [No hay heterocedasticidad]
Estadístico de contraste: LM = 11,3382
con valor p = P (χ2 (5) > 11,3382) = 0,0450721

A la vista del resultado del test de White podemos llevar a cabo la estimación
del modelo incorporando la matriz de varianzas-covarianzas robusta. Como ya
hemos descrito anteriormente Estimacion-Robusta (p.238) esta corrección cal-
cula adecuadamente la matriz de varianzas covarianzas de los estimadores pero
no soluciona el problema de heterocedasticidad:

Modelo 7: MCO, usando las observaciones 1–50


Variable dependiente: policia
Desviaciones típicas robustas ante heterocedasticidad, variante HC1

Coeficiente Desv. Típica Estadístico t valor p


const 2,54364 0,866736 2,935 0,0052
delitos 26,2831 0,577597 45,50 0,0000
renta 15,5245 0,301308 51,52 0,0000
331

Media de la vble. dep. 54,12900 D.T. de la vble. dep. 4,943585


Suma de cuad. residuos 27,51072 D.T. de la regresión 0,765072
R2 0,977027 R2 corregido 0,976049
F (2, 47) 1878,552 Valor p (de F ) 1,44e–45
Log-verosimilitud −56,01075 Criterio de Akaike 118,0215
Criterio de Schwarz 123,7576 Hannan–Quinn 120,2058

En este caso concreto, se observa que la corrección afecta a las desviaciones


típicas de los estimadores y por tanto a los valores del estadístico t que aumentan
respecto a los del modelo estimado sin corrección HAC.

Nota:
Tal y como hemos visto en supuestos anteriores, la estimación con varianzas
robustas puede alterar los resultados de los contrastes de significación individual
en cualquiera de los sentidos, de modo que variables significativas en el modelo
inicial pueden no serlo en el modelo con desviaciones típicas robustas (HAC) y
viceversa.

Con el objetivo de resolver el problema de heterocedasticidad detectado en el


modelo llevamos a cabo su estimación por MCP. Para decidir qué pesos resultan
adecuados es recomendable observar las regresiones auxiliares de los contrastes
y así el test de White proporciona la siguiente salida:
Contraste de heterocedasticidad de White
MCO, usando las observaciones 1-50
Variable dependiente: û2

Coeficiente Desv. Típica Estadístico t valor p


const −23,6694 9,04289 −2,617 0,0121 **
delitos 24,1895 12,4475 1,943 0,0584 *
renta 16,0960 6,15449 2,615 0,0122 **
sq_delitos −10,0061 4,89492 −2,044 0,0469 **
X2_X3 −2,63663 2,72479 −0,9676 0,3385
sq_renta −4,29289 1,58179 −2,714 0,0095 ***

R-cuadrado = 0,226764

Estadístico de contraste: T R2 = 11,338185,


con valor p = P(Chi-cuadrado(5) > 11,338185) = 0,045072

En esta salida observamos que la variable más significativa en el modelo auxiliar


(sobre û2i ) es la renta al cuadrado, y su coeficiente tiene signo positivo, por
lo que podemos asumir que la heterocedasticidad sigue un esquema del tipo:
σi2 = σ 2 Xi2
Siguiendo el método descrito en MCP (p. en la página 263) nuestro objetivo
sería encontrar una variable de ponderación Wi tal que:
332 SUPUESTO 21. DELITOS

2
E [Wi ui ] = σ 2 ⇒ Wi2 E u2i = Wi2 σi2 = Wi2 σ 2 Xi2 = σ 2
 

1
Entonces: Wi2 Xi2 = 1 por lo tanto: Wi =
Xi
Así pues, la variable peso se genera como peso=1/renta y se introduce como
ponderación en la estimación MCP

Modelo 10: MC.Ponderados, usando las observaciones 1–50


Variable dependiente: policia
Variable utilizada como ponderación: peso

Coeficiente Desv. Típica Estadístico t valor p


const 2,70307 1,13976 2,372 0,0219
delitos 26,1404 0,769209 33,98 0,0000
renta 15,5165 0,403795 38,43 0,0000

Estadísticos basados en los datos ponderados:

Suma de cuad. residuos 17,65991 D.T. de la regresión 0,612979


R2 0,977811 R2 corregido 0,976867
F (2, 47) 1035,589 Valor p (de F ) 1,36e–39
Log-verosimilitud −44,92878 Criterio de Akaike 95,85757
Criterio de Schwarz 101,5936 Hannan–Quinn 98,04189

Estadísticos basados en los datos originales:

Media de la vble. dep. 54,12900 D.T. de la vble. dep. 4,943585


Suma de cuad. residuos 27,53113 D.T. de la regresión 0,765355

Por su parte, la corrección automática de heterocedasticidad disponible en Gretl


Modelo . Otros modelos lineales . Con corrección de heterocedasticidad propor-
ciona un resultado similar (aunque la diferencia es pequeña, es preferible en este
caso no seleccionar la opción «La ecuación de la varianza incluye términos al
cuadrado»)

Modelo 13: Con corrección de heterocedasticidad, usando las observaciones


1–50
Variable dependiente: policia
Sin términos al cuadrado en la ecuación de la varianza
Coeficiente Desv. Típica Estadístico t valor p
const 2,60863 1,10325 2,364 0,0222
delitos 26,3460 0,769956 34,22 0,0000
renta 15,4420 0,400081 38,60 0,0000

Estadísticos basados en los datos ponderados:


333

Suma de cuad. residuos 205,5839 D.T. de la regresión 2,091441


R2 0,978238 R2 corregido 0,977312
F (2, 47) 1056,381 Valor p (de F ) 8,63e–40
Log-verosimilitud −106,2927 Criterio de Akaike 218,5854
Criterio de Schwarz 224,3215 Hannan–Quinn 220,7697

Estadísticos basados en los datos originales:

Media de la vble. dep. 54,12900 D.T. de la vble. dep. 4,943585


Suma de cuad. residuos 27,54650 D.T. de la regresión 0,765569

Comparando la salida de la opción automática de heterocedasticidad con el


modelo estimado previamente utilizando nuestra propuesta de ponderación, ob-
servamos que si bien los resultados son muy similares, la suma de residuos cua-
dráticos es ligeramente más elevada en este caso por lo que resultan preferibles
las ponderaciones que hemos propuesto anteriormente.
Sobre el modelo estimado por MCP es recomendable llevar a cabo el contraste de
normalidad (una de las pocas opciones disponibles desde la salida de modelos)
que proporciona en este caso un nivel crítico suficiente elevado para no rechazar
la normalidad de los residuos.

Contraste de normalidad de los residuos -

Hipótesis nula: [El error tiene distribución Normal]


Estadístico de contraste: Chi-cuadrado(2) = 1,65371
con valor p = 0,437422

5. Estudiar la identificación y la estimación del siguiente modelo de


ecuaciones simultáneas:

Di = α1 + α2 Pi + α3 Mi + u1i
Pi = Pi = β1 + β2 Di + β3 Ri + u2i

El modelo de ecuaciones simultáneas se especifica en Gretl desde la opción Mo-


delo . Ecuaciones simultáneas introduciendo la información siguiente:

equation delitos const marginal policia


equation policia const delitos renta
endog delitos policia

Para elegir el método de estimación adecuado debemos llevar a cabo el análisis


de la identificación de este sistema, donde tanto los delitos como la protección
policial son variables endógenas (m=2) mientras la población marginal y la renta
son predeterminadas (k=2).
Analizando separadamente la condición de orden de la identificabilidad en las
dos ecuaciones se tiene:
334 SUPUESTO 21. DELITOS

m’ k’ k-k’ m’-1 Conclusión


Ecuación 1 (D) 2 1 1 1 Identificada
Ecuación 2 (P) 2 1 1 1 Identificada

Así pues, ambas ecuaciones cumplen la condición necesaria y dado que la condi-
ción suficiente en este caso sería inmediata (al ser el rango de la matriz A igual
a 1) podríamos concluir que el sistema está identificado.

Nota:
Para analizar la condición suficiente de rango es recomendable escribir el sistema
mediante la siguiente expresión, que permite identificar fácilmente los coeficien-
tes de las variables excluidas de cada ecuación:

Di − α1 − α2 Pi − α3 Mi − 0Ri = u1i
−β2 Di −β1 + Pi − 0Mi − β3 Ri = u2i

Por lo tanto se tiene para la primera ecuación A1 = (−β3 ) y para la segunda


A2 = (−α3 ), cumpliéndose en ambos casos la condición suficiente de rango
(rango(A1 ) = rango(A2 ) = m − 1 = 1).

La estimación del modelo SEM podría ser llevada a cabo mediante la opción de
mínimos cuadrados en dos etapas (MC2E o TSLS) que proporciona el resultado
siguiente:

Sistema de ecuaciones, Mínimos cuadrados en dos etapas

Ecuación 1: MC2E, usando las observaciones 1–50


Variable dependiente: delitos
Instrumentos: const marginal renta

Coeficiente Desv. Típica Estadístico t valor p


const −0,223262 0,266919 −0,8364 0,4071
marginal 0,0136609 0,00213858 6,388 0,0000
policia −0,0143338 0,00573613 −2,499 0,0160

Media de la vble. dep. 1,029100 D.T. de la vble. dep. 0,146723


Suma de cuad. residuos 0,744637 D.T. de la regresión 0,125870

Ecuación 2: MC2E, usando las observaciones 1–50


Variable dependiente: policia
Instrumentos: const marginal renta

Coeficiente Desv. Típica Estadístico t valor p


const 7,46431 1,70515 4,378 0,0001
delitos 22,4060 1,19406 18,76 0,0000
renta 14,9356 0,519868 28,73 0,0000
335

Media de la vble. dep. 54,12900 D.T. de la vble. dep. 4,943585


Suma de cuad. residuos 42,05947 D.T. de la regresión 0,945982

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

0, 014893 (0, 994)


0, 11121 0, 84119

logaritmo del determinante = −8,74254

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 49,3628 [0,0000]

Esta salida identifica las variables utilizadas como instrumentos (que serán las
predeterminadas, marginal y renta, además de la constante) y proporciona las
estimaciones de los modelos lineales de delitos y policía, donde todos los regre-
sores son significativos. Se observa que ambas ecuaciones son bastante diferentes
en cuanto a capacidad explicativa, ya que el coeficiente de determinación es bajo
en la ecuación de delitos y bastante elevado en la de policía.
Cabe señalar además que las estimaciones de los modelos incluyen información
adicional relativa a la matriz de covarianzas de los residuos cruzados (basada
en las series de residuos û1t y û2t a las que se puede acceder desde la salida
del modelo estimado). Más concretamente, desde la opción Guardar . Residuos
de la ecuación 1 podríamos almacenar la serie u1 (residuos de la ecuación de
delitos) y de modo similar se guardaría la serie u2 (residuos de la ecuación de
policía).

Nota:
Una vez guardadas las series de residuos u1 y u2 podemos reconstruir los resul-
tados de la salida MC2E con las siguientes instrucciones:

set verbose off


n = nobs ( u1 )
var_u1 = sum ( u1 ^2) / n #var_u1=v a r ( u1 ) ∗ ( n−1)/n
var_u2 = sum ( u2 ^2) / n
cov_u1u2 = sum ( u1 * u2 ) / n #cov_u1u2=c o v ( u1 , u2 ) ∗ ( n−1)/n
correl = cov / sqrt ( var_u1 * var_u2 ) #c o r r e l =c o r r ( u1 , u2 )
logdet = log ( var_u1 * var_u2 - cov_u1u2 ^2)
LM = n * correl ^2
pLM = pvalue (X ,1 , LM )
printf " Log del determinante de la matríz de covarianzas cruzadas
residual = %g \ n " , logdet
print " Test de Breusch Pagan de diagonalidad "
printf " Estadístico LM= %g , valor p= %g \ n " ,LM , pLM
set verbose on
336 SUPUESTO 21. DELITOS

El resultado final de esta salida proporciona el logaritmo del determinante de


la matriz de covarianzas cruzadas (resultado que interesa minimizar) y también
el test de diagonalidad de Breusch-Pagan (p.318), que en este caso conduce al
rechazo de la hipótesis de diagonalidad de la matriz, ya que detecta evidencia
de correlación entre los residuos de ambas ecuaciones.
A la vista de esta conclusión sería recomendable estimar el modelo mediante
algún método de información completa como MC3E. Sin embargo, dado que se
trata de un sistema exactamente identificado, la estimación coincidirá con la
anteriormente obtenida mediante MC2E.

Sistema de ecuaciones, Mínimos cuadrados en tres etapas

Ecuación 1: MC3E, usando las observaciones 1–50


Variable dependiente: delitos
Instrumentos: const marginal renta

Coeficiente Desv. Típica z valor p


const −0,223262 0,258788 −0,8627 0,3883
marginal 0,0136609 0,00207343 6,589 0,0000
policia −0,0143338 0,00556139 −2,577 0,0100

Media de la vble. dep. 1,029100 D.T. de la vble. dep. 0,146723


Suma de cuad. residuos 0,744637 D.T. de la regresión 0,122036

Ecuación 2: MC3E, usando las observaciones 1–50


Variable dependiente: policia
Instrumentos: const marginal renta

Coeficiente Desv. Típica z valor p


const 7,46431 1,65321 4,515 0,0000
delitos 22,4060 1,15768 19,35 0,0000
renta 14,9356 0,504030 29,63 0,0000

Media de la vble. dep. 54,12900 D.T. de la vble. dep. 4,943585


Suma de cuad. residuos 42,05947 D.T. de la regresión 0,917164

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

0, 014893 (0, 994)


0, 11121 0, 84119

logaritmo del determinante = −8,74254

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 49,3628 [0,0000]
337

6. Obtener predicciones para el número de delitos y el nivel de protec-


ción policial en una capital de provincia donde la renta media mensual
se sitúa en 2000 euros y el 15 % de la población es considerada mar-
ginal

Dado que en apartados anteriores hemos confirmado que que el hecho de ser
capital de provincia no afecta al comportamiento de los delitos no será necesario
introducir una variable dummy en nuestro modelo.
Para obtener las predicciones solicitadas debemos añadir a nuestra base de datos
una observación adicional donde se introducen los datos disponibles de renta me-
dia (2, por estar expresada esta variable en miles de euros) y población marginal
(150, por venir expresada en tantos por mil).
Una vez incorporada esta información a la base de datos, partiendo del modelo
estimado anteriormente por MC2E solicitamos la opción Análisis . Predicciones,
para las variables delitos y protección policial, obteniendo unas previsiones de
977 delitos anuales y un índice de protección policial de 59,23.
La opción de predicción facilita además intervalos de confianza para ambas
variables y las correspondientes representaciones gráficas (en este caso al tratarse
de datos temporales debemos ser cautos con el gráfico de líneas, que no indica
ninguna evolución)
IC al 95 % para delitos: entre 811 y 1143 delitos anuales
IC al 95 % para protección policial: índice entre 53,67 y 64,78

Nota:
En este caso la salida de Gretl no incluye medidas de evaluación de las prediccio-
nes, ya que no disponemos de los valores observados de las variables endógenas
y por tanto se trata de una predicción ex-ante, para la que (a diferencia de
lo que sucede en las predicciones ex-post) no es posible estudiar los errores de
predicción.
338 SUPUESTO 21. DELITOS
SUPUESTO 22

SEM_Demanda

Contenidos: Estimación MCO, Validación, Test de Chow, Endogenei-


dad, MC2E, Variables instrumentales, Test de White, MCP, SEM,
identificación, MC3E, Test Breusch Pagan de diagonalidad, predic-
ción

Nombre del fichero: sem_demanda.gdt http://cort.as/-LMe3

Página de datos: http://cort.as/-LHjb . sem_demanda.gdt


Página de scripts: http://cort.as/-LHjE . S22_SEM_demanda.inp

Enunciado:

Se dispone de una base de datos con información anual relativa a las macro-
magnitudes Consumo, Inversión, Gasto Público y Renta

1. Estimar un modelo uniecuacional para el consumo según la función Key-


nesiana Ct = α1 + α2 Rt + ut
2. Se propone el siguiente modelo de ecuaciones simultáneas:
Ct = α1 + α2 Ct−1 + α3 Rt + u1t
It = β1 + β2 Rt−1 + u2t
Rt = Ct + It + Gt
Llevar a cabo su identificación y estimar el modelo por MC2E
3. Analizar si otros métodos de estimación son recomendables en este caso
4. Obtener predicciones del consumo, la inversión y la renta bajo dos supues-
tos:
a) el gasto público sigue su tendencia lineal durante dos años
b) el crecimiento del gasto público es del 3 % anual

339
340 SUPUESTO 22. SEM_DEMANDA

Solución:

1. Estimar un modelo uniecuacional para el consumo según la función


Keynesiana Ct = α1 + α2 Rt + ut

Acudiendo a la opción habitual de modelos se estima por mínimos cuadrados el


modelo siguiente, correspondiente a la función de consumo keynesiana:

Modelo 1: MCO, usando las observaciones 1998–2018 (T = 21)


Variable dependiente: consumo

Coeficiente Desv. Típica Estadístico t valor p


const 0,656664 0,442724 1,483 0,1544
renta 0,622757 0,0160397 38,83 0,0000

Media de la vble. dep. 17,61048 D.T. de la vble. dep. 2,923220


Suma de cuad. residuos 2,127268 D.T. de la regresión 0,334606
R2 0,987553 R2 corregido 0,986898
F (1, 19) 1507,456 Valor p (de F ) 1,45e–19
Log-verosimilitud −5,756030 Criterio de Akaike 15,51206
Criterio de Schwarz 17,60110 Hannan–Quinn 15,96544
ρ̂ 0,571334 Durbin–Watson 0,759420

Si bien el coeficiente de determinación es elevado se observan problemas de


especificación en el modelo a través del test RESET de Ramsey cuyo nivel
crítico es reducido. Además, existen claras sospechas de que la variable renta,
que aparece como explicativa, podría tener carácter endógeno, por lo cual estaría
correlacionada con el componente aleatorio del modelo u, y en consecuencia
introduciría problemas de inconsistencia en la estimación del modelo.
Por lo que respecta a los residuos, los contrastes habituales muestran que no
existen problemas de heterocedasticidad, pero en cambio sí se detecta autoco-
rrelación positiva de primer orden (el estadístico Durbin Watson presenta un
valor reducido, 0,75 que lleva asociado un nivel crítico p=0,0001):

Contraste de especificación RESET -


Hipótesis nula: [La especificación es adecuada]
Estadístico de contraste: F(2, 17) = 4,77657
con valor p = P(F(2, 17) > 4,77657) = 0,0225855
Contraste de heterocedasticidad de White -
Hipótesis nula: [No hay heterocedasticidad]
Estadístico de contraste: LM = 2,85426
con valor p = P(Chi-cuadrado(2) > 2,85426) = 0,239997
Contraste de especificación RESET -
Estadístico de Durbin-Watson = 0,75942
valor p = 0,000190018
341

Para analizar si existe un problema de endogeneidad en la renta podríamos esti-


mar el modelo mediante variables instrumentales y observar el test de Hausman.
Como variable instrumental podemos considerar el gasto público, variable exóge-
na que previsiblemente estará correlacionada con la renta, además de presentar
menos errores de medida.

Contrastes sobre instrumentos


Existen varios contrastes para analizar la idoneidad de los instrumentos utiliza-
dos en las estimaciones de varias etapas.

El test de debilidad de instrumentos asume la hipótesis de perturbaciones


independientes e idénticamente distribuídas y contrasta la debilidad de las varia-
bles instrumentales, equivalente a la nulidad de los coeficientes de estas variables
en la primera etapa de la estimación MC2E. La debilidad de los instrumentos
podría originar serios problemas en la regresión, ya que daría lugar a estima-
dores sesgados y/o tamaño incorrecto de los contrastes basados en la matriz de
covarianzas, lo cual conduciría a tasas de rechazo excesivamente elevadas.
El estadístico del test de debilidad de instrumentos es la F de Snedecor de la
estimación de la primera etapa (siempre que el modelo contenga sólo un regresor
endógeno) y los valores críticos se basan en simulaciones por Monte Carlo.

Por su parte, el test de Sargan , que se incluye en la estimación de ecuaciones


sobreidentificadas, contrasta la hipótesis nula según la cual todos los instru-
mentos son válidos (las restricciones de sobreidentificación son válidas). Este
test surge como consecuencia de la preocupación de Sargan por posibles errores
de medición de las variables predeterminadas del modelo, que impiden su con-
sideración como variables instrumentales (al no estar incorreladas en ese caso
con la perturbación aleatoria).
El test de Sargan verifica la validez de los instrumentos, pero se ve afectado por
el número de variables instrumentales y también por la presencia de heteroce-
dasticidad (en este caso es más recomendable aplicar el test de Hansen-Sargan).
El desarrollo del test de Sargan se basa en una regresión auxiliar de los residuos
de MC2E sobre la lista completa de instrumentos, contrastando la nulidad de sus
coeficientes. El estadístico asociado sigue una distribución chi-cuadrado, cuyos
grados de libertad indican el número de instrumentos que exceden a los necesa-
rios. Si esta regresión auxiliar tiene un nivel explicativo elevado (y por tanto el
nivel crítico asociado es bajo) se debería rechazar la hipótesis de idoneidad de
los instrumentos, generalmente debido a una sobreidentificación.

La salida obtenida en este caso incluye los resultados de los contrastes de Haus-
man y de instrumento débil que proporcionan información de interés. El test
de Hausman, con nivel crítico muy bajo, conduce al rechazo del supuesto de
exogeneidad de la renta y por su parte, el contraste de instrumento débil per-
mite rechazar la nulidad del coeficiente del gasto público y por tanto confirma
la idoneidad de dicha variable como instrumento.
342 SUPUESTO 22. SEM_DEMANDA

Modelo 2: MC2E, usando las observaciones 1998–2018 (T = 21)


Variable dependiente: consumo
Mediante Instrumentos: renta
Instrumentos: const gasto

Coeficiente Desv. Típica Estadístico t valor p


const 1,31089 0,511336 2,564 0,0190
renta 0,598725 0,0185673 32,25 0,0000

Media de la vble. dep. 17,61048 D.T. de la vble. dep. 2,923220


Suma de cuad. residuos 2,378591 D.T. de la regresión 0,353821
R2 0,987553 R2 corregido 0,986898
F (1, 19) 1039,819 Valor p (de F ) 4,71e–18
Log-verosimilitud −62,63441 Criterio de Akaike 129,2688
Criterio de Schwarz 131,3579 Hannan–Quinn 129,7222
ρ̂ 0,656473 Durbin–Watson 0,650106

Contraste de Hausman –
Hipótesis nula: [Los estimadores de MCO son consistentes]
Estadístico de contraste asintótico: χ2 (1) = 30,9067
con valor p = 2,7073e-08
Contraste de Instrumento débil –
First-stage F (1, 19) = 95,7577

Nota:
Tal y como hemos visto anteriormente es posible reconstruir esta estimación
bietápica y también el test de Hausman.
En la primera etapa estimamos la variable explicativa endógena (renta) en fun-
ción del gasto que es la variable instrumental. Partiendo del modelo estimado
salvamos la renta estimada y también los residuos.
Etapa 1:

Modelo 3: MCO, usando las observaciones 1998–2018 (T = 21)


Variable dependiente: renta

Coeficiente Desv. Típica Estadístico t valor p


const −12,4567 4,07720 −3,055 0,0065
gasto 8,11383 0,829162 9,786 0,0000

Media de la vble. dep. 27,22381 D.T. de la vble. dep. 4,664694


Suma de cuad. residuos 72,05232 D.T. de la regresión 1,947364
R2 0,834434 R2 corregido 0,825720
F (1, 19) 95,75775 Valor p (de F ) 7,45e–09
Log-verosimilitud −42,74285 Criterio de Akaike 89,48569
Criterio de Schwarz 91,57474 Hannan–Quinn 89,93907
ρ̂ 0,798157 Durbin–Watson 0,380826

En la segunda etapa estimamos el consumo en función de la renta estimada


343

y los coeficientes obtenidos coinciden con los de la salida MC2E de Gretl si bien
no sucede lo mismo con las varianzas de los estimadores.
Esto se debe a que hemos utilizado los valores renta_estimada (obtenidos en la
primera etapa) para calcular û0 û y la matriz de varianzas covarianzas, cuando
esta variable solamente se utiliza para la estimación y en cambio para calcular
los errores se deberían utilizar los valores de renta.
Etapa 2:

Modelo 4: MCO, usando las observaciones 1998–2018 (T = 21)


Variable dependiente: consumo

Coeficiente Desv. Típica Estadístico t valor p


const 1,31089 2,11595 0,6195 0,5429
renta_estimada 0,598725 0,0768331 7,793 0,0000

Media de la vble. dep. 17,61048 D.T. de la vble. dep. 2,923220


Suma de cuad. residuos 40,73044 D.T. de la regresión 1,464140
R2 0,761677 R2 corregido 0,749134
F (1, 19) 60,72371 Valor p (de F ) 2,47e–07
Log-verosimilitud −36,75347 Criterio de Akaike 77,50694
Criterio de Schwarz 79,59598 Hannan–Quinn 77,96031
ρ̂ 0,808640 Durbin–Watson 0,354821

Además, estas ecuaciones permiten también reconstruir el resultado de los con-


trastes que Gretl devuelve en MC2E.
En lo que se refiere al test de Hausman, dado que hemos salvado los residuos de la
primera etapa de MC2E vamos ahora a plantear la segunda etapa introduciendo
separadamente la renta y los residuos.
El test de Hausman es equivalente a contrastar la nulidad del coeficiente del
residuo. Si se rechaza esta hipótesis nula se concluye que la variable está corre-
lacionada con el error de la ecuación estructural indicando evidencia de endo-
geneidad de dicha variable.
En este caso el modelo estimado sería el siguiente:

Modelo 5: MCO, usando las observaciones 1998–2018 (T = 21)


Variable dependiente: consumo

Coeficiente Desv. Típica Estadístico t valor p


const 1,31089 0,316006 4,148 0,0006
renta 0,598725 0,0114746 52,18 0,0000
residuos_etapa1 0,145146 0,0282002 5,147 0,0001

Media de la vble. dep. 17,61048 D.T. de la vble. dep. 2,923220


Suma de cuad. residuos 0,860633 D.T. de la regresión 0,218662
R2 0,994964 R2 corregido 0,994405
F (2, 18) 1778,219 Valor p (de F ) 2,08e–21
Log-verosimilitud 3,745695 Criterio de Akaike −1,491391
Criterio de Schwarz 1,642177 Hannan–Quinn −0,811326
ρ̂ 0,191457 Durbin–Watson 1,603836
344 SUPUESTO 22. SEM_DEMANDA

y si desde la salida del modelo solicitamos el test de restricciones con la hipótesis


b[3]=0 el resultado sería significativo para rechazar, al igual que sucede con el
test de Hausman que aparece directamente desde MC2E.
Restricción:
b[residuos_etapa1] = 0
Estadístico de contraste: F(1, 18) = 26,4915, con valor p = 6,76165e-05

Estimaciones restringidas:

Coeficiente Desv. Típica Estadístico t valor p


const 0,656664 0,442724 1,483 0,1544
renta 0,622757 0,0160397 38,83 1,45e–19 ***
residuos_Etapa1 0,00000 0,00000 NA, NA,

2. Se propone el siguiente modelo de ecuaciones simultáneas:

Ct = α1 + α2 Ct−1 + α3 Rt + u1t
It = β1 + β2 Rt−1 + u2t
Rr = Ct + It + Gt

Llevar a cabo su identificación y estimar el modelo por MC2E

En este caso se especifica el modelo de tres ecuaciones simultáneas, cuyas varia-


bles endógenas son consumo, inversión y renta. Dicho modelo será introducido
en Gretl (Modelos . Ecuaciones simultáneas) como:
equation consumo const consumo ( -1) renta
equation inversion const renta ( -1)
identity renta = consumo + inversion + gasto
endog consumo inversion renta

Para estudiar la identificación de este modelo debemos tener en cuenta que


m = 3 ya que las variables endógenas son Ct , It , Rt , mientras las variables
predeterminadas son también 3, de las cuales una es exógena (Gt ) y otras 2
endógenas retardadas (Ct−1 y Rt−1 ).
Analizando la condición necesaria de orden sobre cada ecuación se observa que
se cumplen las condiciones necesarias para que ambas ecuaciones estén sobre-
identificadas.
345

m’ k’ k-k’ m’-1 Conclusión


Ecuación 1 (C) 2 1 2 1 sobreidentificada
Ecuación 2 (I) 1 1 2 0 Sobreidentificada

Nota:
Dado que el modelo está formado por dos ecuaciones y una identidad sólo es
necesario estudiar la identificación de la dos primeras. Sin embargo las identi-
dades son definiciones en las que intervienen las variables predeterminadas o
instrumentos, por lo que deben ser tenidas en cuenta al contabilizar el número
de variables del sistema (m y k) y también al examinar la condición suficiente
de rango.

Para comprobar la condición de rango sería necesario analizar los coeficientes


de las variables incluidas y excluidas de cada ecuación

Ct Ct−1 Rt It Rt−1 Gt
1 −α2 −α3 0 0 0
0 0 0 1 −β2 0
-1 0 1 -1 0 -1

a partir de los cuales se construye la matriz A formada por los coeficientes de


las variables excluídas de cada ecuación:
Así, en la ecuación 1 esta matriz tiene 2 filas y 3 columnas, siendo la primera fila
A1 = (1, −β2 , 0) y la segunda A2 = (−1, 0, −1) con lo cual rango(A)=2=m-1 ya
que es posible encontrar submatrices de orden 2x2 con determinante no nulo.
De modo análogo para la segunda ecuación A tiene 2 filas y 4 columnas. Más
concretamente A1 = (1, −α2 , −α3 , 0) y A2 = (−1, 0, 1, −1) y se cumple también
rango(A)=2=m-1.

Una vez comprobado que el sistema se encuentra identificado podemos comenzar


por llevar a cabo su estimación mediante MC2E, que proporciona el resultado
siguiente:

Sistema de ecuaciones, Mínimos cuadrados en dos etapas

Ecuación 1: MC2E, usando las observaciones 1999–2018 (T = 20)


Variable dependiente: consumo
Instrumentos: const consumo_1 renta_1 gasto

Coeficiente Desv. Típica Estadístico t valor p


const −0,129510 0,393443 −0,3292 0,7460
consumo_1 1,02866 0,261709 3,931 0,0011
renta 0,00246311 0,160589 0,01534 0,9879

Media de la vble. dep. 17,79900 D.T. de la vble. dep. 2,865190


Suma de cuad. residuos 1,154145 D.T. de la regresión 0,260559
346 SUPUESTO 22. SEM_DEMANDA

Ecuación 2: MC2E, usando las observaciones 1999–2018 (T = 20)


Variable dependiente: inversion
Instrumentos: const consumo_1 renta_1 gasto

Coeficiente Desv. Típica Estadístico t valor p


const −4,22034 0,232228 −18,17 0,0000
renta_1 0,315973 0,00855314 36,94 0,0000

Media de la vble. dep. 4,252000 D.T. de la vble. dep. 1,393011


Suma de cuad. residuos 0,479950 D.T. de la regresión 0,163291

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

0, 057707 (0, 142)


0, 0052725 0, 023997

logaritmo del determinante = −6,60246

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 0,401479 [0,5263]

En esta salida, además de las estimaciones de las dos ecuaciones, aparece in-
formación adicional relativa a la matriz de covarianzas de los residuos cruzados
(basada en las series de residuos û1t y û2t a los que se puede acceder desde la
salida de la regresión).

Nota:
Como ya hemos visto anteriormente Script-BP-Diagonalidad (p.335), si alma-
cenamos los residuos de las ecuaciones como u1 y u2 podríamos reconstruir esta
matriz con las siguientes instrucciones de consola o mediante un guión.

n = nobs ( u1 )
var_u1 = sum ( u1 ^2)/ n
var_u2 = sum ( u2 ^2)/ n
cov_u1u2 = sum ( u1 * u2 )/ n
correl = cov_u1u2 / sqrt ( var_u1 * var_u2 )
logdet = log ( var_u1 * var_u2 - cov ^2)
breuschpagan = n * correl ^2
p = pvalue (X ,1 , breuschpagan )

Es importante tener en cuenta que no sería lo mismo poner n=nobs(u1) que


n=nobs(renta) ya que en el sistema de ecuaciones se pierde una observación co-
mo consecuencia de las variables retardadas, y por tanton=nobs(u1) es la opción
adecuada.
347

A partir de esta salida se observa que no hay evidencia para rechazar la diago-
nalidad de la matriz por lo que parece que los residuos de ambas ecuaciones son
incorrelados, lo cual apoyaría el uso de MC2E.
Los residuos de las dos ecuaciones estimadas pueden también visualizarse desde
el modelo estimado, tanto en tabla como en gráfico:

�������
����
����
����
����
��
����
����
����
����
����
����
����� �����

���������
���

�����
����
�����
����
�����
��
�����
����
�����
����
�����
����� � ����

3. Analizar si otros métodos de estimación son recomendables en este


caso

Los métodos de estimación con información completa, entre los que destaca Mí-
nimos Cuadrados en tres etapas (MC3E) resultan adecuados cuando las ecua-
ciones del sistema están conectadas mediante dos vías: la presencia de variables
explicativas endógenas y la existencia de correlación entre los errores de las
diferentes ecuaciones SEM-Estimacion (p.317).
Este procedimiento de estimación tiene en cuenta las correlaciones entre re-
siduos de las distintas ecuaciones del sistema a través de la estimación de la
matriz sigma. Sin embargo, los estimadores MC3E coinciden con los MC2E en
dos situaciones: cuando los errores de las distintas ecuaciones son incorrelados
(es decir, bajo el supuesto de diagonalidad) y cuando todas las ecuaciones del
sistema están perfectamente identificadas.
En el modelo de demanda con el que estamos trabajando, aunque según la
estimación MC2E no se rechaza el supuesto de diagonalidad, podemos llevar a
cabo la estimación MC3E seleccionando esta opción en el desplegable desde el
menú Modelos-ecuaciones simultáneas.

Sistema de ecuaciones, Mínimos cuadrados en tres etapas

Ecuación 1: MC3E, usando las observaciones 1999–2018 (T = 20)


Variable dependiente: consumo
348 SUPUESTO 22. SEM_DEMANDA

Instrumentos: const consumo_1 renta_1 gasto

Coeficiente Desv. Típica z valor p


const −0,0843606 0,362258 −0,2329 0,8159
consumo_1 0,957180 0,238851 4,007 0,0001
renta 0,0458523 0,146579 0,3128 0,7544

Media de la vble. dep. 17,79900 D.T. de la vble. dep. 2,865190


Suma de cuad. residuos 1,107682 D.T. de la regresión 0,235338

Ecuación 2: MC3E, usando las observaciones 1999–2018 (T = 20)


Variable dependiente: inversion
Instrumentos: const consumo_1 renta_1 gasto

Coeficiente Desv. Típica z valor p


const −4,21855 0,220303 −19,15 0,0000
renta_1 0,315906 0,00811393 38,93 0,0000

Media de la vble. dep. 4,252000 D.T. de la vble. dep. 1,393011


Suma de cuad. residuos 0,479951 D.T. de la regresión 0,154911

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

0, 055384 (0, 171)


0, 0062254 0, 023998

logaritmo del determinante = −6,65286

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 0,583202 [0,4451]

Contraste de sobreidentificación de Hansen–Sargan:


χ2 (3) = 10,2529 [0,0165]

Tal y como cabía esperar, teniendo en cuenta que no se rechaza el supuesto de


diagonalidad, las ecuaciones estimadas por MC3E son similares a las de MC2E
y la información basada en la matriz de covarianza cruzada residual muestra
una ligera reducción en el logaritmo del determinante.
Por lo que se refiere a la especificación del modelo, se observa que el test de
Hansen-Sargan proporciona un nivel crítico reducido y por lo tanto se recha-
zaría la hipótesis de validez de todos los instrumentos. Este resultado sugiere
que los instrumentos pueden estar correlacionados con los errores o bien que
hay variables omitidas en el modelo por lo que sería recomendable revisar la
especificación del modelo e incluir nuevos instrumentos.
La estimación de este modelo podría ser llevada a cabo también por otros méto-
dos disponibles en Gretl como Máxima Verosimilitud con Información Completa
(MVIC) que proporcionan resultados coincidentes con los de MC3E.
349

Sistema de ecuaciones, Máxima Verosimilitud con Información Completa


Se alcanzó la convergencia después de 1 iteraciones
Log-verosimilitud = 8,83232

Ecuación 1: MVIC, usando las observaciones 1999–2018 (T = 20)


Variable dependiente: consumo

Coeficiente Desv. Típica z valor p


const −0,0843605 0,452161 −0,1866 0,8520
consumo_1 0,957180 0,220133 4,348 0,0000
renta 0,0458524 0,130270 0,3520 0,7249

Media de la vble. dep. 17,79900 D.T. de la vble. dep. 2,865190


Suma de cuad. residuos 1,107682 D.T. de la regresión 0,235338

Ecuación 2: MVIC, usando las observaciones 1999–2018 (T = 20)


Variable dependiente: inversion

Coeficiente Desv. Típica z valor p


const −4,21855 0,220306 −19,15 0,0000
renta_1 0,315906 0,00811403 38,93 0,0000

Media de la vble. dep. 4,252000 D.T. de la vble. dep. 1,393011


Suma de cuad. residuos 0,479951 D.T. de la regresión 0,154911

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

0, 055384 (0, 171)


0, 0062254 0, 023998

logaritmo del determinante = −6,65286

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 0,583202 [0,4451]

Por su parte, la estimación mediante el método de Máxima Verosimilitud con


Información Limitada (MVIL) proporciona resultados similares, mostrando in-
formación más detallada por ecuaciones. Según estos resultados se observa que
en la primera ecuación hay problemas de significación de la variable renta y en
la segunda los instrumentos no son válidos.

Sistema de ecuaciones, Máxima Verosimilitud con Información Limitada

Ecuación 1: MVIL, usando las observaciones 1999–2018 (T = 20)


Variable dependiente: consumo
350 SUPUESTO 22. SEM_DEMANDA

Coeficiente Desv. Típica z valor p


const −0,132730 0,363850 −0,3648 0,7153
consumo_1 1,03688 0,243070 4,266 0,0000
renta −0,00260075 0,149157 −0,01744 0,9861

Media de la vble. dep. 17,79900 D.T. de la vble. dep. 2,865190


Suma de cuad. residuos 1,160512 D.T. de la regresión 0,240885
Log-verosimilitud −36,01857 Valor propio más pequeño 1,021334

Contraste de sobreidentificación LR: χ2 (1) = 0,4222 [0,5158]

Ecuación 2: MVIL, usando las observaciones 1999–2018 (T = 20)


Variable dependiente: inversion

Coeficiente Desv. Típica z valor p


const −4,22034 0,220311 −19,16 0,0000
renta_1 0,315973 0,00811422 38,94 0,0000

Media de la vble. dep. 4,252000 D.T. de la vble. dep. 1,393011


Suma de cuad. residuos 0,479950 D.T. de la regresión 0,154911
Log-verosimilitud −29,41680 Valor propio más pequeño 1,870980

Contraste de sobreidentificación LR: χ2 (2) = 12,5292 [0,0019]

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

0, 058026 (0, 138)


0, 0051652 0, 023997

logaritmo del determinante = −6,59602

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 0,383197 [0,5359]

4. Obtener predicciones del consumo, la inversión y la renta bajo dos


supuestos:

a) el gasto público sigue su tendencia lineal durante dos años

b) el crecimiento del gasto público es del 3 % anual Teniendo en cuenta


que el método de estimación más adecuado en este caso es MC2E partiremos
del modelo estimado mediante este procedimiento para obtener las predicciones
de las tres variables endógenas.
351

Para poder llevar a cabo las predicciones es necesario añadir dos observaciones
(en el menú Datos . Añadir observaciones) que incorporen la información asumi-
da en las dos opciones alternativas para el horizonte de predicción. Supuesto
a) .Se selecciona en el menú de Gretl Añadir . Tendencia temporal y se estima
una tendencia temporal lineal para el gasto público:

Modelo 6: MCO, usando las observaciones 1998–2018 (T = 21)


Variable dependiente: gasto

Coeficiente Desv. Típica Estadístico t valor p


const 4,05548 0,107835 37,61 0,0000
time 0,0759091 0,00858797 8,839 0,0000

Media de la vble. dep. 4,890476 D.T. de la vble. dep. 0,525162


Suma de cuad. residuos 1,079009 D.T. de la regresión 0,238306
R2 0,804382 R2 corregido 0,794086
F (1, 19) 78,12803 Valor p (de F ) 3,69e–08
Log-verosimilitud 1,371326 Criterio de Akaike 1,257348
Criterio de Schwarz 3,346393 Hannan–Quinn 1,710725
ρ̂ 0,789681 Durbin–Watson 0,388208

y a partir de esta estimación se obtienen, las siguientes predicciones para el


gasto público, con las que posteriormente se alimenta la variable gasto en el
horizonte de predicción:

Para intervalos de confianza 95 %, t(19, ,0, 025) = 2, 093

Observaciones gasto Predicción Desv. típica Intervalo de 95 %


2019 5,73 5,73 0,262 5,18 6,27
2020 5,80 5,80 0,265 5,25 6,36

Editamos los datos de la variable gasto público e introducimos las predicciones


de 5,73 para 2019 y 5,80 para 2020.
A continuación podemos ejecutar este script:

Sys_MC2E <- system method = tsls


equation consumo const consumo ( -1) renta
equation inversion const renta ( -1)
identity renta = consumo + inversion + gasto
endog consumo inversion renta
end system
fcast 2019 2020

que nos proporciona las predicciones del modelo en ecuaciones simultáneas para
el consumo, la inversión y la renta
352 SUPUESTO 22. SEM_DEMANDA

Para intervalos de confianza 95 %, t(18, .0,025) = 2,101


consumo Predicción Desv. Típica Intervalo de confianza 95 %
2019 23,1654 0,240871 22,6594 - 23,6715
2020 23,7902 0,345559 23,0642 - 24,5162
inversion Predicción Desv. Típica Intervalo de confianza 95 %
2019 6,97458 0,154911 6,64912 - 7,30004
2020 7,11360 0,182354 6,73049 - 7,49672
renta Predicción Desv. Típica Intervalo de confianza 95 %
2019 35,8700 0,304476 35,2303 - 36,5097
2020 36,7038 0,304476 36,0641 - 37,3435

Supuesto b). De modo análogo se obtendrían las predicciones bajo el otro


supuesto, si bien en este caso el gasto público de los años del horizonte de
predicción (2019 y 2020) se generaría mediante el siguiente guión:

smpl 2019 2020


gasto = gasto ( -1)*1.03
smpl full
fcast 2019 2020

Se incluye directamente la función de predicción fcast porque suponemos que


el modelo anterior sigue siendo el último estimado, de lo contrario habría que
sustituir esa linea de predicción por el script anterior.

Las predicciones en este supuesto son:


Para intervalos de confianza 95 %, t(18, .0,025) = 2,101
consumo Predicción Desv. Típica Intervalo de confianza 95 %
2019 23,1661 0,240871 22,6601 - 23,6722
2020 23,7922 0,345559 23,0662 - 24,5182
inversion Predicción Desv. Típica Intervalo de confianza 95 %
2019 6,97458 0,154911 6,64912 - 7,30004
2020 7,20720 0,182354 6,82409 - 7,59032
renta Predicción Desv. Típica Intervalo de confianza 95 %
2019 36,1662 0,304476 35,5265 - 36,8059
2020 37,2057 0,304476 36,5660 - 37,8454

En cualquiera de los dos supuestos considerados, las predicciones obtenidas son


ex-ante por lo que no es posible llevar a cabo su evaluación y Gretl no muestra
las correspondientes medidas, que sí aparecen al realizar predicciones ex-post.
SUPUESTO 23

Empresas

Contenidos: Estimación MCO, SUR, test Breusch-Pagan de diagona-


lidad, Autocorrelación, Test de restricciones lineales, Agregabilidad

Nombre del fichero: empresas.gdt http://cort.as/-LMeM

Página de datos: http://cort.as/-LHjb . empresasa.gdt


Página de scripts: http://cort.as/-LHjE . S23_Empresas.inp

Enunciado:
La base de datos empresas.gdt recopila información facilitada por las empresas
General Electric y Westinghouse sobre las magnitudes inversión bruta, valor de
mercado y valor del stock de maquinaria y establecimientos, todas ellas expre-
sadas en millones de dólares constantes.

1. Estimar modelos lineales de inversión para Westinghouse y General Elec-


tric
2. Estimar un modelo SUR comparando su resultado con los anteriores
3. Analizar los residuos del modelo anterior estudiando posibles mejoras del
mismo
4. Contrastar la agregabilidad del modelo de inversión

Solución:
1. Estimar modelos lineales de inversión para Westinghouse y General
Electric

La estimación mínimo cuadrática de los dos modelos de inversión proporciona


los resultados recogidos a continuación, donde se observa que la capacidad ex-
plicativa de los modelos es moderada (coeficientes de determinación de 70 % y

353
354 SUPUESTO 23. EMPRESAS

74 %) y que los coeficientes estimados tienen el signo esperado (positivo) si bien


no todas las variables explicativas resultan significativas.

Modelo 1: MCO, usando las observaciones 1935–1954 (T = 20)


Variable dependiente: inversion_ge

Coeficiente Desv. Típica Estadístico t valor p


const −9,95631 31,3742 −0,3173 0,7548
valor_ge 0,0265512 0,0155661 1,706 0,1063
stock_ge 0,151694 0,0257041 5,902 0,0000

Media de la vble. dep. 102,2900 D.T. de la vble. dep. 48,58450


Suma de cuad. residuos 13216,59 D.T. de la regresión 27,88272
R2 0,705307 R2 corregido 0,670637
F (2, 17) 20,34355 Valor p (de F ) 0,000031
Log-verosimilitud −93,31373 Criterio de Akaike 192,6275
Criterio de Schwarz 195,6147 Hannan–Quinn 193,2106
ρ̂ 0,463438 Durbin–Watson 1,072099

Modelo 2: MCO, usando las observaciones 1935–1954 (T = 20)


Variable dependiente: inversion_w

Coeficiente Desv. Típica Estadístico t valor p


const −0,492047 8,09352 −0,06080 0,9522
valor_w 0,0526653 0,0158598 3,321 0,0040
stock_w 0,0928292 0,0566465 1,639 0,1196

Media de la vble. dep. 42,79150 D.T. de la vble. dep. 19,13535


Suma de cuad. residuos 1808,019 D.T. de la regresión 10,31281
R2 0,740118 R2 corregido 0,709543
F (2, 17) 24,20713 Valor p (de F ) 0,000011
Log-verosimilitud −73,42132 Criterio de Akaike 152,8426
Criterio de Schwarz 155,8298 Hannan–Quinn 153,4258
ρ̂ 0,258403 Durbin–Watson 1,430075

Dado que se podría sospechar que existen pautas comunes de comportamiento


en la inversión de las dos empresas, los residuos de ambas ecuaciones podrían
estar correlacionados. Por este motivo, podríamos especificar un sistema de dos
ecuaciones, que se introduce en el menú Modelo . Ecuaciones simultáneas:
equation inversion_ge const valor_ge stock_ge
equation inversion_w const valor_w stock_w
endog inversion_ge inversion_w

Si desde esta opción se realiza la estimación mínimo cuadrática la salida coin-


cide como es lógico con las ecuaciones estimadas anteriormente por separado,
pero incorpora información adicional relativa a la matriz de covarianzas cruzada
residual.

Sistema de ecuaciones, Mínimos Cuadrados Ordinarios


355

Ecuación 1: MCO, usando las observaciones 1935–1954 (T = 20)


Variable dependiente: inversion_ge

Coeficiente Desv. Típica Estadístico t valor p


const −9,95631 31,3742 −0,3173 0,7548
valor_ge 0,0265512 0,0155661 1,706 0,1063
stock_ge 0,151694 0,0257041 5,902 0,0000

Media de la vble. dep. 102,2900 D.T. de la vble. dep. 48,58450


Suma de cuad. residuos 13216,59 D.T. de la regresión 27,88272

Ecuación 2: MCO, usando las observaciones 1935–1954 (T = 20)


Variable dependiente: inversion_w

Coeficiente Desv. Típica Estadístico t valor p


const −0,492047 8,09352 −0,06080 0,9522
valor_w 0,0526653 0,0158598 3,321 0,0040
stock_w 0,0928292 0,0566465 1,639 0,1196

Media de la vble. dep. 42,79150 D.T. de la vble. dep. 19,13535


Suma de cuad. residuos 1808,019 D.T. de la regresión 10,31281

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

660, 83 (0, 721)


176, 34 90, 401

logaritmo del determinante = 10,2627

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 10,4105 [0,0013]

A partir de la salida del modelo estimado es recomendable analizar la opción


Gráficos . Residuos . Gráfico combinado que muestra paralelismo entre los re-
siduos asociados a las dos ecuaciones de inversión de las empresas analizadas.
Estos residuos podrían ser también almacenados mediante la opción de Guardar
disponible desde la misma salida.
356 SUPUESTO 23. EMPRESAS

��������������������
���
������������
�����������
���

���

���

���

���

��

���

���

���

���
����� ����� ����� ����
� ����� ����� � ���� ����� ����� ����� �����

Tal y como recoge la salida del modelo estimado, la correlación lineal entre estos
residuos supera el 72 % y como consecuencia el resultado del test de Breusch-
Pagan, con un nivel crítico de 0,0013, es significativo para rechazar el supuesto
de diagonalidad. Así pues, sería aconsejable llevar a cabo la estimación mediante
el método SUR que contempla la existencia de correlación interecuaciones.

Nota.
Tal y como hemos descrito anteriormente SEM-Estimacion (p.311) los métodos
de estimación para los modelos multiecuacionales tienen en cuenta la presencia
o no de correlación interecuaciones y también la existencia de endogeneidad.
En este caso, por el propio planteamiento del modelo, parece que el problema
es la correlación interecuaciones y no la endogeneidad. En cualquier caso, esta
situación podría confirmarse llevando a cabo la estimación de las ecuaciones de
inversión por MC2E y analizando los correspondientes resultados del test de
Hausman que proporcionan niveles críticos elevados y por tanto no conducen al
rechazo del supuesto de exogeneidad.

2. Estimar un modelo SUR comparando su resultado con los anterio-


res

La estimación del modelo SUR se lleva a cabo desde el modelo multiecuacio-


nal especificado anteriormente, seleccionando en el menú desplegable la opción
Regresiones aparentemente no relacionadas (Seemingly Unrelated Regression,
SUR)
357

Nota:
Los modelos SUR (Seemingly Unrelated Regressions) propuestos por Zellner
son una generalización del modelo de regresión lineal y abarcan varias ecuacio-
nes, cada una de ellas con su propia variable dependiente que se explica a par-
tir de conjuntos de regresores potencialmente distintos. Estos modelos pueden
ser estimados ecuación por ecuación utilizando Mínimos Cuadrados Ordinarios
(MCO) y estas estimaciones son consistentes. Sin embargo, es posible que los
errores de las distintas ecuaciones del modelo estén correlacionados, y por lo
tanto los estimadores MCO no serán tan eficientes como el método SUR, que
equivale a utilizar Mínimos Cuadrados Generalizados con una forma específica
de la matriz de varianzas-covarianzas.
Cabe señalar que hay dos situaciones en las que los estimadores SUR serán
equivalentes a los MCO: cuando los términos de error no tienen correlación
entre las ecuaciones y también cuando cada ecuación contiene exactamente el
mismo conjunto de regresores.
En el caso concreto del archivo de datos sobre el que estamos trabajando, la in-
formación ha sido extraída de una aplicación clásica de modelización SUR desa-
rrollada por Grunfeld_Griliches y Boot_De_Witt. En la base de datos
original se incluyen, además de General Electric y Westinghouse, otras empresas
como General Motors, Chrysler y US Steel.

La salida del modelo estimado muestra que todos los regresores resultan sig-
nificativos salvo el stock de capital en Westinghouse, por lo que podría ser
recomendable revisar la especificación. De hecho, el test de sobreidentificación
de Hansen-Sargan proporciona un nivel crítico bajo con lo cual se rechazaría la
hipótesis de que todos los instrumentos son válidos.
El análisis de la matriz de covarianzas cruzada de los residuos interecuaciones
muestra que el logaritmo del determinante se ha reducido respecto a la estima-
ción MCO anterior, y confirma la existencia de correlación interecuaciones (se
rechaza el supuesto de diagonalidad).
358 SUPUESTO 23. EMPRESAS

Sistema de ecuaciones, Regresiones aparentemente no relacionadas

Ecuación 1: SUR, usando las observaciones 1935–1954 (T = 20)


Variable dependiente: inversion_ge

Coeficiente Desv. Típica Estadístico t valor p


const −26,6503 27,1052 −0,9832 0,3372
valor_ge 0,0377992 0,0133307 2,836 0,0102
stock_ge 0,138844 0,0230626 6,020 0,0000

Media de la vble. dep. 102,2900 D.T. de la vble. dep. 48,58450


Suma de cuad. residuos 13757,97 D.T. de la regresión 26,22782

Ecuación 2: SUR, usando las observaciones 1935–1954 (T = 20)


Variable dependiente: inversion_w

Coeficiente Desv. Típica Estadístico t valor p


const −1,05424 7,04098 −0,1497 0,8825
valor_w 0,0570476 0,0135832 4,200 0,0004
stock_w 0,0650624 0,0494882 1,315 0,2035

Media de la vble. dep. 42,79150 D.T. de la vble. dep. 19,13535


Suma de cuad. residuos 1835,372 D.T. de la regresión 9,579592

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

687, 90 (0, 757)


190, 14 91, 769

logaritmo del determinante = 10,2026

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 11,4545 [0,0007]

Contraste de sobreidentificación de Hansen–Sargan:


χ2 (4) = 9,64571 [0,0468]

3. Analizar los residuos del modelo anterior estudiando posibles me-


joras del mismo

A partir del modelo estimado podemos examinar los residuos a través de la


opción Gráficos . Residuos . Gráfico combinado
359

��������������������
���
������������
�����������
���

���

���

���

���

��

���

���

���

���
����� ����� ����� ����� ����� ����� ����� ����� ����
� ����
� ����

Dado que se sospecha la existencia de correlación parece recomendable llevar a


cabo el test Q de Ljung-Box de No autocorrelación, Contrastes . Autocorrelación,
que si especificamos 2 retardos conduce al resultado siguiente:

Ecuación 1:
Q de Ljung-Box: Chi-cuadrado(2) = 6,92865 [0,0313]
Ecuación 2:
Q de Ljung-Box: Chi-cuadrado(2) = 6,61366 [0,0366]

El estadístico Q que se incluye es el propuesto por Ljung 1978 que contrasta


la hipótesis nula de no autocorrelación hasta determinado orden de retardos;
la hipótesis alternativa sería que entre los j primeros retardos hubiera alguno
significativamente distinto de 0.

H0 : ρ1 = · · · = ρj = 0 ; H1 : ∃i = 1, . . . , j, ρi 6= 0

El estadístico del contrastes se define como:

j
!
X ri2
Q = T (T + 2) → χ2j
i=1
T −i

Si la hipótesis nula es cierta, este estadístico se distribuye asintóticamente como


una distribución chi-cuadrado con grados de libertad igual al número de retardos
considerado en cada caso.

Teniendo en cuenta los niveles críticos asociados al contraste parece conveniente


completar la especificación del modelo SUR, incluyendo entre los regresores la
variable dependiente con 1 y 2 retardos:
360 SUPUESTO 23. EMPRESAS

equation inversion_ge 0 valor_ge stock_ge inver sion_g e_1


inv ersion _ge_2
equation inversion_w 0 valor_w stock_w inversion_w_1 inversion_w_2
endog inversion_ge inversion_w

Y se comprueba que la estimación SUR del modelo mejora la anterior (aumentan


los coeficientes de determinación corregidos de las dos ecuaciones y disminuye
el logaritmo del determinante de la matriz de residuos cruzados del sistema)

Sistema de ecuaciones, Regresiones aparentemente no relacionadas

Ecuación 1: SUR, usando las observaciones 1937–1954 (T = 18)


Variable dependiente: inversion_ge

Coeficiente Desv. Típica Estadístico t valor p


const −10,5789 30,8560 −0,3428 0,7357
valor_ge 0,0260154 0,0126872 2,051 0,0552
stock_ge 0,130811 0,0408887 3,199 0,0050
inversion_ge_1 0,623442 0,182417 3,418 0,0031
inversion_ge_2 −0,552348 0,206193 −2,679 0,0153

Media de la vble. dep. 109,3167 D.T. de la vble. dep. 45,94785


Suma de cuad. residuos 7025,896 D.T. de la regresión 19,75671

Ecuación 2: SUR, usando las observaciones 1937–1954 (T = 18)


Variable dependiente: inversion_w

Coeficiente Desv. Típica Estadístico t valor p


const 15,3067 7,46525 2,050 0,0552
valor_w 0,0334139 0,0126795 2,635 0,0168
stock_w 0,195120 0,0616845 3,163 0,0054
inversion_w_1 0,542422 0,176662 3,070 0,0066
inversion_w_2 −0,913615 0,200186 −4,564 0,0002

Media de la vble. dep. 45,38889 D.T. de la vble. dep. 18,24443


Suma de cuad. residuos 845,8972 D.T. de la regresión 6,855238

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

390, 33 (0, 661)


89, 562 46, 994

logaritmo del determinante = 9,24202

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (1) = 7,87125 [0,0050]
361

Contraste de sobreidentificación de Hansen–Sargan:


χ2 (8) = 14,2579 [0,0753]

��������������������
���
������������
�����������
���

���

���

���

��

���

���

���

���

���
����� ����� ����� ����� ����� ����� ����� ����� ����� ����

Además, el análisis de los residuos muestra que se comportan normalmente, ya


que el nivel crítico del test de Doornik-Hansen es elevado.

Matriz de correlación de los residuos, C (2 x 2)


1,0000 0,66128
0,66128 1,0000
Valores propios de C
0,33872
1,66128
Contraste de Doornik-Hansen
Chi-cuadrado(4) = 1,67884 [0,7946]

4. Contrastar la agregabilidad del modelo de inversión

La agregabilidad del modelo se analiza mediante un contraste de restricciones


lineales, cuya hipótesis es la igualdad de cada uno de los coeficientes en las dos
ecuaciones.

Nota:
En los modelos multiecuacionales los coeficientes se denotan con dos números,
correspondientes respectivamente al orden de la ecuación y al orden del paráme-
tro. Así, la primera restricción sería la igualdad entre el término independiente
de la primera ecuación b[1,1] y el de la segunda b[2,1]; la segunda restricción
sería la igualdad de los coeficientes de la variable valor de mercado en las dos
ecuaciones: b[1,2]-b[2,2]=0, y así sucesivamente.
362 SUPUESTO 23. EMPRESAS

A partir del modelo estimado, la opción Contrastes . Restricciones lineales pro-


porciona la salida siguiente, donde se observa que el nivel crítico es elevado,
cercano al 20 % y por tanto no rechazamos el supuesto de agregabilidad de las
ecuaciones:
Conjunto de restricciones
1: b[1,1] - b[2,1] = 0
2: b[1,2] - b[2,2] = 0
3: b[1,3] - b[2,3] = 0
4: b[1,4] - b[2,4] = 0
5: b[1,5] - b[2,5] = 0

Sistema de ecuaciones, Regresiones aparentemente no relacionadas

Ecuación 1: SUR, usando las observaciones 1937-1954 (T = 18)


Variable dependiente: inversion_ge

Coeficiente Desv. Típica Estadístico t valor p


const 19,8369 4,74408 4,181 0,0011 ***
valor_ge 0,0160650 0,00500794 3,208 0,0069 ***
stock_ge 0,127845 0,0298904 4,277 0,0009 ***
inversion_ge_1 0,688312 0,146534 4,697 0,0004 ***
inversion_ge_2 −0,707633 0,172865 −4,094 0,0013 ***

Media de la vble. dep. 109,3167 D.T. de la vble. dep. 45,94785


Suma de cuad. residuos 7265,524 D.T. de la regresión 20,09080
R-cuadrado 0,801051 R-cuadrado corregido 0,739836

Ecuación 2: SUR, usando las observaciones 1937-1954 (T = 18)


Variable dependiente: inversion_w

Coeficiente Desv. Típica Estadístico t valor p


const 19,8369 4,74408 4,181 0,0011 ***
valor_w 0,0160650 0,00500794 3,208 0,0069 ***
stock_w 0,127845 0,0298904 4,277 0,0009 ***
inversion_w_1 0,688312 0,146534 4,697 0,0004 ***
inversion_w_2 −0,707633 0,172865 −4,094 0,0013 ***

Media de la vble. dep. 45,38889 D.T. de la vble. dep. 18,24443


Suma de cuad. residuos 1123,731 D.T. de la regresión 7,901233
R-cuadrado 0,814212 R-cuadrado corregido 0,757047

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)
403,64 (0,623)
98,915 62,429
363

logaritmo del determinante = 9,64309

Contraste de Breusch-Pagan de diagonalidad de la matriz de covarianzas:


Chi-cuadrado(1) = 6,98896 [0,0082]

Contraste F de las restricciones especificadas:


F(5,26) = 1,58784 [0,1985]

Teniendo en cuenta esta conclusión podríamos estimar un modelo agregado de


inversión, una vez generadas las variables:
inversion = inversion_ge + inversion_w
valor = valor_ge + valor_w
stock = stock_ge + stock_w

La estimación muestra coincidencias con los modelos anteriores, si bien el valor


de mercado pierde algo de significación como explicativa

Modelo 3: MCO, usando las observaciones 1937–1954 (T = 18)


Variable dependiente: inversion

Coeficiente Desv. Típica Estadístico t valor p


const 28,0029 44,8496 0,6244 0,5432
valor 0,0170405 0,0146966 1,159 0,2671
stock 0,160163 0,0533435 3,002 0,0102
inversion_1 0,618657 0,215594 2,870 0,0132
inversion_2 −0,704981 0,249456 −2,826 0,0143

Media de la vble. dep. 154,7056 D.T. de la vble. dep. 62,82726


Suma de cuad. residuos 11094,19 D.T. de la regresión 29,21300
R2 0,834670 R2 corregido 0,783800
F (4, 13) 16,40771 Valor p (de F ) 0,000053
Log-verosimilitud −83,35514 Criterio de Akaike 176,7103
Criterio de Schwarz 181,1621 Hannan–Quinn 177,3241
ρ̂ −0,105901 h de Durbin −1,111686

Contraste de normalidad de los residuos –


Hipótesis nula: [El error tiene distribución Normal]
Estadístico de contraste: χ2 (2) = 2,16442
con valor p = 0,338846
364 SUPUESTO 23. EMPRESAS
SUPUESTO 24

Klein

Contenidos: Modelo SEM, Identificación, Estimación MC2E, Test


Breusch-Pagan, Restricciones lineales, Predicción

Nombre del fichero: klein.gdt http://cort.as/-LMej

Página de datos: http://cort.as/-LHjb . klein.gdt


Página de scripts: http://cort.as/-LHjE . S24_Klein.inp

Enunciado:

El archivo klein.gdt, accesible directamente desde la opción Abrir . Conjuntode


datos-Gretl, contiene información anual sobre diversas macromagnitudes para el
período 1919-1941.

1. Utilizando la información muestral hasta el año 1939, estimar por MC2E


el Modelo I de Klein, cuya especificación es la siguiente:
Ct = α1 + α2 Pt + α3 Pt−1 + α4 Wt p + α5 Wt g + u1t
It = β1 + β2 Pt + β3 Pt−1 + β4 Kt−1 + u2t
Wt p = γ1 + γ2 Xt + γ3 Xt−1 + γ4 At + u3t
Xt = Ct + It + Gt
Pt = Xt − Tt − Wt p
Kt = Kt−1 + It
donde C representa el consumo, P los beneficios empresariales, Wp los
salarios privados, Wg los salarios públicos, I la inversión, K el stock de
capital, X la demanda, A la tendencia temporal, G el gasto público y T
los impuestos.

365
366 SUPUESTO 24. KLEIN

2. Contrastar si los salarios públicos y privados tienen el mismo impacto mar-


ginal sobre el consumo
3. Analizar si la estimación del modelo mejoraría utilizando otros procedimientos
alternativos
4. Obtener predicciones para el horizonte 1940-1941

Solución:

1. Utilizando la información muestral hasta el año 1939, estimar por


MC2E el Modelo I de Klein, cuya especificación es la siguiente:

Ct = α1 + α2 Pt + α3 Pt−1 + α4 Wt p + α5 Wt g + u1t
It = β1 + β2 Pt + β3 Pt−1 + β4 Kt−1 + u2t
Wt p = γ1 + γ2 Xt + γ3 Xt−1 + γ4 At + u3t
Xt = Ct + It + Gt
Pt = Xt − Tt − Wt p
Kt = Kt−1 + It
Dado que en el modelo, concretamente en la ecuación de salarios privados, apa-
rece una tendencia temporal, podemos generar esta variable mediante la opción
de Gretl Añadir . Tendencia temporal que genera una variable denominada ti-
me (aunque esta opción no es necesaria, dado que cuando Gretl encuentra una
variable temporal, si no existe, la genera automáticamente).
A continuación se selecciona el recorrido muestral y se especifica el modelo de
Klein en la opción Modelo . Ecuaciones simultáneas:
equation C const P P ( -1) Wp Wg
equation I const P P ( -1) K ( -1)
equation Wp const X X ( -1) time
identity X = C + I + G
identity P = X - T - Wp
identity K = K_1 + I
endog C I Wp X P K

En este sistema m=6, k=7 ya que aparecen 6 variables endógenas (consumo,


inversión, salario privado, demanda, beneficios y stock de capital) y 7 variables
predeterminadas, de las que 4 son exógenas (salario público, time, gasto público
e impuestos) y 3 endógenas retardadas (beneficios, demanda y stock de capital,
todas ellas referidas al período anterior).
Analizando la condición necesaria de orden para las tres ecuaciones de compor-
tamiento se observa que todas ellas están sobreidentificadas

m’ k’ k-k’ m’-1 Conclusión


Ecuación 1 (C) 3 2 5 2 Sobreidentificada
Ecuación 2 (I) 2 2 5 1 Sobreidentificada
Ecuación 3 (Wp) 2 2 5 1 Sobreidentificada
367

Para analizar la condición suficiente de rango se construye la tabla siguiente de


coeficientes que permite construir más fácilmente la matriz A asociada a cada
ecuación.

Ct Pt Pt−1 Wt p Wt g It Kt−1 Xt Xt−1 At Gt Tt Kt


Ec1 1 −α2 −α3 −α4 −α4 0 0 0 0 0 0 0 0
Ec2 0 −β2 −β3 0 0 1 −β4 0 0 0 0 0 0
Ec3 0 0 0 1 0 0 0 −γ2 −γ3 −γ4 0 0 0
Ec4 -1 0 0 1 0 -1 0 1 0 0 -1 0 0
Ec5 0 1 0 1 0 0 0 -1 0 0 0 1 0
Ec6 0 0 0 0 0 -1 -1 0 0 0 0 0 1

Así, para la primera ecuación se obtendría la matriz A1 , integrada por los


coeficientes de variables excluidas de esta ecuación pero incluidas en el resto del
modelo:
 
1 −β4 0 0 0 0 0 0
0
 0 −γ2 −γ3 −γ4 0 0 0

−1 0 1 0 0 −1 0 0
 
0 0 −1 0 0 0 1 0
−1 0 0 0 0 0 0 1

y se comprueba que rang(A1 ) = 5 ya que existe una matriz de orden 5x5 con
determinante no nulo.
De modo análogo para la segunda ecuación se tiene la matriz A2 cuyo rango
también es 5
 
1 −α4 −α4 0 0 0 0 0 0
0
 1 0 −γ2 −γ3 -γ4 0 0 0

−1 1 0 1 0 0 −1 0 0
 
0 1 0 −1 0 0 0 1 0
0 0 0 0 0 0 0 0 0

Y por último para la tercera ecuación se obtiene A3


 
1 −α2 −α3 −α4 0 0 0 0 0
0
 −β2 −β3 0 1 -β4 0 0 0
−1 0 0 0 −1 0 −1 0 0
 
0 1 0 0 0 0 0 1 0
0 0 0 0 −1 −1 0 0 1

Y es posible comprobar que rang(A3 ) = 5 ya que existen matrices cuadradas


de ese orden cuyo determinante es no nulo.
Una vez confirmado que el modelo de Klein está sobreidentificado podemos llevar
a cabo su estimación mediante Mínimos Cuadrados en dos etapas (MC2E).

Sistema de ecuaciones, Mínimos cuadrados en dos etapas


368 SUPUESTO 24. KLEIN

Ecuación 1: MC2E, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: C
Instrumentos: const P_1 Wg K_1 X_1 time G T

Coeficiente Desv. Típica Estadístico t valor p


const 15,0416 2,58112 5,828 0,0000
P 0,109627 0,126425 0,8671 0,4005
P_1 0,254496 0,247946 1,026 0,3221
Wp 0,756944 0,257582 2,939 0,0108
Wg 1,08245 0,440733 2,456 0,0277

Media de la vble. dep. 52,58947 D.T. de la vble. dep. 5,457604


Suma de cuad. residuos 12,10171 D.T. de la regresión 0,929735

Ecuación 2: MC2E, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: I
Instrumentos: const P_1 Wg K_1 X_1 time G T

Coeficiente Desv. Típica Estadístico t valor p


const 13,7623 7,62411 1,805 0,0912
P 0,355570 0,175176 2,030 0,0605
P_1 0,449712 0,152323 2,952 0,0099
K_1 −0,128780 0,0357629 −3,601 0,0026

Media de la vble. dep. 0,968421 D.T. de la vble. dep. 3,600162


Suma de cuad. residuos 18,56817 D.T. de la regresión 1,112600

Ecuación 3: MC2E, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: Wp
Instrumentos: const P_1 Wg K_1 X_1 time G T

Coeficiente Desv. Típica Estadístico t valor p


const −0,348058 1,41686 −0,2457 0,8093
X 0,440584 0,0463126 9,513 0,0000
X_1 0,146584 0,0430478 3,405 0,0039
time 0,137439 0,0324614 4,234 0,0007

Media de la vble. dep. 35,01579 D.T. de la vble. dep. 4,707944


Suma de cuad. residuos 8,418465 D.T. de la regresión 0,749154

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

0, 63693 (0, 353) (−0, 529)


0, 27831 0, 97727 (0, 223)
−0, 28116 0, 14692 0, 44308

logaritmo del determinante = −2,05981


369

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (3) = 8,63379 [0,0346]

En la salida se observa que, aunque los coeficientes de determinación son elevados


en las tres ecuaciones, parecen existir problemas de especificación en el modelo
de consumo, donde las variables de precios no resultan significativas.
Además, en el análisis conjunto del modelo se observa que los residuos de las
ecuaciones están correlacionados (el test de Breusch Pagan proporciona un nivel
crítico reducido, que conduce al rechazo del supuesto de diagonalidad) y por
tanto parece aconsejable estimar el modelo por MC3E.

2. Contrastar si los salarios públicos y privados tienen el mismo im-


pacto marginal sobre el consumo

Sobre el modelo anterior la hipótesis propuesta permitiría escribir la ecuación


de consumo como:
Ct = α1 + α2 Pt + α3 Pt−1 + α4 (Wt p + Wt g) + u1t , o bien
Ct = α1 + α2 Pt + α3 Pt−1 + α4 Wt + u1t
donde W representa los salarios agregados.
Para realizar el contraste seleccionamos desde la salida del modelo estimado la
opción Contrastes . Restricciones lineales proponiendo la restricción:
b [1 ,4] - b [1 ,5]=0

La salida obtenida permite apreciar que el nivel crítico del test F de restricciones
es elevado y por tanto no se rechaza la hipótesis propuesta.

Contraste F de las restricciones especificadas:


F(1,14) = 0,222075 [0,6447]

Como consecuencia, podemos proponer un nuevo sistema con un parámetro


menos dado que en la ecuación de consumo aparece como variable explicativa
la suma de salarios públicos y privados.

Nota:
Cuando realizamos este contraste mediante el script del ejercicio:

smpl 1919 1939


Mod_Klein_1 <- system method = tsls
equation C const P P ( -1) Wp Wg
equation I const P P ( -1) K ( -1)
equation Wp const X X ( -1) time
identity X = C + I + G
identity P = X - T - Wp
identity K = K_1 + I
endog C I Wp X P K
370 SUPUESTO 24. KLEIN

end system

restrict " Mod_Klein_1 "


b [1 ,4] - b [1 ,5]=0
end restrict
printf " Estadístico F de contraste F (1, % d ) = %g , valor p = %g \ n " ,
$df , $test , $pvalue

El valor del estadístico es el mismo, pero el valor p no coincide porque el número


de grados de libertad que considera no es el mismo. Cuando el test se realiza
mediante el menú, se consideran los grados de libertad de la ecuación 1 (14g.l.).
Sin embargo, cuando se hace mediante script, Gretl indica: «Si los grados de
libertad de las diferentes ecuaciones no son los mismos en todas ellas, entonces el
valor devuelto se calcula restando el número de observaciones menos la media del
número de coeficientes de las ecuaciones (esta media se redondea al valor entero
inmediatamente superior), y en este caso Gretl asigna 15 grados de libertad.

Dicha variable, que denotamos W, se genera, para el recorrido muestral com-


pleto, en el menú Añadir . Nueva variable como W = W p + W g o mediante la
consola:
smpl -- full
W = Wp + Wg
smpl 1919 1939

y el nuevo sistema se especifica en Gretl como:


equation C const P P ( -1) W
equation I const P P ( -1) K ( -1)
equation Wp const X X ( -1) time
identity X = C + I + G
identity P = X - T - Wp
identity K = K_1 + I
endog C I Wp X P K

Sistema de ecuaciones, Mínimos cuadrados en dos etapas

Ecuación 1: MC2E, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: C
Instrumentos: const P_1 W K_1 X_1 time G T

Coeficiente Desv. Típica Estadístico t valor p


const 13,6559 1,44599 9,444 0,0000
P 0,124241 0,0804583 1,544 0,1434
P_1 0,105428 0,0780039 1,352 0,1965
W 0,884810 0,0436590 20,27 0,0000

Media de la vble. dep. 52,58947 D.T. de la vble. dep. 5,457604


Suma de cuad. residuos 10,50663 D.T. de la regresión 0,836924

Ecuación 2: MC2E, usando las observaciones 1921–1939 (T = 19)


371

Variable dependiente: I
Instrumentos: const P_1 W K_1 X_1 time G T

Coeficiente Desv. Típica Estadístico t valor p


const 6,25685 6,13317 1,020 0,3238
P 0,586315 0,120366 4,871 0,0002
P_1 0,268656 0,112528 2,387 0,0306
K_1 −0,0956486 0,0293270 −3,261 0,0053

Media de la vble. dep. 0,968421 D.T. de la vble. dep. 3,600162


Suma de cuad. residuos 16,12764 D.T. de la regresión 1,036907

Ecuación 3: MC2E, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: Wp
Instrumentos: const P_1 W K_1 X_1 time G T

Coeficiente Desv. Típica Estadístico t valor p


const −0,525523 1,38646 −0,3790 0,7100
X 0,454574 0,0382654 11,88 0,0000
X_1 0,135639 0,0380049 3,569 0,0028
time 0,136399 0,0326378 4,179 0,0008

Media de la vble. dep. 35,01579 D.T. de la vble. dep. 4,707944


Suma de cuad. residuos 8,541630 D.T. de la regresión 0,754614

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

0, 55298 (0, 038) (−0, 718)


0, 026122 0, 84882 (0, 139)
−0, 35819 0, 086122 0, 44956

logaritmo del determinante = −2,34244

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (3) = 10,2026 [0,0169]

3. Analizar si la estimación del modelo mejoraría utilizando otros


procedimientos alternativos

Teniendo en cuenta los resultados de los apartados anteriores estimamos el mo-


delo restringido por otros procedimientos que tienen en cuenta la información
completa del sistema. Concretamente Gretl incluye las opciones de Mínimos
Cuadrados en tres etapas (MC3E) y Máxima Verosimilitud con Información
Completa (MVIC).
372 SUPUESTO 24. KLEIN

Nota:
Los métodos de estimación con información completa estiman conjuntamente
el sistema de ecuaciones en forma estructural y por ello resultan más eficientes
asintóticamente. Entre estos procedimientos se encuentra el método de Míni-
mos Cuadrados en tres etapas (MC3E o 3SLS) propuesto en Zellner 1960que,
si bien teóricamente es el más adecuado, en la práctica no es muy utilizado de-
bido a varios motivos: sus exigentes requerimientos de cálculo, la aparición de
restricciones no lineales en los parámetros que exige la utilización de métodos
de aproximación no numérica y el posible “contagio” de errores de especificación
en alguna ecuación al resto del sistema.

La salida de MC3E proporciona la salida siguiente, donde se observa que los


resultados del modelo estimado son similares a los anteriores, con un valor más
reducido del logaritmo del determinante de la matriz de covarianzas cruzadas y
se confirma la existencia de correlación entre los residuos.
Además el contraste de sobreidentificación de Hansen-Sargan proporciona un
nivel crítico muy reducido por lo que se rechaza la hipótesis de idoneidad de
todos los instrumentos (lo cual corrobora los problemas de especificación de la
ecuación de consumo)

Sistema de ecuaciones, Mínimos cuadrados en tres etapas

Ecuación 1: MC3E, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: C
Instrumentos: const P_1 W K_1 X_1 time G T

Coeficiente Desv. Típica z valor p


const 13,2939 1,27990 10,39 0,0000
P 0,190424 0,0650917 2,925 0,0034
P_1 0,0442824 0,0622100 0,7118 0,4766
W 0,891330 0,0385171 23,14 0,0000

Media de la vble. dep. 52,58947 D.T. de la vble. dep. 5,457604


Suma de cuad. residuos 9,787628 D.T. de la regresión 0,717731

Ecuación 2: MC3E, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: I
Instrumentos: const P_1 W K_1 X_1 time G T

Coeficiente Desv. Típica z valor p


const 9,73581 5,35920 1,817 0,0693
P 0,529418 0,105773 5,005 0,0000
P_1 0,318084 0,0989359 3,215 0,0013
K_1 −0,112331 0,0256128 −4,386 0,0000

Media de la vble. dep. 0,968421 D.T. de la vble. dep. 3,600162


Suma de cuad. residuos 15,96875 D.T. de la regresión 0,916766
373

Ecuación 3: MC3E, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: Wp
Instrumentos: const P_1 W K_1 X_1 time G T

Coeficiente Desv. Típica z valor p


const −0,741608 1,22009 −0,6078 0,5433
X 0,434451 0,0309839 14,02 0,0000
X_1 0,160117 0,0298562 5,363 0,0000
time 0,136091 0,0283290 4,804 0,0000

Media de la vble. dep. 35,01579 D.T. de la vble. dep. 4,707944


Suma de cuad. residuos 8,494562 D.T. de la regresión 0,668642

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

0, 51514 (0, 115) (−0, 746)


0, 075403 0, 84046 (0, 208)
−0, 35785 0, 12749 0, 44708

logaritmo del determinante = −2,68611

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (3) = 11,6357 [0,0087]

Contraste de sobreidentificación de Hansen–Sargan:


χ2 (12) = 35,534 [0,0004]

Entre las opciones de estimación de Gretl se encuentra también el método de


Máxima Verosimilitud con Información Completa (MVIC), que conduce a una
estimación parecida a la anterior:

Sistema de ecuaciones, Máxima Verosimilitud con Información Completa


Se alcanzó la convergencia después de 24 iteraciones
Log-verosimilitud = −58,2926

Ecuación 1: MVIC, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: C

Coeficiente Desv. Típica z valor p


const 13,6614 1,18417 11,54 0,0000
P 0,181020 0,0536468 3,374 0,0007
P_1 0,0787414 0,0558533 1,410 0,1586
W 0,872111 0,0329412 26,47 0,0000

Media de la vble. dep. 52,58947 D.T. de la vble. dep. 5,457604


Suma de cuad. residuos 9,762540 D.T. de la regresión 0,716811
374 SUPUESTO 24. KLEIN

Ecuación 2: MVIC, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: I

Coeficiente Desv. Típica z valor p


const 32,1826 6,77718 4,749 0,0000
P −0,0465349 0,142754 −0,3260 0,7444
P_1 0,766062 0,143667 5,332 0,0000
K_1 −0,213254 0,0327297 −6,516 0,0000

Media de la vble. dep. 0,968421 D.T. de la vble. dep. 3,600162


Suma de cuad. residuos 47,37690 D.T. de la regresión 1,579089

Ecuación 3: MVIC, usando las observaciones 1921–1939 (T = 19)


Variable dependiente: Wp

Coeficiente Desv. Típica z valor p


const 0,0268840 1,20959 0,02223 0,9823
X 0,387637 0,0293608 13,20 0,0000
X_1 0,193542 0,0252094 7,677 0,0000
time 0,140082 0,0250571 5,591 0,0000

Media de la vble. dep. 35,01579 D.T. de la vble. dep. 4,707944


Suma de cuad. residuos 9,426245 D.T. de la regresión 0,704357

Matriz de covarianzas cruzada residual


(Correlaciones por encima de la diagonal principal)

0, 51382 (0, 257) (−0, 677)


0, 29042 2, 4935 (0, 446)
−0, 34162 0, 49578 0, 49612

logaritmo del determinante = −2,54946

Contraste de Breusch–Pagan de diagonalidad de la matriz de covarianzas:


χ2 (3) = 11,6357 [0,0087]

4. Obtener predicciones para el horizonte 1940-1941

A la vista de los resultados anteriores parece adecuada la estimación por MC3E


por lo que partimos del modelo estimado por este procedimiento para obtener
las predicciones de las distintas variables endógenas en el horizonte 1940-41.
Más concretamente, desde la opción Análisis . Predicciones se obtiene para el
consumo:

Para intervalos de confianza 95 %, t(15, ,0, 025) = 2, 131


375

Observaciones C Predicción Desv. típica Intervalo de 95 %


1940 65,0 65,2 1,04 63,0 67,5
1941 69,7 74,7 1,04 72,5 76,9

Estadísticos de evaluación de la predicción (T = 2)


Error medio −2,6217
Error cuadrático medio 3,5365
Raíz del Error cuadrático medio 1,8805
Error absoluto medio 2,6217
Porcentaje de error medio −3,7743
Porcentaje de error absoluto medio 3,7743
U de Theil 1,0628
Proporción de sesgo, U M 0,54959
Proporción de la regresión, U R 0,45041
Proporción de la perturbación, U D 9,8048e-17

Para la inversión, que suele ser uno de los componentes más irregulares de la de-
manda, las predicciones obtenidas presentan errores porcentuales muy elevados
y un índice de Theil superior a 2

Para intervalos de confianza 95 %, t(15, ,0, 025) = 2, 131

Observaciones I Predicción Desv. típica Intervalo de 95 %


1940 3,3 3,9 1,58 0,6 7,3
1941 4,9 8,2 1,64 4,7 11,7

Estadísticos de evaluación de la predicción (T = 2)


Error medio −1,9822
Error cuadrático medio 2,3911
Raíz del Error cuadrático medio 1,5463
Error absoluto medio 1,9822
Porcentaje de error medio −43,644
Porcentaje de error absoluto medio 43,644
U de Theil 2,0746
Proporción de sesgo, U M 0,68724
Proporción de la regresión, U R 0,31276
Proporción de la perturbación, U D 0

En lo que respecta a los salarios puede verse que las predicciones resultan mucho
más fiables,

Para intervalos de confianza 95 %, t(15, ,0, 025) = 2, 131

Observaciones Wp Predicción Desv. típica Intervalo de 95 %


1940 45,0 46,7 0,87 44,8 48,5
1941 53,3 56,7 0,95 54,6 58,7
376 SUPUESTO 24. KLEIN

Estadísticos de evaluación de la predicción (T = 2)


Error medio −2,5133
Error cuadrático medio 2,6554
Raíz del Error cuadrático medio 1,6295
Error absoluto medio 2,5133
Porcentaje de error medio −5,0021
Porcentaje de error absoluto medio 5,0021
U de Theil 0,40604
Proporción de sesgo, U M 0,89589
Proporción de la regresión, U R 0,10411
Proporción de la perturbación, U D 0

El modelo proporciona también predicciones para las variables endógenas obte-


nidas a partir de las identidades (X, P y K), entre las cuales el peor comporta-
miento corresponde a los beneficios empresariales P

Para intervalos de confianza 95 %, t(15, ,0, 025) = 2, 131

Observaciones X Predicción Desv. típica Intervalo de 95 %


1940 75,7 76,6 2,43 71,4 81,8
1941 88,4 96,7 2,43 91,5 101,9

Estadísticos de evaluación de la predicción (T = 2)


Error medio −4,6039
Error cuadrático medio 5,9131
Raíz del Error cuadrático medio 2,4317
Error absoluto medio 4,6039
Porcentaje de error medio −5,2928
Porcentaje de error absoluto medio 5,2928
U de Theil 0,65469
Proporción de sesgo, U M 0,60622
Proporción de la regresión, U R 0,39378
Proporción de la perturbación, U D 0

Para intervalos de confianza 95 %, t(15, ,0, 025) = 2, 131

Observaciones P Predicción Desv. típica Intervalo de 95 %


1940 21,1 20,3 1,84 16,4 24,3
1941 23,5 28,4 1,84 24,5 32,4

Estadísticos de evaluación de la predicción (T = 2)


377

Error medio −2,0906


Error cuadrático medio 3,5376
Raíz del Error cuadrático medio 1,8809
Error absoluto medio 2,8538
Porcentaje de error medio −8,7114
Porcentaje de error absoluto medio 12,329
U de Theil 2,0602
Proporción de sesgo, U M 0,34923
Proporción de la regresión, U R 0,65077
Proporción de la perturbación, U D 0

Para intervalos de confianza 95 %, t(15, ,0, 025) = 2, 131

Observaciones K Predicción Desv. típica Intervalo de 95 %


1940 204,5 205,1 1,58 201,8 208,5
1941 209,4 213,4 2,23 208,6 218,1

Estadísticos de evaluación de la predicción (T = 2)


Error medio −2,3047
Error cuadrático medio 2,8401
Raíz del Error cuadrático medio 1,6853
Error absoluto medio 2,3047
Porcentaje de error medio −1,1043
Porcentaje de error absoluto medio 1,1043
U de Theil 0,80906
Proporción de sesgo, U M 0,6585
Proporción de la regresión, U R 0,3415
Proporción de la perturbación, U D 0
378 SUPUESTO 24. KLEIN
Bibliografía

Aitken, A.C. (1935). “On Least Squares and Linear Combinations of Obser-
vations”. En: Proceedings of the Royal Society of Edinburgh 55, 42-48. doi:
https://doi.org/10.1017/S0370164600014346.
Akaike, H. (1974). “A new look at the statistical model identification”. En:
Transactions on Automatic Control AC-19, págs. 716-723.
Angrist J.D.; Pischke, J.S. (2014). Mastering Metrics. The path from cause to
effec. Princeton University Press.
Baiocchi G.; Distaso, W. (2003). “GRETL: Econometric software for the GNU
generation”. En: Journal of Applied Econometrics 18, págs. 105-110.
Basmann, R.L. (1957). “A Generalized Classical Method of Linear Estimation
of Coefficients in a Structural Equation”. En: Econometrica 25.77-83.
Belsley D.A.; Kuh K.; Welsch, R.E. (1980). Regression Diagnostics: Identifying
Influential Data and Sources of Collinearity. Wiley Series in Probability and
Statistics. John Wiley y Sons, Inc.
Bera A.K.; Jarque C.M.; Lee, L.F. (1984). “Testing the normality assumption in
limited dependent variable models”. En: International Economic Review 25,
págs. 563-578.
Box G.E.P.; Jenkins, G. (1976). Time Series Analysis: Forecasting and Control.
San Franciso: Holden-Day.
Breusch T.S.; Pagan, A.R. (1979). “A Simple Test for Heteroskedasticity and
Random Coefficient Variation”. En: Econometrica 45.5, págs. 1287-1294.
– (1980). “The Lagrange Multiplier Test and its Applications to Model Specifi-
cation in Econometrics”. En: The Review of Economic Studies 47.1, págs. 239-253.
Breusch, T.S. (1978). “Testing for Autocorrelation in Dynamic Linear Models”.
En: Australian Economic Papers 17, 334-355. doi:https : / / doi . org / 10 .
1111/j.1467\bibrangedash8454.1978.tb00635.x.
Cobb C.W.; Douglas, P.H. (1928). “A Theory of Production”. En: American
Economic Review 18 (supplement), págs. 139-165.
Cochrane D.; Orcutt, G.H. (1949). “Application of Least Squares Regression to
Relationships Containing Auto-Correlated Error Terms”. En: ournal of the
American Statistical Association 44.245, 32-61. doi:https://doi.org/10.
1080/01621459.1949.10483290.
Cottrell A.; Lucchetti, R. (2019a). A Hansl Primer. URL: https://sourceforge.
net/projects/gretl/files/manual/hansl-primer.pdf/download.
– (2019b). Gretl User’s Guide. Gnu Regression, Econometrics and Time-series
Library. URL: https://sourceforge.net/projects/gretl/files/manual/
gretl-guide.pdf/download.

379
380 BIBLIOGRAFÍA

Davidson R.; MacKinnon, J.G. (2004). Econometric Theory and Methods. New
York: Oxford University Press.
Doornik J.A.; Hansen, H. (1984). “An omnibus test for univariate and multiva-
riate normality”. En: Working paper 25, págs. 563-578.
Durbin J.; Watson, G.S. (1950). “Testing for Serial Correlation in Least Squares
Regression, I”. En: Biometrika 37.3-4, 409-428. doi:https://doi.org/10.
1093/biomet/37.3\bibrangedash4.409. JSTOR 2332391.
– (1951). “Testing for Serial Correlation in Least Squares Regression, II”. En:
Biometrika 38.1-2, 159-179. doi:https://doi.org/10.1093/biomet/38.1\
bibrangedash2.159. JSTOR 2332325.
Esteban, M.V. y otros (2009). Econometría básica aplicada con Gretl. Universi-
dad del País VascoURL: http://cort.as/-M8Km.
Godfrey, L.G. (1978). “Testing Against General Autoregressive and Moving Ave-
rage Error Models when the Regressors Include Lagged Dependent Variables”.
En: Econometrica 46, 1293-1301. doi:https : / / www . jstor . org / stable /
1913829. JSTOR 1913829.
Greene, W.H. (2018). Análisis Econométrico. Ed. Prentice Hall.
Gujarati D.; Porter, D.C. (2010). Econometría. Ed. McGraw-Hill.
Hannan, E.J.; Quinn B.G. (1979). “The determination of the order of an auto-
regression”. En: Journal of the Royal Statistical Society B41, págs. 190-195.
Hansen, L.P. (1982). “Large Sample Properties of Generalized Method of Mo-
ments Estimators”. En: Econometrica 50.4, 1029-1054. doi:https : / / www .
jstor.org/stable/1912775. JSTOR 1912775.
Hausman, J.A. (1978). “Specification tests in econometrics”. En: Econometrica
46, págs. 1251-1271.
Keynes, J.M. (1936). General Theory of Employment, Interest, and Money.
URL: http://etext.library.adelaide.edu.au/k/k44g/k44g.html.
Koenker, R. (1980). “A note on studentizing a test for heteroscedasticity”. En:
Journal of Econometrics 17.1, págs. 107-112.
Kolmogorov, A. (1933). “Sulla determinazione empirica di una legge di distri-
buzione”. En: G. Ist. Ital. Attuari. 4, págs. 83-91.
Kuznets, S. (1955). “Economic growth and income inequality”. En: The Ameri-
can Economic Review 45.No.1, págs. 1-28.
Lilliefors, H. (1967). “On the Kolmogorov–Smirnov test for normality with mean
and variance unknown”. En: Journal of the American Statistical Association
62, págs. 399-402.
Ljung G.M.; Box, G.E.P. (1978). “On a Measure of a Lack of Fit in Time Series
Models”. En: Biometrika 65.2, 297-303. doi: https://doi.org/10.1093/
biomet/65.2.297.
López A.J.; Pérez, R. (1999). “Econometría aplicada y predicción. Supues-
tos resueltos con Econometric Views”. En: Documento de Trabajo Hispalink-
Asturias DT.1/1999.
– (2009). “Towards the European Higher Education Area. Blended learning
experiences in Econometrics”. En: V International Conference on Multimedia
and Communication Technologies in Education m-ICTE 2009. Ed. por URL
http://www.formatex.org/micte2009/volume2.htm. Lisboa.
– (2011). “Blended Learning in Econometrics. Crossing borders between Lear-
ning and Doing”. En: China-USA Business Review 10.1, págs. 73-80.
– (2012). “Convergencia digital y software libre en el EEES. Algunas experien-
cias con Gretl”. En: @tic. Revista d’innovació educativa 9, págs. 1-8.
BIBLIOGRAFÍA 381

– (2015). “Facing the Four-F test: Gretl´s Achievements and Challenges”. En:
IV Gretl Conference. Berlin.
Maddala, G.S. (1985). Econometría. McGraw-Hill.
McFadden, D. (1974). “Conditional Logit analysis of Qualitative Choice Beha-
vior”. En: ed. por Zerenbka (ed.) New York: Frontiers in Econometrics. URL
https://eml.berkeley.edu/reprints/mcfadden/zarembka.pdf. Cap. 4,
págs. 105-142.
Pérez R.; López, A.J. (1997). Análisis de datos económicos II. Métodos inferen-
ciales. Madrid: Pirámide.
– (2009). “Teaching and Learning Econometrics with Gretl. Summarizing some
experiences”. En: Econometrics with Gretl. Proceedings of the Gretl Confe-
rence 2009. Ed. por Universidad del País Vasco. Universidad del País Vasco,
págs. 191-201.
– (2011). Métodos estadísticos para Economía y Empresa. Madrid: URL: http:
//cort.as/-LMKe.
Pindyck R.S.; Rubinfeld, D.L. (2000). Econometría. Modelos y pronósticos. Ed.
McGraw-Hill.
Pulido A.; Pérez, J. (2001). Modelos Econométricos. Madrid: Pirámide.
Quandt, R.E. (1960). “Tests of the hypothesis that a linear regression system
obeys two separate regimes”. En: Journal of American Statistical Association
55, págs. 320-330.
Ramanathan, R. (2002). Introductory Econometrics with Applications. Harcourt
College Publisher.
Ramsey, J.B. (1969). “Tests for Specification Errors in Classical Linear Least
Squares Regression Analysis”. En: Journal of the Royal Statistical Society
Series B.31(2), págs. 350-371.
Sargan, J.D. (1958). “The Estimation of Economic Relationships Using Instru-
mental Variables”. En: Econometrica 26.3, 393-415. doi:https://www.jstor.
org/stable/1907619. JSTOR 1907619.
– (1975). “Testing for misspecification after estimating using instrumental va-
riables”. En: Mimeo. London School of Economics.
Schumpeter, J. (1933). “The common sense in Econometrics”. En: Econometrica
1.1, págs. 5-12.
Schwarz, G (1978). “Estimating the dimension of a model”. En: Annals of Sta-
tistics 6.2, págs. 461-464.
Shapiro S.S.; Wilk, M.B. (1965). “An analysis of variance test for normality
(complete samples)”. En: Biometrika 52.3-4, 591-611. doi:https://doi.org/
10.1093/biomet/52.3\bibrangedash4.591. JSTOR 2333709MR 205384.
Smirnov, N (1948). “Table for estimating the goodness of fit of empirical dis-
tributions”. En: Annals of Mathematical Statistics 19.2, 279-281. doi:https:
//projecteuclid.org/euclid.aoms/1177730256.
Stock J.H; Watson, M.W. (2010). Introduction to Econometrics. Ed. Addison
Wesley.
Theil, H. (1953). “Estimation and Simultaneous Correlation in Complete Equa-
tion Systems”. Central Planning Bureau, The Hague, Netherlands.
– (1958). Economic Forecasts and Policy. Amsterdam: North-Holland.
– (1961). Economic Forecasting and Policy. North-Holland.
– (1966). Applied Economic Forecasting. North-Holland.
Uriel E.; Contreras D.; Moltó M.L.; Peiró, A. (1990). Econometría. El modelo
lineal. AC.
382 BIBLIOGRAFÍA

White, H. (1980). “A heteroskedasticity-consistent covariance matrix astimator


and a direct test for heteroskedasticity”. En: Econometrica 48(4), págs. 817-838.
Wooldridge, J.M. (2008). Introducción a la econometría. Un enfoque moderno.
Paraninfo.
Zellner A.; Theil, H. (1960). “Three-stage least squares: simultaneous estimation
of simultaneous equations”. En: Econometrica 30.1, 54-78. doi: https://www.
jstor.org/stable/1911287.
Índice de contenidos

A Estimación, 317
Análisis de varianza, 56 Identificación, 311
Análisis de varianza (ANOVA), 99 Estadístico T R2 , 191
Estimación con matriz de varianzas-
C covarianzas robusta, 238
Cambio estructural Estimador
Contraste de Chow, 249 MCO, 86
Contraste de RV de Quandt, 246 MV, 87
Coeficiente de determinación, 44 VI
Estimador β̂ , 222
Coeficientes de regresión simple, 41 Evaluación de modelos, 81
Contraste Evaluación de predicciones, 85
Breusch-Pagan de diagonalidad,
318 F
Contraste de Chow, 249 Función de verosimilitud, 62
Contraste de Durbin-Watson, 242
Contraste de instrumento débil, 225 I
Contraste de Normalidad, 243 Intervalo de confianza para la pre-
Contraste de restricciones lineales, dicción, 83
108 Intervalo de confianza para los co-
Contraste de RV de Quandt, 246 eficientes, 54
Contrastes
Breusch-Godfrey, 290 M
debilidad de instrumentos, 341 MCO con variables dicotómicas, 158
Ljung-Box, 359 MCP, 263
Sargan, 341 Mínimos cuadrados restringidos, 144
sobre instrumentos, 341 Modelo de Cochrane Orcutt, 295
Contrastes χ2 para restricciones de Modelo logit, 159
coeficientes, 147 modelo probit, 160
Contrastes de Normalidad Multicolinealidad, 111
Doornik-Hansen, 244
Jarque-Bera, 245 O
Kolmogorov-Smirnov, 245 Odds y Odd ratio, 161
Otros, 244
Shapiro-Wilk, 244 P
Pendiente modelo logit, 172
D
Diagnósticos de colinealidad de Belsley- T
Kuh-Welsch, 118 Test de Breusch-Pagan, 261, 262
Test de Hausman, 225
E Test de Koenker, 262
Ecuaciones simultáneas Test de significación global, 96

383
384 ÍNDICE DE CONTENIDOS

Test de significación individual, 41,


97
Test de White, 240
Test RESET de Ramsey, 189

V
Valor atípico, 78
Variables instrumentales, 222
Varianza de la predicción e interva-
los de confianza, 126
Índice de Scripts

C
Cálculo de elasticidades medias, 157
Cálculo de Odd ratio, 162
Cálculo de R2 y F, 107
Calculo matricial de β̂ M CO y β̂ M CR ,
109
Cálculo matricial estimación MCO,
90, 102

E
Estabilidad coeficientes en distintos
modelos, 70

H
Heterocedasticidad
Función de heterocedasticidad,
268

I
Intervalo de confianza para β2 , 55

M
Mínimos cuadrados en dos etapas,
228
Modelo no lineal, 210

T
Test de Breusch-Pagan, 275
Test de Hausman, 228
Test de Koenker, 275
Test de linealidad, 192
Test de White, 260, 274
Test LR y R2 de MacFadden,
177
Test RESET de Ramsey, 190

385

View publication stats

También podría gustarte