Está en la página 1de 328

MODELOS ECONOMÉTRICOS

!7
A modo de presentación

Los estudiosos del campo económico tienden a establecer sus opiniones desde muchas
perspectivas, algunos se basan en los hechos regulares o persistentes que existieron en largos
períodos de tiempo y que tienden a repetirse, por ejemplo la existencia de déficit fiscal puede
generar problemas inflacionarios en las economías, debido a la monetización de dichos déficit y a
una situación de gasto excesivo. Esta realidad tiene evidencias desde los eventos que derivaron
en la revolución francesa, se aplican a las economías latinoamericanas en los años 90 y aún hoy
son aplicables a economías como la Griega o la Venezolana en pleno siglo XXI.
Las evidencias así denominadas históricas terminan siendo aspectos generalizados que
simplemente prueban la hipótesis de su existencia porque en la historia son recurrentes. A todos
les queda claro que la emisión monetaria es perjudicial cuando genera inflaciones por encima de
los equilibrios de largo plazo. Evidencias de ellos tenemos, desde las inflaciones en la España
colonizadora, hasta los procesos inflacionarios en Alemania de entre guerras, Bolivia junto a Perú
en las postrimerías de los años 80 y así se pueden obtener otras evidencias de ello, de modo que
la vista histórica es algo bastante extendido en el análisis económico.

Otras miradas al análisis económico se basan en hechos concretos que derivan del
comportamiento humano, así los economistas en el siglo XVIII evidenciaron que las personas
intercambiaban bienes en función a algún valor dado en ellos, en principio el valor podía ser
mucho y por ende el cambio de la mercancía se hacía sobre mayores bienes o sobre mayor valor
monetario (los albores de la moneda en oro), esta medición sobre los hechos constituía la base
del descubrimiento de teorías (como la de oferta y demanda) que luego se probaban basados en
la recurrencia de los actos humanos.
Los éxitos teóricos iban de la mano de una regularidad empírica observable, por tanto las
hipótesis quedaban probadas, el éxito de muchas teorías de este tipo pueden encontrarse hasta
nuestros días, donde los economistas no discuten las leyes de oferta y demanda, sino sus
excepciones o sus no cumplimientos (también observadas en la realidad), con fines de agregar
un mayor bagaje al entendimiento de los mercados.

No obstante lo importante de las vistas anteriores, los economistas han pretendido tener una
idea mas clara de los eventos o fenómenos de la realidad económica, la idea de cuantificar los
procesos económicos es una de las vertientes más importantes de la ciencia económica, en esta
rama cae la econometría, pretendiendo darle un valor a las relaciones entre diversas variables
económicas, o buscando saber si estas relaciones son persistentes en algún período de tiempo o
son coyunturales, o simplemente son relaciones a largo plazo.

! !8
En los tiempos recientes, la idea de saber el impacto causado por las políticas económicas o
sociales, ha devenido en nuevas herramientas econométricas que se conjugan en incluso
vertientes específicas como la macro y microeconometría, no obstante ambos aspectos tienen la
misma base teórica instrumental, que simplemente las variables de análisis deben tener
relaciones medibles en condiciones de estabilidad o de ausencia de un error intencional, es decir
bases muy vinculadas a la aleatoriedad que debe tener todo diseño de modelos econométricos.
La econometría no ha escapado al debate sobre sus aplicaciones en el campo del análisis de
eventos o de simplemente pronósticos, sin embargo al margen de pretender hacer de
futurólogos, lo que más pretende un buen análisis econométrico es entender porque algunos
eventos económicos son particularmente causados por alguna variable, o son influenciados de
algún modo por algún evento que puede ser administrado o no por los ejecutores de políticas,
con fines de tener ideas claras de lo que funciona o no en las economías del mundo.

Este libro se enmarca en esa idea central, buscar que los economistas pueden tener alguna
herramienta adicional para entender la dinámica de los sucesos económicos y sus distintas
variables relacionadas, está orientado al diseño de modelos econométricos en cada unos de sus
capítulos. Nos hemos permitido tomar ideas interesantes de diversos autores, con fines de que
los lectores puedan esbozar sus propios modelos o sus propios entendimientos de esa realidad
económica específica.
La primera parte del libro se aboca a los cursos básicos de econometría (capítulos I al VIII)
donde se analizan los modelos generales y sus distintas aplicaciones así como desventajas por
decirlo de algún modo, ya que tienen muchas utilidades antes que las denominadas fallas que se
señalan comúnmente. Dichas fallas han originado una serie de modelos econométricos que
permiten complementarlas o por lo menos darles rigurosidad a los resultados obtenidos, la
segunda parte del libro se aboca a dichos modelos derivados de aquellos básicos o con
desventajas, por ejemplo las series de tiempo estacionarias, los modelos Tobit, los paneles de
datos y algunas aplicaciones más cercanas al mundo de la empresa, de modo que los capítulos
IX al XIV, pueden ser muy aplicativos en cursos de econometría de mayor complejidad o
tratamiento.

Finalmente señalamos que el libro puede contener, como todo en la vida, muchos errores y
quizás aciertos, solo esperamos que la comunidad académica puede tener en este documento
una referencia adicional a la hora de diseñar sus modelos econométricos o plantear relaciones de
este tipo. Hay que agradecer también a los alumnos de estos cursos, que han permitido el
esfuerzo de poder corregirlo con sus siempre inteligentes aportes, así como a todos los colegas
involucrados en ello, para lo cual van nuestros agradecimientos infinitos.

C. León / A. Escajadillo
!9
ÍNDICE pág.

Introducción 17

I. Modelación econométrica: De la teoría económica al modelo estimable

Introducción al tema 21

1.1. Planteamiento de modelos desde la teoría económica 22

1.2. Proceso generador de datos y datos observados 27

1.3. Modelos estimables y modelos estadísticos 38

1.4. Errores de diseño 42

1.5. Modelos de predicción y estimación 45

1.6. Evaluación de políticas con modelos econométricos 46

Conclusiones del capítulo 49


Caso de aplicación 51
Ejercicios 53
Referencias bibliográficas 56

II. Relaciones estadísticas entre variables aleatorias

Introducción al tema 59

2.1. Variables aleatorias 60

2.2. Valor esperado de una variable aleatoria 64

2.3. Varianza de una variable aleatoria 67

2.4. Media y varianza condicional 68


!10
2.5. Correlación entre variables aleatorias 78

Conclusiones del capítulo 81


Caso de aplicación 83
Ejercicios 85
Referencias bibliográficas 86

III. Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Introducción al tema 88

3.1 Criterios básicos a cumplir en un modelo de regresión 89

3.2 Estimación de parámetros 98

3.3 Ajuste de modelos 103

3.4 Significancia de parámetros y del modelo 110

Conclusiones del capítulo 121


Caso de aplicación 123
Ejercicios 130
Referencias bibliográficas 135

4 Modelo de regresión general y método de máxima verosimilitud

Introducción al tema 137

4.1 Planteamiento del modelo general con matrices 138

4.2 Significancia de parámetros y medidas globales de ajuste 146

4.3 Estimación de parámetros con Máxima verosimilitud 154

Conclusiones del capítulo 160


Caso de aplicación 162
Ejercicios 168

!11
Referencias bibliográficas 169

5 Multicolinealidad en modelos econométricos

Introducción al tema 173

5.1 Problemas de la estimación con multicolinealidad 174

5.2 Detección de la multicolinealidad 187

5.3 Corrección de la multicolinealidad 194

5.4 Uso de variables proxy e instrumentales 202

Conclusiones del capítulo 210


Caso de aplicación 213
Ejercicios 215
Referencias bibliográficas 216

6 Heterocedasticidad en Modelos econométricos

Introducción al tema 219

6.1 Modelos seriales y diseño de modelos transversales 220

6.2 Razones, fallas en la estimación y detección de la heterocedasticidad 230

6.3 Corrección de la heterocedasticidad 244

Conclusiones del capítulo 252


Caso de aplicación 254
Ejercicios 258
Referencias bibliográficas 259

7 Autocorrelación de errores

Introducción al tema 262

12
!
7.1 Fallas generadas en los modelos por autocorrelación de errores 263

7.2 Detección de la autocorrelación de errores 272

7.3 Corrección de la autocorrelación de errores 279

Conclusiones del capítulo 283


Caso de aplicación 285
Ejercicios 288
Referencias bibliográficas 290

8 Modelos de respuesta limitada: Probabilidad lineal y logit

Introducción al tema 293

8.1 Modelos de regresión de probabilidad lineal 294

8.2 Modelos de regresión logit 303

8.3 Significancia y ajuste en modelos logit 318

Conclusiones del capítulo 326


Caso de aplicación 329
Ejercicios 331
Referencias bibliográficas 334

9 Modelos probabilísticos con distribución normal: Probit y tobit

Introducción al tema 336

9.1 Requerimientos para el diseño de un modelo Probit 337

9.2 Estimación, significancia y ajuste de un modelo probit 340

9.3 Modelos Tobit y estimaciones en dos etapas 349

Conclusiones del capítulo 362


Caso de aplicación 364
!13
Ejercicios 366
Referencias bibliográficas 378

10 Estructura y estacionariedad de series de tiempo

Introducción al tema 380

10.1 Estructura de series de tiempo 381

10.2 Analizando las series de tiempo autoregresivas y su estacionariedad 390

10.3 Series de tiempo en media móvil y su estacionariedad 396

10.4 Series de tiempo autoregresivas con media móvil (ARMA) y coeficientes de 400
correlación parcial

10.5 Estacionariedad de series y pruebas de raíz unitaria 406

10.6 Introducción a los filtros de series de tiempo 426

Conclusiones del capítulo 432


Caso de aplicación 434
Ejercicios 436
Referencias bibliográficas 437

11 Modelos de Vectores Autoregresivos (VAR) y cointegración de series

Introducción al tema 440

11.1 Requisitos e introducción a los modelos de Vectores Autoregresivos 441

11.2 Estimación de modelos de Vectores Autoregresivos (VAR) y 448


descomposición de varianza

11.3 Función de impulso respuesta en el VAR y causalidad 455

11.4 Series no estacionarias y cointegración 466 !

14!
Conclusiones del capítulo 477
Caso de aplicación 479
Ejercicios 481
Referencias bibliográficas 490

12 Introducción a los Modelos de panel de datos

Introducción al tema 493

12.1 Diseño de un panel de datos 494

12.2 Modelo de panel con efectos fijos 497

12.3 Modelo de panel con efectos aleatorios 505

12.4 Estimación de modelos de panel de datos 515

12.5 Test para efectos fijos o aleatorios 521

Conclusiones del capítulo 525


Caso de aplicación 527
Ejercicios 529
Referencias bibliográficas 535

13 Modelos con heterocedasticidad condicional y evaluación de impacto

Introducción al tema 538

13.1 Modelos de varianza condicional ARCH y GARCH 539

13.2 Aplicación de modelos de varianza autoregresiva condicional ARCH y GARCH 542

13.3 El impacto transversal de las políticas públicas 555

13.4 Evaluación del impacto y selección aleatoria 557

!15
13.5 Evaluación del impacto por método de diferencias en diferencias 567

13.6. Evaluación del impacto por método de emparejamiento 573

Conclusiones del capítulo 576


Caso de aplicación 578
Ejercicios 580
Referencias bibliográficas 586

14 Modelos no paramétricos para análisis de datos transversales

Introducción al tema 591

14.1 Técnicas de reducción de datos: Análisis factorial 592

14.2 Técnicas de agrupamiento de elementos: Análisis cluster o de conglomerados 616

14.3 Técnicas de desarrollo de productos: Análisis de conjuntos 632

14.4 Análisis de correspondencias para el posicionamiento de marcas 647

Conclusiones del capítulo 655


Caso de aplicación 657
Ejercicios 659
Referencias bibliográficas 665

!
16
Introducción
Este libro consta de 14 capítulos, se ha pensado en una secuencia de temas que ayuden a
los estudiantes de econometría a pasar de los modelos básicos a aquellos cuyo tratamiento es
más complejo. El capítulo I nos introduce en el hecho de que todo modelo econométrico parte de
alguna teoría básica; en algunos diseños avanzados, los modelos parten de lo que el
investigador podría pensar como evento económico a estudiar y donde la teoría es inexistente
aún o es parcial y puede ser ampliada o evidenciada de modo reciente. Las teorías diversas
deben tener formas de medirse y para ellos se requiere procesos generadores de datos los
mismos que llevan al tratamiento estadístico que arrojan los resultados que podrían probar o no
alguna hipótesis.

El capítulo II introduce al tratamiento estadístico de los datos, se analizan la aleatoriedad de


las variables y como estas relaciones permiten establecer comportamientos asociados y
medibles en indicadores diversos, tanto de desviación como de correlación. Estos aspectos son
ampliados ya desde una perspectiva econométrica en los capítulos III y IV. Estos últimos
capítulos nos llevan a la estimación de modelos de regresión básicos (una sola variable
explicativa) o modelos de regresión general (muchas variables explicativas). El tratamiento de los
resultados es equivalente, la forma de llegar a las mediciones puede variar en su tratamiento
operativo, pero en concreto ambos capítulos permiten entender cuando un modelo es válido o
expresa correctamente las relaciones económicas planteadas y permite estimar una prueba de
hipótesis de modo correcto.

Del capitulo V al capítulo VII se tratan los ya clásicos rompimientos de los supuestos básicos
de un modelo econométrico, como son la multicolinealidad que nos lleva a pensar en distintas
formas de solución para variables redundantes o poco explicativas, e inclusive en plantear
modelos usando las complejas variables instrumentales. Luego tenemos los modelos con
varianza cambiante o heterocedásticos, donde tratamos de explicar que corregirlo, mas que un
tema de usar desviaciones o mínimos cuadrados generalizados, pasa por diseñar mejor las
muestras de estudio. Finalmente esta sección concluye con los modelos con errores
autocorrelacionados, cuya solución (primeras diferencias) ha generado toda la gama de modelos
de series de tiempo tan usada en la actualidad.

Luego tenemos los capítulos VIII y IX, ambos relacionados con los modelos de respuesta
limitada, dicotómica o simplemente probabilísticos. El tratamiento empieza por los modelos de
probabilidad lineal, que al tener limitaciones de acotación en sus extremos, generan los modelos
logit (para datos concentrados en algún lado de la distribución) o probit (para datos de
distribución normal). La idea de estos modelos es poder conocer la probabilidad de ocurrencia de
algún evento, en general su diseño puede llevar a plantear variables latentes no observadas,
17
pero que generan probabilidades de suceso en los hechos económicos. Un tratamiento más
complejo sucede cuando los datos pueden ser truncados (una parte de la distribución no se
observa) en ese caso se hacen estimaciones tobit y en este texto planteamos un ejemplo de ese
tipo de modelos.

Los capítulo X y XI presentan el tratamiento de las series de tiempo, plantean lo que ahora es
ya un tratamiento básico como son los análisis de estabilidad y series unitarias, tanto para
modelos autoregresivos como para modelos de media móvil. Una vez planteados esos aspectos
nos introducimos a los modelos de vectores autoregresivos (VAR) y los tratamientos de series
cointegradas, esta parte del libro pretende sentar las bases para tratamientos más complejos en
series de tiempo.

A partir del capítulo XII y hasta el final, el libro busca brindar tratamientos más actuales en
econometría y por tanto con cierto grado de complejidad, así en este capítulo nos introducimos al
fascinante y muy actualizado modelos de panel de datos, pretendemos el diseño de estos
modelos y su tratamiento tanto en efectos fijos como aleatorios, sus formas de estimación
práctica y siempre recalcando que este tema tiene un gran desarrollo actualmente y los alumnos
podrían sentar aquí las bases para estudios más profundos sobre el tema.

El capítulo XIII presenta dos tratamientos econométricos, el primero de ello muy presente en
los datos de alta volatilidad relacionado generalmente a los activos financieros, la modelación de
estas series debe suponer que existen varianzas autocorrelacionadas y para ello surgen los
modelos ARCH o GARCH y sus derivados.
Otro aspecto muy reciente es el análisis de impactos mediante mediciones en estudios
transversales, donde las técnicas se han ido depurando, tanto para los modelos de primera o
doble diferencia, así como los tratamientos de modelos de emparejamiento, en estos casos el
objetivo es saber si la política empleada fue efectiva o no, consideramos que los estudios
subnacionales de impacto de políticas públicas, serán algo común en la siguiente década, de
modo que aquí contribuimos a aquellos estudiantes que quieran desarrollar estos temas en el
futuro.

El capítulo final se libera de los supuestos econométricos y de algunas rigideces de


estimación puntual, para tratar lo que muchos estudiantes quizás consideren más aplicativo del
campo estadístico, como son distintos modelos que ayuden a entender los comportamientos de
compra o la dinámica de los mercados de consumo. Así planteamos modelos de reducción de
datos o factoriales para fines de ayuda publicitaria, modelos de segmentación de mercados,
modelos para analizar atributos de los productos y su valoración, así como el análisis de marcas
y su respectivo posicionamiento. Estos alcances permitirán que los estudiantes puedan encontrar

18
ramas distintas de aplicación y no sólo métodos de estimación puntual, sino que se familiaricen
un tanto con los métodos no paramétricos que ofrece este capítulo final.
Hay que señalar que cada capítulo tiene casos de aplicación, donde el objetivo es diseñar
modelos econométricos de tratamiento específico. Así según el capítulo que se analice, se
plantean extractos teóricos que sirvan de base para el diseño del modelo que se relacione con el
dicho capítulo. Igualmente cada capítulo contiene al menos un ejercicio donde se apliquen datos
diversos para realizar ejercicios de estimación de modelos econométricos.

Como esta labor de investigación o al menos análisis de la teoría existente nunca termina,
invitamos a los lectores y estudiantes diversos, a plantear sus propios ejercicios, a compartir ello
con nosotros y poder así incrementar el análisis que este documento quiere invitar en todos sus
lectores. Igualmente cualquier error detectado puede escribirnos para poder corregirlo de cara a
un mejor desempeño en las clases donde este material pueda buenamente utilizarse.

Para correcciones, solicitudes de las bases de datos (en Microsoft Excel) que este libro usa y
plantea como ejercicios o compartir sus propios casos con nosotros, no dude en escribirnos a:
cleon@usat.edu.pe. Expresamos también nuestras disculpas para los errores cometidos, siempre
ello será responsabilidad exclusiva de los autores.

Finalmente el lector debe saber, que la mayor parte de este libro usa como soporte
informático el programa STATA (en su versión para MAC OS pero equivalente en Windows), no
obstante los análisis aquí planteados pueden ser replicados o aplicados en otros programas para
estos fines; como por ejemplo Eviews, SPSS, Gretl, Matlab u otros que el lector domine.
Consideramos que en econometría es muy importante diseñar el modelo, el tratamiento operativo
en cualquier programa informático nos mostrará buenos resultados si el diseño es bueno, por
general todas las licencias informáticas para econometría son igualmente potentes.

Chiclayo, Perú.
Julio de 2015.

19
CAPÍTULO I

Modelación econométrica: De
la teoría económica al
modelo estimable

20
Modelación econométrica: De la teoría económica al modelo estimable

I. MODELACIÓN ECONOMÉTRICA: DE LA TEORÍA ECONÓMICA AL MODELO ESTIMABLE

Introducción al tema

Los modelos econométricos siempre parten de una concepción previa, es decir hay todo un
diseño teórico que permite establecer relaciones diversas entre variables económicas y otras. Por
ejemplo la posibilidad de que la creciente masa monetaria de un país genera alzas de precios, es
una regularidad que se da en las economías. Esta regularidad ha sido planteada a modo teórico
como la relación entre la inflación y la cantidad de dinero, esto conlleva luego a probar si esta
regularidad es válida en términos estadísticos de modo que pueda generalizarse en el contexto
donde se produce.

En general los modelos econométricos tienen un soporte teórico necesario, al menos tienen
diversas regularidades que se presentan en la realidad económica, por ello surge la intención de
establecer estas relaciones teóricas (que pueden ser nuevas, originales o traídas de otras
realidades para probar su vigencia) y medirlas o validarlas con criterios estadísticos.

En este capítulo analizamos esos fundamentos teóricos para los modelos econométricos en
general, por ello los componentes del capítulo son el análisis teórico necesario, la búsqueda de
datos para validar las teorías, el planteamiento de modelos que se puedan estimar, errores de
diseño y el uso de modelos para predicción o evaluación de las políticas, que diseñan los
ejecutores en el ámbito público e inclusive en el privado.

21
Modelación econométrica: De la teoría económica al modelo estimable

1.1. Planteamiento de Modelos desde la Teoría Económica


La ciencia económica se basa normalmente en el análisis de las distintas regularidades
empíricas (fenómenos evidentes o con evidencia existente y a la vez continuos) existentes en la
realidad, por ejemplo si existen muchos productores de algún bien (o comienzan a surgir más
empresas productoras de un mismo bien), lo normal es que se abarate o se reduzca el precio, si
estos productores se van reduciendo en el tiempo, entonces los precios deberían subir. Ello se
produce cuando estos productores interactúan con la demanda existente.

Entonces existe en cualquier mercado el comportamiento de productores u ofertantes y el


comportamiento de los consumidores o demandantes, estos hechos se producen en la práctica
(son fenómenos reales), es también una regularidad observable que si estos precios en el
mercado son crecientes, entonces por un lado los productores verán beneficios (ganarán más) y
por ende suben su oferta (al menos tratan de producir más). Por otro lado los consumidores se
verán perjudicados al ser todo más caro, lo cual por lo menos incentiva a que compren menores
cantidades de dicho productos.

Estas regularidades descritas antes, se conocen en la teoría económica como leyes de oferta
y demanda, simplemente la teoría recoge un comportamiento existente en los hechos y prácticas
de los agentes económicos.

Para ponerle un tratamiento conceptual o modelar económicamente las leyes de oferta y


demanda, podemos plasmar para el caso de la oferta, una ecuación del siguiente estilo:

Po = a + b (Qo) (1)

Donde Po representa el precio de los bienes ofertados, Qo representa las cantidad ofertada
en el mercado, a representa el precio existente cuando no existe cantidad ofertada (en buena
cuenta el mínimo precio posible por un bien) y b representa la tasa de cambio entre el precio y la
cantidad. Observemos que un mayor precio necesariamente coincide con una mayor cantidad
ofertada, cumpliendo la observación teórica y el fenómeno real.

De igual modo puede plantearse una ecuación de la demanda, de la forma siguiente:

Pd = c - d (Qd) (2)

Donde Pd representa el precio de los bienes demandados, Qd representa las cantidades


demandadas en el mercado, c representa el precio existente cuando no existe cantidad
demandada (en buena cuenta el máximo precio posible por un bien) y d representa la tasa de
cambio entre el precio y la cantidad. Ahora podemos notar que un alza del precio corresponde a
22
Modelación econométrica: De la teoría económica al modelo estimable

un comportamiento inverso en la cantidad demandada, con lo cual se cumple con el


planteamiento teórico y a la vez con la regularidad del hecho económico.

Si establecemos un mercado en equilibrio, tenemos que el precio es el mismo (P sería ahora


un precio de equilibrio) y las cantidades (Q) serán iguales tanto para el ofertante como el
demandante esto supone una solución del siguiente modo:

a + b (Qo) = c - d (Qd)

Q (b + d) = c - a

Q = (c - a) / (b + d) (3)

P = a + b * [(c - a) / (b + d)] (4)

Si por ejemplo “a” (mínimo precio de los ofertantes) baja en razón de un mayor número de
productores, entonces la cantidad ofrecida y demandada (Q) en el mercado aumenta y el precio
de equilibrio (P) baja. Esta regularidad ya señalada como leyes de oferta y demanda puede
estimarse a partir de conocer el valor de “a, b, c y d”, con los cuales se resuelven las ecuaciones
(3) y (4).

Saber los valores señalados anteriormente, implica estimar las ecuaciones (1) y (2) desde un
punto de vista estadístico o matemático, la estimación se realiza usando información del mercado
donde estemos realizando el análisis respectivo.

Podemos, por ejemplo, recurrir al mercado de venta de uvas de exportación (un ejemplo en el
Perú es la uva red globe) y conocer la producción anual para cada precio del mercado
internacional. Con ello podemos encontrar el valor de “b” (también la pendiente matemática de la
ecuación 1), podemos a su vez preguntarles a los productores de uvas a qué precio ya no hay
ganancias y tendremos el valor de “a”. Con lo cual ya hemos resuelto gran parte del problema.

Un segundo paso es conocer en el mercado externo, cuánto se consume de uvas a cada


precio internacional, eso nos da el valor de “d”, sin embargo conocer el precio al cual ya no se
compraría uva, supone hacer una encuesta entre los compradores o mayoristas, con lo cual
obtenemos el valor de “c”. Toda la información anterior nos ayudará a hallar tanto el precio como
la cantidad de equilibrio en el mercado de uvas.

Como puede verse el planteamiento teórico acorde a las leyes de oferta y demanda, es la
base para establecer relaciones matemáticas o estadísticas con las cuales se pueden estimar
tanto el precio como la cantidad de equilibrio en un mercado.

23
Modelación econométrica: De la teoría económica al modelo estimable

¿Por qué señalamos antes que pueden establecerse relaciones estadísticas? Pues porque
para conocer los precios máximos o mínimos se recurre a encuestas donde previamente hay que
elegir a los entrevistados, lo cual ya supone un proceso al azar o aleatorio, de modo que las
respuestas sean lo más auténticas posibles. Las respuestas de los entrevistados en torno a los
precios indicados en las ecuaciones (1) y (2) pueden ser tomadas como el promedio, la moda o
la mediana, de modo que tengamos un dato representativo del grupo de entrevistados, esto ya
supone un tratamiento estadístico de los datos, con los cuales también podemos conocer la
cantidad y precio de equilibrio que se evidencia en las ecuaciones (3) y (4).

De esa combinación de modelos económicos, basados en teorías económicas que derivan de


una realidad o regularidad empírica, junto con bases matemáticas para su estimación o la
necesidad de datos estadísticos para probarlos, surgen los modelos econométricos. Como su
nombre señala, es medir de alguno modo la existencia o regularidad de los hechos económicos,
reafirmando la teoría construida, ampliándola o simplemente mejorándola (cuando no
rechazando sus postulados). La econometría termina siendo la herramienta que permite verificar
la validez que tienen los modelos económicos, para representar los hechos existentes en la
realidad o en las decisiones económicas que continuamente tienen los agentes.

Una primera conclusión sobre lo tratado previamente, supone que para el diseño de modelos
econométricos debemos conjugar dos cosas, primero una regularidad existente o hecho
económico que normalmente sucede, afecta o genera comportamientos de los agentes y la
segunda una base teórica que explique dichos comportamientos a modo general.

Es posible que existan fenómenos económicos cuyo comportamiento no tiene un sustento


teórico pero que su regularidad permite establecer criterios para su análisis. Por ejemplo en el
pasado se podía encontrar elevado nivel de informalidad entre los productores en un país en
desarrollo, por ejemplo el Perú. Las teorías existentes para explicar este comportamiento podían
ser muy exiguas, en virtud de que la informalidad o la economía al margen de las normas legales
(sin ser ilegales completamente) era un fenómeno de los países en vías de desarrollo y casi
inexistentes en los países desarrollados, con lo cual el bagaje teórico al respecto era limitado.

De Soto (1986) en su tratamiento de la informalidad comienza a señalar que son los


gobiernos los que imponen elevadas cargas regulatorias que generan estos comportamientos
informales, también señala que el capital no tiene valor (al no tener un criterio formal de medición
o traspaso), entonces este capital informal debe ser registrado y valorado, con fines de que la
economía tenga una mayor dinámica y se reduzca su amplio rol informal. Con estos criterios
analizados, se puede señalar que surgen tratamientos teóricos al hecho económico que se
presenta, sin embargo la informalidad en el Perú es persistente, aún con diversas medidas dadas

24
Modelación econométrica: De la teoría económica al modelo estimable

para que el capital sea legalizado, o para que los productores puedan ser reconocidos
formalmente.

Esto supone que pueden darse más tratamientos teóricos al tema, por ejemplo se puede
mencionar que el clima de negocios es vital para que estos desarrollen y prosperen en ambientes
formales (Porter, 1991), en la medida que los países desarrollen un buen clima de negocios,
atraerán a éstos y su desempeño será notable. Otras corrientes indican que los países en
desarrollo tienden a esos niveles de economía informal por cuanto carecen de institucionalidad o
de sólidas bases para el desarrollo institucional (Acemoglu y Robinson, 2012) y terminan siendo
economías extractivas, es decir no fomentan un sistema donde son las instituciones antes que
las personas los responsables del éxito, en buena cuenta los procesos políticos se orientan de
modo adecuado porque existen mecanismos de control institucionalizados, eso reduce
enormemente la informalidad en las decisiones del país. Buenas instituciones además supone
que provienen de procesos donde todos los agentes tienen los incentivos adecuados, por
ejemplo ser informal es más costoso que ser formal, además ser informal es inviable porque no
se tienen protección alguna en un estado formal y siempre controlado.

Como puede verse las teorías, corrientes o pensamiento económico ligado al tema de la
informalidad ha ido cambiando, en algunos casos es explicado por teorías puntuales, en otros
casos proviene de diversos conjuntos teóricos que explican no sólo ese problema sino otros
hechos económicos, cada tratamiento teórico le puede dar una perspectiva distinta al fenómeno y
aporta variables de estudio. En el caso de la informalidad en la economía (Y), esta puede
deberse, por ejemplo, a: excesos regulatorios (X1), escasa institucionalidad (X2), costos bajos de
ser informal (X3), nivel de cumplimiento de la ley (X4), nivel de formalización del capital invertido
(X5), grado de movilidad del capital en un mercado legal (X6). El proceso no termina, por ejemplo
aún no termina de explicarse por qué si hay una gran cantidad de informales, una economía
sigue creciendo, como el caso de Perú o la India, no es acaso la informalidad una traba al
crecimiento económico, o es el alto crecimiento un impulso adicional a la informalidad en un país
donde el marco regulatorio es de por sí excesivo.

Finalmente podemos señalar a modo de modelo teórico, que la informalidad (Y) es explicada
total o parcialmente con las variables X1, X2, X3, X4, X5 y X6.

La utilidad de esta forma de ver los modelos económicos desde una perspectiva teórica,
puede ser un aliciente para aquellos dedicados a investigar los fenómenos económicos. Puede
darse por ejemplo lo siguiente:

25
Modelación econométrica: De la teoría económica al modelo estimable

Fig. 1.1. Variables que explican el crecimiento del volumen exportado

Crecimiento!del!
Volumen!
exportado! !

¿?! Variación!del!
Tipo!de!cambio!
real!

En la figura anterior observamos que el volumen exportado de un país hacia otro, puede
depender del tipo de cambio real (la relación equivalente a tipo de cambio nominal * precio
internacional / precio nacional), hasta aquí hemos encontrado una variable que puede explicar a
la otra en alguna medida (señalada como la parte del gráfico intersectado), sin embargo puede
existir otra variable (u otras) que también influyen en el crecimiento del volumen exportado, aquí
es donde el investigador puede recurrir a otras teorías o plantear su propia teoría o teorías,
cuando observa hechos en la realidad económica que requieren una explicación conceptual,
siempre que nadie las haya realizado antes.

Por ejemplo algunos pueden señalar que el volumen exportado depende de las ventajas
relativas del país sobre todo en los costos comparados de mano de obra (Ricardo, 1817). Porter
(1985) indica que las exportaciones pueden acelerarse mediante las ventajas competitivas de las
empresas, esto es el logro de ventajas a lo largo de la cadena de valor empresarial, por ejemplo
proveedores de mayor sofisticación o calidad, clientes más exigentes, un gobierno que ayuda en
la cadena logística reduciendo barreras, sistemas de apoyo de la empresa en tecnología y otros.

Krugman (1991) en torno al mismo tema anterior indica que las economías de escala pueden
influir en la mayor exportación, así zonas con ventajas para subir su producción a bajos costos
(economías en algún factor productivo o rendimientos crecientes, por ejemplo mano de obra
calificada y concentrada o costos logísticos bajos) pueden exportar más o incrementar la oferta
exportable y con ello ganar ventajas en el comercio exterior. Eso indica que los investigadores

26
Modelación econométrica: De la teoría económica al modelo estimable

pueden ir planteando nuevas explicaciones a un mismo problema o hecho económico, con lo cual
el acervo científico se va incrementando.

Entonces podemos señalar también que mediante los modelos económicos se puede ampliar
un conocimiento teórico ya establecido, se puede avanzar hacia nuevos sustentos teóricos, o se
puede aplicar teorías de otras realidades para ver si se cumplen en algún contexto particular.
Estos modelos económicos trasladados a un modelo econométrico pueden dar con que falta
evidencia o la evidencia actual no sigue un patrón teórico definido, o que se requiere nuevas
teorías o simplemente que las teorías de un contexto no funcionan en otros.

1.2. Proceso generador de datos y datos observados


Como vimos antes, se pueden plantear teorías basadas en los hechos económicos, a partir
de estas teorías se pueden diseñar modelos económicos y finalmente modelos econométricos.
Estos últimos requieren de diversa información que permita su estimación o por lo menos permita
afirmar o denegar (cuestionar normalmente) la teoría o modelo construido.

La información necesaria para el diseño de modelos econométricos puede ir desde dos


procesos generadores de datos, en primer lugar uno relacionado con información que ya existe y
sólo hay que planificarla para el modelo que queremos probar. La otra se vincula a la creación de
esta información a partir de procesos primarios de recoger datos, aspecto normalmente usado en
diversos estudios sociales o comerciales.

Generación de datos desde información previa

Un ejemplo sencillo puede ayudarnos a entender el uso de esta información ya realizada,


pensemos en un modelo económico simple del siguiente modo:

π t = π t-1 - µ

En este modelo π es la tasa de inflación y básicamente depende de la inflación pasada y de


µ, que indica la tasa de desempleo. Este modelo sencillo indica que la inflación actual (en el
período t) está influencia por la inflación pasada (algo que en la teoría económica suele
denominarse expectativas adaptativas), en este contexto economías que han sufrido niveles de
inflación normalmente estables, tienden a conservar este nivel y aquellas que han tenido niveles
altos de inflación no tienen como reducir esto rápidamente. Naturalmente el modelo no contempla
programas de corte de precios agresivos, que bien pueden reducir este proceso adaptativo,
Sachs (2005) indica que la hiperinflación puede cortarse rápidamente si uno descubre la fuente
27
Modelación econométrica: De la teoría económica al modelo estimable

generadora del problema, por ejemplo en Bolivia el proceso de bajo precio del combustible,
obligaba al gobierno a subsidiarlo o cubrir parte del costo del mismo, al ser además los
impuestos al combustible unos de los principales tributos, la solución fue simplemente dejar que
el precio de combustible pase a su nivel real (mucho más alto), esto eliminó el subsidio, mejoró la
recaudación del estado y por ende cortó el proceso generador de altos precios, simplemente
estos se pusieron en su nivel de equilibrio.

Existen otros casos donde hay un cambio en el proceso formador de precios bajo
expectativas adaptativas y se da cuando los bancos centrales juegan a mejorar la actividad
económica y pueden con ello crear procesos de inflación incluso mayores a los niveles previos.
Sachs (1990) indica que los grandes conflictos sociales en América Latina, obligan a sus
ejecutores de política a cambiar sus acciones, por ejemplo pueden de pronto decidir incrementar
las emisiones monetarias, con lo cual la demanda de bienes sube y los salarios en los sectores
de demanda interna también (considere economías de dos sectores transables y no transables),
esto supone que el cambio real se aprecia (sobre todo considerando que los países normalmente
intervienen en los mercados cambiarios). Hay que notar que la economía al interno tiene precios
más altos, lo que conduce a un menor impulso del sector exportador (es más costoso en los
insumos o pagos externos) y ello termina generando procesos que en lugar de reactivar una
economía la deprimen, muy al margen de que las autoridades hayan querido ello, considere
además que la economía se hace importadora (déficit en cuenta corriente) y ello terminará
produciendo una crisis cambiaria que igualmente elevará los precios internos.

Lo único que finalmente se concluye es que la economía rompe su esquema de precios y se


traslada a uno más alto, el proceso puede degenerar en espiral si es que el banco central sigue
inyectando dinero en la economía, alimentando la nueva inflación, proceso que termina en lo que
se conoce como hiperinflación.

La otra variable mostrada en el modelo, indica que la inflación tiene una relación inversa con
el desempleo. En buena cuenta mayores niveles de desempleo, implican menos demanda de
bienes (al tenerse menos ingresos), esta menor demanda implica que los precios
progresivamente irán bajando.

Con fines de probar esta relación o modelo económico nos enfrentamos a los siguientes
problemas:

- La tasa de inflación equivale a la variación porcentual del Índice de Precios, sin embargo
se puede tomar el índice de precios al por mayor (IPM) o al consumidor (IPC), o se puede
considerar sólo el IPC de la ciudad capital (en el caso de Perú el IPC de Lima), esto último
se da cuando no se publican índices de precios promedios nacionales.

28
Modelación econométrica: De la teoría económica al modelo estimable

Como vemos, tomar los datos supone una decisión del investigador o también es aquella
variable que mejor representa lo que queremos medir. En el caso de Perú normalmente
se hubiera tomado el índice de precios al consumidor, debido a la ausencia de mayor
disponibilidad de información agregada nacional. En todo caso podría construirse un
índice de precios al consumidor nacional, pero el problema sería saber cómo ponderar el
peso de cada región en el consumo nacional.

- Otro problema que podría darse es la poca variabilidad que presentaría la tasa de
desempleo, agregando además el hecho de que se publican índices de desempleo
anuales y de la ciudad capital en muchos casos. Esta escasa variabilidad podría terminar
no afectando de ninguna manera la tasa de inflación.

Este fenómeno de datos cuya variación es pequeña (comparado con otros países cuyo
desempleo es más dinámico) se da porque la economía tiene un mercado laboral rígido
en materia del empleo o desempleo formal, pero muy dinámico en la parte del empleo
informal, normalmente conocido como subempleo o simplemente no conocido al darse
pocos estudios sobre el desempleo en la zona informal de la economía.

Es probable que países con mercados laborales rígidos tengan tasas de desempleo de
poco movimiento anual o de lento ajuste, sin contar que es probable que no se tenga
disponibilidad de esta tasa a ritmo mensual, mientras que es normal que existan índices
de precios mensuales.

- Para tener una idea del problema previo veamos algunos datos, de acuerdo con
estadísticas del INEI (Instituto Nacional de Estadística e Informática del Perú) la cantidad
de personas que estuvieron desempleadas cayó en 2% anual desde el año 2004 al 2012,
mientras que la tasa de desempleo (obtenida como población desempleada sobre
población económicamente activa) pasó de 5.3% en el año 2004 a 4.53% en el año 2012,
reflejando una escasa caída de 0.8% en esos 9 años, poca movilidad a la hora de querer
plantear relaciones estadísticas. En ese mismo lapso la tasa de inflación nacional (usando
el índice de precios al por mayor) fue de 4.89% en el 2004 y de -0.59% en el 2012. Como
puede verse en ese lapso la tasa de inflación cayó y el desempleo también, lo cual podría
terminar concluyendo que no se cumple la teoría planteada, pero las conclusiones no
pueden ser abordadas de modo tan simple.

Siguiendo con el problema previo, algunas razones pueden ser suficientes para no usar
los datos previos, por ejemplo el uso de períodos base diferentes. Se pueden tener
estimaciones diferenciadas de índices de precios tomando años base diferentes.

29
Modelación econométrica: De la teoría económica al modelo estimable

Otro problema subsiste como dijimos antes en el uso de índices, por ejemplo el IPC
nacional a diciembre de 2012 arroja una tasa de inflación de 2.65% notoriamente diferente
a la del IPM y además no se encuentran datos disponibles para el año 2003, limitando las
comparaciones.

- Otro problema vinculado a la disponibilidad de datos, normalmente en el caso peruano, es


que muchos datos anuales son posteriores a 1990 (lo cual da una historia de apenas 24
años) cuando muchos analistas e investigadores plantean estudios que pueden ir de 100
a más años, un ejemplo es Piketty (2013) tomando series de más 200 años de antigüedad
(recopiladas en diversas fuentes y países diversos) concluye que el crecimiento del capital
normalmente ha superado el crecimiento económico, lo que supone que los capitalistas o
inversionistas han tenido siempre rendimientos superiores al común de la gente
(considere que el crecimiento económico se redistribuye), si bien pueden haber subido los
salarios u otros rendimientos del trabajo, estos se diluyen con el crecimiento poblacional,
mientras que el capital ha seguido redituando a grupos minoritarios, lo que supone una
desigualdad creciente en el sistema económico de los países llamados desarrollados.

- Entonces se puede señalar que los modelos econométricos a partir de datos existentes o
secundarios puede enfrentar problemas como: ausencia de datos frecuentes, al menos
frecuencias equivalentes en todas las variables, uso de años base diferentes, series que
no varían por motivos estructurales o ajenos a lo que se quiere medir.

Hay que considerar además el nivel en que se miden o construyen los datos secundarios,
por un lado las variables deben estar en medidas equivalentes, por ejemplo índices o
variaciones, inclusive logaritmos de índices, si están en unidades monetarias es preferible
que sean ambas en la misma unidad (por ejemplo millones o miles de unidades
monetarias o soles en el caso de Perú), básicamente por un tema de interpretación de los
resultados a obtener.

Generación de datos primaria

Normalmente en algunos casos, ciertos estudios pueden no tener información previa (algo
que felizmente va siendo historia debido a las tendencias de medir los impactos o por lo menos
las intervenciones del estado), veamos el siguiente ejemplo:

Υ = φΧ

Donde Y representa el ingreso obtenido por individuo en su mayoría de edad no cronológica


sino llamemos profesional o formativa (por ejemplo 22 años) y X representa los años de
escolaridad del individuo, consideremos que este estudio se realiza en un distrito del país o
30
Modelación econométrica: De la teoría económica al modelo estimable

inclusive en el ámbito nacional. Asimismo φ representa la proporción en que los años de


escolaridad influyen en el ingreso del individuo.

Esta información previa puede ser existente, por ejemplo algunas encuestas contienen
información de este tipo, en el caso peruano la Encuesta Nacional de Hogares (ENAHO) contiene
una muestra nacional para ello (aunque en cada distrito las muestras son pequeñas) e inclusive
la encuesta Niños del Milenio (en Perú administrada por el grupo de Análisis para el Desarrollo -
GRADE) puede contener información en grandes cortes o estratos (también pueden llamarse
cohortes) por ejemplo muestra el nivel de escolaridad para los años 2002, 2006 y 2009, el primer
grupo tiene ya individuos en su mayoría de edad, de modo que la información en los países como
Perú comienza a ser por lo menos abundante o variada para ciertos tipos de estudio.

Volviendo con nuestro ejemplo, podemos evidenciar que para distritos de alguna región en
particular estos datos no existen, en ese caso se debe construir la base de datos respectiva, con
fines de poder utilizarla en los análisis que estamos realizando. Dicha base de datos sigue
algunos procedimientos que normalmente son:

Población de referencia

Equivale al grupo objetivo donde hay que tomar los datos, en este caso pueden ser
hombres o mujeres que tienen 22 años de edad. Hay que notar que el estudio se limita a
esta edad, lo cual inclusive puede contener la limitante de que el ingreso debe ir
subiendo con la edad, sobre todo si hay mayor nivel de escolaridad o años de estudio,
pero para fines del ejemplo podemos señalar que la población tendría esta característica
principal.

Muestra

Dado que el grupo objetivo poblacional es bastante variado, la muestra debe tomar en
cuenta criterios como porcentaje (%) de hombres y mujeres, porcentaje (%) de la
población residente urbana o rural, porcentaje (%) de la población por centros poblados,
urbanizaciones o zonas residenciales dentro del distrito, y en general criterios que
ayuden a representar del mejor modo posible la población de referencia.

El tamaño de la muestra ya depende del nivel de error tomado, en este caso siendo un
grupo variado, niveles de error menores a 5% son bastante frecuentes, algunos pueden
indicar que niveles de error de 2 a 3% pueden ser recomendables.

!
31
Modelación econométrica: De la teoría económica al modelo estimable

Levantamiento de datos

Es importante determinar el lugar o dónde se recogen los datos de los individuos que
queremos analizar. Para nuestro ejemplo, puede hacerse tomando los hogares o
domicilios como puntos de referencia. En este caso se pueden aplicar técnicas de
selección de hogares al azar, para que el estudio sea lo más aleatorio posible, por
ejemplo sortear los hogares o números de residencias o simplemente tomar cada “x”
casas la siguiente. El levantamiento de datos supone los problemas típicos de no tener
al elemento objetivo en el domicilio, no lograr respuesta del domicilio, preguntar al
individuo equivocado y otros, que deben ser previstos.

Preguntas

Una vez que se tiene definido la forma de tomar los datos, viene el proceso de
preguntarle al individuo, las preguntas bien pueden ser:

1. Sobre su formación educativa, usted estudió hasta:

1.1. Primaria incompleta ( ) Hasta _________ Año

1.2 Primaria completa ( )

1.3 Secundaria incompleta ( ) Hasta _________ Año

1.4 Secundaria completa ( )

1.5 Técnicos incompletos ( ) Hasta _________ Ciclo

1.6 Técnicos completos ( )

1.7 Universitaria incompleta ( ) Hasta _________ Ciclo / Año

1.8 Universitaria completa ( )

32
Modelación econométrica: De la teoría económica al modelo estimable

2. Sobre sus ingresos, usted normalmente gana en promedio:

1.1. Menos de 750 soles ( )

1.2 De 751 – 1500 soles ( )

1.3 De 1501 – 2000 soles ( )

1.4 De 2001 – 2500 soles ( )

1.5 Más de 2500 soles ( )

Hay que notar que un criterio que debilita la toma de datos, es si el individuo trabaja a tiempo
completo o a medio tiempo, si es un ingreso permanente o si es ingreso eventual, esto debe ser
considerado en algunas preguntas adicionales con fines de tener una clara idea de la relación
años de estudios e ingresos.

La pregunta dos, puede plantearse de modo directo, cuanto gana el individuo, pero ello
podría tener un error al alza que debemos evitar, primero porque el individuo podría querer
quedar bien al ser preguntado por un tema privado y evidentemente daría un ingreso mayor al
real. Otra es pedirle una boleta de pago, pero ello sería en un ambiente de empleo muy formal y
el problema es que el individuo no quiere ser molestado a la hora de ser entrevistado. Dado que
la información es muy personal, no es posible recurrir a otras fuentes, aun cuando en el estado
existen entidades que tienen esta información al menos la de los ingresos bastante detallados,
por ejemplo mediante las declaraciones tributarias de las empresas.

Note también que la pregunta una supone que los años los colocaremos nosotros en la base
de datos, por ejemplo:

ID Años de estudio Ingresos


1 6 2

33
Modelación econométrica: De la teoría económica al modelo estimable

En el caso anterior, el ID significa identificador (ID) e indica el número o código de


entrevistado, esto es clave para luego depurar la base de datos o ante errores. La segunda
columna años de estudios 6, refleja que el individuo tiene estudios superiores completos (puede
colocarse también 7 para diferenciar técnico de universitario). Mientras que la columna ingresos
indicada con 2, supone que el individuo gana entre 751 a 1500 soles.

De esa manera construimos la base de datos con información primaria o que hemos diseñado
de modo ex profeso para nuestro estudio. Hay siempre que indicar (reiteradamente) que partimos
de un hecho económico real o al menos presumible, la idea de que a mayor nivel de estudios
existe mayores ingresos, bueno el hecho es que existen evidencias de lo mismo.

Yamada (2007) encuentra que los retornos de la educación superior son de 17% mayores a
los de estudios técnicos situados en 10% y mucho más altos que para aquellos que sólo
terminaron secundaria, cuyos retornos llegaron a 6%. Este estudio respalda el ejemplo anterior,
en lo que estamos tratando de incidir, siempre tener una base teórica a los modelos planteados,
en el caso de los rendimientos que genera la educación, autores como Becker (1975) y Chiswick
(1997) ya han incidido que más años de estudios, deben corresponder a un mayor ingreso per
cápita, ya que el trabajo es una fuente de producción y ese trabajo con innovaciones o mejoras
(la educación) puede ser más productivo.

Datos no observados

Existe la posibilidad de que algunas variables que quieren analizarse no tengan hechos o
información observable, para ello veamos el ejemplo siguiente:

Sea un modelo donde queremos maximizar la utilidad o bienestar (V) del individuo, a partir
del consumo (C) y del uso de dinero M, para diversos períodos t. (León, 2003)

V = U (C1, M1) + β (C2, M2) (i)

Donde:

β: Tasa de descuento del consumo futuro

C: Consumo en diversos períodos per cápita

M: Demanda de dinero en diversos períodos per cápita

El consumidor enfrenta una restricción presupuestaria en términos per cápita igual a:


34
Modelación econométrica: De la teoría económica al modelo estimable

Pt Yt + Mt-1/(1+n) + Bt-1 (1+Rt-1)/(1+n) = Pt Ct + Mt + Bt

Donde:

B: Tenencia de bonos per cápita en diversos períodos

R: tasa de interés en diversos períodos

n: Crecimiento poblacional

Y: Ingreso per cápita en diversos períodos

P: Precios en diversos períodos

La restricción presupuestaria puede ser establecida en términos reales:

Yt + Mt-1 / Pt (1+n) + Bt-1 (1+ Rt-1) / Pt (1+n) = Ct + Mt / Pt + Bt / Pt

Rescribiendo la restricción y multiplicando en el numerador y denominador por Pt - 1:

Yt + mt-1 Pt-1 / Pt (1+n) + bt-1 (1+ Rt-1) Pt-1 /Pt (1+n) = Ct + mt + bt

Considerando que Pt / Pt - 1, es equivalente a la tasa de crecimiento de la inflación (1+ π),


entonces:

Yt - mt - bt + mt-1 /(1+π)(1+n) + bt-1 (1+Rt-1) /(1+π)(1+n) = Ct

Planteado en dos períodos (el clásico modelo intertemporal) las restricciones quedan del
siguiente modo:

Y1 – m1 – b1 + m0 /(1+π)(1+n) + b0 (1+R0) /(1+π)(1+n) = C1 (ii)

Y2 – m2 – b2 + m1 /(1+π)(1+n) + b1 (1+R1) /(1+π)(1+n) = C2 (iii)

Estas ecuaciones finales representan la restricción presupuestaria de los agentes, con lo cual
se plantea el modelo de optimización del individuo o agente representativo. Para resolver el
modelo tomamos en cuenta la ecuación de optimización (i) y se tiene que una de las condiciones
de primer orden se resuelve del siguiente modo, para ello use además las ecuaciones (ii) y (iii):

∂V/∂b1 = 0

35
Modelación econométrica: De la teoría económica al modelo estimable

( ∂V / ∂C1 ) ( ∂C1 / ∂b1 ) + β ( ∂V / ∂C2 ) ( ∂C2 / ∂b1 ) = 0

( ∂V / ∂C1 ) ( -1 ) + β ( ∂V / ∂C2 ) (1+R1) /(1+π)(1+n) = 0

( ∂V / ∂C1 ) ( -1 ) + β ( ∂V / ∂C2 ) (1+R1) /(1+π)(1+n) = 0 (iv)

Otra condición de primer orden es:

∂V/∂ m1 = 0

( ∂V / ∂m1 ) + ( ∂V / ∂C1 ) ( ∂C1 / ∂m1 ) + ( ∂V / ∂C2 ) ( ∂C2 / ∂m1 ) = 0

( ∂V / ∂m1 ) + ( ∂V / ∂C1 ) ( -1 )+ ( ∂V / ∂C2 ) [ 1/(1+π)(1+n) ] = 0

( ∂V / ∂m1 ) + ( ∂V / ∂C1 ) ( -1 ) + β ( ∂V / ∂C2 ) [ 1/(1+π)(1+n) ] = 0 (v)

Si dividimos esta última expresión sobre ( ∂V / ∂C1 ), obtenemos:

( ∂V / ∂m1 ) / ( ∂V / ∂C1 ) - 1 + [ β ( ∂V / ∂C2 ) / ( ∂V / ∂C1 ) ] [ 1/(1+π)(1+n) ] = 0 (vi)

Usando la condición mostrado en la ecuación (iv) para resolver (vi) obtenemos:

( ∂V / ∂m1 ) / ( ∂V / ∂C1 ) - 1 + [ β ( ∂V / ∂C2 ) / β ( ∂V / ∂C2 ) (1+R1) /(1+π)(1+n)]


[ 1/(1+π)(1+n) ] = 0

(∂V / ∂m1 ) / ( ∂V / ∂C1 ) - 1 + ( 1 / [ (1+R1) /(1+π)(1+n)] ) [ 1/(1+π)(1+n) ] = 0

(∂V / ∂m1 ) / ( ∂V / ∂C1 ) - 1 + [ 1 / [ (1+R1) ] = 0

(∂V / ∂m1) / (∂V / ∂C1) = R1 / (1+R1)

(∂V / ∂m1) = (∂V / ∂C1) [ R1 / (1+R1) ] (vii)

Donde:

(∂V / ∂m1): Representa la demanda de dinero del individuo para maximizar su utilidad o bienestar

(∂V / ∂C1): La preferencia del individuo por consumo presente que maximiza su bienestar

R1 / (1+R1): La tasa de interés adelantada o que el individuo percibe como costo del dinero al
tomar una decisión siempre en valor presente.

36
Modelación econométrica: De la teoría económica al modelo estimable

La ecuación (vii) representa la estimación de la demanda de dinero, de este modelo


económico se conoce sólo la tasa de interés, por cuanto el promedio del mercado para cada
período (por ejemplo mensual) puede conocerse, sin embargo la expresión de demanda de
dinero o de consumo presente no son normalmente observables.

Al respecto del modelo hallado previamente, Mies y Soto (2000) indican que la expresión
puede aproximarse del siguiente modo:

Log Mdt = Log Ct + Log Rt / (1+Rt)

Mies y Soto (2000) textualmente señalan:

“Es importante mencionar que lo que se ha obtenido es una demanda por dinero
individual. Existen dos puntos que se deben tomar en cuenta al pasar de una demanda
individual a una agregada de la economía.
Primero, existe un problema en agregar funciones de demanda derivadas de individuos
que puedan tener distintos gustos o niveles de riqueza. Es conocido el hecho que las
condiciones que permiten tal agregación son bastante restrictivas en términos de las
relaciones de comportamiento de las variables relevantes. Segundo, pueden existir
agentes económicos distintos a las familias, como las empresas, lo que requiere extender
la modelación para incluir agentes múltiples.”

En buena cuenta el modelo hallado previamente tiene la limitación de que su agregación será
de algún modo sesgada, en la economía no todos los agentes se comportan igual, se tiene
agentes cuya demanda de dinero es escasa primero porque es probable que usen dinero
electrónico o porque simplemente su riqueza es tal que su dinero se mantiene en formas de
activo financiero. Otros agentes pueden demandar en alta medida el dinero, dado que su
consumo es básicamente todos sus saldos reales.

Otro problema que señalan Mies y Soto (2000) supone que la demanda de dinero no es sólo
personal sino también empresarial, en ese caso es válido considerar una restricción adicional,
que indique el comportamiento de las empresas para mantener caja (fondos en la empresa), lo
cual dependerá principalmente del rendimiento de los activos financieros (en el modelo los

37
Modelación econométrica: De la teoría económica al modelo estimable

bonos) y de la tasa de crecimiento del producto, porque ello da una señal de la dinámica el
mercado.

Sin embargo el aporte de Mies y Soto (2000), modelando las relaciones de la demanda de
dinero en la función de utilidad, ya planteada por Sidrauski (1967) resuelven el problema de tener
variables observables, al menos usando el consumo en cada período y la tasa de interés.

Un problema que aún existe es la observación de una variable denominada demanda de


dinero, la cual no es explícita o no se da normalmente como estadística publicada. Al respecto
Arrau y De Gregorio (1993) usan como demanda de dinero, los datos conocidos como saldos
reales de dinero (dinero en la economía tipo M1 que se mide como circulante más depósitos
dividido sobre el índice de precios), versus el consumo en la economía y la tasa de interés por
depósitos a corto plazo.

Carrera (2012) emplea en sus estimaciones de demanda de dinero, primero el concepto


Keynesiano de que esta depende del ingreso y de la tasa de interés (en nuestro modelo el
consumo puede ser muy bien representado por el ingreso), siguiendo a Ball (2003) se puede
decir que la demanda de dinero a largo plazo se basa también en el uso de los saldos monetarios
conocidos como M1 (también llamado dinero primario).

Como puede verse, los investigadores pueden toparse con variables no observables pero que
deben ser estimadas, esto es un proceso necesario para probar las teorías vertidas o analizadas
y que corresponden a un fenómeno real. Por ejemplo es un hecho del individuo promedio, que a
medida que los retornos financieros son mayores, se tiende a manejar más activos financieros
(más rentabilidad indica que uno puede comprar diversos instrumentos financieros) obviamente
este análisis corresponde a individuos que manejan saldos monetarios que superan su consumo
y que no se mantienen en efectivo. Sin embargo si consideramos que la tasa de interés refleja el
costo de oportunidad de usar dinero, es natural que más costos el dinero de mantener o
administrar, supone que mejor se demanda menos (donde demandar se entiende como poseer
dinero) y ello es perfectamente atribuible al comportamiento promedio de cualquier agente.

1.3. Modelos estimables y modelos estadísticos


El modelo estimable es un resultado de la propuesta teórica que queremos probar o analizar,
mientras que el modelo estadístico es una versión puntual que indica las variables que queremos
medir en específico. Por ejemplo sea el modelo siguiente propuesto por Barro y Gordon (1983),
que indica la función de costos que asume el gobierno cada vez que la inflación supera el nivel
esperado o cada vez que el producto se sale del producto objetivo:
38
Modelación econométrica: De la teoría económica al modelo estimable

L = Ø (π – π*)2 + (y – y*)2 (i)

La ecuación (i) está sujeta a la dinámica de la oferta agregada (restricción), donde el producto
depende de la expectativa de precios de los agentes, si la expectativa de precios coincide con la
realidad, entonces el producto crece a su tasa potencial más algún efecto externo medido por u.
Si la inflación supera lo esperado, se produce un efecto de ganancias para los empresarios
(salario real cae bajo lo esperado) con lo cual el producto sube.

y = yn + (π – πe) + u (ii)

Donde:

y: producto, y*: producto objetivo, yn: producto potencial

π: inflación, π*: inflación objetivo, πe: inflación esperada

u: Efectos externos, por ejemplo incrementos productivos sectoriales, mejoras de clima, o


empeoramientos de condiciones productivas, puede inclusive ser cambios no esperados en
políticas -sobre todo- monetarias.

El modelo planteado anteriormente puede resolverse minimizando el costo del gobierno (L) e
insertando la ecuación (ii) en (i), con lo cual resulta:

∂L/∂ π = 0

2 Ø (π – π*) + 2 (yn + (π – πe) + u – y*) = 0

(π – π* ) = (1/ Ø) [(y*- yn)+ (πe - π) – u]

π = π* + (1/ Ø) [(y*- yn)+ (πe - π) – u] (iii)

En la ecuación previa, puede señalarse que si el público forma correctamente sus


expectativas de precios, esto sería expectativas racionales, entonces π = πe, con lo cual la
inflación esperada sería:

πe= π* + (1/ Ø ) (y*- yn ) (iv)

Si combinamos las ecuaciones (iii) y (iv) obtenemos la tasa de inflación óptima que debe
seguir el gobierno (para ello inserte la ecuación iii en la ecuación iv y despeje):

π = π* + (1/ Ø) (y*- yn) – u / (1+ Ø) (v)

39
Modelación econométrica: De la teoría económica al modelo estimable

La ecuación (v) indica que la inflación puede elevarse en la medida que el producto objetivo
supere al potencial, esto indica que la demanda en la economía tiende a ser más alta respecto
del crecimiento a largo plazo. En ese caso el gobierno usa alguna política de ajuste evidenciada
por: u / (1+ Ø).

Ahora si usamos las ecuaciones (ii), (iv) y (v) obtenemos el crecimiento del producto para el
nivel óptimo de inflación y sería:

y = yn + u – u / (1+ Ø) (vi)

Si consideramos que la oferta agregada neto del producto potencial (ii), es igual a la demanda
agregada (modelo IS), obtenemos:

y - y n = A – Ω ( i - π e) + g (vii)

En la ecuación (vii) la A representa al gasto autónomo neto del multiplicador keynesiano


(usando esa definición de IS) mientras que Ω es la tasa de cambios entre el interés real (i - πe:
interés nominal menos inflación esperada) y el producto, considerando que es un valor neto del
multiplicador keynesiano. En este caso (g) representa los efectos externos que pueden cambiar
la demanda agregada, por ejemplo políticas monetarias y fiscales expansivas o simplemente
cambios no esperados en los consumidores.

Si el producto se comporta igual al potencial, en ausencia de efectos externos, entonces se


tiene que:

A / Ω = (i - πe) (viii)

Usando la ecuación (ii), la ecuación (v), la ecuación (vii) y la ecuación (viii), obtenemos lo
siguiente:

A – Ω ( i - πe) + g = π* – πe + (1/ Ø ) (y*- yn ) – u / (1+ Ø) + u

( i - πe) = (1/Ω) [ πe - π* - (1/ Ø ) (y* - yn) - Ø u / (1+ Ø) + A+ g ]

i = πe + (1/Ω) ( πe - π* ) - (1/ Ø Ω ) (y* - yn) - Ø u / (1+ Ø) Ω + A / Ω + g / Ω

i = πe + r + (1/Ω) ( πe - π* ) - (1/ Ø Ω ) (y* - yn ) - Ø u / (1+ Ø) Ω + g / Ω (ix)

La ecuación (ix) representa la regla de Taylor (2000) que es muy usada por diversos bancos
centrales en el mundo, con sus diversos matices o ajustes. La regla indica que si la inflación

40
Modelación econométrica: De la teoría económica al modelo estimable

esperada es mayor al objetivo de inflación, entonces eso obliga al banco central a subir la tasa de
interés nominal.

Otra implicancia es que el producto objetivo puede superar el producto potencial, en este
caso hay un exceso de demanda que elevará los precios por encima del nivel objetivo, aquí hay
dos efectos por un lado el efecto negativo del alza del producto (correspondiente a escenarios de
menor interés) y el efecto de precios crecientes, que deben ser corregidos con un alza de la tasa
de interés.

La ecuación (ix) vendría a ser el modelo que necesitamos estimar (modelo estimable) para
establecer la regla de política monetaria de un país. Por ejemplo Taylor (2000) ha estimado que
la regla a seguir es la siguiente:

i = πe + 2 + 0.5 ( πe – 2 ) + 0.5 (y* - yn )

Lo anterior supone que la tasa de interés real es 2% y que la inflación objetivo es 2%,
además el valor de 1/ Ø Ω, termina siendo positivo e igual a 0.5, en otros estimados el valor de
1/Ω, puede llegar hasta 1.5, como vemos el modelo estimable se ha probado en la práctica,
mediante el uso de un modelo estadístico.

En el caso de la ecuación (ix) el modelo estadístico es el siguiente:

i = a0 + a1 ( πe - π* ) - a2 (y* - yn ) + error (x)

La estimación del modelo estadístico señalado en la ecuación (x) nos permitirá saber el valor
de a1 y a2, que son claves para estimar la regla de Taylor, dichos valores se juntan con la tasa de
interés real y la tasa de inflación esperada, que en teoría deberían asemejarse con a0, aún
cuando esto no tiene por que ser necesariamente cierto, puesto que con los parámetros hallados,
podemos agregar los datos existentes de la tasa real de interés y la inflación esperada. El nivel
de error del modelo configura el comportamiento de los efectos externos de la regla de Taylor,
que bien pueden indicar la ausencia de mayor cantidad de variables, o señalar que el modelo
estadístico tiene un comportamiento aceptado.

En el modelo estadístico previo, se constata la presencia de un error, no hay que olvidar que
los modelos son una representación parcial de la realidad y por ende pueden no considerar otras
variables que pueden influir del algún modo en la respuesta esperada. También hay que indicar
que normalmente se toma una muestra de datos de toda la población, esperando que ello sea
representativo, aun cuando esta muestra pueda ser limitada. Estos aspectos señalados hacen
que los modelos estadísticos no necesariamente expliquen el 100% del comportamiento de la

41
Modelación econométrica: De la teoría económica al modelo estimable

variable respuesta o variable dependiente, existiendo este nivel de error, la idea siempre en todo
modelo estimable es que este error sea pequeño o sea minimizado.

1.4. Errores de diseño


Los modelos estadísticos como el planteado anteriormente, pueden tener errores al ser
diseñados, los más comunes pueden ser:

- La ausencia de variables relevantes, esto puede afectar la correcta estimación del


modelo, por ejemplo pensemos en un modelo estadístico donde Y es la variable
dependiente y X1 es la variable independiente o explicativa, consideremos que este
modelo no es del todo correcto:

Y = a + b X1 + u (i)

Ahora pensemos que el modelo correcto incluye más variables explicativas, por
ejemplo se plantea del siguiente modo:

Y = a + b X1 + c X2 + e (ii)

En este caso el error que tuvimos al estimar el modelo (i) puede ser representado del
siguiente modo:

u = c X2 + e

Como podemos notar, en los modelos donde falta incluir variables relevantes, el error
es mayor al esperado y ello invalida las estimaciones o resultados estadísticos. A la
inversa pensemos que el modelo (ii) presenta un exceso de variables donde X2 no
aporta mayormente al modelo, en este caso es una variable redundante y debe ser
sacada del modelo. En este caso el error “e” equivale al error “u”, sólo estamos sobre
estimando el modelo en número de datos, pero no cambia el nivel de respuestas, ya
que “c” será igual a cero.

- Otros problemas en el diseño pueden ser el orden en que se expresan los códigos o
números que representan los datos. Por ejemplo pensemos que se tiene una encuesta
donde la variable dependiente es el Tipo de vivienda o casa de la familia, medido
como: tenencia de casa propia pagada totalmente con código 1, casa propia pagada a
plazos con código 2, casa de familia con código 3 y casa alquilada con código 4.

42
Modelación econométrica: De la teoría económica al modelo estimable

En esa misma encuesta hemos tomado además los ingresos de la familia, cuya
variable es continua. Es decir puede ir de 1000 soles por ejemplo a 10000 soles por
mes, así cada familia tiene ingresos diferentes y se tiene una base de datos como la
siguiente, considerando por ejemplo la existencia de unos 5 entrevistados:

Id Tipo_Vivienda Ingreso_mensual

1 2 5,000

2 4 1,000

3 1 7,000

4 3 2,000

Esto puede ser la base para plantear el modelo estadístico siguiente:

Y=a+bX

Donde Y es el tipo de vivienda y X es el ingreso, se entiende que un mayor ingreso


debe corresponder a una vivienda propia, mientras que un menor ingreso se relaciona
con la falta de vivienda propia y más bien podría ser alquilada.

El problema de diseño del modelo anterior, es la codificación de los datos, Y está


representado en un orden donde podríamos tener malas interpretaciones. Por ejemplo
el valor 4 de Y que es el máximo, no corresponde a un individuo con casa propia
(relacionado a mayor ingreso) sino corresponde a un individuo con casa alquilada. En
este caso el parámetro “b” no tendría el signo que esperamos sea positivo, sino que
tendría un signo negativo, obligando a una interpretación probablemente errónea del
modelo o de sus resultados. Por ello es importante como expresamos la base de datos
para luego plantear el modelo estadístico.

- Otro error a considerar es el uso de las variables correctas, por ejemplo en el caso del
modelo siguiente explorado anteriormente como Regla de Taylor:

i = a0 + a1 ( πe - π* ) - a2 (y* - yn ) + error

Existen dos variables que no son observadas, esta es la inflación esperada πe y la otra
es el producto potencial yn. La inflación objetivo π* y el producto objetivo y* son
43
Modelación econométrica: De la teoría económica al modelo estimable

variables que normalmente las define el ejecutor de política, en este caso el Banco
Central.

Entonces se requiere estimar la inflación esperada y el producto potencial, pueden


darse algunas formas de estimación básicas, por ejemplo el uso de un promedio para
toda la serie o muestra de datos, con el problema de que la inflación esperada es una
formación de expectativas de los agentes por ensayo y error, es decir la expectativa se
crea en la medida que la serie de datos sea muy variable o poco variable.

La obtención del promedio puede acarrear el problema de que es un solo dato a usar y
ello evitaría la estimación de los parámetros del modelo planteado, puesto que se
requieren series con una cantidad de datos suficiente que permita plantear relaciones
entre las variables.

Una salvedad es el cálculo de un promedio móvil que pueda servir de tasa esperada o
potencial, pero esto supone que necesitamos los tramos a promediar, por ejemplo cada
3 períodos, cada dos o cada 4, la decisión puede depender de si los datos son anuales,
mensuales, trimestrales u otros, con el detalle de que si hay estacionalidades estas
deben ser eliminadas. Lo anterior supone problemas a la hora de obtener esas series
aún en promedio móvil, cuya construcción puede generar errores amplios en la
estimación.

- Un error adicional puede ser un parámetro sobre o sub estimado, consideremos lo


siguiente:

Y = a + b X1 + e

Ahora pensemos que X1, en realidad es una variable que depende otras, como por
ejemplo:

X1 = c + d Z + u

En ese caso el modelo original debería escribirse del siguiente modo:

Y = a + b (c + d Z + u) + e

Y = (a+ bc) + bd Z + bu + e

Y = ßo +ß1 Z + error

44
Modelación econométrica: De la teoría económica al modelo estimable

Como vemos en el modelo final, la constante “a” está sub estimada, puesto que
corresponde en realidad a ßo, que es mayor. El parámetro “b” no representa realmente
el efecto de X1 en el modelo, este efecto en realidad es “bd”.

1.5. Modelos de predicción y estimación


Los modelos estadísticos que hemos venido desarrollando pueden enfocarse en dos
perspectivas, una es predecir datos hacia el futuro (que podría ser el menor uso de estos
modelos) también llamado uso de pronósticos y la otra es la estimación puntual de los efectos,
causalidades, relaciones o impactos, que vendría a ser el normal uso de los modelos
econométricos.

Pensemos en un modelo estadístico del siguiente orden:

Qt = a - b (Pt) + error

Donde, Q es la cantidad demandada por un bien y P es el precio de mercado de dicho bien,


ambas variables se han tomado para diversos períodos t, en este caso las estimaciones
realizadas pueden darnos como resultado, a modo de ejemplo:

Qt = 9.5 - 0.45 (Pt) + error

Entonces tomando el modelo para fines de predicción podemos hacer el siguiente detalle:

Escenarios para Pt Predicción de Qt

5 7.25

10 5

20 0.5

Como puede verse, hemos pronosticado el valor de la cantidad demandada (Q) para diversos
escenarios de precios (P), esto es cuando los modelos se usan para estos fines. Sin embargo
normalmente los modelos estadísticos (econométricos) se usan para analizar las relaciones entre
variables diversas.

45
Modelación econométrica: De la teoría económica al modelo estimable

Un ejemplo de la combinación de ambas técnicas, es decir predicción y estimación, se puede


encontrar en el trabajo de Alonso et al (2013), ellos están intentando medir el efecto de los
fondos de pensiones en la inversión en infraestructura y crecimiento latinoamericano, para ello
usan como variable dependiente a la tasa de crecimiento de Productividad Total de los Factores
(PTF). Mientras que las variables explicativas o dependientes son las siguientes:

- Tasa de crecimiento del stock de infraestructura.

- Crecimiento en la tasa de matrícula en Secundaria, como Proxy (aproximación o


medición indirecta) del stock de capital humano.

- Logaritmo del PIB per cápita como Proxy del nivel de desarrollo.

- Tasa de crecimiento de la PTF rezagada un período.

Para estimar el modelo señalado y encontrar cuanto efecto tienen los fondos de pensiones
(que a su vez impactan en la infraestructura), tuvieron que tener un indicador de crecimiento del
stock de infraestructura, para lo cual recurrieron a Canning (1998) quien plantea pronosticar la
infraestructura usando el modelo siguiente:

Infraest = 0.213 (TranspAer) + 0.221 (GenEnerg) + 0.200 (VíasFerr) + 0.215 (Carret) + 0.208
(Telef)

Como puede verse, el índice de infraestructura está construido a partir de datos anuales del
sector de telecomunicaciones (número de líneas telefónicas principales), del sector de energía
(capacidad de generación eléctrica en MW), del sector de transporte terrestre (la longitud de la
red de carreteras en kms.), del sector de transporte aéreo (número de pasajeros transportados) y
del sector de transporte ferroviario (longitud de la red ferroviaria en kms).

En buena cuenta la hipótesis indica, en ausencia de fondos de pensiones, que el índice de


infraestructura influye en la productividad total de factores, ese efecto fue estimado por Alonso et
al (2013) en 0.014%. Si se hace una relación simple, se puede decir que si los fondos de
pensiones invierten en esta actividad elevando un 1% adicional la infraestructura, tendrán un
efecto adicional de 0.014% en la productividad total de los factores.

1.6. Evaluación de políticas con modelos econométricos


Los modelos econométricos que resumen el tratamiento de modelos teóricos, matemáticos y
finalmente estadísticos, tienen un uso amplio en la evaluación de las políticas empleadas por los
46
Modelación econométrica: De la teoría económica al modelo estimable

Bancos Centrales, por el Ministerio de Economía u otras entidades encargadas de ejecutar las
políticas monetarias o fiscales.

Un ejemplo de la evaluación de políticas puede encontrarse en Jaramillo y Saavedra (2011),


se analiza el efecto de la distribución del ingreso, luego de las reformas estructurales que se
hicieron en el país en las décadas precedentes, al respecto se hace la siguiente cita textual:

El análisis de las tendencias posteriores a la reforma de los noventa sugiere que la desigualdad
de los ingresos familiares ha disminuido. Este declive puede observarse en los años de la
recesión (de 1997 a 2001) aunque no es estadísticamente significativo y se acentúa más y
adquiere significancia estadística en el periodo de crecimiento (2001–2006).

Los ingresos no laborales (otros retornos por ejemplo actividades independientes - nota del autor)
han tenido el rol más importante en la reducción de la desigualdad del ingreso durante el periodo
de análisis (1997–2006). Para el periodo 1997–2006, la desigualdad de los ingresos laborales a
nivel de los hogares permaneció estable, primero aumentó durante la recesión y luego disminuyó
durante el periodo de crecimiento, de forma que en 2006 estaba en un nivel similar al de 1997.

Al desagregar el análisis por dominio geográfico, identificamos que los niveles de desigualdad
fueron mayores en las zonas urbanas que en las rurales y que la disminución de la desigualad de
1997 a 2006 fue más pronunciada en las zonas urbanas.

Con relación a los factores explicativos asociados a la desigualdad, los resultados econométricos
confirman la importancia de la educación como factor de reducción de la desigualdad. Así mismo,
nuestro análisis identifica que el área de residencia (urbana/rural) es un factor que juega un rol
mucho mayor para explicar el patrón de desigualdad que el que sugieren los estimados entre los
años ochenta y mediados de los noventa. Esta nueva evidencia revela la importancia que parece
haber adquirido la dimensión espacial (el espacio territorial donde se desarrolla el individuo) para
explicar la desigualdad, por lo que debemos prestarle mayor atención. En esta misma dirección,
las diferencias entre regiones (ex departamentos) están jugando un rol importante en la
desigualdad a nivel nacional.

Los resultados mostrados por Jaramillo y Saavedra (2011) indican que la desigualdad es
bastante diferenciada, por ejemplo ser mujer supone un efecto de la desigualdad de 0.231
mientras que los hombres es de 0.214 para el año 1999, mientras que para el año 2006 el efecto
47
Modelación econométrica: De la teoría económica al modelo estimable

se reduce a 0.19 para mujeres y de 0.172 para los hombres, esto indica que la desigualdad se ha
reducido a lo largo del tiempo y es muy pequeña entre hombres y mujeres.

El año 1999 por ejemplo el efecto en la desigualdad es de 0.186 para aquellos sin estudios y
de 0.235 para aquellos que tienen estudios universitarios, el año 2006 esos datos fueron de
0.128 y 0.187 respectivamente. La evidencia es que la desigualdad en el tiempo se ha reducido,
pero las diferencias entre individuos relacionadas con el nivel educativo son bastante altas, como
concluyen los mismos autores.

Las políticas que derivan de estos análisis pueden ser de diversos tipos, por ejemplo, pensar
que estar en el mundo rural genera más desigualdad indica que debe potenciarse los servicios
básicos en este ámbito, igualmente si la educación es clave a la hora de mejorar los ingresos,
entonces la calidad de este servicio público, sobre todo en el mundo rural debe tomarse muy en
cuenta como factor de desarrollo. De este modo los modelos econométricos pueden ayudar a
establecer políticas de mejoras de los grupos sociales con fines de mejorar su calidad de vida en
el futuro.

48
Modelación econométrica: De la teoría económica al modelo estimable

Conclusiones del capítulo


En este primer capítulo se ha abordado principalmente las bases de un buen diseño de modelos
econométricos, el principio rector del tema, es que los investigadores o estudiosos de los fenómenos
económicos, pueden plasmar la realidad económica o los hechos económicos regulares, en teorías y
modelos que repliquen el funcionamiento de los agentes.

En algunos casos dichos modelos son completamente nuevos y propuestas de nuevos enfoques
sobre el accionar de los agentes. En muchos casos más comunes, dichos modelos son réplicas de
teorías existentes o ampliaciones de teorías ya probadas, de modo que sólo hacemos un nuevo
aporte sobre algo existente o le damos nuevos enfoques o entendimientos alas teorías existentes.

El planteamiento de los modelos teóricos debe expresarse en variables de estudio cuyas


relaciones evidencian modelos matemáticos (si su tratamiento procede de ecuaciones diversas) o
modelos estadísticos, donde ya recopilamos datos para encontrar las evidencias teóricas que
subyacen la construcción del modelo.

Los datos que recopilamos pueden partir de información ya existente (secundaria) que podemos
mejorar o re-expresar, o cuantificar en otras unidades (por ejemplo variaciones), también pueden
provenir de información que el mismo investigador o estudioso del fenómeno recopila, esta
información se denomina primaria y se hace especialmente para probar la teoría o definir si el
modelo empleado es válido total o parcialmente.

Tener los datos supone que las variables son observadas, algunos problemas en los modelos
econométricos (la expresión a estimar de un modelo estadístico o matemático) son porque las
variables no expresan bien una idea del hecho económico o una decisión de los agentes, también
porque sus datos no existen como tal en la información y deben ser medidos desde otros datos
observados o aproximarse cuando menos. Otros problemas en los modelos son el uso excesivo o
corto de variables, además también está el hecho de usar adecuadamente las variables en
magnitud, orden u otro criterio que permite la interpretación de los resultados del modelo respectivo.

El diseño de un modelo econométrico supone la finalidad de analizar el hecho económico y


explicarlo, de modo que los ejecutores de política económica puedan tener lecciones claves sobre el
desempeño de sus acciones o sobre la dinámica económica, es menos común pensar que los
modelos econométricos puedan pronosticar, dado lo cambiante de las relaciones que plantea una
ciencia económica por demás humana.

49
Modelación econométrica: De la teoría económica al modelo estimable

Preguntas de opinión:

1. ¿Se necesita siempre teoría para diseñar un modelo econométrico?


2. ¿Necesariamente se debe contar siempre con información primaria?
3. ¿Un modelo estadístico necesariamente debe tener abundancia de datos?
4. ¿Pueden los parámetros de un modelo econométrico ser sobreestimados?
5. Brinde 2 ejemplos de variables no observadas y ¿cómo podría medirlas?

50
Modelación econométrica: De la teoría económica al modelo estimable

Caso de aplicación
Lectura previa

En un mundo donde el capital es perfectamente móvil, el ahorro de un país es libre de


moverse a su uso más productivo. De aquí se sigue que un país puede incrementar su inversión
sin tener que incrementar sus ahorros, ya que el incremento en la inversión pudo haberse
financiado mediante capital externo (ahorro externo). Esto es, con perfecta movilidad del capital,
un incremento en las tasas de ahorro de un país causará un incremento en la inversión de todos
los países. La distribución de este incremento variará positivamente con el acervo inicial de
capital e inversamente con la elasticidad del producto marginal del capital en ese país. De este
razonamiento se infiere que no debe haber una correlación significativa entre la tasa de ahorro y
la tasa de inversión en ese país.

En un mundo con movilidad perfecta de capital, el Ahorro doméstico buscará estar donde su
tasa de ganancia sea la más alta. Este movimiento se llevará a cabo aún cuando la demanda
interna de capital en el país del que se trate sea alta, ya que el flujo internacional de capital,
probablemente, cubrirá en parte la demanda doméstica. A la fracción de ahorro total de un país
que permanece como inversión se le llama "coeficiente de retención de ahorro".

Una situación problemática surge cuando estadísticamente se obtienen elevados coeficientes


de retención de ahorro que indican que el capital es inmóvil y simultáneamente, se observan en
la práctica mercados de capital altamente integrados con flujos de capital móviles. Esta es la
conocida paradoja de Feldstein-Horioka.

La paradoja de Feldstein-Horioka es uno de los seis mayores acertijos en Macroeconomía


Internacional (Obstfeld y Rogoff, 2000). El ahorro interno y las tasas de inversión están altamente
correlacionados tanto dentro como entre países de la OCDE (Organización para la cooperación y
desarrollo económico-países ricos), en los años y en los países donde el ahorro es alto, por la
inversión realizada.

Este hecho parece incompatible con la teoría intertemporal de la cuenta corriente. Si se


asume perfecta movilidad del capital, por ejemplo, una teoría predice que los factores
determinantes del ahorro y la inversión no son lo mismo. Por lo tanto, los países deben prestar y
pedir prestado en el extranjero cada vez que necesitan para invertir o desinvertir, sin verse
limitados por las decisiones de ahorro interno.

Feldstein y Horioka (1980) interpretaron su hallazgo como evidencia de la baja movilidad de


capitales entre los países de la OCDE. Sin embargo, en las décadas posteriores a la publicación
de los resultados de Feldstein y Horioka, la movilidad del capital entre los países de la OCDE ha
51
Modelación econométrica: De la teoría económica al modelo estimable

seguido aumentando, mientras que la correlación entre las tasas de ahorro e inversión sólo ha
disminuido ligeramente.

Preguntas de la lectura

1. ¿Qué variables intervienen en la paradoja de Feldstein-Horioka?


2. ¿Cómo será un modelo teórico que represente bien la paradoja señalada?
3. Plantee un modelo estadístico para la paradoja de Feldstein-Horioka.

52
Modelación econométrica: De la teoría económica al modelo estimable

Ejercicios
Considera la figura siguiente que ilustra el teorema de separación de Fisher:

8!(1+i)!

R!

Donde C1* y C2* son el consumo presente y consumo futuro respectivamente, mientras que
D2* es el flujo obtenido en el futuro por una inversión (I) realizada en el presente. La inversión (I)
equivale a R – D1, Donde R es la riqueza inicial del individuo o su dotación inicial. Este es un
supuesto fuerte del modelo, que considera que los inversores si bien pueden no tener riqueza
alguna, pueden conseguir estos fondos iniciales de alguna forma en el mercado financiero directo
(emisiones de capital) o mediante redes de inversionistas ángeles o inversores de riesgo,
inclusive puede darse financiamiento bancario, pero esto no influirá en la generación del flujo D2.

D1* vendría a ser el ingreso disponible del individuo en el presente, dado que invirtió parte de
su riqueza, el saldo es ingreso destinado a consumo o ahorro en el mercado financiero.

La curva que se origina en R, genera un flujo de caja (también denominada una función de
producción o generación de ingresos) cuya característica es que tiene rendimientos marginales
decrecientes y además se hace igual a la tasa de interés acumulada, equivalente a (1+i) o
pendiente del comportamiento presente y futuro del mercado financiero.

53
Modelación econométrica: De la teoría económica al modelo estimable

D2* = FC (I)

∂D2* / ∂ FC (I‘) = (1+i)

Entonces el flujo de caja que genera una inversión, es como mínimo equivalente a (1+i), con
ello resultan el flujo futuro D2 y el ingreso disponible D1.

Si el total de los ingresos actuales y futuros (D1* y D2*) son iguales al consumo, entonces esto
también resulta equivalente a la tasa de interés:

C1* + C2* / (1+i) = D1* + D2* / (1+i)

Para C1* = 0

C2* = D1* (1+i) + D2*

Para C2* = 0

C1* = D1* + D2* / (1+i)

Hallando la pendiente del consumo presente y futuro C2* / C1*:

D1* (1+i) + D2* / D1* + D2* / (1+i)

[ D1* (1+i) + D2* ] (1+i) / D1* (1+i) + D2*

C2* / C1* = (1+i )

La relación es inversa, por cuanto el mayor interés afectará el consumo.

Finalmente la ganancia (G) del inversor se puede estimar del siguiente modo:

G = FC (I) – I

En esta ecuación debemos tomar en cuenta que la inversión se encuentra en el presente y el


flujo de caja es presente y futuro, de modo que los resultados se estiman considerando lo
siguiente:

54
Modelación econométrica: De la teoría económica al modelo estimable

FC (I) = Y2 / (1+i) + Y1

Ahora G se denomina en ese caso, Valor presente neto o también valor actual neto (VAN),
indicador que mide el éxito de la inversión realizada.

Si ahora consideramos que el FC (I) se halla teniendo una tasa de interés y una dotación R,
entonces es posible encontrar C1* y C2* del siguiente modo:

FC (I) = C1* + C2* / (1+i)

Tomando en cuenta que la pendiente equivale a (1+i) entonces (en este caso las preferencias
intertemporales son homogéneas y equivalentes, el consumidor es indiferente a decidir en el
presente o futuro):

FC (I) = C1* + C1* (1+i) / (1+i)

FC (I) = 2 C1*

FC (I) / 2 = C1

Si quisiéramos saber si el individuo tomó prestado en el presente o asumió una deuda,


estimamos lo siguiente:

Y1 – C1

De ser positivo el individuo ahorró y si es negativo, el individuo se endeudó, pero ello no


altera en nada el patrón de comportamiento de FC (I), lo que se denomina teorema de
separación de Fisher.

Preguntas

• Plantee un modelo econométrico (o más de uno) que permita probar la existencia del
teorema de separación de Fisher.
• Describa las variables que usará en dicho(s) modelo (s).
• Donde obtendría los datos necesarios para estimar el modelo o modelos diseñados.

55
Modelación econométrica: De la teoría económica al modelo estimable

Referencias bibliográficas
Acemoglu, D. And Robinson, J. (2012) Why Nations Fail: The Origins of Power, Prosperity, and
Poverty. Crown Publisher. NY. USA.

Alcalá V. Gómez, M. y Ventosa, D. (2010) Paradoja Feldstein – Horioka: El caso de México (1950-
2007). Estudios Económicos. Vol 26. Núm. 2. Junio Diciembre 2011. México.

Alonso, J. Bjeletic, J. Herrera, C. Hormazábal, S. Ordóñez, I. Romero, C. Tuesta, D. y Ugarte, A.


(2013) Proyecciones del impacto de los Fondos de Pensiones en la inversión en infraestructuras y el
crecimiento en Latinoamérica. Economic Research Department No 0921. BBVA Working papers.
España.

Barro, R. y D. Gordon (1983), “Rules, Discretion, and Reputation in a Model of Monetary Policy”,
Journal of Monetary Economics, 12.

Becker, Gary (1975). Human Capital. Columbia University Press.

Carrera, C. (2012) Long-Run Money Demand in Latin-American countries: A Nonstationary Panel


Data Approach. DT. N° 2012-016. Banco Central de Reserva del Perú.

Chiswick, Barry (1997). Interpreting the Coefficient of Schooling in the Human Capital Earnings
Function. Policy Research Working Paper 1790. The World Bank.

De Soto, H. (1986) El otro sendero: La revolución informal. Edit. Sudamericana. BA. Argentina.

Jaramillo, M. y Saavedra, J. (2011) Menos desiguales: La distribución del ingreso luego de las
reformas estructurales. Grade. Perú.

Krugman, P. (1991) Increasing returns and economics geography. Journal of Political Economy,
1991. Vol. 99, no. 3. Chicago U. USA.

León, C. (2003) Análisis macroeconómico para la empresa. Edit. USAT.

Mies, V. y Soto, R. (2000) Demanda por dinero: Teoría, evidencia y resultados. Revista de
Economía Vol. 3. Nº. 3. Banco Central de Chile.

56
Modelación econométrica: De la teoría económica al modelo estimable

Obstfeld, M. and Rogoff, K. (2000) The six major puzzles in international macroeconomics: Is there a
common cause?. Cap. VI in NBER Macroeconomics annual 2000. Volume 15. Editor Bernanke, B.
And Rogoff K. MIT Press.

Piketty, T. (2013) Capital in the Twenty-First Century. Belknap Press.

Porter, M. (1985) The Competitive Advantage: Creating and Sustaining Superior


Performance. NY: Free Press.

Porter, M. (1991) La ventaja competitiva de las naciones. Edit. Vergara. Argentina.

Ricardo, D. (1817) On the Principles of Political Economy and Taxation. Edit. Jhon Murray. London.

Sachs, J. (1990) Conflicto social y políticas populistas en América Latina. Revista F.F. Vol. 5. Nº. 2.
Colegio de México.

Sachs, J. (2005) The end of Poverty: Economic Possibilities for Our Time. Penguin Press, USA.

Sidrauski, M. (1967). “Rational Choice and Patterns of Growth in a Monetary Economy.” American
Economic Association Papers and Proceedings, 57: 534-44.

Taylor, J. (2000) Inflation Targeting and Monetary Policy Rules: Experience and Research. Working
paper to 12th Meeting of the Latin American Network of Central Banks and Finance Ministries Inter-
American Development Bank.

Yamada, G. (2010) Retornos a la educación superior en el mercado laboral: ¿vale la pena el


esfuerzo? Centro de Investigación de la Universidad del Pacífico. CIES. Lima

57
CAPÍTULO II

Relaciones estadísticas
entre variables aleatorias

58
Relaciones estadísticas entre variables aleatorias

II. RELACIONES ESTADÍSTICAS ENTRE VARIABLES ALEATORIAS

Introducción al tema

Las variables aleatorias son aquellas que representan un evento o suceso de la realidad
(evento cuyos resultados no son conocidos previamente), pero cuya obtención es totalmente al
azar o independiente de cualquier otro evento. Por ejemplo queremos saber cuántas veces el
clima subió por encima de 25 grados en un mes, entonces el resultado de este experimento no
es conocido de antemano y puede resultar en una variable aleatoria que tome números 1, 2, 3
hasta los días del mes. Ahora, el resultado obtenido no ha sido sujeto de ninguna influencia, por
ejemplo no hemos podido modificar de modo externo el clima o no hemos influido en el
experimento diseñado y menos en la elección o resultados de la variable aleatoria.

Una definición clásica es decir que la variable aleatoria resulta de representar un experimento
aleatorio o al azar cualquiera. Por ejemplo, cuál es la edad de una persona seleccionada al azar
de un conjunto de 100 personas, así la variable aleatoria para el primer seleccionado puede ser
10, para el segundo 11, para el tercero 20 y para el cuarto seleccionado es de 30 años de edad.
La variable aleatoria es un indicador muy importante en la medida que los análisis
estadísticos siempre suponen la existencia de información basada en variables aleatorias, las
cuales pueden distribuirse de distinta forma.

En el campo de la econometría la selección aleatoria de un dato, cuya representación se


transforma en variable aleatoria, permite garantizar la fiabilidad de los resultados de un modelo,
pensemos por ejemplo que queremos analizar la edad del individuo (del experimento anterior)
con su decisión de compra de un producto cualquiera. Si la variable edad es aleatoria, entonces
el resultado de si compran o no el producto es totalmente aleatorio, si este resultado por ejemplo
va mejorando conforme se tiene más edad, entonces vamos estableciendo la relación entre estas
dos variables como positiva, lo cual es la base de la explicación de cualquier modelo
econométrico.

59
Relaciones estadísticas entre variables aleatorias

2.1 Variables aleatorias


Para hablar de variables aleatorias primero hay que mencionar el concepto de experimento
aleatorio, el cual es un proceso cuyos resultados no están determinados previamente, por
ejemplo pensemos que se hace un sorteo para elegir a las mujeres que terminarán siendo
miembros de una mesa electoral (las responsables de que los votos se hagan correctamente en
una elección oficial), si pensamos que el conjunto de mujeres elegibles son aquellas mayores de
18 años con estudios superiores, entonces tenemos una población definida y la muestra a elegir
serán por ejemplo, 100 mujeres.

De esta población no sabremos quienes finalmente serán elegidas como representantes (la
muestra final de 100), por ello estamos en presencia de un experimento aleatorio. Existen
diversos ejemplos de experimentos aleatorios en las ciencias sociales, por ejemplo sean las
siguientes elecciones todas al azar:

- Niños beneficiarios de un programa social que cumplen con tener de 0 a 5 años, de un


conjunto nacional de niños.

- Jóvenes que estudian en la universidad y que estén en primer ciclo, de un conjunto de


alumnos de toda la universidad.

- Ancianos de una comunidad que no recibieron ningún programa de ayuda, de un


conjunto de millones de ancianos posibles.

- Hogares que demandan energía eléctrica en el último año, de los cuales se elegirán
aquellos con consumo mayores al promedio.

- Personas con quejas en el servicio de agua potable, de un total de reclamos


efectuados, siempre que estas personas hayan reclamado devolución de pago.

Las variables aleatorias mencionadas son en su elección totalmente independientes, no se ha


sufrido ningún tipo de influencias en el proceso, por ejemplo no ha existido elección discrecional
o dirigida, todo ha sido producto del azar (mediante sorteos de su número de documento de
identidad –DNI- por ejemplo), en caso alguno de los elegidos no participa del proceso, se elige a
otro del mismo modo.

Las variables aleatorias pueden ser discretas cuando toman números enteros o representan
de forma numerable algún hecho económico o permiten que una variable aleatoria sea
numerable. Su número normalmente es finito, siempre conservando el hecho de que son enteros
y representativos.
60
Relaciones estadísticas entre variables aleatorias

Por ejemplo se tienen las siguientes variables aleatorias discretas:

- X es el nivel educativo de los individuos, donde 0 es no tener estudios, 1, es primaria


incompleta, 2 primaria completa, 3 secundaria incompleta, 4 secundaria completa. Así
la variables X = (0, 1, 2, 3, 4) es discreta

- Y representa a las familias según la naturaleza de ingresos, 1 es la familia con ingreso


sólo del padre, 2 ingresos de padre y madre, 3 ingresos de más miembros. Y=(1, 2, 3)

- Z representa la decisión de un grupo de individuos de comprar un bien, 1 si se compra


el bien y 0 si no lo compra, así Z= (0, 1)

Tener variables discretas ayuda mucho en la representación de diversas variables que suelen
llamarse categóricas, donde encajan niveles de empleo, tipos de empleo, educación, salud y
otras variables sociales.

Se tiene también variables continuas, que pueden tomar cualquier valor numérico en un
conjunto infinito de posibilidades, por ejemplo tenemos:

- Sea E: El valor del tipo de cambio en una semana cualquiera, por ejemplo lunes 2.75
soles por dólar, martes 2.77, miércoles 2.79, jueves 2.76, viernes 2.77. Donde la
variables aleatoria es E = (2.75, 2.77, 2.79. 2.76, 2.77)

- Sea i: La tasa de interés trimestral, por ejemplo trimestre I 10%, Trimestre II 12%,
Trimestre III 9% y Trimestre IV 10.5%, así la variable continua i = (10%, 12%, 9%,
10.5%)

En las ciencias económicas las variables continuas son normalmente las que tienen que ver
con valores numéricos diversos: edad, años de estudio, años de trabajo, tasas de interés, tipos
de cambio, valores monetarios diversos como emisión, liquidez, reservas internacionales, valores
porcentuales en cambio diario, mensual o anual como tasa de inflación, depreciación cambiaria,
variación de la pobreza, tasa de pobreza, tasa de empleo, índices diversos como IPC, IPM,
índice de empleo, índice de valor de la producción y otros.

Las variables aleatorias pueden relacionarse de diversos modos, veamos los ejemplos
siguientes:

61
Relaciones estadísticas entre variables aleatorias

Fig. 2.1 Relación entre tasa de encaje (%) y Tasa interbancaria en Soles (%) 2010-2013 en
Meses

Fuente: BCRP

La figura anterior indica una relación positiva entre la tasa de encaje que cobra el Banco
Central de Reserva a los bancos y la tasa de interés interbancaria en soles, evidenciando para el
período de análisis que un mayor encaje progresivamente representa una mayor tasa de interés,
existe la evidencia que para mayores tasas de encaje el efecto del incremento es más débil. En
este caso hemos graficado dos variables continuas en % mensual. La muestra empleada para el
conjunto de enero del 2010 a diciembre del 2013, fue elegida al azar entre todo el horizonte de
tiempo disponible.

En la figura siguiente combinamos una variable continua calculada como índice, nos
referimos al índice selectivo de la Bolsa de Valores de Lima y la tasa de encaje ya mostrada.
Como podemos ver no hay una aparente relación entre ambas variables, en buena cuenta si
esperamos que el mayor costo del interés en el mercado bancario puede actuar como incentivo
al mayor rendimiento en índice bursátil, pues la evidencia no lo respalda. Lo más probable sea
que la menor actividad económica (mayor encaje afecta el interés al alza y reduce el crédito)
pueda influir negativamente en las operaciones bursátiles, pero esa evidencia tampoco se

62
Relaciones estadísticas entre variables aleatorias

respalda, estamos entonces en presencia de dos variables continuas que no generan relación
alguna, al menos en la muestra aleatoria tomada.

Fig. 2.2 Relación entre tasa de encaje (%) e Índice Selectivo de la BVL 2010-2013 en
Meses

Fuente: BCRP

Fig. 2.3 Relación entre Edad y Número de mujeres hospitalizadas 2010-2012

Fuente: INEI

63
Relaciones estadísticas entre variables aleatorias

La figura previa muestra las relaciones entre dos variables aleatorias, una continua que
representa al número de mujeres hospitalizadas por enfermedades infecciosas y la otra es una
variable discreta que son los grupos etáreos o edades agrupadas, donde 1 representa menores
de 15 años, 2 indica el grupo de 15 a 24 años, 3 es para las edades entre de 25 a 49 años y 4
representa a los que tienen 50 a más años. Como indica la figura, es normal encontrar que las
enfermedades infecciosas en mujeres se concentran normalmente a partir de los 25 años, que es
donde más casos existe, aquí la muestra tomada fueron datos anuales del año 2007 al 2012.

2.2 Valor esperado de una variable aleatoria


Dado que estamos en presencia de variables aleatorias que pueden tomar números diversos,
es bueno conocer sus indicadores de tendencia central, sobre todo considerando que cada
variable aleatoria tiene una distribución específica. Consideremos por ejemplo que el
experimento aleatorio es lanzar un dado 30 veces, los resultados se muestran en la tabla
siguiente:

Tabla 2.1 Resultados de 30 Lanzamientos de un dado

Lanza Sale Lanza Sale


1 2 16 6
2 3 17 3
3 3 18 6
4 3 19 5
5 3 20 2
6 2 21 2
7 4 22 1
8 5 23 4
9 4 24 4
10 2 25 2
11 6 26 6
12 6 27 4
13 4 28 5
14 3 29 3
15 3 30 1
64
Relaciones estadísticas entre variables aleatorias

Con estos resultados se tiene la siguiente tabla de frecuencias totales, relativas y acumuladas:

Tabla 2.2 Frecuencias relativas para 30 lanzamientos de un dado

Número del dado frecuencia Frecuencia relativa F acumulada


1 2 0.07 0.07
2 6 0.20 0.27
3 8 0.27 0.53
4 6 0.20 0.73
5 3 0.10 0.83
6 5 0.17 1.00
Total 30 1

La tabla indica que el número uno del dado salió 2 veces, esto representa un 0.07 (7%) de un
total de 30 lanzadas, así el número 3 salió 8 veces, lo cual representa el 0.27 (27%) del total de
lanzadas que fue 30. Así sucesivamente se ponen las veces que salió el número del dado,
conocido como frecuencia, luego se tiene la frecuencia relativa y finalmente la frecuencia
acumulada, equivalente a la suma de las frecuencias relativas para cada número del dado, por
ejemplo para el primer lanzamiento la frecuencia acumulada es 0.07, luego 0.27 (sumando 0.20)
y así sucesivamente hasta llegar a 1

La figura siguiente indica el tipo de distribución que hemos conseguido, como podemos ver
los resultados de lanzamiento de los dados se concentran al medio, para ello vean la figura en
barras, esta concentración al centro indica la clásica llamada distribución normal, es probable que
si lanzáramos el dado unos 100 veces o mil veces, obtendríamos una figura con datos
concentrados al centro y eso representa que la distribución lograda es Normal. Algunas veces los
datos pueden concentrarse hacia los costados, lo que indica otros tipos de distribución, algo
relacionado a datos de tipo social cuando por ejemplo medimos la estructura de ingresos así los
datos tenderán a concentrarse en los más numerosos, que pueden ser los de menores ingresos.

65
Relaciones estadísticas entre variables aleatorias

Fig. 2.4 Distribución de frecuencias relativas y acumuladas para 30 lanzamientos de un dado

El lanzamiento de 30 dados tiene un valor esperado que se estima del siguiente modo, para
ello usamos la información de la tabla 2.2 de frecuencias previa:

Valor esperado del número del dado= ∑ Frecuencia relativa * Número del dado

Valor esperado = 0.07 * 1 + 0.20 * 2 + 0.27 * 3 + 0.20 * 4 + 0.10 *5 + 0.17 * 6 = 3.57

Una generalización al cálculo anterior es el hecho de que la frecuencia relativa, también


refleja la probabilidad de ocurrencia del número del dado, así por ejemplo la probabilidad de que
salga el número 5 en 30 lanzamientos del dado es de 0.10 o 10%, mientras que el número del
dado vendría a ser la variable aleatoria que estamos midiendo (número que sale en cada
lanzamiento), con ello la fórmula general de valor esperado, considerando que X es la variable
aleatoria cualquiera, queda:

Valor esperado de X = ∑ Px * X
66
Relaciones estadísticas entre variables aleatorias

Donde Px, es la probabilidad de suceso de X. Hay que notar que el valor esperado equivale al
promedio de la variable aleatoria para todo el grupo de datos que resultan de cada lanzamiento,
así la suma de números que sale del dado entre 30 lanzamientos en total, equivale al promedio
de la variable aleatoria:

Valor esperado de X = Promedio Xm = ∑ Xi / N

Donde Xm es el promedio de X y Xi representa a cada valor resultante en el dado para cada


lanzamiento, por ejemplo X para el primer lanzamiento (es decir X1) es 2, para el segundo
lanzamiento X2 es 3 y así sucesivamente.

2.3 Varianza de una variable aleatoria


Consideremos que una varianza poblacional para cualquier variable aleatoria es normalmente
del siguiente modo:

Var X = ∑ (X – Xm)2 / N

Si consideramos que Xm equivale al valor esperado de X (en adelante EX), además


considerando que la varianza de X es también el valor esperado de sus desviaciones respecto a
la media, entonces tenemos:

Var X = E (X – EX)2

Var X = E (X2 - 2 X EX + EX2)

Var X = E (X2 )- 2 E X EX + EX2

Var X = E (X2) - 2 E X2 + EX2

Var X = E (X2) - E X2

Var X = E ( X2 ) - ( E X )2

Usando la información de la tabla anterior 2.2, obtenemos la siguiente varianza de X:

67
Relaciones estadísticas entre variables aleatorias

Var X = 1 2 * 0.07 + 2 2 * 0.20 + 3 2 * 0.27 + 4 2 * 0.20 + 5 2 * 0.10 + 6 2 * 0.17 – (3.57) 2

Var X = 2.24

2.4 Media y varianza condicional


Ahora pensemos que una variable aleatoria puede ser influenciada por otra, es decir que el
suceso X por ejemplo, puede ser determinado de algún modo por Y, para establecer ese tipo de
relación tenemos que estimar primero la media condicional y luego la varianza condicional de
ambas variables.

Consideremos que tenemos dos variables aleatorias: X que representa al ingreso del
individuo medido en miles de soles por año, en este caso X puede tomar valores que pueden ser
20 mil, 30 mil o 40 mil soles al año o cualquier unidad monetaria, medida como variable continua.
Por otro lado tenemos a Y, variable aleatoria que representa el gasto del individuo en alimentos
por ejemplo, medido como una variable discreta, donde 1 representa que gastan de 70% a más
de sus ingresos en alimentos, 2 representa que gasta entre 60 a 69%, 3 de 50 a 59%, 4 de 40 a
49%, 5 de 30 a 39% y 6 gastan menos del 30% de sus ingresos en alimentos.

El experimento aleatorio consistió en elegir 100 individuos de una población cualquiera, los
cuales eran entrevistados para obtener sus ingresos y su nivel de gasto en alimentos. La tabla
siguiente indica las frecuencias absolutas obtenidas en las 100 entrevistas:

Tabla 2.3 Frecuencias absolutas para ingreso (X) y gasto (Y)

Ingresos (X)
Gasto (Y) 20 30 40 Total
1 28 3 0 31
2 8 15 3 26
3 4 6 6 16
4 0 6 15 21
5 0 0 3 3
6 0 0 3 3
Total 40 30 30 100

68
Relaciones estadísticas entre variables aleatorias

De acuerdo con la tabla previa, 40 entrevistados tienen ingresos de 20 mil al año, 30 tienen
ingresos de 30 mil y 30 más tienen ingresos de 40 mil al año. Por otro lado 31 entrevistados
tienen un nivel de gasto de 1 (70% a más del ingreso usado como gasto en alimentos), 26
entrevistados tienen un nivel de gasto 2, 16 entrevistados un nivel de gasto 3, 21 tienen un gasto
equivalente a 4, 3 tienen un gasto en nivel 5 y 3 tienen un gasto en nivel 6, es decir sólo 3
entrevistados tienen un gasto que equivale a menos del 30% de sus ingresos.

Dentro de la tabla aparecen las frecuencias absolutas, por ejemplo 28 entrevistados ganan 20
mil soles al año y gastan en el nivel 1. En el mismo sentido 6 entrevistados por ejemplo, tienen
ingresos por 30 mil al año y gastan en el nivel 4, asimismo 15 entrevistados ganan 40 mil y
gastan en el nivel 4.

Una vez conocidas las frecuencias absolutas podemos ahora estimar las frecuencias relativas
o también las probabilidades de suceso, para ello veamos la tabla siguiente:

Tabla 2.4 Probabilidades de suceso para ingreso (X) y gasto (Y)

Ingresos (X)
gasto (Y) 20 30 40 PMg Y
1 0.28 0.03 0 0.31
2 0.08 0.15 0.03 0.26
3 0.04 0.06 0.06 0.16
4 0 0.06 0.15 0.21
5 0 0 0.03 0.03
6 0 0 0.03 0.03
PMg X 0.4 0.3 0.3 1

En la tabla 2.4, se muestran las probabilidades de suceso para X e Y, se estimó también las
probabilidades marginales (PMg) tanto de X como de Y. Las probabilidades de suceso se
estiman como Frecuencia absoluta / total de entrevistados, por ejemplo el 0.28 equivale a la
probabilidad de ganar 20 mil y gastar en el nivel 1 y se calcula como 28/100.

Las probabilidades marginales se calculan como la suma de las probabilidades de suceso


para cada posibilidad de X o de Y. En el caso de la probabilidad marginal de X, se obtiene
sumando:
69
Relaciones estadísticas entre variables aleatorias

PMg X 20 = 0.28 + 0.08 + 0.04 + 0 + 0 + 0 = 0.4

PMg X 30 = 0.03 + 0.15 +0.06 + 0.06 + 0 + 0 = 0.3

PMg X 40 = 0 + 0.03 + 0.06 + 0.15 + 0.03 + 0.03 = 0.3

La probabilidad marginal de Y (PMg Y) resulta de sumar las probabilidades de suceso para


cada nivel de gasto de alimentos, así se estima del siguiente modo:

PMg Y1 = 0.28 + 0.03 + 0 = 0.31

PMg Y2 = 0.08 + 0.15 + 0.03 = 0.26

PMg Y3 = 0.04 + 0.06 + 0.06 = 0.16

PMg Y4 = 0 + 0.06 + 0.15 = 0.21

PMg Y5 = 0 + 0 + 0.03 = 0.03

PMg Y6 = 0 + 0 + 0.03 = 0.03

Ahora estimaremos la probabilidad condicional de Y dado X (Y/X), que implica combinar la


probabilidad de cada evento sobre la probabilidad marginal (Pi / Pmg Xi):

Tabla 2.5 Probabilidades condicionales de Y / X

P (Y/X) 20 30 40
1 0.7 0.1 0
2 0.2 0.5 0.1
3 0.1 0.2 0.2
4 0 0.2 0.5
5 0 0 0.1
6 0 0 0.1
Total 1 1 1

Como muestra la tabla 2.5, la probabilidad de que se gaste en el nivel 1 dado un ingreso de
20 mil, es de 0.20 o 20%. La probabilidad de que se gaste en el nivel 2 dado un ingreso de 30

70
Relaciones estadísticas entre variables aleatorias

mil, es de 0.5 o 50%. La probabilidad de que se gaste en el nivel 6 dado un ingreso de 40 mil, es
de 0.1 o 10% y así sucesivamente con otro nivel de gasto dado un ingreso.

Ahora estimaremos el valor esperado condicional de Y/X, para ello consideramos lo siguiente:

E (Y / Xi) = ∑ P (Y / Xi) * Yi

La tabla siguiente muestra los estimados, así para cada nivel de ingreso (Xi) hay un valor
esperado condicional de Y / X:

Tabla 2.6 Esperanza condicional de Y / X

P ( Y/Xi ) * Y 20 30 40
1 0.7 0.1 0
2 0.4 1 0.2
3 0.3 0.6 0.6
4 0 0.8 2
5 0 0 0.5
6 0 0 0.6
E Y / Xi 1.4 2.5 3.9

Los cálculos salen del siguiente modo, para un nivel de ingresos de 20 mil, las probabilidades
condicionales por Yi, son: 0.7 * 1, 0.2 * 2, 0.1 * 3, 0 * 4, 0 * 5, 0 * 6.

Para un ingreso de 30 mil, resulta: 0.1 * 1, 0.5 * 2, 0.2 * 3, 0.2 * 4, 0 * 5, 0 * 6.

Para un ingreso de 40 mil resulta: 0 * 1, 0.1 * 2, 0.2 * 3, 0.5 * 4, 0.1 * 5, 0.1 * 6

La sumatoria de las probabilidades condicionales (Y/X) * Y, resulta finalmente en el valor


esperado de Y/Xi, que en la tabla se muestra como E Y/ Xi, así el valor esperado resulta del
siguiente modo:

E Y / X1 = 1.4

E Y/ X2 = 2.5

E Y / X3 = 3.9
71
Relaciones estadísticas entre variables aleatorias

Fig. 2.5 Valor esperado de Y/Xi

Como se ve en la figura previa y tomando en cuenta los datos de la tabla 2.3, para un ingreso
de 20 mil, los valores de gasto van de 1 a 3, siendo el valor esperado de 1.4 (equivalente a la
media condicional). Para el nivel de ingreso de 30 mil, los valores de gasto van de 1 a 4, siendo
el valor esperado de 2.5 (promedio condicional). Finalmente para un nivel de gasto de 40 mil, el
gasto en alimentos va del nivel dos al 6, siendo el valor esperado de 3.9 o promedio condicional
de Y/X.

Para calcular el valor esperado del conjunto de datos analizado (los 100 entrevistados)
procedemos del siguiente modo:

E Y/ X = E Y / Xi * Pmg Xi

E Y / X = 1.4 * 0.4 + 2.5 * 0.3 + 3.9 * 0.3 = 2.48

72
Relaciones estadísticas entre variables aleatorias

Hay que notar que el valor esperado de Y es de 2.48 y debe coincidir con el promedio de
todos los entrevistados para la variable respectiva.

Para hallar la varianza total condicional de Y/X, recurriremos al concepto previo de varianza
ya analizado y le agregaremos el valor esperado de la varianza condicional. Así la varianza
condicional de una variable aleatoria (V) equivale a la suma de la varianza del valor esperado de
Y/ X y al valor esperado de la varianza condicional. Para el caso de la variable Gasto (Y) la
varianza total condicional V (Y / X) es:

V (Y / X) = Var E Y/ X + E (V Y/X)

Donde:

Var E Y/ X = E Y/ X 2 - (E Y/ X)2

E Y/ X 2 = ∑ [E Y / Xi 2 * PMg Xi]

E (V Y/X) = ∑ [V Y/ Xi – E Y / Xi 2] PMg Xi

V Y/ Xi = ∑ Pi Y/ Xi * Yi 2

De acuerdo con las ecuaciones planteadas, los resultados de la varianza de la esperanza de


Y/ X son:

E Y/ X 2 = 1.4 2 * 0.4 + 2.5 2 * 0.3 + 3.9 2 * 0.3 = 7.222

(E Y/ X)2 = 2.48 2 = 6.1504

Var E Y/ X = 7.222 – 6.1504 = 1.0716

A partir de la tabla siguiente, mostramos los cálculos de la esperanza de la varianza


condicional, empezando por V Y/Xi, así para un nivel de ingreso de 20 mil, la varianza para el
nivel 1 de gasto, es 0.7 * 1 2 = 0.7. Así para el mismo nivel de ingreso de 20 mil, si el nivel de
gasto es 2, se tiene una varianza de 0.2 * 2 2 = 0.8, en el caso de tener un ingreso de 40 mil y
para un nivel 3 de gasto, se tiene una varianza de 0.2 * 32 = 1.8 y así sucesivamente.

73
Relaciones estadísticas entre variables aleatorias

Tabla 2.7 Estimación de la Varianza condicional V Y / Xi

∑ P Y/ Xi * Yi 2 20 30 40
1 0.7 0.1 0
2 0.8 2 0.4
3 0.9 1.8 1.8
4 0 3.2 8
5 0 0 2.5
6 0 0 3.6
Suma 2.4 7.1 16.3

La sumatoria de los valores obtenidos para cada nivel de ingreso resulta en la esperanza de
la varianza, por ejemplo para un nivel de ingreso de 20 mil, la esperanza de la varianza
condicional es de 2.4 y así sucesivamente para los valores que se muestran en la tabla. A estos
valores obtenidos le quitamos la esperanza de la varianza al cuadrado, como sigue:

E (V Y/ X) = ∑ [V Y/ Xi – E Y / Xi 2 ] PMg Xi

V Y/ X1 – E Y / X1 2 = 2.4 - 1.4 2 = 0.44

V Y/ X2 – E Y / X2 2 = 7.1 - 2.5 2 = 0.85

V Y/ X3 – E Y / X3 2 = 16.3 - 3.9 2 = 1.09

E (V Y/X) = 0.44 * 0.4 + 0.85 * 0.3 + 1.09 * 0.3 = 0.758

Finalmente con la varianza del valor esperado E Y/X y con la esperanza de la Varianza
condicional V Y/ X, tenemos la varianza total condicional:

V (Y / X) = Var E Y/ X + E (V Y/X)

V (Y / X) = 1.0716 + 0.758 = 1.8296

Con la varianza obtenida, se puede estimar también la desviación estándar total de Y/X, que
resulta del siguiente modo:

S (Y / X) = 1.8296 0.5 = 1.35263


74
Relaciones estadísticas entre variables aleatorias

Del mismo modo puede estimarse la varianza total condicional de X/Y y la desviación
estándar respectiva, los cálculos se basan en las siguientes ecuaciones:

V (X / Y ) = Var E X/ Y + E ( V X/ Y)

Donde:

Var E X/ Y = E X/ Y 2 - (E X/ Y)2

E X/ Y 2 = ∑ [E X / Yi 2 * PMg Yi]

E (V X/ Y) = ∑ [V X/ Yi - E X / Yi 2 ] PMg Yi

V X/ Yi = ∑ P X/ Yi * Xi 2

Tabla 2.8 Estimación de la probabilidad condicional P (X/Yi)

P(X/Yi) 20 30 40 Total
1 0.90 0.10 0 1
2 0.31 0.58 0.12 1
3 0.25 0.38 0.38 1
4 0 0.29 0.71 1
5 0 0 1.00 1
6 0 0 1.00 1

La tabla anterior muestra el cálculo de la probabilidad condicional de X/Yi, para ello se usaron
los datos de las probabilidades de suceso Pi y se dividieron entre la probabilidad marginal de Y
(PMg Y). Como puede verse la suma de las probabilidades condicionales para cada nivel de
gasto es igual a 1.

75
Relaciones estadísticas entre variables aleatorias

Tabla 2.9 Estimación del valor esperado de X/Y

P(X/Yi)* X 20 30 40 E X/Yi E X/Yi 2


1 18.06 2.90 0 20.96774 439.6462
2 6.15 17.31 4.62 28.0769 788.3136
3 5.00 11.25 15.00 31.25 976.56
4 0 8.57 28.57 37.14286 1379.591
5 0 0 40.00 40 1600
6 0 0 40.00 40 1600
E X/Y 29 883.2161468

La tabla previa muestra el cálculo del valor esperado de Y/X, los valores de la tabla se
obtienen usando cada probabilidad condicional estimado en la tabla 2.8 multiplicado por el valor
de Xi.

La suma de los valores esperados para cada nivel de gasto del 1 al 6, se muestra en la
columna E X/Yi, donde por ejemplo 20.96 es el valor esperado del ingreso X para el nivel de
gasto 1, 28.07 sería el valor esperado del ingreso para el nivel de gasto 2 y así sucesivamente. El
valor esperado de X resulta de aplicar lo siguiente:

E X/ Y = 20.96 * 0.31 + 28.07 * 0.26 + 31.25 * 0.16 + 37.14 * 0.21 + 40 * 0.03 + 40 * 0.03 =
29

La columna E X/Yi 2, muestra el valor esperado elevado al cuadrado, para cada nivel de gasto
se hace esta estimación, por ejemplo para el nivel 1 de gasto, el valor E X/Y1 2 es de 439 (resulta
de 20.96 2) y así sucesivamente. Mientras que el valor esperado total resulta así:

E X/ Y 2 = 439.6 * 0.31 + 788.3 * 0.26 + 976.5 * 0.16 + 1379.5 * 0.21 + 1600 * 0.03 + 1600 *
0.03 = 883.22

Con el cálculo anterior, procedemos a estimar un componente de la varianza total condicional


de X/Y, denominado la varianza del valor esperado de X/Y:

Var E X/ Y = 832.22 – 292 = 42.22

76
Relaciones estadísticas entre variables aleatorias

La tabla siguiente indica la estimación del otro componente de la varianza total condicional
de X/Y, en este caso se refiere al valor esperado de la varianza condicional. La columna P (X/Yi)
X2 indica la sumatoria de las probabilidad condicionales multiplicadas por el cuadrado de X, por
ejemplo para el primer valor de varianza condicional de Y1/X equivale a 0.90 * 20 2, para el
segundo valor es 0.1 * 30 2 y para el valor final es 0 (0 * 40 2), la suma de esos tres valores para
Y1 es de 448.4 (Tenga cuidado con el redondeo de los números en esta tabla).

Finalmente la última columna es el componente de valor esperado de la varianza condicional


para cada Yi, en este caso consideramos que P (X/Yi) X2 equivale a V X/Yi y se resta del valor
esperado de (E X/Yi) 2 obtenido en la tabla 2.9. Así por ejemplo para Y1, se tiene el cálculo
siguiente (y sucesivamente):

V X/ Y1 – E X / Y1 2 = 448.4 – 439.6 = 8.74

Tabla 2.10 Estimación de la varianza condicional de X/Y

∑ P X/ Yi * Xi 2 20 30 40 P (X/Yi) X2 V X/ Yi – E X / Yi 2
1 361.3 87.1 0.0 448.4 8.7409
2 123.1 519.2 184.6 826.9 38.6095
3 100.0 337.5 600.0 1037.5 60.9375
4 0.0 257.1 1142.9 1400.0 20.4082
5 0.0 0.0 1600.0 1600.0 0.0000
6 0.0 0.0 1600.0 1600.0 0.0000

Finalmente el cálculo del valor esperado de la varianza de X/Y equivale a:

E (V X/ Y) = ∑ [V X/ Yi - E X / Yi 2 ] PMg Yi

E (V X/ Y) = 8.7 * 0.31 + 38.6 * 0.26 + 60.9 * 0.16 + 20.4 * 0.21 + 0 * 0.03 + 0 * 0.03 = 26.78

Finalmente la varianza de X/Y resulta:

V (X / Y) = Var E X/ Y + E (V X/ Y)

V (X / Y) = 42.22 + 26.78 = 69

77
Relaciones estadísticas entre variables aleatorias

Con la varianza obtenida, se puede estimar también la desviación estándar total de X, que
resulta del siguiente modo:

S (X / Y) = 69 0.5 = 8.3066

2.5 Correlación entre variables aleatorias


Estamos verificando que el comportamiento de la variable aleatoria Y puede ser influenciado
por la variable aleatoria X, esto a partir de las medias y varianzas condicionales. Si observamos
la figura 2.5 vemos que la media condicional o valor esperado de Y (gasto) dado el ingreso X, va
subiendo, así a medida que sube el ingreso el valor esperado del gasto sube, esto indica un
grado de relación entre ambas variables. Para conocer el grado de relación podemos usar un
indicador denominado coeficiente de correlación entre dos variables, esto se estima del siguiente
modo:

Coeficiente de correlación = Covarianza (X, Y) / [S (X/Y) * S (Y/X)]

Donde:

Covarianza (X, Y) = E XY - E Y/X * E X/Y

E XY = Pi * Xi * Yj

Xi * Yj = Para cada valor Xi se tiene diferentes valores de Yj

En primer lugar estimaremos el valor esperado de XY conjunto:

Tabla 2.11 Estimación del valor esperado de XY

E XY 20 30 40
1 5.6 0.9 0
2 3.2 9 2.4
3 2.4 5.4 7.2
4 0 7.2 24
5 0 0 6
6 0 0 7.2
78
Relaciones estadísticas entre variables aleatorias

Cada elemento de la tabla anterior se obtiene del siguiente modo, por ejemplo para el primer
elemento (gasto nivel 1 e ingreso de 20 mil) se multiplica 0.28 (revise las probabilidad de la tabla
2.4) por 20 y por 1, resultado 5.6. Para el segundo elemento 0.9, se obtiene multiplicando 0.03 *
30 * 1, resultando 0.9, así sucesivamente.

La suma del total de elementos de la tabla 2.11 representa el valor esperado de XY:

E XY = 80.5

Con esta información la covarianza es:

Covarianza (X, Y) = 80.5 - 2.48 * 29 = 8.58

Finalmente la correlación entre X, Y es:

Coeficiente de correlación (X, Y) = 8.58 / (1.35263 * 8.3066) = 0.7636

El coeficiente de correlación indica que entre X, Y existe una asociación positiva, es decir si
una variable sube o aumenta de valor, la otra se comporta de igual modo. El máximo valor que
puede obtener una correlación positiva es 1, esto supone que la covarianza equivale al producto
de las varianzas. Esto último significa que la variable tiene una varianza cuyo comportamiento
equivale a la otra, ambas varían de modo similar por ello su correlación es 1.

El valor mínimo de una correlación es -1, lo que indica un perfecto comportamiento inverso o
negativo, en buena cuenta la varianza de una variable equivale a la inversa de la otra varianza,
de modo que su comportamiento es perfectamente opuesto.

Si la correlación es cero, supone que las varianzas independientes son bastante altas, pero
que la covarianza entre variables es baja, es decir su comportamiento no tienen ninguna relación,
de modo que las variables no tienen ningún comportamiento asociado.

79
Relaciones estadísticas entre variables aleatorias

Fig. 2.6 Relación entre tipo de cambio y riesgo país. 2010-2013 Mensual

Fuente: BCRP

La figura previa muestra la relación entre dos variables aleatorias, el tipo de cambio sol x
dólar y el riesgo país en puntos básicos, el coeficiente de correlación entre ambas variables es de
0.51, positiva y relativamente alta. Esto puede indicar que alzas del riesgo país, implican una
salida de capitales con lo cual sube el tipo de cambio. En la figura siguiente la correlación es de
0.01, claramente no existe ninguna relación entre las dos variables en estudio:

Fig. 2.7 Relación entre tipo de cambio y tasa de inflación (IPC). 2010-2013 Mensual

Fuente: BCRP

80
Relaciones estadísticas entre variables aleatorias

Conclusiones del capítulo

En este capítulo hemos explorado las relaciones entre dos variables aleatorias, estas relaciones
pueden medirse a través de un coeficiente de correlación que es el grado de asociación entre dos
variables.

El coeficiente de correlación resulta de dividir la covarianza de dos variables sobre sus


desviaciones condicionales (el valor que resulta de sacar la raíz de las varianzas condicionales de
cada variable), la covarianza es la forma como varían en conjunto dos variables, así dos variaciones
similares en proporción o desviación terminarán dado una correlación positiva alta, mientras que
varianzas que se comportan de modo independiente o no se relacionan, terminarán dando
correlaciones cercanas a cero.

Por otro lado si una variable tiene una varianza creciente y la otra variable se comporta a la
inversa, este comportamiento conjunto terminará dando una correlación negativa o un
comportamiento opuesto entre ambas variables.

La determinación de la covarianza implica saber el valor esperado conjunto de dos variables, que
es una combinación de la esperanza conjunta menos las esperanzas individuales, en este caso la
determinación de las esperanzas de cada variable aleatoria equivale a saber su promedio o también
equivale a conocer sus frecuencias relativas relacionadas con el valor de la variable, así se
establece una media condicional de una variable dependiente de la otra.
Asimismo hemos establecido que existen frecuencias relativas simples, pero también existen
frecuencias condicionales, es decir la probabilidad de que suceda un evento siempre que suceda
otro o que se tenga otra variable dada.

La idea de hallar las esperanzas condicionales, es que si existe algún grado de influencia entre
dos variables, es posible que su valor esperado se comporte relacionado a los cambios en la otra
variable aleatoria, esto es la base del análisis de correlaciones y posteriormente del análisis de
regresión entre dos o más variables.

Esta sección ha permitido además establecer que las variables aleatorias deben ser
cuidadosamente extraídas en experimentos aleatorios o de modo independiente, aun si son datos
secundarios, de modo que las relaciones planteadas sean estadísticamente válidas.

81
Relaciones estadísticas entre variables aleatorias

Preguntas de opinión

1. ¿Correlación es lo mismo que causalidad?


2. ¿Por qué la correlación al cuadrado, se denomina coeficiente de determinación?
3. ¿Por qué la correlación no puede ser mayor que 1?
4. Dé ejemplos de experimentos aleatorios para estudiar el efecto de los programas
sociales.
5. Brinde 2 ejemplos de variables aleatorias discretas que puedan usarse en
política fiscal.

82
Relaciones estadísticas entre variables aleatorias

Caso de aplicación
Lectura previa

Una trampa de la liquidez es aquella situación en la que el público está dispuesto, a un


tipo de interés dado, a mantener cualquier cantidad de dinero que se ofrezca. En buena
cuenta la tasa de interés no representa mayor incentivo para modificar los saldos monetarios
reales o la demanda de dinero. En el contexto de la trampa de la liquidez, la curva LM es
horizontal ya que las variaciones de la cantidad de dinero no la desplazan:

Interés!
IS!

LM!

Producto!

Como muestra la figura previa, la política monetaria llevada a cabo por medio de
operaciones de mercado abierto (es decir las colocaciones de soles en el mercado que
pueden darse por compra de moneda extranjera o por incrementos de activos diversos del
Banco Central de Reserva) no influye ni en el tipo de interés ni en el nivel de renta. Esto se
debe a que todo aumento monetario equivale a un comportamiento similar de la demanda de
dinero, toda vez que los agentes no responden a la tasa de interés, de modo que más oferta
monetaria equivale a más demanda monetaria. Ello hace que los saldos monetarios tampoco
alteren el consumo y dado que no se mueve la tasa de interés, tampoco se altera el crédito y
por ende no se mueve el producto.

83
Relaciones estadísticas entre variables aleatorias

En escenarios donde existe trampa de la liquidez y aún cuando se tenga un tipo o tasa de
interés cero o muy cercano a cero, el banco central no puede hacer nada más con la política
monetaria convencional para estimular la economía, ya que la política monetaria no puede
bajar más los tipos de interés. Esto concuerda con un escenario donde se presenta una
caída continua de los precios, proceso conocido como deflación, esto se da porque los
agentes económicos no tienen mayor consumo y por el contrario su demanda de dinero se
mueve al ritmo de la oferta, al no estimularse el consumo aún en condiciones de colocación
continua de fondos, hace que los precios se vayan reduciendo.

Sin embargo acciones de la autoridad monetaria pueden estimular la demanda, por


ejemplo mediante la compra de bonos corporativos a la usanza de la política monetaria de
los EEUU (denominada flexibilidad cuantitativa) esto impulsa la demanda de bienes por las
empresas, la mejora del empleo y por allí presionar en algo el consumo y por lo menos cortar
la deflación. Sin embargo estas inyecciones de fondos pueden ser perjudiciales a largo
plazo.

Preguntas de la lectura

1. En la trampa de la liquidez, ¿qué variables aleatorias intervienen?


2. ¿Qué correlaciones crees que tendrán las variables señaladas anteriormente?
3. En el caso de la reciente crisis internacional, ¿qué variables aleatorias existentes
permiten describir lo anterior?
4. ¿La trampa de liquidez puede afectarse con tasas de interés negativas?

84
Relaciones estadísticas entre variables aleatorias

Ejercicios

Usando la tabla siguiente para dos variables aleatorias cualquiera:

Y 1 2 3

1 100 70 95

2 20 45 125

3 0 65 245

Determine el coeficiente de correlación condicional entre X, Y.

85
Relaciones estadísticas entre variables aleatorias

Referencias bibliográficas
Greene, W. (2003) Econometric Analysis. Fifth Edition. Pearson Ed.

Gujarati, D. (2004) Econometría. 4ta Edic. Mc Graw Hill.

Jiménez, F. ( ) Elementos de teoría y política macroeconómica para una economía abierta. Fondo
Editorial PUCP.

Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill.

Novales, A. (1993) Econometría. Mc Graw Hill.

Wooldridge, J. (2009) Introductory Econometrics. A modern approach. Third Edition. Cengage


Learning.

86
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
!

CAPÍTULO III

Modelo de regresión lineal


básico: Estimación y prueba
de hipótesis

87
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

III. MODELO DE REGRESIÓN LINEAL BÁSICO:


ESTIMACIÓN Y PRUEBA DE HIPÓTESIS

Introducción al tema

Los modelos econométricos implican medir el grado de efecto que una variable aleatoria tiene
sobre otra, esta medición es posible porque ambas variables se relacionan a nivel de covarianza
y por ende correlacionan.

Sin embargo el grado o magnitud del efecto se estima a partir del valor que adquieren los
parámetros respectivos del modelo, por ejemplo una explicación básica del comportamiento del
consumo, variable inserta en el popular modelo Inversión ahorro (IS), indica que los cambios en
el ingreso afectan o modifican el valor del consumo, dichos cambios se pueden medir a través de
un parámetro conocido como propensión marginal a consumir (PMC).

La PMC sería el parámetro a estimar en un modelo econométrico de consumo básico, pero


saber que el parámetro está correctamente estimado, supone unos análisis previos, por ejemplo
que los datos sean normalmente distribuidos (alrededor de la media), que el nivel de error sea
independiente y otros criterios que aseguran una estimación “buena” de los parámetros o
también conocida como estimación insesgada.

La estimación insesgada (al ser la de mayor ajuste o corrección) indica que el modelo ha
reducido al mínimo su nivel de error, por ende los parámetros conducen a una estimación
correcta del comportamiento de la variable dependiente, lo cual puede ayudar en el análisis o
evaluación de las distintas políticas económicas.

88
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

3.1 Criterios básicos a cumplir en modelos de regresión


En el tema anterior hemos estimado la relación entre dos variables aleatorias, a partir del
valor esperado de Y/X, lo cual puede representarse a modo funcional como:

E Y/X: F (X)

La expresión previa indica que cuando X cambia, se produce un cambio en el valor esperado
de Y dado X (Y/X), esa relación puede tomar diversas formas por ejemplo:

E Y/X = ß0 + ß1 X (i)

E Y/X = ß0 + ß1 X2 (ii)

En la primera ecuación el modelo es completamente lineal, cambios en X producen cambios


en el valor esperado de Y/X, hay un parámetro ß1 que mide el efecto de X en Y, también existe
un parámetro ßo que mide la existencia de la variable Y cuando no existe ningún efecto de X.

Pensemos en el siguiente modelo para ejemplificar lo anteriormente dicho:

E C/Y = Co + c Yd

Yd = Y - T

Donde C es el consumo de los hogares, Y es el ingreso total de las familias, Yd es el ingreso


disponible de las familias, que también se mide como el ingreso bruto o total menos los
impuestos (T) que se cobran sobre el ingreso pagados por los hogares. En el modelo señalado
Co es el consumo autónomo del individuo, que sería el consumo no influenciado en ninguna
forma por el ingreso.

En sentido amplio el consumo autónomo puede referirse a los hogares en donde hay
miembros cuyo consumo se realiza aún sin tener ingresos, piense en niños o ancianos que no
forman parte de la Población Económicamente Activa (PEA) y por lo tanto no generan ingresos o
no buscan empleo, en algunos casos el ingreso es una pensión pero aun así los gastos de
consumo no se basan en esa pensión sino en el rendimiento o venta de diversos activos
acumulados a lo largo de su vida o en el aporte económico de sus hijos.

Entonces es posible que la ecuación (i) exista normalmente, la ecuación (ii) es lineal en los
parámetros estimados, pero no es lineal en la variable X, sin embargo es un modelo
econométrico que puede estimarse correctamente, dado que nos importa el valor del parámetro.

89
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Un ejemplo de un modelo donde Xa (no lineal) puede darse, es la expresión común del
modelo de producción siguiente:

Y=KaLb

Y/L= KaLb/L

Donde:

Y: Producto

Y / L: Producto per cápita

K: Stock de capital

L: Tamaño de la población trabajadora (PEA)

a +b = 1 Rendimientos constantes a escala

a=1–b

Y / L = (K / L) a

Esta última expresión indica que el producto per cápita se relaciona con el capital por
trabajador o per cápita, si deseamos estimar este modelo sin aplicar logaritmos, tendría esta
versión econométrica:

Ypc = ß0 + ß1 Kpc a (iii)

Si bien el producto per cápita (Ypc) no tiene un relación perfectamente lineal con el capital per
cápita (Kpc), la expresión (iii) es un modelo econométrico que presenta un error de diseño, por
cuanto no conocemos el valor del parámetro “a” haciendo ello imposible su estimación.

El modelo correcto sería el siguiente:

Log Ypc = a Log Kpc

Donde vemos que el resultado del modelo econométrico es estimar “a”, por lo tanto la
presencia de variables cuadráticas o con un algún exponente, puede representar un problema de
diseño del modelo, en algunos casos el uso de variables cuadráticas se usa sin perder linealidad
considerando aspectos como:

90
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

- La variable explicativa se comporta de modo no lineal, por ejemplo los costos de una
empresa pueden no ser lineales, en razón de darse costos fijos y variables o semi fijos.

- Los costos de algunas empresas pueden ser en forma decreciente y creciente (la
clásica curva en forma de U) de modo que modelos que incorporen el costo como
independiente pueden ser no lineales en esa variable.

- La inflación mayor a la esperada, puede representar un impacto no necesariamente


lineal en la actividad productiva, por ejemplo pensemos que el producto tiende a subir
pero a ritmo decreciente en la medida que la inflación sorpresa sube, hasta que el
producto no sube más y podría hasta decaer, en este caso la variable independiente
(inflación real mayor a la esperada) puede ser no lineal.

- Las percepciones del público respecto a un producto pueden variar dependiendo del
ingreso del individuo, así a medida que hay más distancia cuadrática entre ingresos
(por ejemplo ingreso del individuo uno menos el del individuo dos, todo al cuadrado)
podría variar en mayor ritmo la demanda de un bien medido en gasto monetario.

Pensemos en el modelo siguiente:

E Y/X = ß0 + ß1 2 X (iv)

La ecuación (iv) es no lineal en los parámetros, por lo menos en ß1, esto genera problemas
de estimación al menos desde la perspectiva que aquí trabajamos, que es tener un parámetro
cuyo efecto es directo con la variable respuesta. Consideremos que estimamos el modelo (iv), sin
embargo no conocemos que el parámetro es al cuadrado, es decir el efecto real no es la
estimación realizada sino la raíz cuadrada de la misma, por ende el modelo puede tener
problemas de estimación del parámetro, puede estar sobre estimado.

Ahora revisemos la figura siguiente, que muestra la relación entre la tasa de encaje promedio
en el Perú y la tasa de interés activa en moneda nacional. Se puede evidenciar una pequeña
relación positiva entre ambas variables, en buena cuenta un alza de la tasa de encaje se
relaciona con pequeñas alzas en la tasa de interés, la idea de la econometría es estimar el
tamaño de ese efecto medido por el parámetro respectivo.

91
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Fig. 3.1 Relación entre Tasa de Encaje y Tasa activa en moneda nacional (TAMN)

Mensual Junio 2012 - Mayo 2014

Ahora vamos a plantear a modo de ejemplo, el modelo econométrico siguiente:

TAMN = ß0 + ß1 Encaje

Los resultados de la estimación (proceso que veremos más adelante), para los datos entre
junio 2012 a mayo 2014, son:

TAMN = 12.45 + 0.2989 Encaje

El modelo anterior, bien puede denominarse una regresión poblacional, es decir hemos
empleado los datos de todo el corte de tiempo señalado, ahora estimemos tres modelos usando
en cada caso solo una muestra aleatoria de 12 datos, que es la mitad de los datos empleados en
la regresión poblacional, los resultados son:

TAMN 1 = -14.45 + 1.8680 Encaje 1

TAMN 2 = - 5.029 + 1.384 Encaje 2

92
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

TAMN 3 = 213.5 - 10.03 Encaje 3

Visto gráficamente los modelos anteriores pueden representarse en la figura siguiente, en ella
se indica que la función de regresión poblacional es diferente a las demás regresiones
muestrales, esto indica que entre la población y la muestra existe un grado de error, por ejemplo
pensemos que el encaje es 20, en ese caso las estimaciones resultantes son:

TAMN poblacional = 18.428

TAMN muestra 1 = 22.91 Error = 4.482

TAMN muestra 2 = 22.65 Error = 4.223

TAMN muestra 3 = 12.9 Error = -5-528

Fig. 3.2 Regresión Poblacional y Muestral

TAMN!
Muestra!1!
Muestra!3!
Muestra!2!

Población!

Encaje!

El error mostrado en las estimaciones anteriores, se refiere a cuanta distancia hay entre la
TAMN estimada poblacionalmente y cada una de las muestras, como puede verse el error de las
estimaciones muestrales puede ir por encima de la variable TAMN o por debajo de la misma. En
buena cuenta los modelos econométricos dado que son muestrales, siempre tienen un nivel de

93
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

error, de modo que la especificación final de un modelo econométrico general y su valor


esperado, es como sigue:

Y = ß0 + ß1 X + U

E (Y/X) = ß0 + ß1 E (X) + E(U)

Donde U, es el nivel de error de las distintas regresiones muestrales.

La regresión poblacional inclusive, en tanto usamos datos condicionales (ver el tema dos)
presenta valores esperados estimados para una distribución de probabilidades, de modo que
también presenta un nivel de error (la distancia entre el valor esperado estimado o media y los
datos existentes), por ello veamos e siguiente gráfico estimando la TAMN desde los parámetros
mostrados en la regresión poblacional y la TAMN real.

Fig. 3.3 TAMN, TAMN estimada y nivel de error (%)

Como muestra la figura anterior las estimaciones que realizamos de una variable aleatoria
contienen siempre un nivel de error, primero porque siempre estimamos un valor esperado, el
cual es un dato que se encuentra entre la media de los datos respectivos, la desviación existente
en torno a la media estimada, garantiza la presencia de error aleatorio. En el caso de las
regresiones muestrales el error se amplifica, porque además de que estimamos una media
94
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

muestral (o valor esperado muestral), a las desviaciones propias de la muestra se le suma las
desviaciones en torno a la media poblacional (o valor esperado poblacional), lo que implica un
mayor nivel de error.

Las siguientes son las sumas y valores esperados de las estimaciones de error de cada
regresión realizada:

Tabla 3.1 Valor esperado del Error del modelo Encaje -TAMN

Población Muestra 1 Muestra 2 Muestra 3


Suma Error 0.03 -0.03 0.10 0.49
E (Error) 0.00 0.00 0.01 0.04

La tabla anterior indica que el valor esperado del error poblacional tiende a ser cero (es
posible que haya estimaciones mayores y menores respecto al dato real), mientras que de las
tres muestras realizadas la primera tiene un error esperado de cero y las otras dos tienen estos
errores cercanos a cero.

Visto la tabla, el modelo poblacional tiene un E(U) = 0, mientras que la regresión de mayor
cercanía de la muestra 1, también presenta un E(Ui) = 0, en ambos casos ambos modelos son
los que mejor representan el comportamiento de la variable dependiente o tasa de interés activa
en moneda nacional, es siempre muy probable que la función de regresión poblacional tenga un
error esperado de cero, dado que contiene todos los daos posibles, mientras que la muestra de
menor error (o cero) es aquella que mejor representa el comportamiento poblacional.

Hay que considerar además, que normalmente siempre trabajaremos con regresiones
muestrales, de modo que un criterio básico es hallar aquella regresión que presenta el menor
error posible en la estimación de la variable dependiente. En nuestro ejemplo la regresión y los
parámetros a usar, serían los de la muestra 1.

Ahora analicemos el comportamiento del error cuadrático, esto puede expresarse así:

U = Y - ß0 + ß1 X

Var U = E (U – E U)2

Var U = E (U 2 – 2 U E U + (E U)2 )

Var U = E U 2 – 2 E U E U + N (E U)2
95
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Considere que E (U) = 0

Var U = E U 2

Var U = ∑ U 2 / N – K

Donde:

Var U: Varianza de U

N es el número de datos, y

K es el número de variables en la regresión.

En conclusión la varianza del error es una constante, como indica la expresión anterior. El
error también debe tener un comportamiento independiente de la variable independiente, veamos
el siguiente tratamiento (donde Covar indica la covarianza):

Covar (U, X) = E [(U – E U) (X - E X)]

Covar (U, X) = E (U X – E U X - U E X + E U E X)

Considere que E (U) = 0

Covar (U, X) = E (U X - U E X)

Covar (u, X) = E U X - EU E X

Covar (U, X) = 0

Podemos también señalar entonces que el error es independiente de la variable


independiente, aunque el mismo resultado obtenemos si usamos la variable dependiente, el error
no se relaciona con estas variables, básicamente porque el error es aleatorio o debería serlo, es
decir no sigue ningún patrón específico.

Si el error siguiera un comportamiento relacionado con la variable independiente por ejemplo,


tendríamos en la práctica dos modelos, que pueden representarse del siguiente modo:

Y = ß0 + ß1 X + U

U = ø0 + ø1 X + e

96
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

El modelo anterior, para estimar Y, realmente será este:

Y = ß0 + ß1 X + ø0 + ø1 X + e

Como puede verse el parámetro que define el efecto que X tiene en la variable Y sería (ß1 +
ø1), es decir estamos subestimando el valor del parámetro original, el error deja además de ser
aleatorio, puesto que su valor esperado sería este diferente de cero:

E U = ø0 + ø1 E X

Lo anterior indica además que la varianza del error deja de ser constante como demostramos
a continuación:

Var U = E (U – E U)2

Var U = E (U 2 – 2 U E U + (E U)2 )

Var U = E (U 2 – 2 U (ø0 + ø1 E X) + (ø0 + ø1 E X)2 )

Var U = E U 2 – 2 E U (ø0 + ø1 E X) + E (ø0 2 + 2 ø0 ø1 E X + ø1 2 E X 2 )

Var U = E U 2 + E (ø0 2 + 2 ø0 ø1 E X + ø1 2 E X 2 )

Considere que el valor esperado de una constante es la misma constante y un valor esperado
de una variable aleatoria, es también una constante, con ello la varianza del error queda:

Var U = E U 2 + ø0 2 + 2 ø0 ø1 E X + ø1 2 E X 2

Como se ha podido comprobar, es necesario que se cumplan algunos criterios estadísticos


antes de pasar a estimar un modelo de regresión, estos son básicamente (cuando los datos se
distribuyen de manera Normal):

- El valor esperado del error debe ser cero

- La varianza del error es constante

- Los parámetros a estimar de modo insesgado producen el mínimo error o error cero

- La relación entre el error y las variables es de covarianza cero

- Los parámetros de un modelo a estimar, deben ser lineales, ya que ello permite
identificar el efecto que se genera entre variable independiente hacia la dependiente.
97
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

3.2 Estimación de parámetros


Hemos analizado antes que podemos tener distintas funciones de regresión muestral o
regresiones diversas con datos aleatorios de una población, cada una de estas funciones
presenta niveles de error diferenciados, lo que implica que sólo hay un set o conjunto de
parámetros que anula, minimiza o hace cero el error y por tanto son los parámetros ideales e
insesgados para realizar las estimaciones respectivas.

La figura siguiente muestra que para distintos valor del parámetro ß1, el error cuadrático total
(sumatoria de U2) varía. Por ejemplo para un valor del parámetro de la regresión poblacional
(0.30) el error cuadrático es cero, mientras que para el parámetro 1.87 de la regresión muestral
realizada antes (modelo de encaje y tasa de interés), el error cuadrático también es cero.
Mientras que para un parámetro de 1.38 (segunda regresión muestral) el error cuadrático total es
0.01, ahora para la regresión muestral tres, el parámetro fue de -10.03 y el error cuadrático total
ha sido de 0.24.

Fig. 3.4 Estimación de parámetros y comportamiento del error cuadrático

Como se puede ver, el parámetro muestral que minimiza el error al cuadrado total es 1.87.
Esto nos lleva a plantear el siguiente problema de optimización para minimizar el error al
98
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

cuadrado, que permitirá conocer como hallar los parámetros insesgados de cualquier modelo
econométrico básico o de dos variables:

Sea el error del modelo (donde Ye es Y estimado):

∑ U i 2 = ∑ ( Y - Y e) 2

∑ Ui 2 = ∑ ( Yi – ß0 - ß1 Xi ) 2

Minimizando el error (derivando) con respecto a los parámetros tenemos:

∂ ∑ Ui 2 / ∂ ß0 = 0

∂ ∑ Ui 2 / ∂ ß1 = 0

∂ ∑ Ui 2 / ∂ ß0 = 2 ∑ ( Yi – ß0 - ß1 Xi ) (-1) = 0

∑ Yi – N ß0 - ß1 ∑ Xi = 0

∑ Yi / N – ß0 - ß1 ∑ Xi / N = 0

ß0 = Ym - ß1 Xm

Donde:

Ym es el valor promedio o esperado de Y

Xm es el valor promedio o esperado de X

∂ ∑ Ui 2 / ∂ ß1 = 2 ∑ ( Yi – ß0 - ß1 Xi ) (-Xi) = 0

∑ ( Yi – ß0 - ß1 Xi ) (Xi) = 0

∑ ( Yi Xi – ß0 Xi - ß1 Xi Xi ) = 0

∑ Yi Xi – ß0 ∑ Xi - ß1 ∑ Xi 2 = 0

Considerando que:

∑ Yi / N – ß1 ∑ Xi / N = ß0

∑ Yi Xi - (∑ Yi / N – ß1 ∑ Xi / N) ∑ Xi - ß1 ∑ Xi 2 = 0

99
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

∑ Yi Xi - ∑ Yi ∑ Xi / N + ß1 ∑ Xi ∑ Xi / N - ß1 ∑ Xi 2 = 0

N ∑ Yi Xi - ∑ Yi ∑ Xi + ß1 ∑ Xi ∑ Xi - ß1 N ∑ Xi 2 = 0

N ∑ Yi Xi - ∑ Yi ∑ Xi = ß1 [N ∑ Xi 2 - ∑ Xi ∑ Xi ]

[N ∑ Yi Xi - ∑ Yi ∑ Xi ] / [N ∑ Xi 2 - ∑ Xi ∑ Xi ] = ß1

Ahora demostraremos que la covarianza entre variables sobre la varianza de X, se relaciona


con la estimación del parámetro ß1, primero analicemos la covarianza:

Covar (X, Y) = ∑ (X – Xm) (Y – Ym)

= ∑ (X Y – Xm Y + Xm Ym – X Ym)

= ∑ X Y – Xm ∑Y + N Xm Ym – ∑ X Ym

= ∑ X Y – Xm ∑Y + ∑ X Ym – ∑ X Ym

= ∑ Xi Yi – ∑ Xi ∑Yi / N (v)

Ahora hallaremos la varianza de X:

Var X = ∑ (X – Xm)2

= ∑ ( X2 – 2X Xm + Xm 2 )

= (∑ X2 – 2 ∑X Xm + N Xm 2 )

= (∑ X2 – 2 ∑X Xm + ∑X Xm )

= (∑ X2 – ∑ X Xm ) (vi)

Dividimos (v) sobre (vi):

= [∑ X Y – ∑ X ∑Y / N] / [∑ X2 – ∑ X Xm ]

= [N ∑ Xi Yi – ∑ Xi ∑Yi ] / [ N ∑ Xi 2 – ∑ Xi ∑ Xi ] (vii)

La ecuación (vii) es idéntica a la obtenida para estimar ß1, de modo que podemos decir que el
parámetro se estima finalmente del siguiente modo:
100
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

ß1 = Covar (X, Y) / Var X

ß1 = ∑ (X – Xm) (Y – Ym) / ∑ (X – Xm)2

ß1 = ∑ yi xi / ∑xi2

Donde:

yi xi = (X – Xm) ( Y – Ym)

xi 2 = (X – Xm)2

Consideremos ahora el modelo econométrico planteado anteriormente:

TAMN = ß0 + ß1 Encaje + U

Estimaremos el valor insesgado de los parámetros ß0 y ß1, para lo cual tenemos la tabla
siguiente:

Tabla 3.2 Estimación de parámetros en modelo Encaje -TAMN

Ord TAMN (Yi) ENCAJE (Xi) yi Xi yi xi xi2


1 21.39 19.30 0.32 0.28 0.09 0.08
2 22.79 19.33 1.72 0.32 0.54 0.10
3 20.70 19.28 -0.37 0.26 -0.10 0.07
4 21.29 19.09 0.22 0.07 0.02 0.00
5 19.59 19.41 -1.48 0.40 -0.59 0.16
6 24.12 19.27 3.05 0.25 0.78 0.06
7 21.93 19.08 0.86 0.06 0.05 0.00
8 19.93 19.09 -1.14 0.07 -0.08 0.01
9 22.89 18.95 1.82 -0.07 -0.13 0.00
10 20.33 18.81 -0.74 -0.21 0.15 0.04
11 16.81 18.47 -4.26 -0.54 2.31 0.29
12 21.07 18.12 -0.00 -0.90 0.00 0.80
Promedio 21.07 19.02 Sumatoria 3.05 1.63

Con los datos de la tabla anterior, el parámetro ß1 resulta:

ß1 = ∑ yi xi / ∑xi2
101
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

ß1 = 3.05 / 1.63

ß1 = 1.868

ß0 = Ym - ß1 Xm

ß0 = 21.07 – 1.868 * 19.02

ß0 = -14.45

Finalmente el modelo con sus parámetros insesgados, se expresa así:

TAMN = -14.45 + 1.868 * Encaje + Ui

Una forma de explicar los resultados de este modelo, indica que si el encaje sube en 1,
entonces la tasa de interés subiría en 1.868 (no hemos corrido el modelo en logaritmos, de modo
que es un parámetro medido en valores absolutos antes que elasticidades), la pendiente de este
modelo equivale al valor 1.868.

En caso que el encaje fuera cero, la Tasa de interés activa en moneda nacional sería -14.45,
lo cual de por sí no es explicable en términos económicos, toda vez que no existen tasas
negativas, he allí una forma de expresar que el modelo pudo ser más efectivo si se empleaban
logaritmos. El valor negativo del parámetro no es un buen referente o respuesta en este modelo,
es más probable que indique que en ausencia de encaje la tasa de mercado podría bajar en
14.45, pero esa es ya una explicación del analista, que termina siendo una opinión que procura
acomodarse al modelo.

La estimación de los parámetros también debe ser independiente del nivel de error, con fines
de ser insesgado, probemos este criterio con los modelos siguientes:

Y = ß0 + ß1 X + U

Ym = ß0 + ß1 Xm

Y - Ym = ß1 (X - Xm ) + U

yi = ß1 xi + U

Sea la covarianza entre Y con el error u, considere que el valor esperado del error es cero
(E U = 0):

102
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

∑ yi U = ß1 ∑ xi U

∑ yi U = ß1 ∑ xi ( yi - ß1 xi)

∑ yi U = ß1 [ ∑ xi yi - ß1 ∑ xi 2 ]

∑ yi U = ß1 ∑ xi yi - ß1 2 ∑ xi 2

∑ yi U = ß1 ( ß1 ∑ xi 2 ) - ß1 2 ∑ xi 2

∑ yi U = ß1 2 ∑ xi 2 - ß1 2 ∑ xi 2

∑ yi U = 0

Como puede demostrarse, la relación entre el error y la variable dependiente estimada es


cero, a partir de los parámetros insesgados estimados, esto debe cumplirse al estimarse
cualquier modelo econométrico.

3.3 Ajuste de modelos


Ya hemos estimado el valor insesgado de los parámetros de un modelo econométrico simple
o con una sola variable independiente, ahora vamos a analizar si la variable dependiente está
bien explicada o determinada por la variable independiente.

Para ello debemos analizar primero, el grado de varianza o variabilidad que tienen los
estimadores que hemos calculado, un estimador de baja varianza o baja desviación estándar
garantiza que el rango de la respuesta o intervalo de confianza para las estimaciones es bajo,
eso supone una estimación bien ajustada de la variable dependiente lo cual implica un error
pequeño en el modelo, lo cual es el objetivo a lograr.

Para ello primero, expresemos o analicemos el parámetro de la variable independiente:

ß1 = ∑ yi xi / ∑xi2

ß1 = ∑ xi (Yi – Ym) / ∑xi2

ß1 = ∑ [xi Yi – xi Ym] / ∑xi2

ß1 = ∑ xi Yi – ∑ xi Ym / ∑xi2

103
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Donde ∑ xi = 0 (La sumatoria del valor de una variable aleatoria respecto de su media es
cero), entonces:

ß1 = ∑ xi Yi / ∑xi2

ß1 = ∑ Zi Yi

Donde Zi = xi / ∑xi2

Ahora consideremos que:

∑ Zi = 0 (por el criterio anterior para las desviaciones),

∑ Zi 2= ∑ xi 2 / ∑xi4 = 1/ ∑xi2

∑ Zi Xi = ∑ xi Xi / ∑xi2 = ∑ xi 2 / ∑xi2 = 1

Note que antes se ha demostrado que ∑ xi yi = ∑ xi Yi, por tanto ∑ xi xi = ∑ xi Xi

ß1 / ∑ Zi = Yi, entonces la variable dependiente queda del siguiente modo:

Yi = ß0 + ß1 Xi + U

ß 1’ / ∑ Z i = ß 0 + ß 1 X i + U

ß1’ = ∑ Zi [ß0 + ß1 Xi + U]

ß 1’ = ß 0 ∑ Z i + ß 1 ∑ Z i X i + ∑ Z i U

Aplicando los criterios previos, donde ß1’ es el valor estimado de ß1, tenemos:

E ß 1’ = 0 + E ( ß 1 * 1 ) + ∑ Z i E U

E ß 1’ = ß 1

Note que también es posible (antes que E Ui = 0) que:

E ß 1’ - ß 1 = ∑ Z i E U i

Ahora para hallar la varianza de ß1 tenemos que restar ß1’ del valor esperado de ß1:

Var ß1 = E (ß1’ - E ( ß1) ) 2

104
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Var ß1 = E (ß1’ - ß1) 2

Var ß1 = (E ß1’ - ß1) 2

Var ß1 = E (∑ Zi Ui) 2

Var ß1 = E [ Z1 2 U1 2 + Z2 2 U2 2 + Z2 2 U3 2 + … + Zn 2 Un 2 + 2 Z1 Z2 U1 U2 + ….+ 2 Zn-1 Zn Un-1 Un ]

Considere que el valor esperado E (Ui Uj) = E ( Ui - E Ui ) ( Uj – E Uj) = E (Ui * Uj) = 0

Además como vimos antes, E Ui 2 = Var U = 2 o varianza del modelo (Donde E Ui 2 =


∑ U 2 / N – K)

La ecuación de la varianza (Var) del parámetro y su error estándar (SE) o desviación, queda:

Var ß1 = 2 ( ∑ Zi 2 )

Var ß1 = 2 * (1/ ∑xi 2)

S E ( ß1 ) = / ( ∑xi 2) 0.5

En el caso de la varianza del parámetro denominado intercepto o la constante ßo’ (estimada),


su varianza resulta del siguiente modo:

ß 0’ = Y m - ß 1 ‘ X m

E ß0 = Ym - ß1 Xm

ß 0’ - E ß 0 = Y m - ß 1 ‘ X m - Y m + ß 1 X m

ß 0’ - E ß 0 = - ß 1 ‘ X m + ß 1 X m

ß 0’ - E ß 0 = - X m ( ß 1’ - ß 1 )

( ß 0’ - E ß 0 ) 2 = [ - X m ( ß 1‘ - ß 1 ) ] 2

( ß0’ - E ß0 ) 2 = ( ∑Xi 2 / N 2 ) ( ß1‘ - ß1 ) 2

E ( ß0’ - E ß0 ) 2 = N ( ∑Xi 2 / N 2 ) E ( ß1‘ - ß1 ) 2

E ( ß0’ - E ß0 ) 2 = [ ∑Xi 2 / N ] 2 * (1/ ∑xi2)


105
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Var ß0 = [ ∑Xi 2 / N ∑xi 2 ] 2

SE (ß0) = [ ∑Xi 2 / N ∑xi 2 ] 0.5

Los cálculos anteriores indican que los intervalos de confianza (en que rango se mueven
como máximo o mínimo los parámetros estimados en el modelo) para los parámetros serían los
siguientes:

- SE ( ß1 ) + ß1 + SE ( ß1 )

- SE ( ß0) + ß0 + SE ( ß0)

Una vez que establecemos la varianza de los parámetros, ahora conoceremos el ajuste del
modelo, en buena cuenta que tan bien la variable dependiente es explicada con la información
que contiene la variable independiente, para ello consideremos siempre el modelo inicial:

Yi = Yi ’ + Ui

Visto en desviaciones (Note que Ui = ui, porque la media del error o su valor esperado es cero)
tenemos:

yi = yi ’ + ui

Colocando yi al cuadrado, queda:

yi 2 = yi’ 2 + 2 yi ui + ui2

Aplicando sumatorias, resulta:

∑ yi 2 = ∑ yi’ 2 + 2 ∑ yi ui + ∑ ui2

Como se demostró antes, ∑ yi u = 0, con lo cual la expresión queda del siguiente modo:

∑ yi 2 = ∑ yi’ 2 + ∑ ui2 (viii)

Ahora consideremos la siguiente expresión ya demostrada previamente:

Zi = xi / ∑xi2

Yi ‘ = ß1 / ∑ Zi

Yi ‘ = ß1 ∑xi 2 / xi
106
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

∑ Yi ’ = ß1 ∑xi 2 / ∑ xi

∑ Yi ‘ 2 = ß1 2 ∑xi 2

En desviaciones:

∑ yi ‘ 2 = ß1 2 ∑xi 2

Ahora reemplazando esta última expresión en la ecuación (viii) tenemos el resultado final,
note que hemos considerado igual que antes que la variable aleatoria, puede ser escrita en sus
desviaciones sin alterar lo que hemos estimado:

∑ yi 2 = ß1 2 ∑xi 2 + ∑ ui2

Si dividimos todo entre ∑ yi 2, obtenemos:

1 = ß1 2 ∑xi 2 / ∑ yi 2 + ∑ ui2 / ∑ yi 2

Donde obtenemos r 2, indicador que ayuda a conocer el grado en que X explica a Y, el


coeficiente r 2 es también, el cuadrado del coeficiente de correlación ya estudiado en el tema
anterior:

r 2 = ß1 2 ∑xi 2 / ∑ yi 2

Dado ß1 es igual a la covarianza de X, Y sobre la varianza de X, entonces r 2 es igual a:

r 2 = ( ∑xi yi ) 2 / [ ∑xi 2 ∑ yi 2 ]

Otra forma de verlo es del siguiente modo:

1 = r 2 + ∑ ui2 / ∑ yi 2

r 2 = 1 - ∑ ui2 / ∑ yi 2

r 2 = 1 – SRC / STC

SEC / STC = 1 - SRC / STC

Donde:

SEC: Suma explicada de cuadrados de la regresión

107
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

STC: Suma total de cuadrados de la regresión

SRC: Suma de residuos o errores al cuadrado de la regresión.

De modo que r2 denominado coeficiente de determinación de la bondad de ajuste del modelo,


vendría a ser la parte explicada de la regresión sobre el total, en buena cuenta es la parte que X
explica a Y. Visto desde otra perspectiva, es 1 menos los residuos al cuadrado sobre el total,
quiere decir que si al 100% de explicación le quitamos la parte que explican los residuos,
entonces nos queda la parte que X explica a la variable Y o dependiente.

Hay que notar que el coeficiente de determinación finalmente implica que las desviaciones de
X explican en alguna medida las desviaciones de Y, por eso que la variable X es determinante en
el comportamiento de la variable Y.

Volvamos con el ejemplo del modelo:

TAMN = -14.45 + 1.868 * Encaje + u

La tabla siguiente muestra los resultados necesarios para las estimaciones de varianza de
parámetros y del coeficiente de determinación (TAMN es Y, el encaje es X, TAMN estimado es
Y’):

Tabla 3.3 Estimación de varianzas de parámetros y coeficiente de determinación

Ord Y' Ui Ui 2 xi 2 Xi 2 yi ' yi ' 2 yi 2


1 21.60 -0.21 0.05 0.08 372.50 0.53 0.28 0.10
2 21.66 1.13 1.28 0.10 373.74 0.59 0.35 2.96
3 21.56 -0.85 0.73 0.07 371.58 0.49 0.24 0.14
4 21.20 0.09 0.01 0.00 364.24 0.13 0.02 0.05
5 21.81 -2.22 4.92 0.16 376.81 0.74 0.55 2.19
6 21.54 2.58 6.63 0.06 371.33 0.47 0.23 9.30
7 21.19 0.74 0.55 0.00 363.97 0.12 0.01 0.73
8 21.21 -1.27 1.62 0.01 364.42 0.14 0.02 1.29
9 20.94 1.95 3.82 0.00 358.92 -0.13 0.02 3.32
10 20.68 -0.35 0.12 0.04 353.73 -0.39 0.15 0.55
11 20.06 -3.25 10.57 0.29 341.32 -1.01 1.02 18.16
12 19.39 1.67 2.80 0.80 328.29 -1.68 2.81 0.00
Promedio 21.07 Suma 33.10 1.63 4,340.84 - 5.69 38.79

108
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

En primer lugar estimaremos la varianza del modelo y su respectiva raíz conocida como error
estándar del modelo o de la regresión:

2= ∑ U 2 / N – K)

Donde K son las variables del modelo, en este caso 2:

2= 33.10 / 10 = 3.31

SE Regresión = 1.819

Ahora estimaremos la varianza y error estándar de cada parámetro

Var ß1 = 2 * (1/ ∑xi 2)

Var ß1 = 3.31 / 1.63 = 2.03

SE (ß1) = 2.03 0.5 = 1.425

Var ßo = [∑Xi 2 / N ∑xi 2] 2

Var ßo = [4340.84 / (12 * 1.63)] * 3.31 = 734.49

SE (ß0) = 734.49 0.5 = 27.10

A continuación determinaremos la bondad de ajuste del modelo o coeficiente de


determinación (r 2):

STC = ∑ yi 2 = 38.79

Donde:

∑yi 2 = ( Yi - Ym ) 2

SEC = ∑yi ’ 2 = ß1 2 ∑xi 2 = 1.8681 2 * 1.63 = 5.69

Donde:

∑yi ’ 2 = ( Yi ‘ - Ym ‘ ) 2

SRC = ∑ ui 2 = 33.10
109
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

SCT = SCE + SRC

38.79 = 5.69 + 33.10

38.79 / 38.79 = 5.69 / 38.79 + 33.10 / 38.79

Esto equivale a:

1 = r 2 + ∑ ui2 / ∑ yi 2

1 = 0.15 + 0.85

r 2 = 0.15

Que puede comprobarse mediante:

r 2 = ß1 2 ∑xi 2 / ∑ yi 2

r 2 = 5.69 / 38.79 = 0.15

El valor de 0.15 estimado indica que sólo un 15% de los cambios en la variable Y es producto
de cambios en la variable X, el coeficiente de correlación o asociación entre variables es de
38.2% (0.382), lo cual es un indicador bajo, es muy probable que modelos con buen ajuste
tengan coeficientes de correlación que superen a 0.5 o 50% y por un tanto el r2 se situaría por
encima de 25%. Aunque normalmente se sugiere que el coeficiente de determinación sea mayor
a 0.6 o 60%.

3.4 Significancia de parámetros y del modelo


Hemos obtenido en la sección previa, los parámetros y su grado de varianza o desviación, de
modo que pequeñas desviaciones indican que hemos hallado los parámetros que mejor explican
las relaciones o efectos entre la variable dependiente e independiente. De igual modo hemos
establecido el grado de explicación de la variable X (independiente) sobre Y (dependiente), esta
explicación se mide con el coeficiente de determinación: r 2.

Ahora analizaremos la validez de los parámetros a partir de su grado de significancia, para


ello recurriremos a las siguientes hipótesis:

Ha: Si el parámetro es significativo, entonces es diferente de cero

110
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Ho: Si el parámetro no es significativo, entonces es igual a cero

Donde Ho, normalmente se conoce como hipótesis nula y Ha como la hipótesis alternativa. Si
consideramos lo anterior podemos plantear una forma de verificar la significancia, para ello
usemos el intervalo de confianza positivo (funciona similar si fuera el intervalo negativo) del
parámetro ß1 ‘ (parámetro estimado) por ejemplo:

ß1 ‘ = ß1 + S E ( ß1 )

ß1 ‘ - ß1 = S E ( ß1 )

( ß1 ‘ - ß1 ) / S E ( ß1 ) = 1

Si sucede que el parámetro estimado es equivalente al parámetro del modelo poblacional, en


buena cuenta su estimación no tiene error, tenemos:

ß1 ‘ = ß1

En ese caso:

( ß1 ‘ - ß1 ) / S E ( ß1 ) = 0

El valor 1 y 0 que hemos obtenido, equivale a los valores que puede adquirir la distribución
estandarizada normal del error estándar del parámetro que llamaremos Z, de modo que la
ecuación previa puede plantearse como:

( ß1 ‘ - ß1 ) / S E ( ß1 ) = Z

Z = ( ß1 ‘ - ß1 ) ( ∑xi 2 ) 0.5 ) /

Ahora consideremos lo siguiente para la estimación de la varianza del modelo:

2‘= 2/ (N – K)

2‘ (N – K) / 2 =1

Si la varianza estimada del modelo es cero, entonces:

2‘ (N – K) / 2 =0

111
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Lo que configura la distribución estandarizada de la varianza del modelo, que será


denominada Z’:

2‘ (N – K) / 2 =Z’

Existe una distribución estandarizada que relaciona tanto la varianza del modelo ( 2) como
la distribución estandariza de los parámetros y se conoce como distribución “t” de Student, cuya
representación es la siguiente:

t = Z (N - K) 0.5 / Z ’ 0.5

t = [ ( ß1 ‘ - ß1 ) ( ∑xi 2 ) 0.5 / ] ( N - K) 0.5 / [ 2‘ (N – K) / 2 ] 0.5

t = [ ( ß1 ‘ - ß1 ) ( ∑xi 2 ) 0.5 / ] ( N - K) 0.5 / [ ‘ (N – K) 0.5 / ]

t = [ ( ß1 ‘ - ß1 ) ( ∑xi 2 ) 0.5 / ]/ [ ‘/ ]

t = [ ( ß1 ‘ - ß1 ) ( ∑xi 2 ) 0.5 ] / ‘

Donde:

‘ / ( ∑xi 2 ) 0.5 ] = SE (ß1) : Error estándar del parámetro ß1

ß1 = 0. Si consideramos que la hipótesis nula es que sea igual a cero, entonces hay que
probar eso. Con la cual la distribución t de Student del parámetro ß1 y ß0 queda así, considere
como vimos en las ecuaciones previas que hay (N – K) grados de libertad o datos ajustados, en
el modelo básico sería (N – 2) grados de libertad en la distribución t:

t = ß1 ‘ / SE (ß1)

t = ß0 ‘ / SE (ß0)

Con esto queda además ajustado el nivel de variación de los parámetros o intervalo de
confianza y quedan como sigue:

ß1 ‘ = ß1 +/- t * S E ( ß1 )

ß0‘ = ß0 +/- t * S E ( ß0 )

112
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Donde la distribución t de Student puede ser a una cola o dos colas, veamos los datos que
muestra la distribución a una y dos colas, para diversos niveles de confianza o error:

Tabla 3.4 Valores de la distribución t de Student

Probabilidad a una y dos colas y valor de la distribución t


N - K: Grados de 0.5 0.2 0.1 0.05
Libertad 0.25 0.1 0.05 0.025
10 0.70 1.37 1.81 2.23
20 0.69 1.33 1.73 2.09
30 0.68 1.31 1.70 2.04
40 0.68 1.30 1.68 2.02
60 0.68 1.30 1.67 2.00
120 0.67 1.29 1.66 1.98

Como se muestra en la tabla previa, si se cuenta con 30 grados de libertad (existen 32 datos
con dos variables en el modelo, una explicativa y la otra dependiente), entonces para que t sea
mayor de 0.68, la probabilidad es de 50% en una cola y de 25% en dos colas.

Con el mismo razonamiento, para 120 datos, la probabilidad para que t sea mayor a 2, es de
5% a una cola y 2.5% a dos colas.

En la distribución t de Student hay dos zonas, una de aceptación y la otra de rechazo de la


hipótesis nula, en consiguiente si el valor hallado en el modelo de regresión, supera el valor
crítico mostrado en la tabla previa, se está rechazando la hipótesis nula.

La figura siguiente muestra este criterio, en ella se indica que para 14 grados de libertad (16
datos en un modelo simple), el valor de la tabla es de 2.145, este valor es idéntico a ambos lados
de la distribución (siempre que sea a dos colas) y equivale a una probabilidad de 2.5% en cada
cola, para el caso de que el valor t del parámetro estimado supere a 2.145:

113
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Fig. 3.5 Distribución t de Student y valores críticos de la tabla

Si el valor estimado de la distribución t para el parámetro es por ejemplo 2.25, entonces se


cae en la región de rechazo, la probabilidad de que esto sea así es de 2.5% a dos colas y 5% a
una cola, lo que indica que se rechaza la hipótesis nula de que el parámetro es igual a cero y se
acepta la hipótesis alternativa de que el parámetro es diferente de cero.

Un criterio similar supone pensar de que sólo existe 2.5% de probabilidades de que el
parámetro sea igual a cero, cuando supera el valor de la tabla y existen 95% de probabilidades
de que sea diferente de cero.

Para el caso de nuestro ejemplo, el valor t estimado sería:

t ß1 = ß1 ‘ / SE (ß1)

t ß1 = 1.8681 / 1.4249 = 1.31

t ß0 = ß0 ‘ / SE (ß0)

t ß0 = -14.454 / 27.101 = -0.54

Los valores críticos de la distribución t de Student para 10 grados de libertad a 2.5% de error
en dos colas es: 2.23

114
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

t ß1 = 1.31 < 2.23

t ß0 = -0.54 < 2.23

Lo anterior indica que los dos parámetros no superan el valor crítico o de la tabla, por ende no
se puede rechazar la hipótesis nula de que los parámetros son iguales a cero, esta hipótesis se
acepta y se considera que los parámetros estimados no son significativos, por tanto el modelo
desde esa perspectiva no permite conocer el efecto de la variable X (encaje) sobre la variable Y
(tasa de interés activa en moneda nacional TAMN).

Ahora midamos un indicador global de significancia del modelo, el mismo que implica
combinar nuevamente las distribuciones de los parámetros y la varianza del modelo:

2‘ (N – K) / 2 =Z’

Z = ( ß1 ‘ - ß1 ) ( ∑xi 2 ) 0.5 /

Z 2 = ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) / 2

Ahora hallemos la distribución denominada F de Fisher, que mide la significancia global del
modelo, esto es que tan bueno es el modelo a partir de los errores estimados y la significancia de
los parámetros:

F = [ Z 2 / 1 ] / [ Z ‘ / (N - K) ]

Donde Z tiene un grado de libertad y Z ’ tiene (N – K ) grados de libertad:

F = [ ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) / 2] /[ 2‘ (N – K) / 2 (N – K) ]

F = [ ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) / 2] /[ 2‘ / 2]

F = [ ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) ] / 2‘

F = [ ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) ] / 2‘

F = [ ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) ] / [ ∑ Ui 2 / ( N – K ) ]

Si consideramos que la hipótesis nula es probar que ß1 es igual a cero, entonces queda:

115
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

F = [ ß1 ‘ 2 ( ∑xi 2 ) ] / [ ∑ Ui 2 / ( N – K ) ]

La distribución F de Fisher como ha podido verse, cuenta con 1 grado de libertad en el


numerador y N-K grados de libertad en el denominador (en este caso K equivale a dos variables,
es decir su valor es 2), a continuación pondremos el valor crítico de la F de Fisher desde la tabla
respectiva siguiente:

Tabla 3.5 Valores de la distribución F de Fisher

N - K: Grados de Probabilidad a una cola con un (1) grado de libertad en el


Libertad numerador
denominador 0.25 0.1 0.05 0.01
10 1.49 3.29 4.96 10.00
20 1.40 2.97 4.35 8.10
30 1.38 2.88 4.17 7.56
40 1.36 2.84 4.08 7.31
60 1.35 2.79 4.00 7.08
120 1.34 2.75 3.92 6.85

La tabla puede entenderse del siguiente modo, para 10 grados de libertad en el denominador
(en este caso 12 datos menos, K que equivale a 2), se tiene que existe un 5% de probabilidad de
que el valor obtenido supere a 4.96.

Para 120 grados de libertad en el denominador (122 datos en el caso de tener K = 2), se
tiene que existe un 1% de probabilidad de que le valor F supere a 6.85.

Tal como en el caso anterior, cuando el valor F obtenido en la regresión supera al de la tabla
se asume que se cae en la región de rechazo de la hipótesis nula, que en este caso es
equivalente a que todos los parámetros del modelo son cero.

Entonces si el valor estimado de F supera el de la tabla, se rechaza la hipótesis nula y se


acepta la hipótesis alterna, que equivale a que todos los parámetros del modelo son diferentes de
cero, estimar F supone hallar:

F = [ ß1 ‘ 2 ( ∑xi 2 ) ] / [ ∑ Ui 2 / ( N – K ) ]

F = SEC / [ SRC / (N – K) ]
116
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Como vimos al final de la sección 3.3, se tiene:

SEC = 5.69

SRC = 33.10

F = 5.69 / [ 33.10 / 10 ] = 1.72

Comparando este F estimado con 4.96 el valor crítico de la tabla F, al 5% de confianza se tiene:

F = 1.72 < 4.96

Dado que F estimado es menor al valor de la tabla ya mostrado antes, se indica que se
acepta la hipótesis nula de que los parámetros son cero, de modo que el modelo tiene bajo poder
explicativo y por tanto debe ser rechazado globalmente.

Los programas informáticos de estadística como Stata © normalmente incluyen análisis de


regresión, para ello solo usamos escribimos en el editor la sentencia (REG es la función y TAM1
es la tasa de interés activa en moneda nacional y ENC es la tasa de encaje):

reg TAM1 ENC1

Resultando:

Tabla 3.6 resultados de la regresión TAM – ENC

Source SS df MS Number of obs = 12


F( 1, 10) = 1.72
Model 5.68861332 1 5.68861332 Prob > F = 0.2192
Residual 33.0995857 10 3.30995857 R-squared = 0.1467
Adj R-squared = 0.0613
Total 38.788199 11 3.52619991 Root MSE = 1.8193

TAM1 Coef. Std. Err. t P>|t| [95% Conf. Interval]

ENC1 1.868061 1.424948 1.31 0.219 -1.306921 5.043043


_cons -14.45373 27.10163 -0.53 0.605 -74.83992 45.93246

117
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Como muestra la tabla previa, el valor F es 1.72 ya estimado, el error estándar del modelo se
denomina Root MSE y es 1.8193, el coeficiente de determinación (r 2 ) es 0.1467 y también hay
un ajustado, que se estima del siguiente modo:

r 2 ajustado = 1 – ( 1- r 2 ) * [ N-1 / ( N - K) ]

En nuestro ejemplo sería:

r 2 ajustado = 1 – ( 1- 0.1467 ) * [11 / 10 ] = 0.0613

r 2 ajustado = 6.13 %

Note que el r2 ajustado para muestras grandes o abundantes en datos, tiende a ser
equivalente al r2 estimado en la regresión, mientras que para muestras pequeñas tiende a
castigar el r2 estimado reduciendo su escala de medición, ello se debe a que la presencia de
pocos datos y muchas variables a involucradas reducen la potencia del modelo.

El resultado del Stata © también indica la suma de cuadrados explicada (SEC) que aparece
como Model y la suma de residuos al cuadrado (SRC) que aparece como Residual, la suma de
ambas da la suma total de cuadrados, al dividirla entre los grados de libertad se obtiene primero
las desviaciones cuadráticas de la variable dependiente estimada y luego la varianza del modelo.

Más abajo aparecen el coeficiente de los parámetros, el error estándar (Std err) y la prueba t
de Student, luego viene la probabilidad de que esté en la región de rechazo o aceptación de la
hipótesis nula (si supera el 0.05 se acepta la hipótesis nula de que el parámetro es cero) y luego
viene el intervalo de confianza del parámetro.

Obviamente para que funcione el comando en Stata © debe estar cargada a base de datos
que puede importarse de Excel © usando el menú siguiente:

118
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Fig. 3.6 Importar hoja de Excel © con datos para Stata ©

Una vez que se importan los datos, estos deben cargarse del siguiente modo:

119
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Fig. 3.7 Captura de Datos en Stata ©

Luego los datos aparecen en la sección derecha arriba (caja vacía) donde dice: Variables,
Name, Label, una vez allí se tiene todo listo para ejecutar los comandos.

120
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Conclusiones del capítulo

En este capítulo del libro, hemos analizado la estimación de los parámetros de un modelo de
regresión de dos variables o modelo básico. La premisa para estimar los parámetros es que estos
minimicen el error del modelo, el error se entiende como la distancia entre la variable dependiente
observada o datos reales y su respectiva estimación, una gran distancia supone un elevado nivel de
error, lo inverso indica un buen ajuste del modelo.

La estimación de los parámetros conducen a tener una medición del efecto que una variable
independiente genera en la variable dependiente, este efecto es la pendiente del modelo de
regresión (también puede ser un indicador del impacto del cambio si se trata de elasticidades o
variables medidas en logaritmos), también se tiene una constante del modelo que representa el
efecto que no proviene de la variable independiente.

Con el nivel de error del modelo podemos determinar la varianza del mismo, a partir de los
errores cuadráticos, dicha varianza es clave en la buena estimación de los parámetros llamados
también insesgados, si se tuviera mucha varianza del modelo, entonces esta variabilidad se
incorpora a los parámetros generando que el intervalo de confianza de los mismos se eleve, esto es
que los parámetros dejen de ser correctos al tener mucho cambio posible.

Todo modelo econométrico tiene fuentes de variabilidad, ya hemos mencionado los errores que
podrían ser la denominada Suma de residuos al cuadrado, a ello le añadimos la variabilidad de la
estimación realizada conocida como suma cuadrada explicada, ambos componentes dan la suma
total de cuadrados. La suma cuadrada explicada sobre la suma total de cuadrados, nos indican el
coeficiente de determinación, el mismo que mide el efecto general de la variable independiente en la
dependiente (indicador conocido como r2 o cuadrado de la correlación), lo cual indica un buen ajuste
general del modelo, donde un indicador arriba de 50% podría ser muy recomendable.

Con los indicadores mencionados, se hace la denominada prueba de hipótesis, para ello se
tienen dos distribuciones de comparación, la primera es la t de Student que permite saber si un
parámetro es igual a cero (hipótesis nula) o diferente de cero (hipótesis alternativa), si el valor t del
modelo supera el valor de la distribución (o valor crítico) entonces se rechaza la hipótesis nula.

Un indicador global de que los parámetros son diferentes de cero, es usando la distribución F de
Fisher, en ese caso se compara el F obtenido en el modelo, con el valor de la distribución (valor
crítico) y si es mayor, la conclusión es que los parámetros son significativos, diferentes de cero y
aplicables en el análisis.
121
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Preguntas de opinión

1. ¿La varianza de los parámetros puede afectar su significancia?


2. ¿Qué pasa con el coeficiente de determinación, si el error se relaciona con la
variable independiente?
3. ¿Qué sucede con el modelo en general, si la prueba F indica que se acepta la
hipótesis nula?
4. En un modelo donde el consumo depende del ingreso, ¿cómo explica que el
parámetro constante o intercepto sea muy alto?
5. Si el modelo es la curva de Phillips (relación entre inflación y desempleo, ambas
medidas respecto de sus tasas esperadas o potenciales) y el parámetro
estimado sale negativo ¿cómo podría explicarlo?

122
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Caso de aplicación
Lectura previa

Foxley (2012, señala textualmente lo siguiente:

“La historia contemporánea de las economías latinoamericanas se caracteriza por una


discontinuidad en su desarrollo. Años buenos, seguidos de recesión económica, alto
desempleo, crisis sociales y debilitamiento de las instituciones. Parafraseando lo que los
brasileños solían decir de su país y aplicándolo a la región en su conjunto: América Latina es
el continente del futuro y siempre lo será”.

Ese fantasma ha estado a menudo presente en quienes participan en los asuntos


públicos, ya sea desde el Ejecutivo o del Parlamento, al procurar contribuir a los años buenos
y sentirse a veces desbordados por shocks que sufren nuestras economías y que se hacen
extremadamente complejos de controlar o neutralizar.

En mi caso, las preocupaciones por estos temas fueron compartidas desde fines de los
años 80 ininterrumpidamente. Durante los años en el Senado Chileno quisimos inyectar de
optimismo la reflexión sobre el futuro, aprendiendo de lo que en ese momento llamamos los
casos de “países afines exitosos”. Organizamos, en conjunto con el entonces senador
Fernando Flores, visitas de estudio a Finlandia, Estonia, Irlanda, Australia y Nueva Zelandia.
Gastamos muchos días y horas en terreno, aprendiendo de la experiencia de desarrollo de
esos países. Visitamos agencias gubernamentales, universidades y centros de investigación,
parlamentos, a dirigentes sociales y empresarios, y hablamos exhaustivamente con quienes
desde las regiones o empresas impulsaban iniciativas de innovación. Cuando las
circunstancias nos llevaron a la Cancillería, retomamos el tema empujando iniciativas que
generaban redes de cooperación con los centros de excelencia de esos países y convenios
de intercambio masivos de profesionales y egresados de la educación superior en Chile. Al
mismo tiempo, patrocinamos un proyecto de investigación en profundidad acerca de los
“países afines exitosos”.

Con la coordinación de Cristóbal Aninat, Edgardo Boeninger y Angel Flisflisch, se instaló


una red internacional de colaboradores que examinaron las experiencias de desarrollo de
países como Finlandia, Noruega, Irlanda, Corea, Australia, Nueva Zelandia, España y
Portugal. Los resultados se publicaron en dos volúmenes de un libro titulado Caminos al
desarrollo: lecciones de países afines exitosos.

123
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Ambos estudios sirvieron de motivación para continuar la reflexión sobre los países “a
medio camino”. Pero ahora el énfasis está puesto en “cómo recorrer la mitad del camino que
falta” para alcanzar el pleno desarrollo; lo que hay que evitar desde luego es “la trampa de los
países de ingreso medio”.

Las naciones que muestran más dificultad para pasar el umbral hacia economías
avanzadas son los países de ingreso medio y, entre ellos, los de América Latina. El
pronóstico, considerando la experiencia pasada, es que un buen número de estos podría caer
en lo que la literatura económica ha llamado “trampa de ingreso medio”, precisamente debido
a la incapacidad de sostener un alto crecimiento por varias décadas. A menudo se alude a
Argentina como el caso más ilustrativo de esta trampa: a comienzos del siglo XX este país
clasificaba entre los más desarrollados del mundo, pero a la fecha aún no logra salir de la
categoría de ingreso medio. Dado que la historia económica de esta región se ha
caracterizado por permanentes ciclos de años buenos, seguidos por fases de turbulencias
económicas que contagian a la sociedad y al sistema político, son más las probabilidades de
quedarse en un punto intermedio que completar la transición al desarrollo.

La idea de que cada cierto tiempo hay que comenzar de nuevo, ha marcado a la política
latinoamericana, incubando puntos de ruptura institucional que abren paso a “gobiernos
fundacionales”, a menudo de carácter autoritario o seudo-revolucionario, que tampoco logran
dar con la salida de este laberinto. Así, una de las fallas históricas de América Latina es la
incapacidad de persistir en una trayectoria de alto crecimiento. Pero esto no ocurre solo por
malas políticas o por excesiva dependencia de fuerzas externas desestabilizadoras. Lo que
empuja a un país de ingreso medio a caer en una trampa que frena su desarrollo es un
conjunto de factores, identificables a través de dos tipos de estudio de experiencias
comparadas. El primero consiste en examinar los casos de “países afines”, que fueron
exitosos en salir de la trampa de ingreso medio en los últimos 20 años. Otro enfoque
complementario es aprender de países que todavía pertenecen a la categoría de ingreso
medio en regiones como el Este de Asia y el Este de Europa. Conocer sus aciertos y errores
puede ayudar a los países latinoamericanos a caminar con pie más firme hacia el umbral del
desarrollo (Banco Interamericano de Desarrollo [BID] y Ministerio de Relaciones Exteriores de
Chile, 2009; Foxley, 2009, 2010a, 2010b).

Los factores que llevan a la trampa de ingreso medio son clasificables en cuatro
categorías: desaceleración del crecimiento por incapacidad de lograr mejoras continuas en
competitividad y productividad; baja calidad de la educación y lenta transferencia de
conocimiento e ideas innovadoras; excesiva desigualdad y desprotección de los grupos
vulnerables; e incapacidad de las instituciones para proveer estabilidad, buena calidad de

124
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

gestión y transparencia, así́ como una adecuada calidad en las decisiones del sistema
político.”
Tomado textualmente de Foxley (2012)

Preguntas de la lectura

1. ¿Qué variable emplearías como dependiente en la idea de analizar la trampa del


ingreso medio?
2. ¿Cuáles serían tus variables independientes?
3. ¿De dónde sacaría algún índice de institucionalidad?

Aplicación econométrica
Continuando con el tema del ingreso medio solo desde una visión económica, a
continuación se muestra una tabla de variables para países de América Latina y El Caribe,
selecciona el año que creas conveniente, realice regresiones individuales para cada
variable que usted considere independiente.

En el caso de la variable dependiente, sería el ingreso per cápita, usted puede establecer
como ingreso medio la media del ingreso per cápita de todos los países y hallar como
variable dependiente la desviación de cada país sobre el ingreso medio.

Estime los indicadores de bondad de ajuste del modelo y de los parámetros en cada una de
las regresiones, compare sus resultados e indique que variable produce el mayor efecto en
el ingreso per cápita respecto del ingreso medio. Se aconseja tener regresiones con
variables en logaritmos.

Puede también eliminar los países que considere cuentan con datos irrelevantes o podrían
sesgar su análisis.

125
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Tabla 3.7 Datos para analizar el ingreso per cápita

País Variable 2010 2011 2012 2013


PBI per cápita (Medido PPC
Antigua y Barbuda US$) 17,429.29 17,398.14 18,196.75 18,558.11
Antigua y Barbuda
Inflación (%) 3.37 3.457 3.377 1.056
Antigua y Barbuda
Exportaciones (cambio anual %) -3.412 3.535 -0.291 -3.317
Argentina PBI (Medido PPC) 15,921.64 17,476.60 17,917.44 18,749.34
Argentina Inflación (%) 10.461 9.775 10.043 10.619
Argentina Exportaciones (cambio anual %) 13.932 3.445 -6.246 4.578
Bahamas PBI (Medido PPC) 29,821.29 30,570.14 31,324.44 32,036.09
Bahamas
Inflación (%) 1.342 3.204 1.971 0.277
Bahamas
Exportaciones (cambio anual %) 2.86 -0.991 9.414 2.373
Barbados PBI (Medido PPC) 24,068.44 24,672.53 25,043.44 25,180.87
Barbados Inflación (%) 5.761 9.426 4.539 2.305
Barbados Exportaciones (cambio anual %) 4.513 -0.581 -5.523 -3.184
Belice PBI (Medido PPC) 8,066.41 8,258.67 8,598.02 8,715.60
Belice
Inflación (%) 0.918 1.494 1.408 0.509
Belice
Exportaciones (cambio anual %) 7.944 5.727 8.281 -1.983
Bolivia PBI (Medido PPC) 4,563.34 4,800.37 5,041.31 5,363.55
Bolivia Inflación (%) 2.502 9.883 4.519 5.735
Bolivia Exportaciones (cambio anual %) 3.361 3.651 11.802 3.121
Brasil PBI (Medido PPC) 11,215.68 11,646.36 11,875.96 12,220.90
Brasil
Inflación (%) 5.039 6.636 5.404 6.204
Brasil
Exportaciones (cambio anual %) 9.501 2.925 -0.338 3.118
Chile PBI (Medido PPC) 16,002.08 17,097.27 18,181.56 19,067.25
Chile Inflación (%) 1.408 3.34 3.007 1.792
Chile Exportaciones (cambio anual %) 2.446 5.34 1.075 4.496
Colombia PBI (Medido PPC) 9,498.86 10,207.90 10,696.92 11,188.81
Colombia Inflación (%) 2.272 3.415 3.169 2.017
Colombia Exportaciones (cambio anual %) 1.192 13.752 4.521 1.783
Costa Rica PBI (Medido PPC) 11,336.97 11,927.72 12,593.83 12,942.09

126
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Costa Rica Inflación (%) 5.663 4.878 4.495 5.232


Costa Rica Exportaciones (cambio anual %) 5.541 5.447 9.527 3.635
Dominica PBI (Medido PPC) 13,580.78 13,882.85 13,964.10 14,282.94
Dominíca Inflación (%) 2.81 1.262 1.46 -0.434
Dominíca Exportaciones (cambio anual %) 7.537 -0.2 -12.956 5.698
República Dominicana PBI (Medido PPC) 8,785.15 9,194.34 9,547.45 9,910.51
República Dominicana
Inflación (%) 6.33 8.459 3.695 4.831
República Dominicana
Exportaciones (cambio anual %) 12.16 8.733 6.894 6.222
Ecuador PBI (Medido PPC) 8,513.92 9,201.83 9,682.07 10,080.21
Ecuador Inflación (%) 3.553 4.476 5.101 2.725
Ecuador Exportaciones (cambio anual %) -0.237 4.589 2.666 7.582
El Salvador PBI (Medido PPC) 6,855.36 7,099.29 7,315.99 7,515.09
El Salvador Inflación (%) 1.179 5.129 1.73 0.758
El Salvador Exportaciones (cambio anual %) 13.942 7.812 5.073 1.526
Granada PBI (Medido PPC) 13,107.54 13,416.30 13,360.92 13,723.95
Granada
Inflación (%) 3.437 3.033 2.411 -0.044
Granada
Exportaciones (cambio anual %) -8.705 4.778 -7.374 -4.025
Guatemala PBI (Medido PPC) 4,862.51 5,042.16 5,153.48 5,282.37
Guatemala Inflación (%) 3.86 6.215 3.783 4.343
Guatemala Exportaciones (cambio anual %) 3.662 2.123 2.298 2.375
Guyana PBI (Medido PPC) 6,923.65 7,333.17 7,754.90 8,250.25
Guyana Inflación (%) 3.73 4.955 2.417 3.478
Guyana Exportaciones (cambio anual %) -4.649 6.126 9.745 2.414
Haití PBI (Medido PPC) 1,149.81 1,220.32 1,259.78 1,315.18
Haití
Inflación (%) 4.136 7.385 6.78 6.776
Haití
Exportaciones (cambio anual %) -4.631 20.756 3.045 14.296
Honduras PBI (Medido PPC) 4,414.60 4,580.51 4,743.52 4,839.38
Honduras Inflación (%) 4.699 6.762 5.218 5.186
Honduras Exportaciones (cambio anual %) 19.005 10.091 10.642 -0.78
Jamaica PBI (Medido PPC) 8,600.75 8,850.28 8,915.52 9,048.14
Jamaica Inflación (%) 12.613 7.525 6.897 9.391

127
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Jamaica Exportaciones (cambio anual %) -15.876 -9.419 6.513 11.608


México PBI (Medido PPC) 14,021.21 14,684.41 15,343.58 15,562.60
México
Inflación (%) 4.155 3.405 4.112 3.804
México
Exportaciones (cambio anual %) 21.642 7.547 3.457 2.016
Nicaragua PBI (Medido PPC) 3,869.49 4,109.47 4,351.67 4,554.03
Nicaragua Inflación (%) 5.455 8.08 7.196 7.399
Nicaragua Exportaciones (cambio anual %) 18.69 9.155 8.755 11.445
Panama PBI (Medido PPC) 12,579.02 13,967.62 15,467.54 16,658.14
Panama Inflación (%) 3.49 5.876 5.698 4.027
Panama Exportaciones (cambio anual %) -8.035 12.092 24.959 5.254
Paraguay PBI (Medido PPC) 5,860.45 6,129.46 6,052.96 6,823.19
Paraguay Inflación (%) 4.651 8.254 3.676 2.684
Paraguay Exportaciones (cambio anual %) 17.782 2.268 -3.659 22.972
Perú PBI (Medido PPC) 9,273.45 9,950.25 10,595.90 11,123.70
Perú
Inflación (%) 1.53 3.37 3.655 2.806
Perú
Exportaciones (cambio anual %) 1.57 8.381 2.709 -1.821
St. Kitts y Nevis PBI (Medido PPC) 15,895.66 15,590.89 15,418.49 15,605.40
St. Kitts y Nevis
Inflación (%) 0.603 7.071 1.414 0.666
St. Kitts y Nevis
Exportaciones (cambio anual %) 1.58 -6.456 5.86 16.671
St. Lucía PBI (Medido PPC) 12,493.82 12,840.81 12,816.09 12,729.73
St. Lucía
Inflación (%) 3.25 2.769 4.177 1.467
St. Lucía
Exportaciones (cambio anual %) 6.451 -7.508 -5.642 2.768
St. Vicente y las Granadinas PBI (Medido PPC) 11,180.51 11,420.46 11,785.30 12,207.20
St. Vicente y las Granadinas
Inflación (%) 0.752 3.186 2.598 0.857
St. Vicente y las Granadinas
Exportaciones (cambio anual %) 1.772 -12.332 3.298 4.832
Surinam PBI (Medido PPC) 11,109.36 11,734.37 12,472.01 13,116.11
Surinam
Inflación (%) 6.888 17.721 5.007 1.923
Surinam
Exportaciones (cambio anual %) 29.946 6.436 5.805 -6.269
Trinidad y Tobago PBI (Medido PPC) 19,595.21 19,391.53 19,910.94 20,437.69
Trinidad y Tobago
Inflación (%) 10.547 5.104 9.264 5.2
Trinidad y Tobago
Exportaciones (cambio anual %) 5.786 13.35 -10.687 18.69

128
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Uruguay PBI (Medido PPC) 13,909.50 15,055.02 15,864.67 16,722.67


Uruguay Inflación (%) 6.699 8.093 8.098 8.575
Uruguay Exportaciones (cambio anual %) 13.88 6.702 -0.222 -1.713
Venezuela PBI (Medido PPC) 12,173.36 12,734.70 13,480.03 13,604.75
Venezuela Inflación (%) 28.187 26.09 21.069 40.71
Venezuela Exportaciones (cambio anual %) -12.877 4.665 1.594 -6.528
Fuente: International Monetary Fund, World Economic Outlook Database, April 2014

129
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Ejercicios
El modelo Harrod-Balassa-Samuelson, sirve para explicar la dinámica del tipo de cambio real
a partir de distintas variables, Primero tenemos que los precios de los bienes transables (Pt) y de
los no transables (Pn) equivalen a:

Pt = W / at

Pn = W / an

Donde (1/an), (1/at), equivalen al uso del factor trabajo (único) en la producción de una unidad
de bienes transables y no transables, de modo que el costo esta asociado al salario y ello debe
ser igual al precio de los bienes. Considere que el modelo se expresa en índices.

Consideremos que el precio relativo nacional entre ambos bienes es: p = Pt / Pn

Además considerando que el precio transable, equivale al tipo de cambio (e) por el precio
internacional Pt*, es decir:

P t = e P t*

Si pensamos que el precio relativo del otro país es p* = Pt* / Pn*, y que el índice de precios
de bienes transables en cada país representan una proporción (1-α), entonces el tipo de cambio
real entre ambos países es q = (p / p*) α

Además considerando que por la ley de un solo precio se tiene que: 1 = e . Pt* / Pt

Finalmente este modelo considera que la producción de transables (Yt) y no transables (Yn)
equivale a:

Yt = at . Lt

Yn = an . Ln

Donde Ln, Lt, es la cantidad de factor de trabajo para cada bien (empleo).

Una vez analizado dicho modelo teórico se debe plantear y estimar dos modelos
econométricos para explicar lo siguiente:
130
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

• Los efectos en el tipo de cambio real de un cambio en los precios relativos de dos
países, en este caso Perú y EEUU.
• Los efectos en el tipo de cambio real del diferencial de productividades transables y no
transables entre dos países en este caso Perú y EEUU.

Datos requeridos:

Índice de
tipo de TC Nominal
Otros
cambio (S x U$) - IPC IPC no Manufactura Índ. empleo
IPC Lima servicios
real Interbancario transables transables Produc urb. 10 y
Mes/Año (2009 = produc
bilateral compra - Lima (2009 Lima (2009 (índice más trab. -
100) (índice
(Perú USA) promedio = 100) = 100) 1994=100) manufactura
1994=100)
Base Dic mensual
2001
ene-08 89.1269 2.9481 93.8411 96.5427 92.0132 182.6922 171.5286 115.8363
feb-08 87.2366 2.9044 94.6923 96.9553 93.1536 177.7689 176.6965 116.6373
mar-08 84.2510 2.8099 95.6788 97.3308 94.5555 182.2799 177.6170 116.7545
abr-08 82.7329 2.7445 95.8264 97.7113 94.5399 191.8559 188.9940 115.9567
may-08 84.8384 2.8015 96.1804 98.6376 94.5145 195.5508 197.0539 116.6880
jun-08 87.6775 2.8888 96.9207 99.2631 95.3290 195.0641 188.4492 116.5034
jul-08 86.3424 2.8464 97.4590 99.5750 96.0233 188.9931 192.9462 115.5777
ago-08 86.8099 2.8899 98.0345 99.9558 96.7342 188.0309 186.5984 115.7050
sept-08 88.3923 2.9643 98.5906 100.1275 97.5473 192.0167 185.3715 116.2248
oct-08 90.1717 3.0681 99.1950 100.6497 98.2010 194.4709 194.8984 116.7423
nov-08 88.6519 3.0897 99.5016 100.6858 98.6893 192.5355 187.2792 118.2423
dic-08 88.0389 3.1125 99.8600 100.4455 99.4522 189.7516 215.5457 118.9421
ene-09 89.3879 3.1504 99.9656 99.7346 100.1174 181.7210 179.2647 113.0302
feb-09 92.3241 3.2352 99.8909 99.0240 100.4727 165.8639 179.6115 110.6744
mar-09 90.4688 3.1732 100.2507 98.8686 101.1743 172.3439 186.1667 109.5121
abr-09 88.1141 3.0828 100.2698 99.0908 101.0673 165.7936 191.2806 107.8296
may-09 85.7993 2.9923 100.2266 99.2990 100.8376 179.8310 201.1596 107.9942
jun-09 86.7275 2.9888 99.8863 99.3716 100.2196 169.4840 192.0235 108.4013
jul-09 87.0652 3.0111 100.0728 99.4359 100.4888 165.8520 195.4886 108.9750
ago-09 85.6435 2.9495 99.8652 99.4955 100.1018 168.4060 189.5675 107.5763
sept-09 84.5833 2.9083 99.7781 99.7339 99.7953 176.0142 189.8739 108.8001

131
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

oct-09 83.4600 2.8705 99.9005 99.8446 99.9255 182.9944 202.4702 110.5984


nov-09 83.9833 2.8833 99.7885 100.0082 99.6279 187.4796 197.7978 112.2610
dic-09 83.3668 2.8766 100.1050 99.9442 100.2004 192.8221 228.4426 113.6539
ene-10 82.7958 2.8554 100.4012 100.3670 100.4215 183.0111 185.2763 110.1024
feb-10 82.4782 2.8530 100.7250 100.7251 100.7239 177.1124 187.3760 109.0080
mar-10 82.1600 2.8388 101.0079 101.1258 100.9383 198.6272 199.1173 109.3772
abr-10 82.2986 2.8392 101.0335 101.5398 100.7323 191.4762 205.9249 109.6557
may-10 82.3301 2.8448 101.2738 101.9070 100.8973 204.4028 218.0413 111.1501
jun-10 81.8291 2.8375 101.5278 101.9426 101.2800 206.0044 212.2190 112.8811
jul-10 81.1122 2.8223 101.8973 101.8725 101.9105 194.3681 212.5115 113.0586
ago-10 80.4099 2.8014 102.1710 102.0417 102.2472 200.0615 207.7426 113.6319
sept-10 80.1553 2.7902 102.1383 102.0346 102.1993 204.4108 207.9600 115.4887
oct-10 80.3930 2.7910 101.9935 102.2776 101.8238 209.9324 219.1189 118.2121
nov-10 80.8272 2.8050 102.0016 102.5004 101.7044 215.0861 216.4690 118.9053
dic-10 81.1125 2.8145 102.1836 102.7978 101.8188 211.2349 249.0950 121.3183
Fuente: BCRP y US Consumer Survey

US Employment
Cost Index:
US Employment Wages and US Consumer
Cost Index: Salaries: US Consumer Price Index for All US Consumer
Wages and Private Industry Price Index for Urban Price Index for
Índ. empleo Salaries: Private Workers: All Urban Consumers: All Urban
urb. 10 y más Industry Workers: Service Consumers: Manufacturing Consumers: All
Mes/Año trab. - servicios Manufacturing Occupations Services Durable goods Items

Ene08 115.3435672 92.2 93.4 251.283 112.3 212.18

Feb08 113.3478476 93 93.9 251.847 112.094 212.684

Mar08 117.4479909 93.8 94.5 252.784 112.059 213.464

Abr08 125.1530277 94.4 94.8 253.503 111.671 214.118

May08 129.3993583 94.8 95.6 254.661 111.362 215.304

132
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Jun08 131.197719 95.3 96.1 255.832 111.232 217.235

Jul08 133.0964253 95.7 96.4 257.17 111.275 219.133

Ago08 131.5727943 96.4 96.9 257.585 110.779 218.78

Sep08 132.3120849 97.4 97.4 257.597 110.077 218.852

Oct08 135.8703917 97.6 97.9 257.778 109.677 216.93

Nov08 136.9022412 98.2 98.6 257.846 109.191 213.002

Dic08 137.2413449 98.8 99 258.037 108.811 211.327

Ene09 126.3824038 99.6 99.6 258.398 109.025 211.903

Feb09 122.5237914 100.2 100 258.692 109.221 212.879

Mar09 125.9304049 100.6 100.6 258.621 109.264 212.572

Abr09 134.2466453 101.6 101.3 258.587 109.404 212.799

May09 136.7325998 101.8 102 258.593 109.65 213.078

Jun09 138.5494756 102.5 102.9 258.698 109.983 214.527

Jul09 138.4861647 103.2 104.6 258.815 109.924 214.782

Ago09 136.319616 103.8 105.3 259.31 109.129 215.519

Sep09 136.7859045 104.4 106.5 259.615 109.387 215.956

Oct09 140.3851237 105.1 107.1 260.037 110.684 216.445

Nov09 141.1522719 105.9 107.9 260.198 111.159 216.956

Dic09 142.5492586 106.7 108.8 260.339 111.477 217.158

Ene10 130.6188754 107.3 109.7 259.774 111.731 217.458

Feb10 129.0911534 107.9 110.1 260.046 111.753 217.562

Mar10 132.6304834 108 111 260.396 111.694 217.611

Abr10 140.0607367 108.3 111.2 260.72 111.45 217.625

133
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

May10 142.2033004 108.6 112.1 261.012 111.454 217.32

Jun10 143.8120087 109.1 112.3 261.157 111.443 216.865

Jul10 144.2845301 109.4 112.6 261.498 111.555 217.621

Ago10 141.3287871 109.9 112.7 261.645 111.587 218.068

Sep10 141.8931942 110.5 113.3 261.844 111.174 218.427

Oct10 145.2845775 110.9 113.5 262.06 110.966 218.97

Nov10 146.7789724 111.4 114.2 262.363 110.573 219.24

Dic10 147.3164279 112 114.2 262.782 110.512 220.186

Fuente: BCRP y US Consumer Survey

134
Modelo de regresión lineal básico: Estimación y prueba de hipótesis

Referencias bibliográficas
Greene, W. (2003) Econometric Analysis. Fifth Edition. Pearson Ed.

Gujarati, D. (2004) Econometría. 4ta Edic. Mc Graw Hill.

Foxley, A. (2009) Recovery: The Global Financial Crisis and Middle-Income Countries. Washington,
D. C. Carnegie Endowment for International Peace.

Foxley, A. (2010a). “Sustaining Social Safety Nets, Critical For Economic Recovery”. Carnegie
Endowment for International Peace, Washington D. C.

Foxley, A. (2010b). “Regional Trade Blocs: The Way To Future?” Carnegie Report, September,
Washington D.C, Carnegie Endowment For International Peace.

Foxley, A. (2010c). “More Market or More State for Latin America?” En Mainwaring, S. y Scully, T.
(eds.), Democratic governance in Latin America. A reflection for the post-crisis. Stanford, California:
Stanford University Press.

Foxley, A. (2012) La trampa del ingreso medio. El desafío de esta década para América Latina.
CIEPLAN Chile.

Jiménez, F. (2012) Elementos de teoría y política macroeconómica para una economía abierta.
Fondo Editorial PUCP.

Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill

Novales, A. (1993) Econometría. Mc Graw Hill.

The Economist (2014) Democracy Index 2012, 2013. Intelligence Unit. UK.

The Heritage Foundation (2014) Índice 2014 de Libertad Económica. Miller T, Kim, A and Holmes K.
Edit. The Wall Street Journal. EEUU.

Wooldridge, J. (2009) Introductory Econometrics. A modern approach. Third Edition. Cengage


Learning.
135
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
!

CAPÍTULO IV

Modelo de regresión general


y método de máxima
verosimilitud

136
Modelo de regresión general y método de máxima verosimilitud

IV. MODELO DE REGRESIÓN GENERAL Y MÉTODO DE MÁXIMA VEROSMILITUD

Introducción al tema

La mayor parte de modelos macroeconómicos incluyen diversas variables, no sólo una. Por
ejemplo los modelos de demanda de dinero suponen que esta depende de la tasa de interés
(negativamente) y del ingreso (positivamente), lo cual ya indica que la variable dependiente
claramente se relaciona con más de una independiente.

En los modelos de tipo microeconómico, por ejemplo el precio de un producto puede


depender de precios del competidor, de la publicidad, de la estrategia de ventas, de la zona, del
ingreso, de la edad o de más características del consumidor; entonces bajo esa perspectiva usar
una sola variable como en casos anteriores puede limitar un modelo.

La mayor parte de variables dependientes necesitará explicaciones variadas, lo que no


supone usar un gran número de variables, hay que entender que más variables no quiere decir
que el modelo mejore, hay un número ideal de variables, poner pocas es limitar el modelo, poner
muchas es simplemente no añadir más valor agregado a la estimación.

Ahora aprenderemos a resolver estos modelos generales y verificar que cumplan los mismos
criterios que hemos aprendido previamente, para ello es importante conocer el lenguaje de
matrices, aunque su uso en esta sección es básico y pretende ser una herramienta que ayude a
facilitar la estimación.

137
Modelo de regresión general y método de máxima verosimilitud

4.1 Planteamiento del modelo general con matrices

Sea que se tiene la siguiente estructura de datos, con las variables aleatorias Y, X, Z, W:

Yi Xi Zi Wi
Y1 X1 Z1 W1
Y2 X2 Z2 W2
Y3 X3 Z3 W3
Y4 X4 Z4 W4
… … … …
Yn Xn Zn Wn

Considere ahora que Yi es la variable dependiente, además que Xi, Zi y Wi son las variables
independientes o explicativas, de modo que el modelo puede escribirse del siguiente modo:

Yi = ß0 + ß1 Xi + ß2 Zi + ß3 Wi + Ui

Visto en lenguaje de matrices podemos escribirlo del siguiente modo:

Y1 1 X1 Z1 W1 β0
Y2 1 X2 Z2 W2 β1
Y3 = 1 X3 Z3 W3 * β2
Y4 1 X4 Z4 W4 β3
… … … … …
Yn 1 Xn Zn Wn

Que puede expresarse así:

Y=Aß+U

Donde A representa la matriz de variables explicativas, Y es el vector de variable dependiente


y ß es el vector de parámetros, siguiente con e lenguaje matricial, U vendría a ser el vector de
error, de modo que la varianza del modelo (E 2 = Σ U 2/ N - K) en matrices vendría a ser lo
siguiente

138
Modelo de regresión general y método de máxima verosimilitud

U1
U2
U3 * U1 U2 U3 U4 … Un
U4

Un

El resultado anterior se divide sobre (N-K). Lo anterior puede expresarse así en matrices:
U’ U, donde U’ se denomina matriz transpuesta de U (invierte el orden de filas por columnas).

U=Y-Aß

U’ U = [Y - A ß] [Y - A ß]

Lo cual en matrices se resuelve del siguiente modo (note que los productos indican que las
variables deben ser expresadas en transpuestas):

U’ U = Y’ Y - 2 ß‘ A’ Y + ß‘ A’ A ß

Visto en forma algebraica, esto puede escribirse del siguiente modo:

∑ Ui 2 = ∑ ( Yi - ß0 - ß1 Xi - ß2 Zi - ß3 W i ) 2

Derivando eso con respecto a cada parámetro e igualando a cero resulta:

2 ∑ ( Yi - ß0 - ß1 Xi - ß2 Zi - ß3 Wi ) (-1) = 0

2 ∑ ( Yi - ß0 - ß1 Xi - ß2 Zi - ß3 Wi ) (-Xi) = 0

2 ∑ ( Yi - ß0 - ß1 Xi - ß2 Zi - ß3 Wi ) (-Zi) = 0

2 ∑ ( Yi - ß0 - ß1 Xi - ß2 Zi - ß3 Wi ) (-Wi) = 0

Resolviendo la sumatoria obtenemos:

- ∑ Yi + N ß0 + ß1 ∑Xi + ß2 ∑ Zi + ß3 ∑ Wi = 0

- ∑ Yi Xi + ß0 ∑ Xi + ß1 ∑Xi 2 + ß2 ∑ Zi Xi + ß3 ∑ Wi Xi = 0

- ∑ Yi Zi + ß0 ∑ Zi + ß1 ∑Xi Zi + ß2 ∑ Zi 2 + ß3 ∑ Wi Zi = 0
139
Modelo de regresión general y método de máxima verosimilitud

- ∑ Yi Wi + ß0 ∑ Wi + ß1 ∑Xi Wi + ß2 ∑ Zi Wi + ß3 ∑ Wi 2 = 0

Despejando el cero, queda:

N ß0 + ß1 ∑Xi + ß2 ∑ Zi + ß3 ∑ Wi = ∑ Yi

ß0 ∑ Xi + ß1 ∑Xi 2 + ß2 ∑ Zi Xi + ß3 ∑ Wi Xi = ∑ Yi Xi

ß0 ∑ Zi + ß1 ∑Xi Zi + ß2 ∑ Zi 2 + ß3 ∑ Wi Zi = ∑ Yi Zi

ß0 ∑ Wi + ß1 ∑Xi Wi + ß2 ∑ Zi Wi + ß3 ∑ Wi 2 = ∑ Yi Wi

Visto en matrices esto queda:

N Σ Xi Σ Zi Σ Wi β0 1 1 1 1 Y1
Σ Xi Σ Xi 2 Σ Zi Xi Σ W i Xi β1 X1 X2 X3 X4 * Y2
Σ Zi Σ Xi Zi Σ Zi 2 Σ Wi Zi * β2 = Z1 Z2 Z3 Z4 Y3
Σ Wi Σ Xi W i Σ Zi W i Σ Wi 2 β3 W1 W2 W3 W4 Y4

Que puede expresarse del siguiente modo:

(A ‘A) ß = A’ Y

De modo que los parámetros pueden hallarse así:

ß = (A‘ A ) -1 A’ Y (1)

Ahora a modo de ejemplo usaremos el modelo siguiente:

Inflación = ß0 + ß1 TC + ß2 Interbancaria + ß3 Multiplicador + Ui

El modelo postula que la tasa de inflación mensual, es influenciada por el tipo de cambio
venta (soles por dólar), en el sentido que las alzas cambiarias pueden subir los precios por un
efecto transmisión que va desde el mayor costo de los insumos importados, hasta el precio del
combustible importado. Otra variable indicada es la tasa interbancaria de interés que puede
influenciar en la inflación, esto es por que una menor tasa incentiva el crédito, por lo tanto hay
mayor demanda y mayores precios.

140
Modelo de regresión general y método de máxima verosimilitud

Finalmente el multiplicador bancario indica que a medida que esta variable va subiendo, hay
más liquidez en la economía lo que supone un mayor uso de dinero para gastar por parte del
público y ello eleva los precios por una presión de demanda.

El modelo anterior es ilustrativo, una mejor aproximación puede ser en logaritmos de las
variables explicativas (modelo semilog) y además debe tener en cuenta que hay teorías
económicas que señalan que las tasas de interés y el tipo de cambio pueden ser relacionados,
de modo que el modelo puede tener ciertas restricciones para su uso, por lo cual aquí solo sirve
de ejemplo metodológico.

Las variables mencionadas han tenido el siguiente comportamiento en el último año:

Fig. 4.1 Variables monetarias y su relación con la inflación Perú (mensual)

Fuente: BCRP

Ahora presentaremos los datos en forma de matrices, para lo cual haremos uso del programa
Stata ©, mostraremos los comandos para crear primero la matriz de variables explicativas,
hemos denominado matriz A:

mkmat Multiplicador Interbancaria TC, matrix (A)


141
Modelo de regresión general y método de máxima verosimilitud

matrix list A

La ventana del programa muestra los resultados, es una matriz de 18 filas por 3 columnas
A[18, 3], del mismo debe procederse con la matriz de la variable independiente Y:

Fig. 4.1 Matriz A de variables independientes

Ahora aplicaremos la ecuación, hallando primero A‘, para ello usaremos el comando de Stata
© para transpuestas de matrices, donde AT es la transpuesta de A igual a A’:

matrix AT = A'

142
Modelo de regresión general y método de máxima verosimilitud

matrix list AT

Ahora hallaremos A’A, para lo cual definiremos en Stata © una matriz C que es el producto de
A transpuesta por A, para ello escribimos en el Do-editor la sentencia respectiva y nos arroja los
resultados siguientes:

. mat C=AT*A

. matrix list C

symmetric C[4,4]
Id Multiplic Interb TC
Id 18
Multiplic 46.912583 122.60948
Interb 75.2606 195.92196 314.97982
TC 49.241857 128.45778 205.85621 134.85673

Los espacios vacíos son equivalentes al otro elemento de la matriz, no olvidemos que es
simétrica, así por ejemplo el elemento128.45778 (cruce entre TC y Multiplicador) se repite en el
espacio en blanco que corresponde a multiplicador con TC (esquina superior derecha de la
matriz).

Una vez que tenemos la matriz C, necesitamos invertirla, para ello aplicamos en Stata © lo
siguiente:

. matrix INVC=inv(C)

. matrix list INVC

symmetric INVC[4,4]
Id Multiplic Interb TC
Id 244.10742
Multiplic -32.846801 9.1859449
Interb -38.124863 6.1955516 7.5361964
TC .35122075 -6.2137161 -3.4844434 11.116981

143
Modelo de regresión general y método de máxima verosimilitud

Una vez que tenemos la inversa, ahora estimaremos la matriz A’Y, para ello usemos el Do-
editor de Stata y obtenemos:

. matrix AY=AT*Y

. matrix list AY

AY[4,1]
inflacion
Id 5.0416697
Multiplic 13.235525
Interb 21.186479
TC 13.820259

.
Ahora ya tenemos todo lo necesario para hallar los parámetros, de modo que apliquemos la
ecuación:

ß = (A‘ A ) -1 A’ Y

Usando Stata © tenemos (en todos los casos el comando list muestra los resultados de las
estimaciones o cálculos realizados) la matriz de parámetros B:

. matrix B=INVC*AY

. matrix list B

B[4,1]
inflacion
Id -6.9133294
Multiplic 1.3648439
Interb 1.2979727
TC -.65458463

.
De este modo el modelo queda finalmente expresado así:

Inflación = -6.9133 + -0.65458 TC + 1.29797 Interbancaria + 1.36483 Multiplicador + Ui


144
Modelo de regresión general y método de máxima verosimilitud

Se puede decir que la inflación mensual sube con la tasa interbancaria (lo cual resulta inverso
a la teoría, al menos la mayor tasa de interés reduce la demanda y los precios), la inflación crece
con el multiplicador bancario lo cual es correcto y la inflación se reduce con el tipo de cambio,
resultado que esperábamos de comportamiento inverso.

A continuación mostrados los resultados del modelo empleado la función regresión de Stata
©, lo cual confirma que la forma de hallar los parámetros ha sido correcta:

Fig. 4.2 Resultados de la regresión de inflación y variables monetarias

. reg inflacion Multiplic Interb TC

Source SS df MS Number of obs = 18


F( 3, 14) = 1.18
Model .250511093 3 .083503698 Prob > F = 0.3540
Residual .99361033 14 .070972166 R-squared = 0.2014
Adj R-squared = 0.0302
Total 1.24412142 17 .073183613 Root MSE = .26641

inflacion Coef. Std. Err. t P>|t| [95% Conf. Interval]

Multiplic 1.364844 .807432 1.69 0.113 -.3669255 3.096613


Interb 1.297973 .7313414 1.77 0.098 -.2705985 2.866544
TC -.6545846 .8882546 -0.74 0.473 -2.559701 1.250532
_cons -6.913329 4.162311 -1.66 0.119 -15.8406 2.01394

Puede verse que los parámetros calculados mediante matrices son exactamente los mismos
que calculados mediante el programa estadístico, de modo que los cálculos son correctos,
aunque el modelo brinde explicaciones que no se ajustan al análisis teórico.

Algunas ideas pueden señalar que la bajada de tipo de cambio en el último año, por factores
ajenos a la economía peruana ha terminado de generar esa relación negativa, así la mayor
145
Modelo de regresión general y método de máxima verosimilitud

inflación en el país se ve reducida de algún modo por el alza cambiaria. Un razonamiento puede
ser que a medida que el contexto externo reduce las expansiones monetarias, los flujos de
moneda salen de los países elevando el cambio. Pero la tasa de inflación al interno de cada país
es por el aumento monetario por otras fuentes, ante un escenario internacional adverso.

La explicación de la tasa interbancaria relacionada positivamente con la inflación, está mas


compleja, los resultados del modelo indican que menores tasas interbancarias generan menos
inflación, o al revés alzas interbancarias crean más inflación, es totalmente opuesto a lo que
cabría esperar, evidenciando fallas en el diseño del modelo, que se usa sólo para fines de aplicar
el método matricial.

4.2 Significancia de parámetros y medidas globales de ajuste

Observando la fig. 4.2 vemos que los resultados del modelo de regresión incorporan diversa
información sobre la bondad de ajuste del modelo (R2) y sobre la significancia de los parámetros,
es posible estimar estos indicadores usando matrices, bajo los mismos criterios previos.

Empezaremos estimando la matriz de varianzas y covarianzas de los parámetros, en este


caso al darse más de una variable explicativa se tendrán parámetros relacionados creando
covarianzas, sin embargo lo importante de la matriz es la diagonal, la cual muestra las varianzas
requeridas:

Sea la matriz de varianza covarianza COV:

COV = E [ ß`- E B’ ] [ ß`- E B’ ] ‘ (2)

Donde E es el valor esperado y la matriz [ ß`- E B’ ] se multiplica por su transpuesta [ ß`- E B’ ] ‘


esta matriz puede expresarse del siguiente modo:

Var B1 Cov B2 B1 Cov B3 B1 Cov B4 B1 … Cov Bn B1


Cov B1 B2 Var B2 Cov B3 B2 Cov B4 B2 … Cov Bn B2
COV== Cov B1 B3 Cov B2 B3 Var B3 Cov B4 B3 … Cov Bn B3
Cov B1 B4 Cov B2 B4 Cov B3 B4 Var B4 … Cov Bn B4
… … … … … …
Cov B1 Bn Cov B2 Bn Cov B3 Bn Cov B4 Bn … Var Bn

Para estimar la matriz requerimos algunos cálculos previos, para ellos tomaremos la ecuación
(1), considerando ahora que estamos hallando el Beta estimado (ß’):
146
Modelo de regresión general y método de máxima verosimilitud

ß’ = ( A‘ A ) -1 A’ Y

ß‘ = ( A‘ A ) -1 A’ [ A ß + U ]

ß’ = ( A‘ A ) -1 A’ A ß + ( A‘ A ) -1 A’ U

Note que el término ( A‘ A ) -1 A’ A ß, es en realidad el valor del parámetro poblacional (sin


error mostrado en la matriz U ) es decir ß, dado que el resultado de (A ß) es la matriz Y, con lo
cual resulta:

ß‘ = ß + ( A‘ A ) -1 A’ U

ß‘ - ß = ( A‘ A ) -1 A’ U

Ahora aplicando la ecuación (2) para hallar COV, tenemos:

COV = E [ ß`- E B’ ] [ ß`- E B’ ] ‘

COV = E [ ß`- ß ] [ ß’- ß ] ‘

COV= E [ ( A‘ A ) -1 A’ U ] [ ( A‘ A ) -1 A’ U ]

COV= E [ ( A‘ A ) -1 A’ ] [ U’ U ] [ ( A‘ A ) -1 A’ ]

COV= E [ ( A‘ A ) -1 A’ ] E [ U’ U ] [ A ( A‘ A ) -1 ]

Por definición U’ U es la matriz de varianzas del modelo o errores cuadráticos 2 ajustándolo

con N-K, además consideramos que E [ U’ U] equivale a 2 I, donde I es la matriz identidad:

COV= [ ( A‘ A ) -1 A’ ] 2I [ A ( A‘ A ) -1 ]

COV= 2 [ (A‘ A ) -1 ]

Ahora aplicaremos estas matrices para hallar las varianzas de los parámetros en el modelo
que usamos de ejemplo, ya sabemos que la matriz: INVC es la inversa de la matriz AT*A (ver la
sección anterior), nos faltaría hallar la matriz de errores cuadráticos 2 y dividirla sobre N-K (en
realidad un valor numérico o escalar).

Para el cálculo del error cuadrático, primero hallar el error del modo siguiente:

147
Modelo de regresión general y método de máxima verosimilitud

Inflación estimada = -6.9133 + -0.65458 TC + 1.29797 Interbancaria + 1.36483 Multiplicador

La inflación estimada puede ser calculada usando el siguiente comando de Stata ©, donde
inf_est es la variable que necesitamos:

generate inf_est = 1.364844*Multiplic+1.297973*Interb-0.6545846*TC-6.913329

Ahora hallamos el error (y luego lo convertimos en matriz con el comando mkmat):

U = Inflación – Inflación estimada

Una vez hecho esto, ahora procedemos a hallar el valor de 2 usando los comandos de
Stata © aplicados antes, donde sigma_cuad representa el valor de 2 (antes de dividir sobre
N-K), note que este valor es idéntico al mostrado en la fig. 4.2 donde se indica la suma cuadrada
del residuo (SCR y aparece como residual en la columna SS que significa suma cuadrática):

. mkmat U, matrix(error)

. matrix errorT=error'

. matrix sigma_cuad=errorT*error

. matrix list sigma_cuad

symmetric sigma_cuad[1,1]
U
U .99361032

El valor obtenido se dividirá entre los grados de libertad del modelo, en este caso se tienen 18
datos y 4 variables usadas, con lo cual N - K es igual a 14:

2= 0.99361032 / 14

2= 0.07097217

148
Modelo de regresión general y método de máxima verosimilitud

Una vez obtenido este dato procedemos a hallar la matriz de varianzas y covarianzas COV,
para lo cual multiplicaremos el valor de 2 hallado previamente por la matriz INVC.

En nuestros cálculos sigma_cuad equivale a la suma de errores al cuadrado, por lo que para
estimar 2 usaremos la matriz “SER” en Stata © (el nombre SER servirá para relacionarlo con
la suma de errores y no es una matriz sino un valor numérico o escalar, en el lenguaje de Stata
aparece siempre el comando Matrix) que equivale a la suma de errores entre N - K, así la matriz
COV se muestra a continuación:

. matrix SER=sigma_cuad/14

. matrix list SER

symmetric SER[1,1]
U
U .07097217

. matrix COV=SER*INVC

. matrix list COV

symmetric COV[4,4]
Id Multiplic Interb TC
Id 17.324832
Multiplic -2.3312086 .65194641
Interb -2.7058041 .43971171 .53486018
TC .0249269 -.44100089 -.2472985 .78899624

La diagonal de esta matriz representa la varianza de cada parámetro, de modo que la


significancia del parámetro puede ser estimada del modo siguiente:

149
Modelo de regresión general y método de máxima verosimilitud

Tabla 4.1 Significancia de los parámetros

Variable Varianza Desviación Parámetro t


Id (Constante) 17.324832 4.162310897 -6.9133294 -1.66
Multiplic 0.65194641 0.807431985 1.3648439 1.69
Interbancaria 0.53486018 0.731341357 1.2979727 1.77
TC 0.78899624 0.888254603 -0.65458463 -0.74

Los valores críticos de t de Student coinciden con los mostrados en la fig. 4.2 donde se
indican los resultados de la regresión y en base a ellos, se puede decir que ninguna variable es
significativa, no olvidemos que las variables estadísticamente diferentes de cero, deben tener un
valor mayor a 2, lo que significa que caemos en la zona de rechazo de la hipótesis nula y
aceptación de la alternativa.

Ahora evaluaremos la bondad de ajuste del modelo, para ello necesitamos conocer el valor
de R2 o de la prueba F de Fisher, lo cual supone los cálculos siguientes:

SCT = SCE + SRC

Ya vimos antes que la suma cuadrática total es SCT, SCE es la suma de cuadrados
explicada y SRC es la suma de residuos al cuadrado, ahora esto queda:

SRC = SCT – SCE

Donde SCT se expresa en desviaciones de Y, mientras que Ym es la media de Y:

SCT = ∑ yi 2

SCT = ∑ ( Yi – Ym ) 2

SCT = ∑ ( Yi 2 - 2 Yi Ym + Ym 2 )

SCT = ∑ Yi 2 - 2 ∑ Yi Ym + N Ym 2

SCT = ∑ Yi 2 - 2 ∑ Yi Ym + ∑ Yi Ym

SCT = ∑ Yi 2 - ∑ Yi Ym

SCT = ∑ Yi 2 - N Ym 2
150
Modelo de regresión general y método de máxima verosimilitud

En matrices queda:

SCT = Y’ Y – N Ym 2

SCE, se expresa del modo siguiente:

SCE = ß’1 2 ∑ xi 2

SCE = ß’1 ∑ xi yi ∑ xi 2 / ∑ xi 2

SCE = ß’1 ∑ xi yi

Desarrollando las desviaciones:

SCE = ß’1 [ ∑ xi yi - ∑ xi Ym ]

SCE = ß’1 ∑ Xi Yi - ß’1 ∑ Xi Ym

No olvidemos que en matrices:

Y’ = X ß’

Ym = Xm ß’

N Ym = ß ∑ Xi

N Ym / ∑ Xi = ß’

Reemplazando en SCE:

SCE = ß’1 ∑ Xi Yi - [ N Ym / ∑ Xi ] ∑ Xi Ym

SCE = ß’1 ∑ Xi Yi - N Ym 2

En matrices se expresa generalmente como sigue, donde A es la matriz de las variables


independientes (X y otras):

SCE = ß’ A’ Y – N Ym 2

Donde Ym es un valor numérico y N es el total de datos, con eso ya podemos estimar la suma
de cuadrados totales:

SCT = Y’ Y – N Ym 2
151
Modelo de regresión general y método de máxima verosimilitud

Primero obtendremos el componente Y’Y (Y’ es la transpuesta de Y), usando los comandos
de Stata ©, Yp es el valor del producto de Y o también Y’ Y:

. matrix YT=Y'

. matrix Yp=YT*Y

. matrix list Yp

symmetric Yp[1,1]

inflación

inflación 2.6562566

Entonces Y’ Y = 2.6562566

La media de Y o Ym es 0.2800928, con lo cual tenemos:

SCT = 2.6562566 - 18 (0.2800928) 2

SCT = 1.2441

Ahora estimaremos la suma explicada cuadrática, con los comandos de Stata © respectivos
(note que A es la matriz de variables independientes):

SCE = ß’ X’ Y – N Ym 2

SCE = ß’ A’ Y – N Ym 2

152
Modelo de regresión general y método de máxima verosimilitud

. matrix BT=B'

. matrix BXY=BT*AT*Y

. matrix list BXY

symmetric BXY[1,1]

inflación

inflación 1.6626463

Entonces ß’ A’ Y = 1.6626463

SCE = 1.66266463 – 18 (0.2800928) 2

SCE = 0.250511

Finalmente hallamos:

SCT = SCE + SCR

SCT = 0.250511 + 0.99361032

SCT = 1.2441

Lo cual coincide con nuestro cálculo previo, esta información será relevante para hallar el R2
del modelo, que resulta:

R2 = SCE / SCT

R2 = 0.250511 / 1.2441 = 0.2014

R2 = 20.14%

La bondad de ajuste del modelo es de 20%, esto indica que las variables: multiplicador
bancario, tasa interbancaria y tipo de cambio, sólo explican el 20% de la tasa de inflación

153
Modelo de regresión general y método de máxima verosimilitud

mensual, el ajuste es bajo e indica que el modelo tiene poca fuerza explicativa. El coeficiente de
correlación llega a 45% de asociación global.

Finalmente la prueba F de Fisher se calcula de este modo:

F = [SCE / (K - 1)] / [SCR / (N – K)]

Donde la SCR puede hallarse también del siguiente modo, en matrices:

Y=Xß+U

U=(Y-Xß)

U’ U = ( Y - X ß ) ( Y - X ß )

U’ U = Y’ Y - 2 ß’ X‘ Y + ß’ X‘ X ß

Considere que si la estimación es correcta, entonces Y = X ß, la ecuación previa resulta:

U’ U = Y’ Y - 2 ß’ X‘ Y + ß’ X‘ Y

U’ U = Y’ Y - ß’ X‘ Y

U’ U = 2.6562566 - 1.6626463

U’ U = 0.9936103 = SCR

Entonces la prueba F resulta:

F = [ 0.250511 / (4 - 1) ] / [ 0.9936103 / (18 - 4) ]

F = 1.18

El valor de la prueba F es bastante bajo, lo que supone que el modelo en realidad tiene un
bajo ajuste y no sería explicativo para la tasa de inflación.

4.3 Estimación de parámetros con Máxima verosimilitud

Consideremos que existe una función de distribución de probabilidades condicionales de Y/X,


que a su vez depende también de la distribución de 2:

154
Modelo de regresión general y método de máxima verosimilitud

F ( Y i / ß 0 + ß 1 X i, 2)

Debido a que la variable Y es aleatoria e independiente, es posible señalar que la función de


probabilidades condicionales, puede ser expresada como función conjunta para todos los valores
de Yi:

F ( Y i / ß 0 + ß 1 X i, 2) = F ( Y 1 / ß 0 + ß 1 X i, 2) * F ( Y 2 / ß 0 + ß 1 X i, 2) *… * F ( Yn / ß0 + ß1 Xi,
2)

Yi es además una variable cuya distribución es simétrica y distribuida normalmente, que se


expresa del modo siguiente (el símbolo ^ significa “elevado a”, o potencia):

F ( Yi ) = [ 1 / 2 π ) 0.5 ] e [ -1 / 2 2 ] (Yi - ß0 - ß1 Xi ) ^ 2

Reemplazado en la distribución conjunta tenemos:

F ( Y i / ß 0 + ß 1 X i, 2) = [1/ 2 π ) 0.5 ] e [ -1 / 2 2 ] (Y1 - ß0 - ß1 Xi ) ^ 2 *[1/ 2 π ) 0.5 ]


e [ -1 / 2 2 ] (Y2 - ß0 - ß1 Xi ) ^ 2 *…*[1/ 2 π ) 0.5 ] e [ -1 / 2 2 ] (Yn - ß0 - ß1 Xi ) ^ 2

FV = F (Yi / ß0 + ß1 Xi, 2) = [1 / N 2 π) 0.5 N ] e [ -1 / 2 2 ] ∑ (Yi - ß0 - ß1 Xi ) ^ 2

Esto último se conoce como función de verosimilitud, en buena cuenta es la expresión que
refleja a la distribución de probabilidades condicionales de Yi, la función de verosimilitud puede
ser expresada en logaritmos del siguiente modo:

Ln FV = -1 ( N ln + 0.5 N ln (2 π) – 1 / 2 ∑ (Yi - ß0 - ß1 Xi ) 2 / 2

Ln FV = - N ln - 0.5 N ln (2 π) – 1 / 2 ∑ (Yi - ß0 - ß1 Xi ) 2 / 2

Ln FV = - 0.5 N ln 2 - 0.5 N ln (2 π) – 0.5 ∑ (Yi - ß0 - ß1 Xi ) 2 / 2

Para hallar los parámetros del modelo y además la varianza del mismo, derivamos todo e
igualamos a cero:

155
Modelo de regresión general y método de máxima verosimilitud

∂ Ln FV / ∂ ß0 = -1 * ∑ (Yi - ß0 - ß1 Xi ) / 2= 0

∂ Ln FV / ∂ ß1 = - Xi * ∑ (Yi - ß0 - ß1 Xi ) / 2= 0

Considere que 2 equivale a la expresión Var, entonces:

Ln FV = - 0.5 N ln Var - 0.5 N ln (2 π) – 0.5 ∑ (Yi - ß0 - ß1 Xi ) 2 / Var

∂ Ln FV / ∂ Var = (- 0.5 N / Var ) + 0.5 ∑ (Yi - ß0 - ß1 Xi ) 2 / Var 2 = 0

∂ Ln FV / ∂ Var = (- 0.5 N / 2) + 0.5 ∑ (Yi - ß0 - ß1 Xi) 2 / 2* 2= 0

Con ello se puede demostrar que:

∑ (Yi - ß0 - ß1 Xi ) = 0

∑Yi - N ß0 - ß1 ∑ Xi = 0

∑Yi - ß1 ∑ Xi = N ß0

Ym - ß1 Xm = ß0

El estimador de ß0 es idéntico al hallado por mínimos cuadrados, de modo que la función de


verosimilitud conduce al mismo resultado, veamos en el caso de ß1:

- Xi * ∑ (Yi - ß0 - ß1 Xi ) / 2= 0

- ∑ (Xi Yi + ß0 Xi + ß1 Xi Xi ) = 0

- ∑ Xi Yi + ß0 ∑ Xi + ß1 ∑ Xi 2 = 0

ß0 ∑ Xi + ß1 ∑ Xi 2 = ∑ Xi Yi

( Ym - ß1 Xm ) ∑ Xi + ß1 ∑ Xi 2 = ∑ Xi Yi

Ym ∑ Xi - ß1 Xm ∑ Xi + ß1 ∑ Xi 2 = ∑ Xi Yi

ß1 ( - Xm ∑ Xi + ∑ Xi 2 ) = ∑ Xi Yi - Ym ∑ Xi

ß1 = ∑ Xi Yi - Ym ∑ Xi / ∑ Xi 2 - Xm ∑ Xi

ß1 = [ N ∑ Yi Xi - ∑ Yi ∑ Xi ] / [N ∑ Xi 2 - ∑ Xi ∑ Xi ]
156
Modelo de regresión general y método de máxima verosimilitud

Como fue demostrado en el tema anterior, la expresión previa equivale a hallar ß1 por
mínimos cuadrados ordinarios:

ß1 = ∑ (X – Xm) ( Y – Ym) / ∑ (X – Xm)2

ß1 = ∑ yi xi / ∑xi2

En el caso de la varianza del modelo, los ajustes a la ecuación que deriva la función FV
respecto a 2, resulta:

( 0.5 N ) = 0.5 ∑ (Yi - ß0 - ß1 Xi ) 2 / 2

2= ∑ (Yi - ß0 - ß1 Xi ) 2 / N

2= ∑ (Ui ) 2 / N (i)

Si analizamos el estimador de 2 desde la estimación de la variable dependiente,


obtenemos:

Yi = ß0 + ß1 Xi + Ui

Ym = ß0 + ß1 Xm + Um

Donde m, significa la media de la variable, además yi, xi son las variables en desviaciones
respecto de la media:

Yi – Ym = ß1 xi + ( Ui – Um ) (ii)

Considere que la estimación correcta del parámetro ß0 nos lleva al valor de Ym poblacional,
entonces:

Y m - ß 1’ X m = ß 0’

Y m = ß 0’ + ß 1’ X m

Y i – Y m = ( ß 0’ + ß 1‘ X i + U i ) - ( ß 0’ + ß 1’ X m )

Yi – Ym = ß1’ xi + Ui ’

yi - ß1’ xi = Ui ’ (iii)

157
Modelo de regresión general y método de máxima verosimilitud

La ecuación (ii) puede ser llevada a la ecuación (iii) y tenemos:

ß1 xi + ( Ui – Um ) - ß1’ xi = Ui ’

- ( ß1’ - ß1 ) xi + ( Ui – Um ) = Ui ’

( ß1’ - ß1 ) 2 xi 2 + ( Ui – Um ) 2 – 2 ( ß1’ - ß1 ) xi ( Ui – Um ) = Ui ’ 2

Aplicando sumatorias:

( ß1’ - ß1 ) 2 ∑ xi 2 + ∑ ( Ui – Um ) 2 – 2 ( ß1’ - ß1 ) ∑ xi ( Ui – Um ) = ∑ Ui ’ 2

En el tema anterior, se había demostrado que:

ß1’ - ß1 = ∑ Zi ui

Con lo cual tenemos:

E ( ∑ Zi ui ) 2 ∑ xi 2 + E ∑ ( Ui – Um ) 2 – 2 (∑ Zi ui ) ∑ xi ( Ui – Um ) = E ∑ Ui ’ 2

( 2 / ∑ xi ) 2 ∑ xi 2 + ( N - 1) 2 – 2 E (∑ Zi ui ) ∑ xi ( Ui – Um ) = E ∑ Ui ’ 2 (iv)

Donde:

E ∑ ( Ui – Um ) 2 = E ∑ (Ui 2 – 2Ui Um + Um 2)

E ∑ ( U i – U m ) 2 = E ( ∑ U i 2 – 2 ∑ U i U m + N U m 2)

E ∑ ( Ui – Um ) 2 = E ( ∑ Ui 2 – 2 ∑ Ui Um + ∑ Ui Um )

E ∑ ( Ui – Um ) 2 = E ( ∑ Ui 2 – ∑ Ui Um )

E ∑ ( Ui – Um ) 2 = E ( ∑ Ui2 – ∑ Ui 2 / N )

E ∑ ( Ui – Um ) 2 = N 2 – 2

E ∑ ( Ui – Um ) 2 = ( N - 1 ) 2

Con lo cual la ecuación (iv) puede estimarse así:

2 + ( N - 1) 2 – 2 E (∑ Zi ui ) ∑ xi ( Ui – Um ) = E ∑ Ui ’ 2
158
Modelo de regresión general y método de máxima verosimilitud

Donde Um = 0, entonces (Recuerde que ui = Ui, dado que son variables sin desviaciones ya
que el valor esperado de Ui o su media es cero), además ∑ Zi xi es igual a 1:

2 + ( N - 1) 2 – 2 E (∑ Zi ui ) ∑ xi ( ui ) = E ∑ Ui ’ 2

2 + ( N - 1) 2 – 2 E ∑ Zi xi ui 2 = E ∑ Ui ’ 2

2 +(N–1) 2 – 2 E ∑ ui 2 = E ∑ Ui ’ 2

2 +(N–1) 2 –2 2 = E ∑ Ui ’ 2

(N–2) 2 = E ∑ Ui ’ 2

Con lo cual, obtenemos para dos variables:

2 = ∑ Ui ’ 2 / ( N – 2 ) (v)

Hay que notar que la ecuación (v) de la varianza del modelo a partir de los mínimos
cuadrados ordinarios, difiere de la ecuación (i) que es la varianza estimada con verosimilitud, lo
que indica que el mejor estimador de la varianza del modelo de regresión no es el de
verosimilitud (que normalmente tiende a ser poblacional), sino es el estimador de mínimos
cuadrados mostrados en la ecuación (v) y que para fines de generalizar equivale a:

2 = ∑ Ui ’ 2 / ( N – K )

Donde K es el número de variables del modelo.

En resumen se puede señalar que el estimador de parámetros con máxima verosimilitud es


igual de insesgado que en mínimos cuadrados, sin embargo el estimador de la varianza por
mínimos cuadrados es insesgado y el de máximo verosimilitud es sesgado.

159
Modelo de regresión general y método de máxima verosimilitud

Conclusiones del capítulo

En este capítulo, se ha aplicado el lenguaje matricial para resolver modelos econométricos con
más de una variable dependiente, se ha demostrado además que los estimadores de parámetros por
mínimos cuadrados (usando el término de minimizar el error al cuadrado) son insesgados y
equivalen a los parámetros obtenidos por una función de máxima verosimilitud, donde maximizamos
el valor de la distribución normal conjunta o distribución normal de probabilidades de la variable
aleatoria.

Sin embargo también se ha notado que la varianza del modelo por el método de mínimos
cuadrados (MCO) es menor que la varianza obtenida en el método de máxima verosimilitud (MV), lo
que hace pensar que por MCO se obtiene una varianza insesgada y por MV se obtiene un
estimador sesgado, en buena cuenta hay que seguir el criterio de MCO en caso la distribución de
variables sea normal.

Los criterios de estimación mediante matrices, permiten abordar modelos econométricos donde
las variables explicativas son dos o más, esto se hace por que no se puede emplear el algebra
simple y para facilitar el cálculo recurrimos a las matrices o algebra matricial.

En este capítulo, hemos diseñado una matriz de variables explicativas, un vector de variable
dependiente (al ser una sola columna) y la respuesta es un vector de parámetros.

En todos estos casos requiere aplicar algebra de matrices para hallar los parámetros, sin
embargo diversos programas informáticos como Stata © y otros, contienen este tratamiento de modo
simple.

Hay que notar que en modelos con muchas variables explicativas, el concepto de bondad de
ajuste se hace importante, puesto que se trata de explicar a modo global la variable dependiente. En
este caso mediante las matrices también llegamos a los coeficientes de determinación (R2) y a la
prueba F de Fisher, ambos indicadores nos dirán si el modelo es de buen ajuste (por ejemplo un R2
de más de 50%) o de buena explicación global considerando el mayor valor posible de F sobre su
valor crítico.

Este tema es una extensión de lo explicado hasta el momento en el diseño y estimación de


modelos econométricos, de modo que completa el conjunto de instrumentos necesarios para estimar
modelos diversos y hacer el análisis de políticas respectivo.

160
Modelo de regresión general y método de máxima verosimilitud

Preguntas de opinión
1. ¿Puede un modelo con muchas variables explicativas no ser relevante?
2. Si al insertar más variables explicativas el R2 no aumenta, entonces eso ¿qué
significa?
3. ¿Por qué se añade un vector de 1 (unos) en la matriz de variables explicativas?
4. ¿Por qué las varianzas de los parámetros son solo la diagonal de la matriz de
varianza covarianza de Betas?
5. Si uso el valor de la varianza del modelo desde la función MV, ¿Qué pasa con
los estimadores de Betas?

161
Modelo de regresión general y método de máxima verosimilitud

Caso de aplicación
Lectura previa

De acuerdo con Romer (2002), la curva LM debe ser ajustada a una curva conocida como MP
(Monetary Policy Curve) que esta basada en las variables tasas de interés real (r) y producto (y)
similar a la LM, sin embargo la diferencia estriba en que la MP es horizontal.

La tasa de interés real es estable a todo nivel de oferta monetaria y se ajusta más bien con
los cambios en la brecha del producto, de este modo cuando el producto es alto respecto del
potencial (brecha creciente) la tasa de inflación tiende a subir, en ese caso el banco central
ajusta la tasa de interés anunciando elevaciones de las tasas de referencia, con lo cual mantiene
la tasa real, pero eleva la tasa nominal y los agentes ajustan sus expectativas y por ende tienden
a consumir o prestar menos, lo que algunos economistas conocen como “enfriar” la economía,
pero en la práctica es ajustar la inflación esperada. Siguiendo a Romer la tasa real de interés,
debe seguir la siguiente función:

r = r ( π) (1)

El modelo MP es además de mejor performance que el tradicional IS-LM, en este caso un


crecimiento monetario, desplaza la LM, eleva el gasto de los agentes y reduce la tasa de interés;
si la economía es abierta y pequeña, esta reducción de tasas puede incentivar el alza cambiaria y
la ventas de reservas por parte del banco central, dichas ventas tienden a reducir la oferta
monetaria y llevarnos al equilibrio, si el banco central no interviene, entonces el impulso
cambiario genera incentivos en el producto exportado y la curva IS se desplaza hacia un nuevo
equilibrio con mayor producto, a una mayor tasa de inflación y similar tasa de interés nominal (es
decir menor tasa real de interés). La demanda agregada en este caso se eleva e impulsa el
producto, efecto que se visualiza de modo separado, siendo una desventaja del modelo IS-LM.

En el modelo MP, un shock que eleve los precios y genere caídas a corto plazo de la tasa
real de interés (por mayor nivel de inflación), obliga a que los agentes financieros ajusten sus
expectativas de ganancias elevando las tasas nominales (impulso que parte del banco central en
muchos casos) y a corto plazo el efecto se traslada a las tasas reales de interés (r), esto produce
que la demanda originalmente creciente, se reduzca y se vuelva al nivel original de precios,
siendo la práctica usual de bancos centrales en el mundo (Romer, 2002)

Los shocks nominales o reales pueden impulsar un crecimiento de precios, la respuesta del
banco central es elevar o sostener la tasa real de interés (vía expansiones de la tasa nominal de
referencia), entonces cualquier efecto de crecimiento a corto plazo se diluye, los precios se
ajustan porque la mayor tasa de interés reduce el consumo y la inversión.
162
Modelo de regresión general y método de máxima verosimilitud

Es previsible entonces, que el crecimiento productivo sea constante a todo nivel de precios,
esto se produce porque si el incentivo de mayor inflación se da a corto plazo, entonces la oferta
puede incrementarse de modo inmediato, esa expansión de la brecha del producto se convierte
en el objetivo a reducir por la política monetaria, la elevación del interés real reduce la brecha, el
producto vuelve a su nivel potencial y los precios siguen estables, siempre se producirá a un
mismo nivel de precios, dicho nivel se conoce como inflación ajustada.

Hay que señalar que a diferencia de Lucas (1973), que señala que los shocks nominales
pueden tener efectos de corto plazo, pero a largo plazo sólo son inflacionarios, evidenciando una
oferta vertical (producto potencial a largo plazo), el movimiento de la inflación ajustada se da en
torno a los precios estables de corto plazo y son base de estabilidad a largo plazo, Lucas se
sustenta en las expectativas, si estas se ajustan a la inflación esperada, entonces la oferta no
varía a mayor nivel de precios, pero si hay ajuste lento, entonces a corto plazo hay efecto real
con mayor inflación, un resultado nada deseable para el banco central.

En el caso de la inflación ajustada, los shocks nominales, producen un efecto de corto plazo
inmediato con mayor inflación, pero a corto plazo el banco central ajusta las tasas de interés y
mantiene estables el producto y la inflación, con las evidentes ganancias de una mayor demanda
en el corto plazo.

Cuando la Oferta Agregada (OA) es menor al producto potencial, entonces la oferta se mueve
hacia ese nivel a tasas de inflación decreciente (siguiendo a Lucas, un producto menor al
potencial implica una inflación decreciente), que es lo mismo decir que el banco central reduce
las tasas nominales para incentivar el consumo.

A la inversa, si la OA se mueve por encima del producto potencial (Yp), esto se produce a
mayores tasas de inflación, de modo que el Banco Central ajusta las tasas nominales a un mayor
nivel, para reducir el consumo y por ende llevar al producto a su nivel potencial.

Podemos decir entonces, que los movimientos en la inflación están alineados con la
estabilidad de la tasa de interés real, lo cual es un resultado del alza de tasas nominales, la que
se da cuando el producto efectivo supera al potencial, planteando un modelo como el siguiente:

P t = P e + θ (Y t - Yp) (2)

Siguiendo la propuesta de Romer:

rt = ω Pt (3)

Reemplazando en (2), obtenemos:


163
Modelo de regresión general y método de máxima verosimilitud

r t = ωP e + ωθ (Y t - Yp) (4)

Donde:

Pe: Tasa de inflación esperada

Pt: Tasa de inflación del período

θ: Indicador de ajuste, va de 0 (en este caso la inflación es igual a la esperada) a < 1, en


donde la inflación es mayor a la esperada si la brecha es positiva y menor a la esperada si la
brecha es negativa.

rt: Tasa de interés real del período

ω: Factor de ajuste, si es cero, entonces no existe relación entre inflación del período y tasa
real de interés, si es 1 la relación es perfecta y la tasa real pasa a depender de la inflación
esperada y la brecha de producto.

Dado que la política monetaria se hace con la tasa nominal de referencia, entonces la
ecuación 4 puede ser analizada, partiendo de la noción de interés real:

rt = it-Pt (5)

Reemplazando en 4:

i t = P t + ωP e + ρ (Y t - Yp) (6)

Donde:

it : Tasa nominal de interés del período

ρ : Producto de ωθ

La tasa de referencia se ajusta en función a la inflación del período, el nivel de ajuste de la


inflación esperada y la brecha de producto, un crecimiento de la inflación del período, el ajuste
del nivel esperado de inflación y un crecimiento de la brecha, determinan un alza en la tasa de
interés nominal de referencia.

El uso de la tasa de interés focalizada en la tasa interbancaria, como elemento de política


monetaria de corto plazo (Hsing, 2005), se basa en la denominada regla de Taylor (1993), cuya
propuesta indica que la tasa de interés de mercado responde básicamente a cuatro agregados, a
164
Modelo de regresión general y método de máxima verosimilitud

saber la brecha de producto, la brecha de precios (la desviación en torno a la meta de inflación),
la meta de interés real y la tasa de inflación, dicha tasa además esta en relación con la inflación
rezagada, la inflación esperada (asumiendo la inflación de largo plazo) y la brecha de producto,
con esta información ajustaremos la ecuación (2) y (6) a las propuestas de Taylor, primero en el
caso de la inflación:

P t = b P t - 1 + (1 - b) P e + θ (Y t - Yp) (7)

Donde:

b: Regla de política, si es igual a 0, entonces la inflación depende del nivel esperado y la


brecha de producto, si es igual a 1, la inflación se forma con expectativas pasadas y la brecha de
producto.

Ahora analicemos el caso de la tasa de interés:

i t = r e + P t + c1 ( P t - P e ) + c2 (Y t - Yp) (8)

Donde:

re: Tasa de interés real tomada como meta

c1: Indicador de política, si es 1, entonces la tasa de interés crece a mayor impulso que la
brecha de precios, si es cero, la tasa de interés crece en función a las desviaciones en torno a la
tasa nominal de largo plazo.

No obstante la propuesta de Taylor, tiene a su vez sus opiniones divergentes, los bancos
centrales si bien han dejado de usar la oferta monetaria como única o principal variable de ajuste
de precios, consideran que es necesario evaluar otros indicadores del manejo de precios, por
ejemplo el ajuste de los salarios reales, la expectativa de los agentes a través de encuestas de
confianza, el manejo fiscal, el nivel cambiario y la dinámica de los activos financieros bursátiles
(La Caixa, 2005).

Siguiendo a Herrau-Aragón (2003), la regla de Taylor tiene que ser considerada con cuidado
ante shock reales, es decir el uso de la tasa de interés como mecanismo de ajuste no debería
darse en contextos de shock temporal, sin embargo si la desviación empieza a debilitar la meta
de interés y de precios, es importante hacer uso de la regla, es decir preservar la credibilidad del
instrumento y ajustar la oferta.

Siguiendo a Montoro (2007), se analiza la evidencia empírica de los recientes modelos de


política monetaria basadas en la regla de Taylor, el autor revisa resultados para la economía
165
Modelo de regresión general y método de máxima verosimilitud

norteamericana, concluyendo en un bajo ajuste entre la tasa de interés de referencia, que a decir
de diversos exponentes se debe, entre otros aspectos: a la incertidumbre de los agentes
respecto a la marcha económica, la cual genera poca sensibilidad a cambios económicos en los
agentes cuando se mueve la tasa de interés, es decir los niveles de apuesta por inversión o
consumo se hacen lentos. Otra consideración es sostener la estabilidad de los mercados
financieros, de modo que el uso de la tasa de interés es cuidadoso y de pequeños cambios,
también se hace mención al uso gradual de las tasas a corto plazo, pensando en la estabilidad
de la tasa de interés a largo plazo y finalmente, el uso de las tasas de interés esta sujeto a las
decisiones de los gestores de política (o un monopolio de la decisión), de modo que el ajuste
lento de las tasas es para evitar impactos o shocks en el bienestar social, a partir de cambios
fuertes en la brecha de producto.

Castillo, Montoro y Tuesta (2006) analizan los hechos estilizados de la economía peruana y
encuentran evidencia que sustenta el uso de la tasa de interés en un contexto de metas de
inflación, por un lado la correlación producto inflación ha ido creciendo; esto supone un
incremento del rol de la demanda en la formación de la brecha del producto, rol que se ve
influenciado principalmente por la tasa de interés de referencia, otro hallazgo es la correlación
positiva entre interés y producto, de modo que las reglas de interés están teniendo un efecto
positivo en la brecha de producto.

En contrapartida, el estudio indica que en el caso peruano, se está reduciendo el nivel de


impacto de los agregados monetarios en la inflación, asimismo la menor volatilidad de las tasas
inflacionarias y de interés se ven reflejadas en un ciclo económico con un producto menos volátil,
ciclo estimado desde 1994 al 2003.

Otro trabajo de los mismos autores (Castillo, Montoro y Tuesta, 2006-1), indican que seguir el
esquema de metas de inflación y por ende la regla de tasas de interés, requiere la estimación de
una tasa natural de interés, la cual guía las acciones en torno al producto y precios, si la brecha
de interés es positiva (una tasa mayor a la natural) entonces se contrae el producto y los precios,
a la inversa una brecha negativa implica elevar el producto y los precios, esta tasa natural se
estima siguiendo la propuesta de Greenspan (1993) en torno a una tasa real de interés de largo
plazo alineada con el producto potencial.

Tomado textualmente de León (2007)

166
Modelo de regresión general y método de máxima verosimilitud

Preguntas

1. ¿Cómo sería el modelo econométrico a plantear para analizar la regla de Taylor?


2. ¿Cuáles serían las variables observadas a emplear?
3. ¿Cómo haría para obtener información acerca de las variables medidas en valor
esperado o potencial?

167
Modelo de regresión general y método de máxima verosimilitud

Ejercicios

Se tiene un modelo de demanda (Xd: Cantidad demandada) y oferta (Xo: Cantidad ofertada),
para los precios del bien P1 y de un bien relacionado P2, donde e son los errores respectivos.

Xd=α0+α1P1+α2P2+ed

X o = β 0 + β 1 P 1 + β 2 P 2 + eo

Se recopilaron además diversos datos de precios y cantidades demandadas y ofertadas, los


cuales se muestran en la tabla siguiente, para cada período T1 a T10.

Tabla 4.2 Datos de precios, cantidad demandada y cantidad ofertada

T1 T2 T3 T4 T5 T6 T7 T8 T9 T10

P1 1 1.5 1.7 1.6 2 2.1 1.8 1.9 2 2.2

P2 0.5 0.4 0.3 0.3 0.2 0.25 0.28 0.3 0.27 0.24

Xd 20 18 17 18 15 14 15 15 13 10

Xo 10 12 13 13 14 15 15 13 16 18

Mediante modelos econométricos, estime (realice ambos modelos individualmente):

• Los parámetros del modelo de demanda


• Los parámetros del modelo de oferta
• El precio de equilibrio para cada período T, en este caso use los precios de la tabla para
hallar el nivel de equilibrio de cada uno.
• La cantidad de equilibrio para cada período T, use los precios de equilibrio de la
respuesta anterior.

(Basado en Greene, 2004. Análisis Econométrico)

168
Modelo de regresión general y método de máxima verosimilitud

Referencias bibliográficas
Castillo, P. Montoro, C. Tuesta. V. (2006) Estimación de la Tasa Natural de Interés para la
Economía Peruana. Documentos de Trabajo. Banco Central de Reserva del Perú.

Castillo, P. Montoro, C. Tuesta. V. (2006-I). Hechos Estilizados de la Economía Peruana.


Documentos de Trabajo. Banco Central de Reserva del Perú.

Clarida, R., J. Galí and M. Gertler (1998), “Monetary policy rules in practice. Some international
evidence”, European Economic Review, 42:1033-1067.

Clarida, R., J. Galí y M. Gertler (1999), “The science of monetary policy: a new keynesian
perspective”, Journal of Economic Literature, XXXVII, December: 1661-1707.

Clarida, R., J. Galí y M. Gertler (2001), “Optimal monetary policy in open versus closed
economies: an integrated approach”, American Economic Review, 91, No.2: 248-252

Corbo, V. Tesada, J. (2003) Modeling a small open economy: the case of Chile. Documentos de
Trabajo. Banco Central de Chile.

DeLong B. J. (2000) How to Teach Monetary Policy: Do Central Banks Set the Interest rate or Do
They Target the Money Stock? University of California. Berkeley.

Galindo, L. (2007) El régimen de metas de inflación y la estructura de tasas de interés: Evidencia


empírica para un debate. CEPAL. Chile.

Greene, W. (2003) Econometric Analysis. Fifth Edition. Pearson Ed.

Gujarati, D. (2004) Econometría. 4ta Edic. Mc Graw Hill.

Herrou-Aragón, Alberto. (2003) La regla de Taylor para la tasa de interés. Cuadernos de


Economía. Nº 121. Pontificia Universidad Católica de Chile. Chile.

Hsing, Yu. (2005) Application of the IS−MP−IA model to the German economy and policy
implications. Economics Bulletin. Vol. 15. No. 5.

Hsing, Yu. (2005) Application of the IS−MP−IA model to the Singapore economy and policy
implications. Economics Bulletin. Vol. 15. No. 6
169
Modelo de regresión general y método de máxima verosimilitud

Hsing, Yu. Clark, Don. (2005) Application of the IS-MP-IA Model and the Taylor Rule to Korea and
Policy Implications. The Journal of the Korean Economy. Vol. 6. Nº 2. Korea.

Jiménez, F. (2012) Elementos de teoría y política macroeconómica para una economía abierta.
Fondo Editorial PUCP.

Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill.

La Caixa. (2005) Política monetaria: ¿Un traje a medida?. Informe mensual de economía
europea. España.

León, C. (2007) El modelo IS-MP y la regla de Taylor: Una aproximación empírica para el Perú.
USAT Escuela de Economía DI 003. Perú.

Lucas, R. (1973) Some International evidence on output-inflation tradeoffs. The American


Economic Review. Vol. 63. Nro 3. USA.

Montoro, Carlos. (2007) Why Central Banks Smooth Interest Rates? A Political Economy
Explanation. Documentos de Trabajo. Banco Central de Reserva del Perú.

Novales, A. (1993) Econometría. Mc Graw Hill.

Romer, David. (2000) Keynesian Macroeconomics without the LM Curve. Journal of Economic
Perspectivas. Vol. 14. Nº 2.

Romer, David. Romer, Christina. (2000) Federal Reserve Information and the Behavior of Interest
Rates. University of California.

Romer, David. Romer, Christina. (2002) A Rehabilitation of Monetary Policy in the 1950’s.
University of California.

Romer, David. Romer, Christina. (2004) A New Measure of Monetary Shocks: Derivation and
Implications. University of California.

Rotemberg, J.J. y M. Woodford (1999) Interest rate rules in an estimated sticky price model, en
Taylor, J.B. (ed.), Monetary Policy Rules, National Bureau of Economic Research, University of
Chicago Press: 319-348.

170
Modelo de regresión general y método de máxima verosimilitud

Rotemberg, J.J. (1987) The new Keynesian microfoundations, S. Fischer (ed.), NBER
Macroeconomics Annual, MIT Press: 297-346.

Taylor, John B. (1993) Discretion versus Policy Rules in Practice. Carnegie-Rochester


Conference. Series on Public Policy.

Taylor, J.B. (ed.), (1999a) Monetary Policy Rules, National Bureau of Economic Research,
University of Chicago Press.

Taylor, J.B. (1999b) A historical analysis of monetary policy rules, Taylor, J.B. (ed.), Monetary
Policy Rules, National Bureau of Economic Research, University of Chicago Press, 319-348.

Taylor, J.B. (1999c) The robustness and efficiency of monetary policy rules as guidelines for
interest rates setting by the European Central Bank. Journal of Monetary Economics, Vol. 43(3),
June, 655-679.

Taylor, J.B. (2001) The role of the exchange rate in monetary-policy rules, American Economic
Review Papers and Proceedings, Vol. 91, 2: 263-267.

Woodward, B. (2001), Greenspan, Península Atalaya.

Wooldridge, J. (2009) Introductory Econometrics. A modern approach. Third Edition. Cengage


Learning.

171
CAPÍTULO V

Multicolinealidad en modelos
econométricos

172
Multicolinealidad en modelos econométricos

V. MULTICOLINEALIDAD EN MODELOS ECONOMÉTRICOS

Introducción al tema

La presencia de muchas variables aleatorias no necesariamente significa una mejor bondad


de ajuste o un mayor ajuste global, esto suele pasar cuando incluimos en el modelo variables
redundantes o cuando dos o más variables tienen relaciones entre sí y se pierde potencia
explicativa.

La relación entre dos variables explicativas se denomina normalmente como colinealidad, que
indica que dos variables tienen una relación lineal.
La presencia de colinealidad puede afectar las estimaciones realizadas, para empezar es
natural suponer que una de estas dos variables no debe estar en el modelo, aunque esta sea una
presunción apresurada por cuanto es posible que toda variable aporte algún grado de
información a la variable dependiente. Entonces el solo hecho de eliminar variables no parece la
mejor solución.

El problema sin embargo es persistente, la linealidad entre dos variables explicativas genera
diversas fallas en las estimaciones de los parámetros, por cuanto no sabemos su real dimensión
o magnitud, ya que las variables explicativas dejaron de ser independientes e incorporan errores
de la otra o variaciones de la otra.

La colinealidad entonces impulsa el hecho de conseguir variables que puedan ser explicativas
y puedan reemplazar las existentes, pero que a la vez sean independientes. Este proceso puede
ser complejo de obtener o de hallar variables con estas características, por cuanto la
independencia no siempre está presente en las variables económicas.

También esta el hecho de que debemos, del algún modo, probar que el modelo pierde ajuste
con más variables explicativas y que la causalidad entre variables independientes existe, para
poder señalar la presencia de colinealidad y proceder a resolverlo.

173
Multicolinealidad en modelos econométricos

5.1 Problemas de la estimación con multicolinealidad


La multicolinealidad puede establecerse como la relación entre las variables explicativas,
consideremos por ejemplo las siguientes variables explicativas:

X1, X2, X3, X4 ….Xn

Ahora consideremos que todas ellas pueden relacionarse del siguiente modo:

X1 + X2 + X3 + X4 + … + Xn = 0

En el caso anterior, una variable puede ser expresada del siguiente modo:

X1 = - X2 - X3 - X4 - … - Xn = 0

Donde podemos notar que X1 se relaciona linealmente con X2 y con las demás, ahora la
relación puede ser menos proporcional si consideramos que:

Ω1 X1 + Ω2 X2 + Ω3 X3 + Ω4 X4 + … + Ωn Xn = 0

Donde Ω son valores que expresan la relación entre variables pero todas ellas son diferentes
de cero para cualquier momento t. Si extraemos X1 de la ecuación previa tenemos:

X1 = - Ω2 / Ω1 X2 - Ω3 / Ω1 X3 - Ω4 / Ω1 X4 - … - Ωn / Ω1 Xn

En este caso X1 se relaciona con las variables restantes en la proporción Ωi / Ω1 y la relación


es negativa, esto supone que no es independiente.

En algunos casos la relación puede no ser exacta, es decir las variables X en general no
suman cero, sino que existe un error cualquiera (considere que la correlación entre dos variables
puede ser total, pero entre más variables es sólo parcial, pues todas aportan algo a la anterior)
derivado de las correlaciones parciales entre todas ellas:

Ω1 X1 + Ω2 X2 +Ω3 X3 + Ω4 X4 + … + Ωn Xn + error = 0

X1 = - Ω2 / Ω1 X2 - Ω3 / Ω1 X3 - Ω4 / Ω1 X4 - … - Ωn / Ω1 Xn + error / Ω1

De acuerdo con Gujarati (2004), la multicolinealidad o relación entre variables explicativas,


también puede definirse en las figuras siguientes:

174
Multicolinealidad en modelos econométricos

Fig. 5.1 Relaciones entre Y, X1 y X2 sin multicolinealidad

X1

X2

Fig. 5.2 Relaciones entre Y, X1 y X2 con multicolinealidad

Y
X1

X2

La fig. 5.1 muestra que la variable dependiente recibe influencia de las variables X1 y X2 pero
las variables explicativas no se relacionan entre sí. Mientras que en la Fig. 5.2 se muestra que las
variables X1 y X2 se relacionan entre sí, evidenciando un proceso de multicolinealidad.

Las razones para la existencia de multicolinealidad pueden ser las siguientes:


175
Multicolinealidad en modelos econométricos

- El modelo diseñado tiene un exceso de variables explicativas, de modo que es natural


que algunas de ellas puedan estar relacionadas. Un ejemplo pueden ser estudios
donde tomamos una enorme cantidad de datos del individuo, un caso es el análisis del
consumo de hogares donde podemos usar la variable ingresos, adicionalmente
empleo, años de estudios, tipo de empleo, sector económico, nivel de estudios u otras.
Es posible encontrar relaciones entre años de estudios y nivel de estudios o años de
estudios e ingresos o el tipo de empleo y los ingresos, de modo que aquí es evidente
que algunas variables puedan estar correlacionadas.

En modelos seriales por ejemplo podemos tomar las tasas de interés locales y externas
para explicar el movimiento cambiario, pero ambas tasas pueden ser relacionadas o
pueden ser colineales.

- Otra razón para la presencia de multicolinealidad es el uso inadecuado de variables


dicotómicas o dummy, en este caso por ejemplo si tenemos que 0 es soltero y 1 es
casado, pero en las series aparece información de casados y solteros, con una
codificación errónea de la dummy (asignando al código 0 datos de casados por
ejemplo), implicará que las variables terminen siendo relacionadas.

- Otra posibilidad de multicolinealidad se encuentra en las variables que se


descomponen en otras. Por ejemplo, queremos medir los efectos en el consumo
cuando se dan cambios en el ingreso e incluimos ingreso del hogar, ingreso del esposo
e ingreso de la esposa o incluimos rentas de ambos esposos, es normal que al menos
una de esas variables se correlacione con los ingresos del hogar.

- También es posible que las variables explicativas generen relaciones cuando las
opciones de respuesta son limitadas (sesgadas hacia lo dicotómico) o tienen muy poca
variación. Consideremos que la variable es estar de acuerdo (1) o no (2) con las colas
de atención en una entidad financiera, pues naturalmente pocos estarían de acuerdo.
Ahora si calificamos el servicio del banco (donde hay muchas colas) de 1 a 5, donde 5
es de acuerdo que tiene un buen servicio y 1 estamos en desacuerdo que tiene un
buen servicio. Entonces encontraremos que las respuestas de ambas variables estarán
en alrededor de 1.

Ahora si consideremos que las colas son un factor que influye en las colocaciones de la
entidad, puede que un mal servicio afecte los créditos o colocaciones y que estar de
acuerdo con que haya colas igual afecte el servicio por cuanto serán muy pocos los que
estén de acuerdo. En este ejemplo la variable dependiente colocaciones depende de
dos variables cuya relación es lineal y muy alta, ambas son 1.

176
Multicolinealidad en modelos econométricos

- Otro factor que puede ocasionar multicolinealidad es tener muestras pequeñas de


análisis, por ejemplo pensemos que las ventas de una empresa crecen en julio y
diciembre (siendo estacionales) y las compras naturalmente tienden a crecer en estas
fechas o los meses previos, es posible considerar además que los inventarios de
materiales o insumos comprados crecen igual, si la muestra que tomo incluye pocos
meses (un año o menos) encontraré que los inventarios se relacionen con las ventas.
Si queremos explicar la rentabilidad de un negocio con estas dos variables, es muy
probable que mayores ventas generan mayor rentabilidad, pero los mayores
inventarios pueden tener el efecto opuesto, considerando además que las ventas e
inventarios son colineales.

Tabla 5.1 Datos para probar la multicolinealidad

Y Identidad X1 X2 R X3

2 1 2 4 4 8

3 1 3 6 4 10

4 1 4 8 4 12

4 1 5 10 3 13

5 1 6 12 3 15

6 1 7 14 4 18

5 1 8 16 4 20

6 1 9 18 2 20

6 1 10 20 1 21

6 1 11 22 1 23

7 1 12 24 4 28

8 1 13 26 3 29

177
Multicolinealidad en modelos econométricos

La multicolinealidad de variables crea problemas previos a las estimaciones que realicemos,


consideremos los datos de la tabla 5.1, en ella se cumple lo siguiente:

X2 = 2 X1

X3 = 2 X1 + R

Donde R es un número aleatorio entre 1 y 4 (obtenido al azar con la función =aleatorio.entre()


de Excel ©), se puede señalar que la primera ecuación es de una colinealidad exacta, 2X1
equivale exactamente a X2, mientras que la ecuación siguiente es de una colinealidad inexacta,
donde la variable aleatoria completa la estimación y puede verse como un grado de error, tal
como se mostró antes.

En la tabla previa también está la columna I (vector identidad) y la variable dependiente Y.


Consideremos ahora que la los parámetros de un modelo se estiman del siguiente modo ya visto
antes en matrices:

Y=XB+U

B = ( X’ X )-1 X’ Y

Donde X es la matriz de variables dependientes, incluyendo el vector identidad como primera


columna de la matriz, Y es la variable dependiente y U es el nivel de error. Ahora pensemos que
sólo usamos las variables I, X1 y X2 para armar la matrix X, y procedemos a hallar su inversa,
usando los comandos de Stata ©:

. mkmat I X1 X2, matrix(X)

. matrix XT=X'

. matrix XTX=XT*X

. matrix list XTX

178
Multicolinealidad en modelos econométricos

symmetric XTX[3,3]

I X1 X2

I 12

X1 90 818

X2 180 1636 3272

. matrix INVX=inv(XTX)

matrix has missing values

La matrix X’X (donde X’ es la transpuesta de X) mostrada en los estimados previos, no posee


inversa. Eso se debe a que el valor de su determinante es cero. No olvidemos como se señaló al
principio que: Ω1 X1 + Ω2 X2 +Ω3 X3 + Ω4 X4 + … + Ωn Xn = 0, lo que indica que el valor Ωi, es en
todos los casos simultáneamente es igual a cero, en buena cuenta el Ωi es el determinante igual
a cero y eso hace que no se puedan calcular los valores de la matriz inversa.

Hay que tener en cuenta que toda inversa se estima del siguiente modo:

H-1 = Adj H * (-1) para todo j+m impar / Determinante de H

La matriz inversa de H o H-1, es la matriz adjunta de H sobre la determinante de H, donde la


matriz Adjunta de H es su matriz de cofactores, y cada elemento de esta matriz ubicado en un
orden impar, se multiplica por -1. Es decir el elemento 1,1 (primer elemento de la matriz tanto en
fila como columna) tiene una suma de orden 2 y su signo se conserva, sin embargo el elemento
de orden 1,2 tiene una suma de orden 3 y se multiplica por -1, así sucesivamente.

Ahora estimemos el determinante de X’X calculado previamente, primero mostremos la matrix


X’X:

179
Multicolinealidad en modelos econométricos

I X1 X2
I 12 90 180
X1 90 818 1636
X2 180 1636 3272

Ahora apliquemos la regla de Sarrus para hallar el determinante, primero repliquemos las
columnas I, X1 armando la matriz siguiente:

I X1 X2 I X1
I 12 90 180 12 90
X1 90 818 1636 90 818
X2 180 1636 3272 180 1636

Ahora multipliquemos las diagonales de la matriz previa, las diagonales positivas serán:

I*X1*X2 + X1*X2*I + X2*I*X1

Mientras que las diagonales negativas son:

-X1*I*X2 - I*X2*X1 - X2*X1*I

La suma de ambas diagonales (positiva + y negativa - ) se muestra ahora:

Sumatoria
Diagonal + 32,117,952.00 26,503,200.00 26,503,200.00 85,124,352.00
Diagonal - -26,503,200.00 -32,117,952.00 -26,503,200.00 -85,124,352.00
Determinante 0.00

Como indica el cálculo, el determinante es cero, lo que significa que no podremos dividir
ningún número sobre este valor (no olvide que una matriz inversa es su matriz adjunta entre el
determinante) ya que sería indeterminado, esto pasa cuando la multicolinealidad es perfecta y no
se puede hallar la inversa de X’X, siendo imposible hallar los parámetros del modelo de
regresión.

180
Multicolinealidad en modelos econométricos

Ahora analicemos el caso de la multicolinealidad inexacta, para ello usemos las variables I,
X1, X3 (no olvide que X3 se relaciona de modo inexacto con X1) con las cuales crearemos la
matriz A, usemos ahora los comandos de Stata ©:

. mkmat I X1 X3, matrix(A)

. matrix AT=A'

. matrix ATA=AT*A

. matrix list ATA

symmetric ATA[3,3]

I X1 X3

I 12

X1 90 818

X3 217 1891 4421

Ahora estimemos la inversa de la matriz A’A, con los resultados hallados previamente con el
Stata © de A’A:

I X1 X3
I 12 90 217
A'A = X1 90 818 1,891
X3 217 1,891 4,421

Hallemos la matriz Adjunta de A’A, para ello usemos los cofactores de cada elemento de la
matriz A’A, por ejemplo para el elemento 1,2 o 90 (el elemento de X1,I) de la matriz A’A, sus
cofactores son los siguientes:

181
Multicolinealidad en modelos econométricos

90 1,891
Cofactores X1,I = 217 4,421

El determinante de los cofactores de (X1,I) o del elemento (1,2) es: 90*4421 – 1891*217 =
-12,457, este valor sería el elemento 1,2 de la matriz adjunta que se muestra a continuación
como Adj A’A:

40,497 -12,457 -7,316


Adj A'A = -12,457 5,963 3,162
-7,316 3,162 1,716

Una vez que se obtiene la matriz adjunta, debemos multiplicar cada elemento de orden impar
por -1, eso nos da la matriz adjunta siguiente:

40,497 12,457 -7,316


Adj A'A *(-1) 12,457 5,963 -3,162
-7,316 -3,162 1,716

Para hallar la matriz inversa de A’A, necesitamos el determinante de A’A, el cual se estima
del modo siguiente usando la regla de Sarrus:

I X1 X3 I X1
I 12 90 217 12 90
X1 90 818 1891 90 818
X3 217 1891 4421 217 1891

Con la cual obtenemos las diagonales tal como se estimaron antes para X’X:

Sumatoria
Diagonal + 43,396,536.00 36,931,230.00 36,931,230.00 117,258,996.00
Diagonal - -38,518,802.00 -42,910,572.00 -35,810,100.00 -117,239,474.00
Determinante 19,522.00

Como se muestra en los cálculos el determinante de A’A es 19,522 con ello obtendremos la
inversa de la matriz A’A, del modo siguiente:
182
Multicolinealidad en modelos econométricos

Inversa A’A = Adj A’A * (-1) / Determinante A’A

Esto nos da la matriz inversa siguiente:

2.074429 0.638101 -0.374757


A'A =
-1 0.638101 0.305450 -0.161971
-0.374757 -0.161971 0.087901

Los resultados se muestran también con el programa Stata ©, lo cual indica que en presencia
de multicolinealidad inexacta, si es posible estimar los parámetros del modelo de regresión que
se plantee, esto se debe a que si es posible hallar la inversa de A’A.

. matrix INVA=inv(ATA)

. matrix list INVA

symmetric INVA[3,3]

I X1 X3

I 2.0744288

X1 .6381006 .30545026

X3 -.37475668 -.16197111 .08790083

Ya comprobamos que si es posible estimar los parámetros con presencia de multicolinealidad


inexacta, sin embargo estos parámetros serían insesgados. Analicemos el modelo siguiente con
los datos de la tabla 5.1, para ello consideremos la multicolinealidad inexacta (ya que de lo
contrario no se podrían estimar los parámetros):

Yi = ß0 + ß1 X1i + ß3 X3i + Ui (1)

Donde:

Xi3 = Ω Xi1

183
Multicolinealidad en modelos econométricos

Lo que supone que el modelo inicial queda:

Yi = ß0 + ß1 X1i + ß3 (Ω Xi1 ) + Ui

Yi = ß0 + ( ß1 + ß3 Ω )Xi1 + Ui

Donde:

Π = ß1 + ß3 Ω

El modelo previo de la ecuación (1) queda:

Yi = ß0 + Π Xi1 + Ui (2)

Ahora estimemos los parámetros para las regresiones mostrados en las ecuaciones (1) y (2),
en el caso de la ecuación (1) los resultados mostrados en la Fig. 5.2 se pueden expresar así:

Yi = 1.096763 + 0.1392788 X1i + 0.1672984 X3i + Ui

También se puede notar que esta regresión tiene todos los parámetros no significativos,
debido a que el valor crítico de t de Student es menor que 2 y observe que el R2 del modelo es
relativamente alto, el valor llega a 0.9146 o 91.46% de ajuste.

En el caso de la regresión mostrada en la Fig. 5.3, ecuación (2), los resultados se expresan así:

Yi = 1.810023 + 0.4475524 Xi1 + Ui

Note que en la regresión donde sólo hay X1 como explicativa, la prueba t de Student es
satisfactoria y el valor del parámetro es significativo. Asimismo el ajuste del modelo medido con
R2 es de 0.9045 o 90.45%.

184
Multicolinealidad en modelos econométricos

Fig. 5.3 Resultados de la regresión Y, X1, X3

. reg Y X1 X3

Source SS df MS Number of obs = 12


F( 2, 9) = 48.18
Model 28.9617696 2 14.4808848 Prob > F = 0.0000
Residual 2.70489704 9 .300544115 R-squared = 0.9146
Adj R-squared = 0.8956
Total 31.6666667 11 2.87878788 Root MSE = .54822

Y Coef. Std. Err. t P>|t| [95% Conf. Interval]

X1 .1392788 .3029873 0.46 0.657 -.546126 .8246836


X3 .1672984 .1625364 1.03 0.330 -.2003844 .5349813
_cons 1.096763 .7895932 1.39 0.198 -.6894212 2.882946

Fig. 5.4 Resultados de la regresión Y, X1

. reg Y X1

Source SS df MS Number of obs = 12


F( 1, 10) = 94.74
Model 28.6433566 1 28.6433566 Prob > F = 0.0000
Residual 3.02331002 10 .302331002 R-squared = 0.9045
Adj R-squared = 0.8950
Total 31.6666667 11 2.87878788 Root MSE = .54985

Y Coef. Std. Err. t P>|t| [95% Conf. Interval]

X1 .4475524 .0459805 9.73 0.000 .3451016 .5500033


_cons 1.810023 .379629 4.77 0.001 .9641572 2.655889

185
Multicolinealidad en modelos econométricos

Con los resultados previos, se procede a plantear la ecuación siguiente:

Π = ß1 + ß3 Ω

Π = 0.1392788 + 0.1672984 Ω

La otra ecuación derivada del modelo (2) es:

Π = 0.4475524

Con lo cual Ω es igual a: 1.842657192

Si planteáramos la ecuación sólo conociendo Π y Ω, entonces el resultado queda:

0.4475524 = ß1 + 1.842657192 ß3

Podemos obtener diversos valores de ß1, por ejemplo si ß3 toma valores como:

ß3 ß1
0.1 0.263286681
0.2 0.079020962
0.3 -0.105244758
0.4 -0.289510477
0.5 -0.473776196

Podemos notar que para cualquier valor de ß3, las posibilidades de estimación de ß1 son
variadas e ilimitadas y ello imposibilita saber de manera insesgada el parámetro ß1.

Al observar ambas regresiones en los modelos (1) y (2) tenemos otros detalles, por ejemplo:

Tabla 5.2 Varianza de los parámetros ß1 en los modelos Y, X1, X3 - Y, X1

ß1 Desviación Estándar Varianza


Modelo 1 (Multicolineal) 0.1392788 0.3029873 0.091801304
Modelo 2 0.4475524 0.0459805 0.002114206

En el modelo (1) donde se presenta la multicolinealidad inexacta, la varianza del parámetro ß1


es 0.09 y es mayor a la varianza del mismo parámetro en el modelo sin la multicolinealidad (ya
que no se presenta X3), en este caso la varianza es sólo 0.002.
186
Multicolinealidad en modelos econométricos

En buena cuenta los modelos con multicolinealidad, tienen parámetros con varianza mucho
mayor a los modelos sin esta falla, esto supone que el intervalo de confianza de los parámetros
es más amplio, en el caso del parámetro constante o intercepto del modelo también presenta
varianzas diferenciadas:

Tabla 5.3 Varianza de los parámetros ß0 en los modelos Y, X1, X3 - Y, X1

ß0 Desviación Estándar Varianza


Modelo 1 (Multicolineal) 1.096763 0.7895932 0.623457421
Modelo 2 1.810023 0.379629 0.144118178

Como se indica antes, la varianza del intercepto del modelo con multicolinealidad es mayor al
intercepto del modelo que no presenta este problema, implicando un rango alto de variación de
los parámetros.

5.2 Detección de la multicolinealidad


Para verificar la presencia de multicolinealidad disponemos de algunas evidencias, una
primero forma de detección se relaciona con la prueba t de Student.

Para verificar lo anterior consideremos que la prueba t o valor crítico de Student se estima
primero hallando las varianzas de los parámetros, en este caso sólo usamos los valores de la
diagonal de la matriz de covarianzas y se elevan a 0.5 o se obtiene la raíz cuadrada:

Varianza de ß = σ 2 X’X -1

Desviación estándar de ß = (Varianza de ß ) 0.5

t = ß / Desviación estándar de ß

Dado que los valores de la desviación estándar de los parámetros ,son mayores en el modelo
con multicolinealidad inexacta respecto del modelo sin este problema, esto supone que los
valores t críticos de Student son bajos o menores en el caso multicolineal comparado con los del
modelo sin la presencia de la multicolinealidad, como pueden ver:

187
Multicolinealidad en modelos econométricos

Tabla 5.4 Prueba t de los parámetros en los modelos Y, X1, X3 - Y, X1

t de ß1 t de ß0
Modelo 1 (Multicolineal) 0.459685274 1.389022854
Modelo 2 9.733526169 4.767873371

Entonces se puede verificar que la prueba t de modelos con multicolinealidad tiene valores
bajos, respecto del mismo modelo sin multicolinealidad.

Otra forma de detectar la multicolinealidad tiene que ver con el ajuste global del modelo, para
ello estimemos el valor de R2:

Tabla 5.5 R2 en los modelos Y, X1, X3 - Y, X1

SCE SCT R2
Modelo 1 (Multicolineal) 28.9617696 31.6666667 0.9146
Modelo 2 28.6433566 31.6666667 0.9045

Puede notarse que el valor de R2 no varía mucho entre un modelo y el otro, en el caso del
modelo sin multicolinealidad el R2 es de 90.45% y en el caso del modelo con multicolinealidad la
medida global de ajuste es de 91.46%.

Tabla 5.6 Prueba F en los modelos Y, X1, X3 - Y, X1

SCE K–1 SCR N-K F


Modelo 1 (Multicolineal) 28.9617696 2 2.70489704 9 48.182
Modelo 2 28.6433566 1 3.02331002 10 94.742

El valor de la prueba F es en ambos modelos significativo (mayor al valor crítico de la tabla F


de Fisher que es 4.96), de modo que en conclusión un modelo con multicolinealidad puede
detectarse a partir de la presencia de un R2 alto y pruebas t bajas, es decir las variables del
modelo explican bien el ajuste global pero ellas mismas no son significativas.

Otro indicador de la presencia de multicolinealidad es el llamado Factor Inflador de Varianza


FIV, que se estima del siguiente modo directo:

FIV = 1 / (1- R2 (Xi) )


188
Multicolinealidad en modelos econométricos

Donde R2 (Xi), resulta de estimar una regresión entre las variables explicativas, dicha regresión
se muestra a continuación:

Fig. 5.5 Regresión de X1, X3

. reg X1 X3

Source SS df MS Number of obs = 12


F( 1, 10) = 426.79
Model 139.726145 1 139.726145 Prob > F = 0.0000
Residual 3.27385544 10 .327385544 R-squared = 0.9771
Adj R-squared = 0.9748
Total 143 11 13 Root MSE = .57218

X1 Coef. Std. Err. t P>|t| [95% Conf. Interval]

X3 .53027 .0256678 20.66 0.000 .4730787 .5874613


_cons -2.089049 .4926717 -4.24 0.002 -3.18679 -.9913082

Ahora estimemos el Factor inflador de varianza:

FIV = 1 / (1 – 0.9771) = 43.6681

El FIV es el factor de ajuste entre las varianzas de los parámetros sin multicolinealidad y
aquellas con multicolinealidad, comprobemos para el caso de X1 (variable origen de la
multicolinealidad) que la varianza del parámetro equivale a la estimación realizada en la tabla 5.2:

Varianza ß1 multicolineal = Varianza no colineal ß1* FIV

Varianza ß1 multicolineal = 0.002114206 * 43.6681

Varianza ß1 multicolineal = 0.092

189
Multicolinealidad en modelos econométricos

En buena cuenta si existe multicolinealidad, entonces el FIV será bastante alto, existe de ese
modo una gran distancia entre la varianza del parámetro multicolineal y aquel parámetro
equivalente sin esta falla.

Un indicador alterno es el nivel de tolerancia, que se estima del siguiente modo:

Tolerancia = 1 / FIV

Tolerancia = 1 / 43.6681 = 0.0229

La tolerancia 0 (o muy cercana a cero) indica alta multicolinealidad, mientras que la tolerancia
igual a1 indica que no existe multicolinealidad, de ese modo podemos hallar esta falla en los
modelos econométricos. En el caso de nuestro ejemplo existe una alta multicolinealidad.

Una forma de darnos cuenta a modo indirecto de la presencia de variables que no aportan al
modelo, que a pesar de ello tiene un R2 alto, es el criterio de información de Akaike (AIC),
estimado como:

AIC = - 2 Ln FV + 2K

Donde:

Ln FV: Es el logaritmo natural del valor de la función de verosimilitud estimada con los
parámetros que resultan del modelo, dichos parámetros son ß0, ß1, … ßi y la ecuación de
estimación es:

Ln FV = - 0.5 N ln 2 - 0.5 N ln (2 π) – 0.5 ∑ (Yi - ß0 - ß1 Xi ) 2 / 2

Ln FV = N [ - ln - 0.5 ln (2 π) ] – 0.5 ∑ (Yi - ß0 - ß1 Xi ) 2 / 2

K: Es el número de variables en el modelo.

Otro indicador alternativo es el Criterio de Información Bayesiano de Shwarz (BIC) que se estima
del modo siguiente:

BIC = - 2 Ln FV + Ln N * K

Donde:

Ln N: Es el logaritmo natural del tamaño de muestra empleado N, esto indica que el BIC depende
linealmente del tamaño muestral, esto le da mayor eficacia que el AIC, donde el número de
190
Multicolinealidad en modelos econométricos

parámetros se pondera por 2, ahora en el BIC los parámetros tienen mayor impacto en la medida
que el tamaño muestral aumenta.

En Stata © podemos calcular el AIC y BIC, para cada uno de los modelos siguiente, mediante
el comando de Stata © que se escribe en el Do editor, estat ic (escriba el comando una vez que
realice la regresión respectiva):

Yi = ß0 + ß1 X1i + ß2 X2i + ß3 X3i + Ui (modelo 1)

Fig. 5.6 Estimación de AIC y BIC para el modelo 1 con Y, X1, X2 y X3

. estat ic

Model Obs ll(null) ll(model) df AIC BIC

. 12 -22.84941 -8.088206 3 22.17641 23.63113

Note: N=Obs used in calculating BIC; see [R] BIC note

La fig. anterior muestra los resultados del AIC y BIC para todas las variables de análisis en
nuestro ejemplo (recuerde que usamos los datos de la tabla 5.1) incluidas en el modelo 1.

Estos resultados coinciden con los de la fig. 5.7 donde se ha suprimido la variable X2 (para
ello usamos la estimación del modelo 2), tomemos en cuenta que esta variable tiene colinealidad
perfecta con X1, de modo que puede ser eliminada sin que cambien los resultados de las
estimaciones de BIC y AIC.

Para estimar el AIC y BIC del modelo 2, primero logremos la estimación del Ln FV
relacionado con la expresión ll (model), mostrado en los resultados de Stata ©. Para dicha
estimación se usan todos los parámetros del modelo. En el caso de este modelo tenemos:
Parámetros (K) = 3 y Datos (N)= 12.

En los resultados mostrados por Stata ©, también aparece el ll (null) esta es la estimación
del LN FV sólo para el parámetro ß0 también llamado intercepto.

Yi = ß0 + ß1 X1i + ß3 X3i + Ui (modelo 2)

191
Multicolinealidad en modelos econométricos

Fig. 5.7 Estimación de AIC y BIC para el modelo 2 con Y, X1 y X3

. estat ic

Model Obs ll(null) ll(model) df AIC BIC

. 12 -22.84941 -8.088206 3 22.17641 23.63113

Note: N=Obs used in calculating BIC; see [R] BIC note

El valor del LN FV (ll model) para el cálculo de AIC del modelo 2, puede hallarse también del
siguiente modo:

Tabla 5.7 datos de Y estimado para el cálculo del Ln FV del modelo

Y Y' ( Y - Y' ) 2
2 2.7137078 0.509378824
3 3.1875834 0.035187532
4 3.661459 0.114610009
4 3.9680362 0.001021685
5 4.4419118 0.311462439
6 5.0830858 0.84073165
5 5.5569614 0.310206001
6 5.6962402 0.092270016
6 6.0028174 7.93774E-06
6 6.476693 0.227236216
7 7.4524638 0.20472349
8 7.759041 0.05806124
Total 2.704897039

Ln FV = 12 [ - Ln ( 0.47477162 ) - 0.5 * Ln ( 2 * 3.14159265) ] – [ 1 / ( 2 * 0.47477162 2 ) *


2.704897039 ]

Donde:

mv = 2.70489704 / 12
2

192
Multicolinealidad en modelos econométricos

Esto es el estimador de 2 para la función de verosimilitud, es decir usando N datos.

=[ 2 ] 0.5

π: Es el valor Pi equivalente a 3.14159265

Ln FV = 12 [ 0.7449214 – 0.9189385) ] – [ 2.218199 * 2.704897039 ]

Ln FV = -2.08820559 - 6

Ln FV = -8.0882056

Nuestra estimación del valor final del Ln FV, coincide con los resultados de Stata ©,
mostrados para el modelo 2.

Ahora estimemos el AIC y BIC desde el modelo 3 mostrado a continuación:

Yi = ß0 + ß1 X1i + Ui (modelo 3)

Fig. 5.7 Estimación de AIC y BIC para el modelo 3 con Y, X1

. estat ic

Model Obs ll(null) ll(model) df AIC BIC

. 12 -22.84941 -8.755936 2 21.51187 22.48169

Note: N=Obs used in calculating BIC; see [R] BIC note

Para el modelo 3, se tiene: K = 2 y N = 12. En este caso hay que notar que el AIC y el BIC
han bajado de valor, lo que indica que el modelo donde X1 es explicativa tiene mejor poder de
predicción que el modelo que usa X1 y X3 como explicativas.

Probemos ahora hallando el AIC y BIC del modelo 4, que se expresa a continuación:

Yi = ß0 + ß3 X3i + Ui (modelo 4)

193
Multicolinealidad en modelos econométricos

Fig. 5.8 Estimación de AIC y BIC para el modelo 4 con Y, X3

. estat ic

Model Obs ll(null) ll(model) df AIC BIC

. 12 -22.84941 -8.227451 2 20.4549 21.42472

Note: N=Obs used in calculating BIC; see [R] BIC note

Finalmente en el modelo 4 se tiene: K = 2 y N = 12. Hay que notar que el AIC y el BIC han
bajado nuevamente de valor, lo que indica que el modelo que emplea a X3 como variable
explicativa tiene mejor poder de predicción o ajuste que todos los modelos anteriores.

La idea que existe detrás del uso del AIC y el BIC, es que los modelos iniciales usando X2 y
X1 son con variables colineales, que no le aportan información al modelo, por ello los criterios de
Akaike y Shwarz se van reduciendo, hasta llegar a X3 que si aporta información con mayor ajuste
que las variables previamente utilizadas, dando una idea de la posible existencia de
multicolinealidad.

No olvidemos que el AIC y el BIC sirven, además, para testear si el diseño del modelo es
óptimo no sólo en número de variables, sino también en el tipo de variables que colocamos. Al
existir variables redundantes es muy probable que haya multicolinealidad.

5.3 Corrección de la multicolinealidad


Se tienen diversas pautas para reducir la presencia de multicolinealidad en los modelos
econométricos, pensemos primero en el modelo siguiente:

TCVfi = ß0 + ß1 Tamn1i + ß2 intbs2i + ß3 interbf3i + ß4 Libor3m4i Ui

Donde:

TCVf : Valor del tipo de cambio de venta diario (enero a junio de 2013) para el Perú, medido en
dólares por sol.
194
Multicolinealidad en modelos econométricos

Tamn: Tasa activa en moneda nacional para el Perú (para créditos anuales)

intbs: Tasa interbancaria en soles para el Perú

intbf: tasa interbancaria en moneda extranjera para el Perú

Libor3m: Tasa de interés Libor a 3 meses (datos diarios en valor anual)

La lógica del modelo es que el tipo de cambio responde a los diferenciales de tasas de interés
entre la moneda local y la moneda extranjera. Así mayores tasas locales de interés generan una
salida de fondos los cuales hacen que el tipo de cambio en dólares se reduzca y el tipo de
cambio en soles aumente, esto se conoce como la paridad de intereses.

Estimemos la regresión del modelo planteado:

Fig. 5.9 Regresión semestral para la variable dependiente Tipo de cambio venta en dólares
TCVf

Source SS df MS Number of obs = 120


F( 4, 115) = 41.03
Model .006374232 4 .001593558 Prob > F = 0.0000
Residual .004465926 115 .000038834 R-squared = 0.5880
Adj R-squared = 0.5737
Total .010840158 119 .000091094 Root MSE = .00623

TCVf Coef. Std. Err. t P>|t| [95% Conf. Interval]

Tamn .0091061 .0021967 4.15 0.000 .0047548 .0134574


intbs -.0181542 .0086193 -2.11 0.037 -.0352275 -.001081
intbf -.0006434 .0004862 -1.32 0.188 -.0016065 .0003197
Libor3m -.2022685 .1806032 -1.12 0.265 -.5600087 .1554717
_cons .3710111 .0489487 7.58 0.000 .2740532 .4679689

195
Multicolinealidad en modelos econométricos

El modelo evidencia la presencia de variables con t estadísticos bajos y que probablemente


presenten colinealidad inexacta, este puede ser el caso de la tasa interbancaria en moneda
extranjera y la tasa libor a 3 meses.

Una muestra de la relación entre estas dos variables puede verse gráficamente. En la Fig.
5.10, se evidencia que la relación entre la variable intbf y Libor3m es alta, la correlación entre
ambas es positiva y presentan los siguientes indicadores FIV y TOLERANCIA:

FIV = 1 / (1 – 0.5044) = 2.02

Tolerancia = 0.49

La evidencia de multicolinealidad es baja pero existe, el valor AIC de esta regresión inicial es
-873.3072.

Fig. 5.10 Relación entre tasa interbancaria en dólares (intbf) y tasa Libor 3 meses (Libor3m)

0 5 10

.3

Libor3m
.28

.26
10

5 intbf

0
.26 .28 .3

196
Multicolinealidad en modelos econométricos

Los resultados del modelo indican, que alzas del costo de la moneda local reflejados en la
Tamn generan entrada de fondos y una alza del TCVf (medido en dólares). Al revés se reduce el
valor de la moneda local en soles.

Alzas del intbs producen bajas del TCVf en este caso la variable se comporta al inverso de lo
esperado, una explicación es que esta tasa rige principalmente para la gran empresa, alzas de
esta tasa reflejan una mayor demanda local de moneda extranjera (ante el mayor costo de la
moneda local) que impulsa al alza al tipo de cambio en soles y a la baja al tipo de cambio en
dólares.

En el caso de la intbf y la Libor3m, reflejan un comportamiento esperado en teoría, así las


tasas en moneda extranjera suben y ello implica que los fondos se mueven del mercado local al
mercado externo, en este caso el valor de la moneda local en dólares baja y al revés, en términos
de soles, sube.

Una forma de corregir el modelo que presenta una correlación entre intbf y Libor3m de 0.71
(71%), es eliminar la variable que consideramos sospechosa del problema, sin embargo esta
quizás sea una solución relativamente mala, por cuanto perdemos algo de información y ajuste,
veamos los resultados eliminando Libor3m, que es la de menor valor crítico t de Student.

La Fig. 5.11 indica que el ajuste del modelo es ahora 0.5835 ligeramente menor al modelo
previo, lo que indica que la variable eliminada incorporaba algo de información al modelo, el AIC
es ahora -874, ha variado muy poco respecto del valor inicial, señalando nuevamente que
eliminar Libor3m no ha sido la mejor solución.

Este problema también se presenta, si en lugar de eliminar intbf eliminamos Libor3m, de


modo que eliminar variables parece una solución fácil pero es irrelevante para el modelo.

En el caso de los coeficientes del modelo estimado, la variable intbf sigue siendo no
significativa, al igual que el modelo original, mientras que las demás variables son
estadísticamente válidas.

197
Multicolinealidad en modelos econométricos

Fig. 5.11 Regresión corregida semestral para la variable dependiente Tipo de cambio venta
en dólares TCVf

Source SS df MS Number of obs = 120


F( 3, 116) = 54.18
Model .006325522 3 .002108507 Prob > F = 0.0000
Residual .004514636 116 .000038919 R-squared = 0.5835
Adj R-squared = 0.5728
Total .010840158 119 .000091094 Root MSE = .00624

TCVf Coef. Std. Err. t P>|t| [95% Conf. Interval]

Tamn .006901 .0009753 7.08 0.000 .0049694 .0088326


intbs -.0174002 .0086024 -2.02 0.045 -.0344383 -.000362
intbf -.0004467 .0004539 -0.98 0.327 -.0013457 .0004523
_cons .3455068 .0433763 7.97 0.000 .2595946 .431419

Otra forma de solucionar los problemas de multicolinealidad es ampliar la muestra, en los


modelos previos hemos usado 120 datos que corresponden al período enero junio 2013 (diarios),
así que veremos que pasa si aumentamos la muestra a todo el año.

Como se muestra en la Fig. 5.12 la regresión con datos para todo el año, ya presenta
parámetros estadísticamente significativos en todos los casos, es decir todas las variables son
relevantes para explicar el comportamiento del Tipo de cambio venta a valor en dólares. Los
signos siguen siendo los mismos respecto del modelo original y el R2 es ahora de 0.83 (83%) que
indica un buen ajuste del modelo.

El criterio de Akaike (AIC) ha caído fuertemente ahora tiene un valor de -1600, indicando que
el modelo tiene un buen poder explicativo, mucho mejor al planteado previamente.

198
Multicolinealidad en modelos econométricos

Fig. 5.12 Regresión anual para la variable dependiente Tipo de cambio venta en dólares
TCVf

Source SS df MS Number of obs = 213


F( 4, 208) = 262.45
Model .032711126 4 .008177781 Prob > F = 0.0000
Residual .006481266 208 .00003116 R-squared = 0.8346
Adj R-squared = 0.8314
Total .039192392 212 .00018487 Root MSE = .00558

TCVf Coef. Std. Err. t P>|t| [95% Conf. Interval]

Tamn .0129274 .0011908 10.86 0.000 .0105797 .015275


intbs -.0061514 .0024608 -2.50 0.013 -.0110026 -.0013002
intbf -.0008158 .0003467 -2.35 0.020 -.0014992 -.0001324
Libor3m -.4741422 .0927275 -5.11 0.000 -.6569484 -.291336
_cons .3357063 .0125277 26.80 0.000 .3110089 .3604038

Otra forma de mejorar la potencia del modelo y eliminar la posibilidad de multicolinealidad,


implica ampliar el número de variables y ver si mejora el grado de ajuste y el AIC. Pensemos que
el modelo previo era de paridad cubierta, ahora incluyamos el riesgo país a modo de señalar una
paridad descubierta.

El riesgo país puede crecer, lo cual eleva la tasa de interés externa relacionada a Perú, con
ello los fondos salen del país, esto hace que el tipo de cambio en moneda local suba y en
moneda local baje. Los resultados se muestran a continuación:

Es evidente que el R2 ha mejorado pues pasó a ser 0.93 o 93%, mientras que el AIC bajó a
-1,789, evidenciando que el modelo en términos generales explica mejor al tipo de cambio, pero
al interno las variables intbs e intbf (tasas interbancarias en soles y dólares) han perdido
significancia, nuevamente nos invade el problema de la potencial multicolinealidad.

199
Multicolinealidad en modelos econométricos

El signo del parámetro del riesgo país indica que si este sube, los fondos se van del país,
sube el cambio en sol por dólar, pero medido en moneda extranjera (TCVf) baja, lo cual es una
respuesta esperada.

Fig. 5.13 Regresión anual para la variable dependiente TCVf incluyendo Riesgo país

Source SS df MS Number of obs = 213


F( 5, 207) = 572.43
Model .036549067 5 .007309813 Prob > F = 0.0000
Residual .002643325 207 .00001277 R-squared = 0.9326
Adj R-squared = 0.9309
Total .039192392 212 .00018487 Root MSE = .00357

TCVf Coef. Std. Err. t P>|t| [95% Conf. Interval]

Tamn .0059603 .0008618 6.92 0.000 .0042614 .0076593


intbs .0006838 .0016239 0.42 0.674 -.0025177 .0038852
intbf -.0003779 .0002233 -1.69 0.092 -.0008182 .0000624
Libor3m -.2034508 .0613801 -3.31 0.001 -.324461 -.0824405
Rp -.0002681 .0000155 -17.34 0.000 -.0002985 -.0002376
_cons .3779431 .0083817 45.09 0.000 .3614187 .3944674

Para no perder la potencia de ajuste ganada, podemos ensayar otra forma de corregir los
modelos multicolineales, ello es transformando ligeramente las variables, para ello tomaremos
ahora la serie intbs y la pondremos en un período rezagado, es decir que estamos pensando que
el efecto de intbs se evidencia recién al siguiente día de producida su alza o baja.

Los resultados de esta regresión muestran un R2 de 0.93 (ligeramente menor al hallado


previamente) los valores de intbf e intbs (rezagado un período) no han mejorado el diseño o
efectividad del modelo.

Otras formas de ajuste es poner las variables al cuadrado, en este caso dado que intbs es
una tasa pequeña comparada con la Tamn, entonces procedemos a elevarla al cuadrado para
potenciar su efecto, sin embargo los resultados de este ensayo no producen mejoras en el
200
Multicolinealidad en modelos econométricos

modelo. El R2 sigue siendo de 0.93 y las variables intbs2 (al cuadrado) e intbf siguen siendo no
significativas.

Otra forma de modificar los resultados en presencia de multicolinealidad (o sospecha de esta)


es cambiar las variables que podrían no aportar nada al modelo, en este caso son intbf e intbs,
con una nueva variable que en este caso es el riesgo país, los resultados son los siguientes:

Fig. 5.13 Regresión anual para la variable dependiente TCVf con Riesgo país sin intbf e intbs

Source SS df MS Number of obs = 213


F( 3, 209) = 948.45
Model .036510565 3 .012170188 Prob > F = 0.0000
Residual .002681827 209 .000012832 R-squared = 0.9316
Adj R-squared = 0.9306
Total .039192392 212 .00018487 Root MSE = .00358

TCVf Coef. Std. Err. t P>|t| [95% Conf. Interval]

Tamn .0050525 .0006867 7.36 0.000 .0036987 .0064064


Libor3m -.1529431 .0537147 -2.85 0.005 -.2588352 -.0470509
Rp -.0002695 .0000149 -18.06 0.000 -.000299 -.0002401
_cons .3803906 .0071104 53.50 0.000 .3663733 .394408

Como vemos el modelo tiene ahora un ajuste de 93.16% muy similar a los casos anterior y
mucho mejor al de la Fig. 5.12, el valor del AIC es ahora -1,790 mucho menor a todas las
estimaciones previas. Este modelo parece ser el de mejor poder explicativo de todos los
ejemplos previos.

Algunos otros criterios de solución de la multicolinealidad pueden ser:

- Estimar el modelo en diferencias de su pasado inmediato:

201
Multicolinealidad en modelos econométricos

TCVfi - TCVfi, t-1= ß0 + ß1 ( Tamn1i - Tamn1i, t-1 )+ ß2 ( intbs2i - intbs2i, t-1 )+ ß3 ( interbf3i -
interbf3i, t-1 ) + ß4 ( Libor3m4i - Libor3m4i, t-1 )+ Ui

Los resultados de este modelo en nuestro ejemplo fueron bastante bajos, el R2 apenas
llegó a 0.14 o 14%, esto puede indicar que las variaciones inmediatas del tipo de
cambio no se explican por las variaciones diarias de las distintas variables explicativas.

- Otros criterios de solución implican conocer de algún modo el valor que afecta
previamente la variable, pensemos por ejemplo que sabemos que por cada punto de
PBI la pobreza se reduce en 0.25%, entonces en modelos donde intervengan el PBI
per cápita y la pobreza, es mejor partir de ese criterio a priori. Si consideramos que la
desigualdad tiene que ver con el PBI per cápita y la pobreza, entonces podemos
estimar solamente el parámetro del PBI per cápita y luego sabemos que el otro
parámetro de pobreza tendrá un efecto de 0.25.

- Otra idea es hallar variables que reemplacen tanto al PBI per cápita como a la pobreza,
pero que a la vez se relacionan con ella sin perder su independencia, podemos usar
por ejemplo la tenencia de activos físicos o biológicos en el hogar, de modo que a más
activos se tiene más ingresos y menos pobreza, ello reduce la desigualdad y la
tenencia de activos se relaciona con las variables previas pero es de por sí
independiente, ello es usar variables proxy y en otros casos se pueden usar las
denominadas variables instrumentales.

5.4 Uso de variables proxy e instrumentales


Para entender el criterio de variables proxy e instrumentales, hay que considerar primero la
posibilidad de sesgo por variable omitida, para ello consideremos que el siguiente modelo
expresa correctamente la realidad:

Yi = ß0 + ß1 X1i + ß2 X2i + Ui (i)

Donde:

X1i = Son los años de estudio medido de modo continuo

X2i = Habilidad innata del individuo

Yi = El ingreso del individuo en logaritmos

202
Multicolinealidad en modelos econométricos

Dado que la habilidad del individuo es no observable, se tiende a hacer lo siguiente:

Yi = ß0 + ß1 X1i + ei (ii)

Donde:

ei = ß2 X2i + Ui

A partir del modelo (ii) podemos estimar ß1:

ß1 ‘ = ∑ x1i yi / ∑x1i 2

Si el modelo (i) se expresa restándola de su media queda:

Yi – Ym = yi = ß1 ( X1i - X1m) + ß2 ( X2i – X2m) + ( Ui – Um ) (iii)

Reemplazando (iii) en la ecuación de ß1 ‘, la estimación queda del siguiente modo:

ß1 ‘ = ß1 + ß2 ∑ x1i x2i / ∑xi 2 + ∑ x1i ei / ∑x1i 2

Tenga en cuenta que el valor esperado del error es cero en todos los casos, entonces:

E ß1 ‘ = ß1 + ß2 ∑ x1i x2i / ∑xi 2

Con esto determinamos que la estimación ß1 ‘ es sesgada, siempre que ß2 sea diferente de
cero y que la covarianza de X1, X2 sea cero (o también su correlación), esto se denomina el
sesgo por variable omitida. Hay que considerar que el sesgo por variable omitida se produce sólo
con aquellas variables que correlacionan con X1.

En nuestro modelo el sesgo se presenta si la variable habilidad innata además de explicar al


ingreso, también se correlaciona con los años de educación, es posible esperar que ello altere la
estimación de los parámetros. Es muy posible que modelos con diversas variables explicativas
tengan este sesgo cuando una sola de ellas correlaciona con las demás y a la vez explica el
ingreso (la variable dependiente además se correlaciona con la omitida o incluso se endogenizan
otras variables explicativas), en este caso es posible además la presencia de la multicolinealidad.

Esta multicolinealidad se explica si al usar una variable de reemplazo o proxy, se generan


estas correlaciones con las otras variables explicativas además de explicar a la variable
dependiente, lo cual indica la presencia del problema de colinealidad.

203
Multicolinealidad en modelos econométricos

Es importante establecer la causalidad entre variables, ya que la presencia de variables


omitidas nos plantea el desafío de evitar las correlaciones o las causalidades entre variables
(sean explicativas o dependientes) que podrían luego generar sesgo de variable omitida.

Granger (1969) plantea que el pasado de una variable puede de algún modo influir en otra,
por ejemplo el pasado de X1 puede afectar los sucesos actuales de X2, sin embargo no es posible
que los sucesos actuales de X2 afecten a X1. No obstante hay que tener en cuenta que las
variables económicas son relacionadas no solo de manera unidireccional sino bidireccional; por
lo que plantear pruebas de causalidad, siendo la de Granger muy popular, quizás sea una
herramienta útil aunque puede generar conclusiones apresuradas respecto de la direccionalidad
de la variable.

La causalidad puede ser tratada también como efectos o impactos de una variable sobre un
grupo de tratamiento (o análisis) y ningún impacto sobre otro, lo cual es la base de los
tratamientos o modelos experimentales que actualmente se diseñan. Aquí se responden
preguntas como: causa el crédito cambios en la productividad o cuál es el efecto del crédito en la
productividad. Resolver la causalidad en estos casos puede relacionarse con algunos problemas
prácticos, por ejemplo que tan comparables con las personas que recibieron crédito y aquellas
que no, considerando que en ambos casos pudo alterarse la productividad.

Al igual que Granger (1969) la causalidad puede relacionarse con la variable omitida, por
ejemplo en el caso de los que piden créditos, pueden darse características en los individuos que
no hemos contemplado previamente. Por ejemplo elementos de análisis que solicitan crédito sólo
porque tienen problemas económicos con lo cual podemos concluir que las empresas en apuros
no mejoran su productividad al recibir créditos, conclusión que puede ser errada sólo por omitir
estas consideraciones. Esto también se conoce como sesgo de selección y esta estrechamente
vinculado al sesgo por variable omitida ya mencionado (Rubin, 1974).

Volviendo a Granger (1969) el test de causalidad que plantea supone analizar el modelo
desde la siguiente perspectiva en el tiempo, primero podemos analizar que afecta a la variable
dependiente:

Yi t = ß1 Y1i, t-1+ ß2 X1i, t-1+ U1i

Note que la variable dependiente de su pasado y de la otra variable, ahora la variable


explicativa también puede ser causada por lo que consideramos variable dependiente, la idea es
probar cuál es efectivamente la variable causal y cuál la que recibe el efecto:

X i t = ß3 Y1i, t-1+ ß4 X1i, t-1+ U2i

204
Multicolinealidad en modelos econométricos

Hay que considerar que los efectos no se producen en un solo período del pasado sino
también en diversos períodos previos por ejemplo:

Yi t = ß11 Y1i, t-1+ ß21 Y1i, t-2 +… + ßn1 Y1i, t-n + ß21 X1i, t-1+ ß22 X1i, t-2 + … + ß2n X1i, t-n + U1i

Xi t = ß13 Y1i, t-1+ ß23 Y1i, t-2 +… + ßn3 Y1i, t-n + ß41 X1i, t-1+ ß42 X1i, t-2 + … + ß4n X1i, t-n + U1i

Lo que finalmente se expresa del siguiente modo:

Yi t = ∑ ßi1 Y1i, t-1 + ∑ ß2i X1i, t-1+ U1i

X i t = ∑ ßi3 Y1i, t-1 + ∑ ß4i X1i, t-1+ U2i

Probar la causalidad de Granger (1969) requiere estimar el modelo anterior para cada
variable, en las siguientes condiciones:

Yi t = ∑ ßi1 Y1i, t-1 + U1i (a)

X i t = ∑ ßi3 Y1i, t-1 + ∑ ß4i X1i, t-1+ U2i (b)

Donde el modelo (a) nos dará una suma de residuos al cuadrado restringido (SRCr) mientras
que el modelo (b) nos dará una SRC no restringido (es decir usa todas las variables), esto lo
denominaremos SRCnr, se cumplirá entonces lo siguiente:

F = [ (SRCr – SCRnr) / R ] / [ SRCnr / (N – K)

Donde:

R = equivale al número de rezagos de la variable Xij

K= Es el número de parámetros estimado en el modelo (b)

N= Es el número de datos empleado

Las estimaciones están disponibles en los programas estadísticos, se requiere


adicionalmente conocer sobre ecuaciones simultáneas de series de tiempo, aquí haremos un
ejemplo a priori considerando unos 5 rezagos de la variables intbf e intbs, tomando el modelo que
hemos usado en la sección anterior. Note que los modelos (a) y (b) se estiman sin constante.

La idea es conocer si intbf (Xi) causa a intbs (Yi), de modo que podamos eliminar a una de
ellas y usar la otra en el modelo evitando así la multicolinealidad o al menos mejorando las

205
Multicolinealidad en modelos econométricos

estimaciones realizadas; para esta previa causalidad consideramos que la tasas locales de
interés responden a las tasas internacionales de interés:

El modelo (a) nos arroja un SRCr = 3.43398847

El modelo (b) nos arroja un SRCnr = 3.43152284

R= 5

K = 10

N = 208 datos para el modelo empleado en la sección anterior, 5 rezagos hacen perder datos.

F = [ 3.43398847 - 3.43152284 ] / 5 ] / [ 3.43152284 / 198 ]

F = 0.028

Este valor es bastante bajo para probar que es significativo, el valor de la tabla F es 2.26,
dado que no supera el valor crítico entonces se indica que la variable intbf no causa a intbs o
que la inclusión de la variable intbf en rezagos efectivamente afectan la regresión planteada.

Retomando el modelo (i) donde los años de estudio y la habilidad afectan el ingreso del
individuo y considerando que la habilidad no observable supone estimar el modelo (ii), entonces
el uso de una variable instrumental, por ejemplo Zi, requiere cumplir necesariamente los
siguientes criterios:

Cov (Zi, ei ) = 0

Cov ( Zi, X1i) diferente de 0

En ese caso Zi es una variable instrumental a ser usada en lugar de X1i siendo la variable
instrumental de X1i, donde ei es el nivel de error.

Hay que notar que no debe darse covarianza positiva entre Zi y el error del modelo (ii), así
mismo debe darse una correlación diferente de cero entre Zi y X1i (que se transforma en una
variable endógena, ya que es influida o causada por Zi.

El problema de usar variables instrumentales, es que necesariamente requiere pensar en una


variable independiente de X2i para estimar el modelo (i). En buena cuenta, si consideramos que
X1i son los años de educación, necesitamos una variable que se relacione con ésta, pero que sea
independiente de la habilidad (X2i ).

206
Multicolinealidad en modelos econométricos

Consideremos las siguientes opciones:

- La educación de los padres del individuo, puede estar correlacionada con la habilidad
(X2i ) debido a que el individuo gana habilidades de acuerdo a lo que saben los padres.

- El coeficiente intelectual del individuo, puede ser una variable interesante, pero no
necesariamente se relaciona con los años de educación formal del individuo, además
está el hecho de la posibilidad de medición y del sesgo de esta medición (sin reparar lo
costoso que debe ser) que tiende a ser subjetiva o emplear diversos test psicológicos.
También hay que notar que el coeficiente intelectual puede predisponer a ganar más
habilidades innatas, de modo que se da la correlación con X2i, lo que invalidad el uso.

- La zona donde nació el individuo, esto puede no estar correlacionado con la habilidad
pero tampoco se correlaciona con los años de estudio, salvo que podamos señalar que
si la zona es más alta entonces más difícil ir a la escuela, con lo cual la variable podría
ser los metros sobre el nivel del mar donde vive el individuo y eso se correlaciona con
años de estudio y puede ser independiente de la habilidad.

- Otra variable puede ser la lejanía al centro de estudios, así más lejos supone menos
años de educación y esa lejanía no tiene nada que ver con la habilidad, de modo que
puede ser una buena variable instrumental.

- Otra variable puede ser la edad en que se es padre, si es una edad temprana entonces
menos años de educación, si es una edad mayor entonces hay más años de educación
sin que ello se vincule con la habilidad.

- Los ingresos de los padres, puede implicar una buena relación con años de estudios,
pero también se relaciona con la habilidad (más ingresos es más probable que se
adquieran más habilidades)

La estimación de la variable instrumental se puede realizar del siguiente modo, primero la


relación entre la variable X1i con la variable Zi:

X1i’ = Ω0 + Ω1 Zi + ej

Con la regresión previa hallamos el valor estimado de X1i‘ en buena cuenta es la estimación
de los años de educación a partir de la variable instrumental. Para indicar que la variable
instrumental Zi es un buen predictor de la variable X1i, se debe tener una prueba F relativamente
alta, Staiger y Stock (1997) indican que debe ser mayor a 10 por lo menos.

Una vez realizada la estimación X1i’, se halla la regresión siguiente:


207
Multicolinealidad en modelos econométricos

Yi = π0 + π1 X1i’ + ei

Donde:

π1 = Es el estimador de variable instrumental (VI)

Para demostrar las propiedades del estimador del parámetro de la VI, tomemos la estimación
en promedios:

Yim = π0 + π1 X1i m’

Si hallamos las desviaciones tenemos:

Yi - Yim = π1 ( X1i’ - X1i m’ ) + ei

yi = π1 x1i’ + ei

Donde:

π1 = ∑ x1i’ yi / ∑ xi1 2

Note que x1i’ ha sido estimado con zi, de modo que el parámetro π1 de la VI es:

π1 = ∑ zi yi / ∑ zi x1i

Si consideramos la estructura del modelo (i) que deseamos estimar, entonces reemplazamos
en la estimación previa, todo en desviaciones respecto de la media:

yi = π1 x1i + π2 x2i + Ui

π1 = ∑ zi [π1 x1i + π2 x2i + Ui ] / ∑ zi x1i

π1 = π1 ∑ zi x1i + ∑ zi [ π2 x2i + Ui ] / ∑ zi x1i

Ahora recuerde que:

ei = ß2 X2i + Ui, que equivale a:

ei = π2 X2i + Ui

Donde los parámetros πi equivalen a ßi, puesto que estamos haciendo estimaciones de los
modelos, ante la no observación de la variable habilidad o también denominada X2i:

208
Multicolinealidad en modelos econométricos

π1 = π1 + ∑ zi ei / ∑ zi x1i

Lo que finalmente se expresa como:

π1 = π1 + Cov ( Zi ei ) / Cov ( Zi x1i ) (iv)

De modo que para hallar el estimador correcto de la variable instrumental π1, se debe cumplir
que la covarianza (Cov) entre la variable Zi y el error del modelo (ii) debe ser cero y la covarianza
entre Zi y la variable X1i, debe ser diferente de cero, de modo que esas condiciones hacen
robusta la estimación mediante la variable instrumental.

Podemos transformar la ecuación (iv) en lo siguiente:

π1 = π1 + e Correlación ( Zi, ei ) / x Correlación ( Zi, x1i )

Naturalmente la correlación entre la variable instrumental Zi y el error es cero (sea en valores


absolutos o en desviaciones de la media), pero de no ser así, la estimación de π1 es bastante
grande comparado con los resultados que se obtengan, por el método simple de mínimos
cuadrados expresados en el modelo (ii), ya que el estimador de VI se eleva conforme sube la
correlación. Esto indica que es posible que los estimadores de VI sean débiles, de modo que las
estimaciones resulten sobre dimensionadas o no robustas.

Finalmente hay que mencionar que hallar variables instrumentales es un proceso complejo,
en la medida que resolver las cuestiones de correlación entre esta variable, el error y la variable a
reemplazar son aspectos difícil de hallar en simultáneo, de modo que es probable que la VI sea
algo débil. En ese caso, debemos pensar en usar otros criterios para resolver el hecho de
variables omitidas o sesgos de selección, este proceso inclusive se hace complicado a la hora de
reemplazar variables en los modelos con multicolinealidad.

209
Multicolinealidad en modelos econométricos

Conclusiones del capítulo

En este capítulo hemos explicado la presencia de multicolinealidad en los modelos


econométricos, esto se pude resumir como la relación exacta o inexacta entre dos variables
explicativas, si la relación es exacta no podrían obtenerse los parámetros del modelo
econométrico lo cual invalida toda estimación.

Sin embargo, es posible estimar los parámetros en modelos con variables multicolineales
inexactas, estos parámetros no obstante son sesgados, es decir no son estimaciones correctas.
Las fallas que genera la multicolinealidad tienen que ver principalmente con el incremento de
la varianza de los parámetros estimados, esta alza de la varianza genera que la prueba de
significancia sea menor de lo esperado, con lo cual los valores tenderían a ser no significativos.

La bondad de ajuste del modelo con multicolinealidad puede no verse mayormente afectada,
de modo que es posible hallar parámetros no significativos y bondad de ajuste alto (R2 altos y F
significativos). Otra forma de darnos cuenta de la multicolinealidad, tiene que ver con hallar el
valor del Factor inflador de varianza (FIV) o su inverso que es la Tolerancia, que si tiende a cero
indica la presencia de multicolinealidad.

Formas indirectas de ver si hay multicolinealidad tiene que ver con la especificación del
modelo, así modelos con un criterio de información de Akaike (AIC) decreciente en la medida que
se añaden variables, indica que la nueva variable es relevante, mientras que mayores valores de
AIC indican que la variable añadida o las que están en el modelo, alguna de ellas puede ser
colineal o cuando menos redundante.

Las correcciones a los modelos de multicolinealidad pueden ser variadas, desde la poco
recomendable opción de eliminar variables, hasta posibilidades más concretas como aumentar el
tamaño de muestra, aumentar el número de variables, reemplazar alguna variable por otra,
transformar variables (o estimarlas previamente) e inclusive colocar variables en su pasado
inmediato o rezagadas.

Dado que es posible reemplazar variables por otras de igual impacto teórico, esto se puede
lograr mediante variables aproximadas o proxy, así como el uso de variables instrumentales. Este
último aspecto de reemplazar variables requiere necesariamente que la correlación entre la
variable reemplazante y el nivel de error de la estimación sea cero, además que exista relación
diferente de cero entre la variable instrumental y la reemplazada.

210
Multicolinealidad en modelos econométricos

Las variables instrumentales son complejas de hallar y deben cumplir las condiciones previas,
además debe verificarse también que pueda existir causalidad entre esta y la variable a
reemplazar.

211
Multicolinealidad en modelos econométricos

Preguntas de opinión

1. Si la demanda de dinero influye en la tasa de inflación, así como la demanda


interna, ¿Es este modelo un ejemplo donde usar variable instrumental?, ¿Por
qué?
2. ¿Qué variable instrumental puede usar para la demanda de dinero que cumpla
los criterios señalados en el tema?
3. ¿Qué variable proxy se usa normalmente en lugar de la demanda de dinero, será
colineal con la demanda interna?
4. ¿Qué diferencias existen entre el AIC y el BIC?
5. ¿Por qué un menor AIC supone que el modelo gana potencia?

212
Multicolinealidad en modelos econométricos

Caso de aplicación
Lectura previa

Tomando textualmente a Pasco Font et al (1999) se señala que:

“La demanda de los servicios de telefonía (en este caso las llamadas locales o servicio local y
de larga distancia hacia otras ciudades del país y hacia ciudades localizadas en otros países o
servicios de larga nacional e internacional) tiene algunas características no compartidas con la
demanda de la mayoría de bienes o servicios, lo que usualmente dificulta su estimación. En
particular, Taylor (1993) y Levy (1996), sugieren la existencia de cuatro aspectos: En primer
lugar, la demanda por el servicio de telefonía está caracterizada por la existencia de una
externalidad al nivel de la red de usuarios. El acceso a la red no representa utilidad para un hogar
si los miembros de su grupo social o las empresas a las que compra no están suscritos a la red.
Es decir, el acceso a los servicios de telefonía es útil en tanto otros individuos o empresas
también acceden a la red. En este sentido, cada vez que un hogar decide ser usuario de los
servicios genera una externalidad en los restantes hogares y empresas, por lo que el beneficio de
acceder a la red aumenta con el número de suscriptores.

En segundo lugar, existe una externalidad al nivel de las llamadas. Cada vez que un usuario
realiza una llamada, presumiblemente genera una externalidad en el receptor (los miembros de la
red estarían dispuestos a pagar una cantidad de dinero para tener la opción de contestar las
llamadas). En esta perspectiva, la utilidad de los usuarios depende también del consumo de los
otros miembros de la red.

En tercer lugar, la demanda de servicios de telefonía tiene un componente estocástico


importante. El patrón de llamadas de los individuos suele cambiar de manera importante ante la
ocurrencia de eventos no anticipados como son, por ejemplo, la enfermedad de un pariente o
amigo, el encuentro casual con otras personas, el acceso a nueva información, o la toma de una
decisión importante que modifique las necesidades de coordinación con otras personas.

Finalmente, los tipos de llamada que efectúan los miembros de un hogar son cualitativamente
distintos. Por ejemplo, existen diferencias entre una llamada a un familiar o amigo y una llamada
para averiguar la dirección de un establecimiento o para comprar una hamburguesa por teléfono.
Es decir, existe heterogeneidad en los usos del servicio de telefonía por lo que es necesario
hacer supuestos en la agregación de las llamadas evitando, así, problemas con la definición de la
demanda.

Las variables utilizadas en el estudio son el total de pasos del servicio local de telefonía y el
total de minutos en el servicio de larga distancia consumidos mensualmente.
213
Multicolinealidad en modelos econométricos

Este tipo de información a nivel del hogar es adecuado para los objetivos del estudio, de
relacionar el acceso a la red de telefonía y el consumo de los servicios con las tarifas, el ingreso
familiar y, especialmente, con las características socioeconómicas de los hogares, Para capturar
esta heterogeneidad de las familias, en el estudio se asume la existencia de varios grupos de
consumo distintos los que se representan por los niveles socio económicos.

En el estudio se asume una secuencia en las decisiones de los hogares. En un primer


momento, los hogares deciden suscribirse al servicio. Esta etapa del modelo es importante
porque permite relacionar la suscripción al servicio con el costo de instalación (en buena cuenta
si el hogar tiene mas beneficios que costos al optar el servicio en términos económicos o si
acceder a telefonía tiene excedentes del consumidor mayores a los costos) y las características
socioeconómicas de las familias. Si bien no se observa el neto de tener el servicio, si se observa
el acceso al servicio o el no acceso al mismo.

Posteriormente, en un segundo momento, una vez que se ha accedido al servicio, los


hogares deciden el consumo de los servicios de telefonía local, de larga distancia nacional y de
larga distancia internacional.

Tomado textualmente de Pasco Font et al (1999)

Preguntas

1. ¿Qué variables tomaría en cuenta para estimar la demanda de acceso al servicio


de telefonía?
2. ¿Qué variables tomaría en cuenta para estimar la demanda de uso del servicio de
telefonía, difieren del caso anterior?
3. ¿Es posible encontrar multicolinealidad en sus modelos previos?, ¿cómo corrige
esta falla?

214
Multicolinealidad en modelos econométricos

Ejercicios

Si se maximiza una función de utilidad: U = X1 α1 X2 α2

Sujeto a la restricción presupuestaria de I = P1 X1 + P2 X2, se obtiene una función de demanda


igual a:

Xi = α i I / P i

Donde X es la cantidad demandada de bienes i. I es el ingreso del consumidor, P es el precio.

Entonces, con los siguientes datos:

T1 T2 T3 T4 T5 T6 T7 T8 T9 T10

P1 1 1.5 1.7 1.6 2 2.1 1.8 1.9 2 2.2

P2 0.5 0.4 0.3 0.3 0.2 0.25 0.28 0.3 0.27 0.24

X1 20 18 17 18 15 14 15 15 13 10

X2 10 11 12 14 16 10 10 9 14 16

Diseñe modelos econométricos, que permitan:

• Para cada bien, probar que la elasticidad precio, ingreso y cruzada son unitarias,
considerando que la elasticidad precio tiene signo negativo.
• Hallar α1 y α2
• Pruebe que entre Pi y el Ingreso existe colinealidad, que recomienda en este caso

215
Multicolinealidad en modelos econométricos

Referencias bibliográficas
Acemoglu, Daron y Johnson, Simon y James Robinson (2001) The colonial origins of comparative
development: an empirical investigation. American Economic Review, 91(5), p. 1369-1401.

Angrist, Joshua (1990) Lifetime Earnings and the Vietnam Era Draft Lottery: Evidence from Social
Security Administrative Records. American Economic Review, American Economic Association,
vol. 80(3), p. 313-36.

Angrist, Joshua y Alan Krueger (1991) Does Compulsory School Attendance Affect Schooling and
Earnings?. The Quarterly Journal of Economics, MIT Press, vol. 106(4), p. 979-1014.

Angrist, Joshua y Jorn-Steffen Pischke (2009) Mostly Harmless Econometrics. Princeton


University Press, Capítulo 4.

Granger, C. (1969) Investigating causal relations by Econometrics models and cross spectral
Methods. Econometrica. Julio 1969. USA.

Greene, W. (2003) Econometric Analysis. Fifth Edition. Pearson Ed.

Gujarati, D. (2004) Econometría. 4ta Edic. Mc Graw Hill.

Jiménez, F. (2012) Elementos de teoría y política macroeconómica para una economía abierta.
Fondo Editorial PUCP.

Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill

Levy, A. (1996). Semi-Parametric Estimation of Telecommunications Demand. Ph.D. Dissertation,


University of California at Berkeley.

Murray, Michael (2006) Avoiding invalid instruments and coping with weak instruments. Journal of
Economic Perspectives, 20(4), p. 111-132.

Novales, A. (1993) Econometría. Mc Graw Hill.

Pasco Font, A. Gallardo, J. Fry, V. (1999) La demanda residencial de servicios de telefonía


básica en el Perú. OSIPTEL.

216
Multicolinealidad en modelos econométricos

Rodríguez, F. (2006) Análisis de la demanda residencial de servicios de telefonía fija en Ecuador.


Tesis. Escuela superior Politécnica del Litoral. Espol. Ecuador.

Rubin, Donald (1974) Estimating causal effects of treatments in randomized and non-randomized
studies. Journal of Educational Psychology, 66, p. 688-701.

Taylor, L.D y D. Kridel (1990). Residential Demand for Acces to the Telephone Network. En:
Telecommunication Demand Modelling: An Integrated View. A. De Fontenay, H. Shugar y D.
Sibley, Editores. North-Holland.

Wooldridge, J. (2009) Introductory Econometrics. A modern approach. Third Edition. Cengage


Learning.

Wooldridge, Jeffrey (2010) Econometric Analysis of cross section and panel data. The MIT Press,
Capítulos 5 y 21.

217
CAPÍTULO VI

Heterocedasticidad en
Modelos econométricos

218
Heterocedasticidad en Modelos econométricos

VI. HETEROCEDASTICIDAD EN MODELOS ECONOMÉTRICOS

Introducción al tema

En los estudios de mercado es posible que la muestra de individuos u objetos de análisis,


sean diferenciadas o parecidas, por ejemplo tenemos en una muestra estratos diversos: por
edades, por género, por estudios, por zona de residencia y diversas otras variables que pueden
hacer que los individuos analizados sean o muy parecidos o bastante diferentes.

En los estudios de corte social normalmente análisis de corte transversal donde medimos
variables sociales, también es muy probable que haya grupos parecidos y otros no, o que haya
individuos parecidos y otros no, por ejemplo el acceso a salud, la tenencia de seguro médico, el
grado de alfabetización, los ingresos, el tamaño familiar, los niveles educativos, los activos que
poseen y otras variables; que generan diferencias en el tratamiento de la información y los
resultados respectivos.

Cuando se tiene este tipo de situaciones en el análisis y procesamiento de datos, es probable


que la varianza o desviación cuadrática entre los elementos de la muestra sea alta y no
constante, es decir si los individuos se parecen la varianza será constante, pero a medida que lo
individuos se vayan diferenciando, la varianza deja de ser constante, se va asociando a las
diferencias entre los objetos de análisis y va subiendo conforme más heterogénea sea la
muestra, en este caso estamos en presencia de heterocedasticidad.

La presencia de heterocedasticidad complica las estimaciones realizadas, crea sesgos en los


parámetros y sus intervalos de confianza, por ello requiere ser corregida, los métodos de
corrección son diversos y todos ellos apuntan a tratar de ajustar los datos eliminando el efecto de
la varianza, de modo que los intervalos de estimación se reduzcan y puede tenerse resultados
confiables en las estimaciones.
219
Heterocedasticidad en Modelos econométricos

6.1 Modelos seriales y diseño de modelos transversales


La presencia de varianza no constante o heterocedasticidad puede darse tanto en modelos
de series de tiempo como en modelos de corte transversal. En el caso de las series de tiempo,
normalmente estos modelos tienen la siguiente estructura:

Yit = ß0 + ß1 Xit + Uit

Donde t es el período de ocurrencia del evento y t puede ser meses, días, años u otra
estructura temporal, en estos modelos normalmente se puede esperar varianzas estables,
pensemos en el ejemplo siguiente:

Fig. 6.1 Ingresos y ahorro hipotéticos para países A y B

Consideremos la información de la figura anterior, en donde postulamos que el ingreso influye


en el ahorro, ahora señalemos que el ingreso y el ahorro están en miles de soles para los años t
a t+19 (es decir 20 años de información), es notorio que un país tiene ingresos crecientes (país
A) y el otro tiene ingresos bastante variables (país B). En la figura consideramos que en ambos
países el ahorro es el mismo, algo sólo para fines de ejemplo, pero en la práctica muy poco
probable de ocurrir.

220
Heterocedasticidad en Modelos econométricos

Ahora analicemos los indicadores de varianza para cada país, en el modelo hipotético siguiente:

Ahorro it = ß0 + ß1 Ingreso it + Uit

Realizando la estimación usando los 20 datos, obtenemos lo siguiente para la varianza del
modelo general, igual a SCR / N-K, también obtenemos las varianzas para el uso de dos
muestras con sólo 10 datos elegidos de modo aleatorio:

Tabla 6.1 Varianza del modelo Ahorro Ingreso hipotético

País General Muestra 1 Muestra 2


A! 1.7774! 1.4082! 2.1479!
B! 1.8707! 1.5702! 2.2087!

Como pueden notar en la tabla previa, las varianzas en todos los casos son cambiantes, esto
indica que las estimaciones realizadas al interno de cada muestra no logran aproximarse a la
población, en buena cuenta hay mucha distancia entre el ahorro existente y sus estimaciones, la
figura siguiente muestra el error obtenido general para cada país A o B:

Fig. 6.2 Error obtenido en el modelo Ingreso Ahorro por país A y B

221
Heterocedasticidad en Modelos econométricos

Como se puede ver en la figura previa, el nivel de error no tiene un valor esperado de cero o
una suma igual a cero, ello porque es cambiante y bastante oscilante, al no cumplir el criterio de
media cero, entonces es natural que la varianza no sea constante. Ahora ajustemos la serie de
tiempo a la figura siguiente:

Fig. 6.3 Modelo Ahorro modificado e ingresos datos hipotéticos países A y B

Podemos notar que el ingreso A y el ahorro se comportan de manera similar, mientras que el
ingreso B sigue siendo bastante cambiante aunque con cierta relación con A, los resultados del
modelo econométrico modificado presentan una varianza de 0.3816 para el país A y de 2.80 para
el país B, confirmando que la varianza existente es mayor en el caso de los cambiantes datos de
ingresos del país B.

Los niveles de error al cuadrado del modelo con el ahorro modificado (mostrados en la fig.
siguiente) indican claramente que el modelo no es aplicable para el país B debido a su naturaleza
de alta varianza y es de mayor confiabilidad en el caso del país A.

222
Heterocedasticidad en Modelos econométricos

Fig. 6.4 Error cuadrático del Modelo Ahorro modificado e ingresos países A y B

Podemos también considerar si el error está asociado al ahorro o al ingreso, en ambos casos
tenemos:

Fig. 6.5 Error cuadrático versus Ahorro (a) y versus Ingreso B (b)

(a) (b)

223
Heterocedasticidad en Modelos econométricos

La fig. previa en el caso (a) indica que no hay mucha relación entre la varianza (error
cuadrático) y el ahorro modificado, si retrocedemos podemos observar cierta relación entre la
variable ingreso y ahorro, de modo que la varianza no se asocia con la variable dependiente.

Observando la figura (b) notamos que existe cierto comportamiento correlacionado


(positivamente) entre la varianza y el nivel de ingreso del país B, en este caso la variabilidad de
las estimaciones del modelo suceden, por cuanto la variable explicativa es muy volátil o
cambiante.

Es posible entonces, en los modelos de series de tiempo, la presencia de problemas de


varianza no constante o heterocedasticidad debido a que la variable explicativa o también la
dependiente, presentan un alto grado de variación de manera individual y sus estimaciones son
bastante alejadas del valor real o histórico.

En el caso de los modelos de corte transversal su estructura es la siguiente:

Yij = ß0 + ß1 Xij + Uij

Aquí se pueden tener “i” observaciones para cada grupo “j” de análisis, en buena cuenta “j”
representa los estratos, segmentos o sub grupos dentro de la muestra empleada, mientras que “i”
son todos los elementos que existen dentro de ese grupo.

Consideremos por ejemplo la tabla siguiente, donde sólo se entrevistan mujeres y se quiere
relacionar la cantidad de kilos de fruta consumida por semana con el peso en kilos de la
entrevistada, la idea es que si la entrevistada tiene más peso, entonces su tendencia es a
consumir más frutas, con fines de ajustar su peso.

Las mujeres entrevistadas tienen entre 20 a 25 años de edad. El modelo para los datos de la
tabla sería el siguiente (id es el número de entrevistado):

Fruta ij = ß0 + ß1 Peso ij + Uij (i)

224
Heterocedasticidad en Modelos econométricos

Tabla 6.2 Datos para el modelo peso fruta Mujeres

id Fruta peso
1 2 45
2 1 65
3 3 76
4 1 55
5 1 52
6 4 75
7 3 85
8 1 48
9 2 49
10 3 61

Corriendo el modelo previo la varianza del modelo es: 0.7545.

Ahora si a la tabla anterior, le añadimos otro grupo de datos que serían los hombres entre 20
a 25 años, tenemos la tabla siguiente:

Tabla 6.3 Datos para el modelo peso fruta Mujeres y Hombres

Mujeres Hombres
id Fruta peso id fruta peso
1 2 45 11 2 65
2 1 65 12 1 62
3 3 76 13 1 78
4 1 55 14 1 84
5 1 52 15 3 62
6 4 75 16 1 71
7 3 85 17 2 70
8 1 48 18 1 66
9 2 49 19 1 60
10 3 61 20 2 59

Usando los datos de la tabla anterior, la varianza del modelo previo resulta en 0.89899, lo
cual es mayor al obtenido sólo con mujeres, evidenciando que conforme se van añadiendo
225
Heterocedasticidad en Modelos econométricos

grupos, se va elevando el nivel de varianza, esto sucede siempre que los grupos añadidos sean
diferentes al estrato previo.

Hay que notar que el modelo incluyendo hombres, debe tener alguna forma de discriminar la
presencia de hombres y mujeres, en este caso es posible añadir la siguiente variable dicotómica
(D):

D= o si es mujer

D = 1 si es hombre

Con ello el modelo planteado queda del siguiente modo, el error ahora es eij:

Fruta ij = ß0 + ß1 Peso ij + ß2 Dj + eij (ii)

Así si el entrevistado es mujer, entonces el modelo sólo estima el parámetro para ese grupo
de datos, ya que ß2 Dj sería igual a cero.

Si el entrevistado es hombre (D=1), entonces la estimación quedaría del siguiente modo:

Fruta ij = ß0 + ß1 Peso ij+ ß2 + Uij

En este caso, la estimación tienen un valor adicional equivalente a ß2, con lo cual se corrige la
estimación inicial que no considera la variable dicotómica.

Hay que notar que la presencia de la variable Dj reduce el nivel de error presente en el
modelo, en el modelo inicial el error era equivalente a:

Uij = eij + Dj

En el nuevo modelo el error es sólo eij, con lo cual la varianza se reduce. Estimando el
modelo (i) la varianza finalmente resultó en 0.77896, mucho menor al modelo general que incluye
a los hombres y ligeramente mayor al modelo (i) que sólo incluía mujeres.

Si bien se redujo el nivel de varianza del modelo final (ii) respecto al (i), de todos modos se
presenta mayor varianza conforme hay más grupos heterogéneos en la muestra, grafiquemos el
nivel de error cuadrático de la estimación inicial y final para darnos cuenta de los efectos:

226
Heterocedasticidad en Modelos econométricos

Fig. 6.6 Error cuadrático para el modelo Peso Fruta con mujeres y hombres

Como se ve en la fig. previa, el error cuadrático del modelo sólo con mujeres (error1cuad) es
mucho menor al que se tiene cuando se estima el modelo con los datos del grupo de hombres e
incluyendo la variable dicotómica, que se muestra como error2cuad.

Hay que notar además que para los primeros 10 datos que son mujeres, la varianza del
modelo incluyendo hombres se parece mucho, ello porque la variable dicotómica es cero. En la
segunda parte de datos se incluyen los hombres, aquí la varianza del grupo de mujeres es
constante y la de los hombres eleva notoriamente el comportamiento previo con una mayor
oscilación, evidenciando que el grupo es mucho más heterogéneo que las mujeres.

En la medida que se insertan nuevos grupos diferentes al anterior, la varianza irá subiendo en
las estimaciones econométricas que se realicen, sin embargo incrementar la cantidad de datos
en cada grupo puede reducir el nivel de varianza (esto supone que el tamaño total de la muestra
se amplía). El efecto de una mayor cantidad de entrevistados por ejemplo, radica en que la media
irá convergiendo a la poblacional y con ello se irá reduciendo el nivel de error existente; además
cada nuevo entrevistado adicional tenderá a parecerse al anterior, salvo que las unidades
muestrales o individuos sean muy diferentes aún dentro del mismo sub grupo muestral, con lo
cual la muestra debería ser mucho más grande aún.

227
Heterocedasticidad en Modelos econométricos

Para fines de diseño de un modelo transversal que pueda ser de menor varianza y tenga
estimaciones fiables, es importante que la población sea correctamente representada en la
muestra, veamos el siguiente ejemplo:

Tabla 6.4 Datos para diseño muestral

Datos poblacionales Valor


Hombres 45%
Mujeres 55%
Rural 25%
Urbano 75%
Distrito A 10%
Distrito B 65%
Distrito C 25%
20 a 30 años 22%
31 a 40 años 26%
41 a 50 años 32%
51 a más 20%
Total (N) 1,300,000

Pensemos que la población de interés son 1.3 millones de individuos, todos ellos son lectores
de diarios (periódicos, matutinos o noticieros impresos), y se ha creído conveniente asumir que
compran diarios desde los 20 años, queremos saber de esta población, primero su estructura. La
tabla anterior resume las características de interés en el estudio a realizar, como son el género,
la zona de residencia, la geografía de residencia o densidad urbana rural y la edad.

Si queremos por ejemplo, estimar la demanda de diarios de tipo económico, podríamos


realizar una encuesta preguntando las motivaciones e intenciones en torno a leer un diario de
noticias o comentarios económicos, para dicha encuesta necesitamos una muestra, a
continuación la fórmula para este cálculo:

n = N Z2 PQ / [ ( N – 1) e 2 + Z2 PQ ]

Donde:

N: tamaño poblacional (sólo la población de interés)

228
Heterocedasticidad en Modelos econométricos

Z: Nivel de confianza estandarizado en una distribución normal, se asume 95% de confianza que
da un valor estándar de 1.96.

P: Población que efectivamente comprará o estará interesada en el producto sujeto del estudio o
simplemente se asume 0.5 para maximizar la muestra, donde 0.5 indica que el 50% de la
población estará interesada en lo que queremos vender o analizar.

Q: Es el complementario o inverso de P, es decir es 1-P

e: Nivel de error del estudio o diseño muestral, de cada 100 respuestas cuántas estarán fuera de
la media.

n: tamaño de la muestra a estimar.

En el ejemplo anterior los resultados del tamaño muestral se muestran a continuación:

Tabla 6.5 Tamaño muestral para diversos errores

Población (N) Error Muestra


N homogénea 7% 196
N típico 5% 384
N Heterogénea 2% 2397

Podemos observar que en el escenario típico de aceptar un 5% de error, la muestra sale 384
entrevistados, sin embargo si consideramos que el público es muy parecido u homogéneo,
podemos elevar el nivel de error a 7% con lo cual la muestra se reduce a 196 entrevistados.

Ahora si consideramos que e público es muy heterogéneo (grupos muy diferentes entre sí)
entonces es mejor reducir el nivel de error, en el ejemplo hemos pasado a un error de 2%, con lo
cual la muestra sale 2,397 entrevistados, como podemos concluir en esta parte, si se prevé una
alta varianza, es mejor incrementar el tamaño muestral.

Considere que trabajaremos con 384 entrevistas, reducir la varianza también implica conocer
la estructura de la muestra, la cual debe referirse exactamente a la población:

229
Heterocedasticidad en Modelos econométricos

Tabla 6.6. Estructura de la muestra estimada

Género Hombre Mujer Total


Total 173 211 384
Urbano 43 53 96
Rural 130 158 288
Distrito A 17 21 38
Distrito B 112 137 250
Distrito C 43 53 96
20 a 30 años 38 46 84
31 a 40 años 45 55 100
41 a 50 años 55 68 123
51 a más 35 42 77

Como se puede ver en la tabla previa, la muestra equivale a 384 personas, que se distribuyen
por género, por densidad urbana rural, por distrito, por edades; esta distribución permite reducir
los errores de concentrarnos en grupos poblacionales con la cual podemos generar varianzas de
mayor distorsión.

Un paso final es la selección aleatoria de hombres o mujeres, según las demás


características que se indican en la tabla previa, la aleatoriedad es importante por cuanto reduce
el error por sesgo de selección que ya vimos en el tema anterior.

6.2 Razones, fallas en la estimación y detección de heterocedasticidad


Como hemos estado explorando en la sección anterior, las razones para la presencia de
heterocedasticidad pueden ser diversas, entre ellas tenemos:

- Un mal diseño para la determinación de la población objetivo, que termina incluyendo


grupos que no son de interés y con ello se eleva el grado de varianza. Por ejemplo
consideremos que estamos investigando la demanda de fármacos para la gastritis, en
ese caso incluimos los pacientes reportados en los diversos establecimientos de la
zona, que tengan ese mal. Si incluimos pacientes que no presentan ese cuadro clínico,
entonces es muy probable que la población ya introduzca heterogeneidad en el diseño
elevando la varianza respectiva.

230
Heterocedasticidad en Modelos econométricos

- Es probable que la toma de muestras en tiempos diferentes cambie la varianza en cada


período, por ejemplo realizamos un estudio para explicar las calificaciones sobre
habilidades en el idioma inglés al inicio de un curso cualquiera, aún a pesar de que
todos tengan la habilidad base, es probable que las calificaciones mejoren al tomar una
muestra de análisis al finalizar el curso, ello hará que la varianza baje, ese cambio ya
genera heterocedasticidad. Yendo a ejemplos empresariales, es probable que los
paneles de consumidores vayan cambiando sus respuestas período a período, aún si
es el mismo grupo o muestra de análisis, ello porque los precios de los productos
pueden variar, o porque efectos externos pueden afectar el consumo de bienes o
servicios.

- Efectos no manejables o externos como señalamos antes, pueden generar cambios en


la varianza. Pensemos que el ingreso de la población en general mejora, con ello es
muy probable que la demanda se altere para algunos bienes, piensen en el concepto
de elasticidad ingreso o efectos renta, aún a pesar de comportamientos estables de la
elasticidad, es posible que las proporciones de gasto o demanda de un bien cambie y
ello afecta la varianza de las estimaciones. Hay casos donde los estudios son sociales,
por ejemplo la pobreza antes de un programa de ayuda social puede ser muy
heterogénea (es decir pobreza con variados indicadores de medición por hogar), luego
del programa esta puede haberse reducido, con lo cual la varianza es menor. En
ambos casos hablamos de estudios donde hay muestras en diversos períodos de
tiempo.

- La toma de datos influye también en la presencia de varianza no constante, por


ejemplo pensemos que el estudio requiere la elección de un producto por parte de un
niño de 8 a 12 años (por ejemplo 0 si no elige el producto entre varios ofrecidos y 1 si
lo elige) , pero al no encontrar este público objetivo entonces se procede a tomar la
elección de personas entre 15 a 16 años con ello hemos introducido un sesgo de
selección y es probable que la varianza aumente, ya que tenemos dos grupos de
análisis con características bastante diferenciadas.

- Series de tiempo con estacionalidades o con datos atípicos pueden ser causa de
varianza no constante o heterocedasticidad, por ejemplo piense un PBI que oscila entre
4 a 6% anual en los últimos 40 años y de pronto tiene una caída de -6%, con este dato
la varianza cambiará, la caída puede deberse a múltiples factores no manejables por el
investigador, en este caso es mejor retirar este dato, cuando se espera además que las
condiciones económicas en general hagan que el PBI vuelva a su nivel original. Ahora
si las caídas se mantienen, entonces hay que considerarlo, pues la varianza aún
subiendo, refleja ya un comportamiento relevante en la economía, habrá que corregir
231
Heterocedasticidad en Modelos econométricos

de algún modo la estimación. Este ejemplo también darse por ejemplo si queremos
explicar la captura de anchoveta y resulta que por un clima no previsto en otras partes
del mundo, la presencia del cardumen es alta y eleva la captura fuertemente, este dato
es atípico y es mejor retirarlo del modelo, considerando que la captura, pasado el
efecto no manejable, volverá a su nivel.

- Ya antes señalamos que el sesgo de selección es una fuente de varianza no constante,


ahora pensemos que el sesgo de selección se presenta al poner en el modelo variables
no relevantes o no considerar algunas variables, en el caso de la omisión (sesgo de
variable omitida tratado en el tema anterior) que equivale al sesgo de selección, el
error del modelo crece rápidamente, con ello su valor cuadrático o sea la varianza se
eleva y crea la heterocedasticidad.

- Otras fuentes de heterocedasticidad se relacionan con la forma como se estructuran los


datos, hasta ahora suponemos que las variables tienden distribuciones de probabilidad
normal, pero pueden darse variables que se distribuyen de modo diferente. Por ejemplo
variables que se concentran en la parte baja de la distribución (bajo la media) como la
pobreza o en la parte alta como la riqueza, si estas variables quieren explicar alguna
dependiente que si se distribuye normal, podrían introducir también varianza no
constante en el modelo.

- Finalmente está el hecho de estimar modelos en escalas diferentes o mediciones


diferentes, piense en un modelo cuyas variables tengan una medición categórica:
1,2,3,4,5,6,7 (por ejemplo desde estar completamente de acuerdo hasta estar
completamente en desacuerdo) para la atención al cliente, relacionado con la
facturación de diversas empresas, en este caso aún colocando en logaritmo de la
facturación, es probable que haya heterocedasticidad por cuanto a menos posibilidad
de respuestas, más probable la concentración alta o baja y la varianza entre datos.

Cuando se presenta varianza no constante, las estimaciones que realizamos en los modelos
econométricos tienden a cambiar, veamos el modelo simple siguiente:

Y i = ß 0 + ß 1 X i+ U i

Donde, expresado en desviaciones:

ß1 = ∑xiyi / ∑xi2

Ahora ya hemos estimado antes, la varianza de ß1, la cual es como sigue:

232
Heterocedasticidad en Modelos econométricos

Var ß1 = E (∑ Zi ui) 2

Var ß1 = E [ Z1 2 u1 2 + Z2 2 u2 2 + Z2 2 u3 2 + … + Zn 2 un 2 + 2 Z1 Z2 u1 u2 + ….+ 2 Zn-1 Zn un-1 un ]

Además como vimos antes, el valor esperado E (ui uj) = E ( ui - E ui ) ( uj – E uj) = E (ui * uj) = 0

La ecuación de la varianza (Var) del parámetro, queda:

Var ß1 = 2 ( ∑ Zi 2 )

Donde Zi = xi / ∑xi2

Var ß1 = 2 ∑ xi 2 / (∑xi 2) 2 (1)

Si consideramos que la varianza siguiente es homocedástica o constante:

Var ß1 = 2 / ∑xi 2

Entonces la expresión (1) anterior es la varianza heterocedástica, dado que la varianza


heterocedástica es mayor a la homocedástica, entonces los parámetros a estimar tendrán un
mayor intervalo de confianza, por lo cual su estimación será sesgada.

Para probar que la varianza del modelo (1) difiere de la varianza homocedástica
consideremos que lo siguiente es la estimación de la varianza constante:

2 = ∑ Ui 2 / N – 2 = E ∑ Ui 2

Donde Ui = Yi - ß0’ - ß1’ Xi

Entonces podemos expresar la varianza como:

2 = ∑ (ß0 + ß1 Xi+ Ui - ß0 ‘ - ß1’ Xi ) 2 / N - 2

2 = ∑ - ( ß0’ - ß0 ) – (ß1’ - ß1 ) Xi + Ui )2 / N - 2

No olvide que (Um se considera cero, pero lo expresamos aquí), en el modelo poblacional
(para ß0 ) Um es cero, entonces ambos estimados quedan:

ß 0’ = Y m - ß 1’ X m + U m

233
Heterocedasticidad en Modelos econométricos

ß0 = Ym - ß1 Xm

Restando tenemos:

ß 0’ - ß 0 = - ( ß 1’ - ß 1 ) X m + U m

Con lo que el modelo anterior queda:

2 = ∑ - [ - ( ß1’ - ß1 ) Xm +Um ] – (ß1’ - ß1 ) Xi + Ui )2 / N - 2

2 = ∑ ( ß1’ - ß1 ) Xm - Um – (ß1’ - ß1 ) Xi + Ui )2 / N - 2

2 = ∑ [ - ( ß1’ - ß1 ) ( Xi - Xm ) + (Ui - Um) ] 2 / N – 2

2 = ∑ [ - ( ß1’ - ß1 )2 ( Xi - Xm )2 + 2( ß1’ - ß1 ) ( Xi - Xm ) (Ui - Um)+ (Ui - Um) 2 ] / N – 2

2 = ∑ [ - Var ß1 ∑ ( Xi - Xm )2 + 2( ß1’ - ß1 ) ∑ ( Xi - Xm ) (Ui - Um)+ ∑ (Ui - Um) 2 ] / N – 2

Donde la media de Ui es cero, todos los productos con Ui también resultarán cero y sin
considerar a (N - 2), entonces:

E 2 = [ - Var ß1 ∑ ( Xi - Xm )2 + E ∑ (Ui - Um) 2 ]

E 2 = [ - Var ß1 ∑ xi 2 + E ∑ (Ui - Um) 2 ]

E 2 = [ - Var ß1 ∑ xi 2 + E ∑ (Ui 2 - 2 Ui Um + Um 2 ]

E 2 = [ - Var ß1 ∑ xi 2 + E ∑Ui 2 + E ∑Ui 2 / N ]

E 2 = [ - Var ß1 ∑ xi 2 + ( N E ∑Ui 2 + E ∑Ui 2 ) / N ]

E 2 = [ - Var ß1 ∑ xi 2 + ( N + 1) E ∑Ui 2 / N ]

E 2 = [- i
2 ∑ xi 2 / ∑ xi 2 + ( N + 1) i
2 /N ] (2)

234
Heterocedasticidad en Modelos econométricos

Si la estimación es insesgada y sin heterocedasticidad entonces i


2 = 2 y el valor de
E 2 = i , si la estimación contiene heterocedasticidad, entonces la varianza del modelo
2

resulta la expresión (2) calculada previamente y en ese caso la varianza del parámetro ß1 es la
expresión mostrada en la ecuación (1).

La estimación sesgada de los parámetros, efecto de la heterocedasticidad, implica además


que las pruebas t de Student resultarán bajas y con ello se podría descalificar la significancia de
los parámetros.

Dado que tenemos problemas de estimación podría hacerse lo siguiente, a partir del modelo
ya planteado:

Y i = ß 0 + ß 1 X i+ U i

Yi = ß0 A+ ß1 Xi+ Ui

Donde: A es un vector de 1, o una variable que sólo contiene el valor 1.

Ahora siempre que tengamos el valor de la varianza homocedástica, entonces podemos


hacer lo siguiente (los parámetros ajustados ßi* son distintos a los de los modelos originales):

Yi / i = ß0* (A / i )+ ß1* ( Xi / i ) + Uij / i (3)

Donde la varianza del modelo se estima como:

Var Ui = E Ui 2 = E ( ui / i)
2

Var Ui = E Ui 2 = E ( ui / i)
2

Var Ui = E Ui 2 = ( 1 / i)
2 E ( ui ) 2

Var Ui = E Ui 2 = ( 1 / i)
2
i
2

Var Ui = 1

Con ello se tiene que la varianza del modelo (3) es constante, esta corrección empleada se
denomina normalmente mínimos cuadrados generalizados (MCG), donde la estimación del
parámetro ß1, sería la siguiente:

235
Heterocedasticidad en Modelos econométricos

∑Ui 2 = ∑ ( Yi - ß0 + ß1 Xi + Ui ) 2

Ponderando el modelo tal como se hizo en la ecuación (3) para establecer los mínimos
cuadrados generalizados, tenemos:

∑ ∆i Ui 2 = ∑∆i ( Yi - ß0 * + ß1 * Xi + Ui ) 2

Donde:

∆i = ( 1 / i
2)

Diferenciando e igualando a cero como se hizo para obtener los estimados de mínimos
cuadrados (MCO) ya realizados en capítulos anteriores, tenemos:

∑∆i Yi = ß0 * ∑∆i + ß1 * ∑∆i Xi

∑∆i Xi Yi = ß0 * ∑∆i Xi + ß1 * ∑∆i Xi 2

Finalmente los parámetros ß0 * y ß1 * quedan:

Ym * - ß1 * Xm * = ß0 *

Donde:

Ym * = Ym ∑∆i / ∑∆i

Xm * = Xm ∑∆i / ∑∆i

∑∆i Xi Yi = [ ( ∑∆i Yi - ß1 * ∑∆i Xi ) / ∑∆i ] * ∑∆i Xi + ß1 * ∑∆i Xi 2

∑∆i Xi Yi = [ ∑∆i Yi ∑∆i Xi - ß1 * ∑∆i Xi ∑∆i Xi ] / ∑∆i + ß1 * ∑∆i Xi 2

∑∆i Xi Yi - ∑∆i Yi ∑∆i Xi / ∑∆i = ß1 * [ ∑∆i Xi 2 - ( ∑∆i Xi) 2 / ∑∆i ]

∑∆i ∑∆i Xi Yi - ∑∆i Yi ∑∆i Xi = ß1 * ∑∆i [ ∑∆i Xi 2 - ( ∑∆i Xi) 2 / ∑∆i ]

∑∆i ∑∆i Xi Yi - ∑∆i Yi ∑∆i Xi = ß1 * [ ∑∆i ∑∆i Xi 2 - ( ∑∆i Xi) 2 ]

[ ∑∆i ∑∆i Xi Yi - ∑∆i Yi ∑∆i Xi ] / [ ∑∆i ∑∆i Xi 2 - ( ∑∆i Xi) 2 ] = ß1 *

236
Heterocedasticidad en Modelos econométricos

Bajo el criterio del modelo de mínimos cuadrados generalizados (MCG), la varianza del
parámetro ß1 *, queda del siguiente modo:

Var ß1 * = ∑∆i 2 i
2 Zi 2 ’

Donde:

Zi 2 ‘ = [ ∑∆i ∑∆i Xi 2 - ( ∑∆i Xi) 2 ] / [ ∑∆i ∑∆i Xi 2 - ( ∑∆i Xi) 2 ] 2

Finalmente tenemos:

Var ß1 * = ∑∆i 2 i
2 / [ ∑∆i ∑∆i Xi 2 - ( ∑∆i Xi) 2 ]

Var ß1 = ∑∆i / [ ∑∆i ∑∆i Xi 2 - ( ∑∆i Xi) 2 ]

Como podemos ver la estimación de la varianza de ß1 por MCG es una valor ponderado, note
en el denominador que se pondera las sumatorias de la variable independiente, mientras que en
MCO no existen esas ponderaciones, lo cual tiende a diferenciar ambas estimaciones. Si
tenemos que ∆i (varianza homocedástica) es una constante entonces podemos determinar que la
varianza del modelo con MCG es equivalente a MCO:

Var ß1 * = N ∆ / [ N ∆ ∆ ∑ Xi 2 - ∆ 2 ( ∑ Xi) 2 ]

Var ß1 * = N ∆ / [ N ∆2 ∑ Xi 2 - ∆ 2 ( ∑ Xi) 2 ]

Var ß1 * = N ∆ / ∆2 [ N ∑ Xi 2 - ( ∑ Xi) 2 ]

Var ß1 * = N / ∆ [ N ∑ Xi 2 - ( ∑ Xi) 2 ]

Var ß1 * = N 2 / [ N ∑ X i 2 - ( ∑ X i) 2 ]

Var ß1 * = 2 / [ ∑ X i 2 - ( ∑ X i) 2 / N ]

Var ß1 * = 2 / [ ∑ Xi 2 - ∑ Xi Xm ]

Var ß1 * = Var ß1 = 2 / ∑ xi 2

237
Heterocedasticidad en Modelos econométricos

Finalmente hay que señalar que la estimación con MCG brinda estimadores con varianza
constante, lo cual hace que los parámetros sean de mayor potencia y también son insesgados.

Detectar la heterocedasticidad requiere analizar el comportamiento de los errores al


cuadrado, una primera señal es la mostrada en las figuras 6.5 (a) y (b), donde (b) muestra una
cierta relación con la variable independiente. Entonces una primera señal de heterocedasticidad,
es que las variables independientes o dependientes no tienen relación alguna con el error al
cuadrado.

Para el uso de la técnica gráfica, consideremos el modelo (ii) ya realizado antes:

Fruta ij = ß0 + ß1 Peso ij + ß2 Dj + eij (ii)

Los resultados de este modelo son:

Fig. 6.7 Resultados del modelo (ii) fruta peso

. reg fruta1 peso1 d

Source SS df MS Number of obs = 20


F( 2, 17) = 2.54
Model 3.95766652 2 1.97883326 Prob > F = 0.1083
Residual 13.2423335 17 .778960793 R-squared = 0.2301
Adj R-squared = 0.1395
Total 17.2 19 .905263158 Root MSE = .88259

fruta1 Coef. Std. Err. t P>|t| [95% Conf. Interval]

peso1 .0306487 .0184152 1.66 0.114 -.0082041 .0695014


d -.8022812 .4129943 -1.94 0.069 -1.673623 .0690605
_cons .2273661 1.159269 0.20 0.847 -2.218479 2.673211

Ahora graficaremos el error cuadrático obtenido en el modelo anterior, contra las variables
dependiente e independiente lo cual se muestra a continuación:

238
Heterocedasticidad en Modelos econométricos

Fig. 6.8 Error cuadrático versus Fruta

Es probable que la Fig, 6.8 indique la presencia de heterocedasticidad dada la relación entre
el error cuadrático y la variable dependiente, mientras que los datos de la Fig. 6.9 no indican
presencia de heterocedasticidad.

Fig. 6.9 Error cuadrático versus Peso

239
Heterocedasticidad en Modelos econométricos

Una segunda forma de detectar este problema, implica realizar algunas pruebas previas, las
más conocidas plantean siempre relaciones estadísticas entre el error cuadrático y las variables
existentes.

Park (1966) propone la siguiente prueba, conocida como test de Park (donde e* es el error del
modelo planteado por Park):

Ln i
2= Ln 2+ ß1 Ln Xi + e*i

Ln eij 2 = Ln 2+ ß1 Ln Xi + e*i

Ln eij 2 = ß0 + ß1 Ln Xi + e*i

En este test, la presencia de heterocedasticidad se relaciona con la significancia del


parámetro ß1, para hallar esta estimación, primero obtenemos los errores del modelo (ii) o
modelo original ya planteado y luego se procede a estimar la regresión respectiva, de acuerdo
con ello los resultados son los siguientes:

Fig. 6.10 Test de Park

. reg lnerror2 lnpeso

Source SS df MS Number of obs = 20


F( 1, 18) = 0.03
Model .051306844 1 .051306844 Prob > F = 0.8580
Residual 28.0326955 18 1.55737197 R-squared = 0.0018
Adj R-squared = -0.0536
Total 28.0840023 19 1.47810539 Root MSE = 1.2479

lnerror2 Coef. Std. Err. t P>|t| [95% Conf. Interval]

lnpeso .2862508 1.577086 0.18 0.858 -3.027083 3.599585


_cons -2.198639 6.550322 -0.34 0.741 -15.96036 11.56308

240
Heterocedasticidad en Modelos econométricos

Como evidencia el test de Park mostrado en la regresión previa, el ajuste del modelo es de
0.1% y el valor t de Student para la variable lnpeso (independiente) es de 0.18, lo cual no es
significativo, con ello descartamos la presencia de heterocedasticidad.

Otra prueba empleada en la detección de heterocedasticidad es la prueba de Breusch -


Pagan (1979) y Godfrey (1978), en este caso primero se plantea el modelo respectivo o modelo
original:

Fruta ij = ß0 + ß1 Peso ij + ß2 Dj + eij

De este modelo se obtiene la varianza del mismo, bajo el criterio de máxima verosimilitud, es
decir empleado la fórmula siguiente ya estimada antes (donde Ui es el error del modelo que se
estime inicialmente o el modelo original):

mv
2 = ∑ Ui 2 / N

Con ese valor se obtienen los errores cuadráticos corregidos, los cuales se expresan del
siguiente modo:

e i’ = e i 2 / 2

Con la estimación previa se realiza la siguiente regresión:

ei’ = ß0 + ß1 Peso + vi

De los resultados del modelo previo, se obtiene un indicador derivado de la SCE, estimado
del siguiente modo:

SCE Breusch-Pagan-Godfrey = 0.5 SCE

Apliquemos el test de Breusch - Pagan (1979) y Godfrey (1978) para el modelo peso fruta (ii)
usado de ejemplo, primero la varianza (con verosimilitud) resulta:

mv
2 = 13.2423335 / 20 = 0.6621

Ahora corremos la regresión con el error cuadrado ajustado, (ei‘ ) los resultados son:

241
Heterocedasticidad en Modelos econométricos

Fig. 6.11 Test de Breusch – Pagan - Godfrey

. reg errorajus peso

Source SS df MS Number of obs = 20


F( 1, 18) = 0.22
Model .286924009 1 .286924009 Prob > F = 0.6424
Residual 23.1487013 18 1.28603896 R-squared = 0.0122
Adj R-squared = -0.0426
Total 23.4356253 19 1.23345396 Root MSE = 1.134

errorajus Coef. Std. Err. t P>|t| [95% Conf. Interval]

peso1 .0106815 .0226139 0.47 0.642 -.0368285 .0581915


_cons .3121122 1.478247 0.21 0.835 -2.793568 3.417793

Con los resultados anteriores, el indicador de cuadrados explicados es:

SCE Breusch-Pagan-Godfrey = 0.5 * 0.286924009 = 0.143462

El valor de SCE hallado para este test, debe evaluarse en una distribución chi cuadrado con 1
variable explicativa o 1 grado de libertad (los grados de libertad equivalen al número de variables
independientes). Para el 5% de confianza, el valor de la distribución chi cuadrado es 3.8414, de
modo que el valor hallado de 0.14 no supera el valor de la distribución esto significa que su
varianza es menor del punto máximo, lo que indica la no existencia de heterocedasticidad.

Si el valor SCE del test, supera al valor de la distribución chi cuadrado, entonces la varianza
supera el mínimo establecido y es heterocedástica.

Otro test muy usado es la prueba de White (1980), mediante esta prueba se relacionan los
errores cuadráticos del modelo original con las variables explicativas en la forma siguiente:

Yi = ß0 + ß1 X1 + ß2 X2 + Ui

242
Heterocedasticidad en Modelos econométricos

U i 2 = a0 + a1 X1 + a2 X2 + a3 X1 2 + a4 X2 2 + a5 X1 X2 + vi

De la regresión previa se obtiene el valor de R2, con el cual se construye el siguiente


indicador:

NR2

El valor anterior NR2, sigue una distribución chi cuadrado, de modo que si supera el valor de
la distribución al 5% existe heterocedasticidad. En este caso el R2 es bastante alto, de modo que
la relación entre el error cuadrático y las variables explicativas es alto, presentándose
heterocedasticidad.

Si el valor R2 es bajo no se tienen mayores relaciones entre el error cuadrático y las variables
explicativas, lo que indica que no existe heterocedasticidad, el indicador de varianza NR2 no
supera entonces el valor de la distribución chi cuadrado. Considere siempre que existen grados
de libertad equivalentes al número de variables independientes.

Apliquemos el test de White para el ejemplo usado, los resultados son:

Fig. 6.12 Prueba de White

. reg error2cuad peso

Source SS df MS Number of obs = 20


F( 1, 18) = 0.22
Model .125787053 1 .125787053 Prob > F = 0.6424
Residual 10.1483557 18 .56379754 R-squared = 0.0122
Adj R-squared = -0.0426
Total 10.2741428 19 .540744357 Root MSE = .75086

error2cuad Coef. Std. Err. t P>|t| [95% Conf. Interval]

peso1 .0070724 .014973 0.47 0.642 -.0243848 .0385296


_cons .2066547 .9787717 0.21 0.835 -1.849668 2.262978

243
Heterocedasticidad en Modelos econométricos

Con los resultados previos el indicador de varianza resulta:

N R2 = 20 * 0.0122 = 0.244

Este valor es menor al valor de la distribución chi cuadrado al 5% de confianza, que es de


3.8414, de modo que podemos decir que no existe heterocedasticidad, siendo la varianza del
modelo homocedástica.

6.3 Corrección de heterocedasticidad


Como ya indicamos, la presencia de heterocedasticidad implica parámetros con una varianza
mayor a la esperada, comparada con una distribución de datos homocedástica. Por ello es
importante corregir este problema, ya vimos que una salida es la estimación por MCG, sin
embargo ello se enfrenta al problema de tener una varianza muestral observada o tener una
varianza aproximada mediante otras variables.

Cuando la varianza del modelo no es conocida (dado que con heterocedasticidad esta
varianza tiene más componentes de variabilidad), es posible hacer las siguientes relaciones:

2 correlacionado con X 2

Dado que necesitamos la desviación del modelo, esta puede aproximarse del siguiente modo:

correlacionado con X

En caso la varianza del modelo se correlacione con X, entonces la desviación puede


plantearse del siguiente modo:

correlacionado con X 0.5

Si la relación entre la varianza y la variable dependiente estimada existe, tal como vimos
antes, esto puede plantearse así:

correlacionado con Y’

correlacionado con Y’ 0.5

244
Heterocedasticidad en Modelos econométricos

Entonces un paso previo para corregir la heterocedasticidad puede ser graficar el error
cuadrático contra la variable dependiente o independiente y elegir la variable donde más
correlacione, otra es usar los cálculos de correlación entre variables.

Para aplicar las correlaciones empleamos el ejemplo previo del peso y consumo de fruta,
primero veamos el modelo respectivo y luego las correlaciones, siempre usando el modelo (ii):

Fruta ij = ß0 + ß1 Peso ij + ß2 Dj + eij (ii)

Error 2 vs Peso = 0.110648409


Error 2 vs Fruta = 0.372621576
error 2 vs Peso 2 = 0.088780417
Error 2 vs Fruta 2 = 0.449366471

Como puede verse, la correlación más grande entre el error y la variable, se presenta con
Fruta 2 (que es la variable dependiente), dada la relación cuadrática, entonces la desviación
implica lo siguiente:

correlacionado con Y

Con lo cual el modelo (ii) se puede estimar del siguiente modo:

Fruta ij / Y’ = ß0 * (1 / Y’ ) + ß1 * ( Peso ij / Y’ ) + ß2 * ( Dj / Y’ ) + ( eij / Y’ ) (iii)

Hay que notar que el modelo (iii) se estima sin constante, para poder así obtener el valor del
parámetro ß0*, ya que (1 / Y’ ) se transforma en una variable.

Los resultados del modelo estimado se muestran en la Fig. siguiente:

Donde:

Ye, es la estimación Fruta / Y’

Yinv, equivale a 1 / Y’

Xe, equivale a Peso / Y’

De, equivale a la variable D / Y’.


245
Heterocedasticidad en Modelos econométricos

Fig. 6.13 Estimación MCG del modelo peso fruta

. reg Ye Yinv Xe De, noconstant

Source SS df MS Number of obs = 20


F( 3, 17) = 26.87
Model 20.6849782 3 6.89499272 Prob > F = 0.0000
Residual 4.36247099 17 .25661594 R-squared = 0.8258
Adj R-squared = 0.7951
Total 25.0474491 20 1.25237246 Root MSE = .50657

Ye Coef. Std. Err. t P>|t| [95% Conf. Interval]

Yinv .911444 1.268191 0.72 0.482 -1.764206 3.587094


Xe .0170468 .0216428 0.79 0.442 -.0286155 .0627091
De -.4616473 .4402641 -1.05 0.309 -1.390523 .4672287

Hay que notar que el modelo no tiene constante de modo que para obtener este valor, basta
con establecer la siguiente ecuación:

ß0* [ 1 / Y’ ] Y’ = 0.91444

En el caso del valor que tiene la constante, se debe a que la varianza resultante del modelo,
genera que la estimación por MCG tenga diferencias respecto del modelo (ii) original, así el
estimador ß0* difiere del ß0 hallado originalmente con MCO.

En el caso de los parámetros de las variables explicativas, si multiplicamos ß1 * Y’ y sacamos


la media de esta estimación, obtenemos con muy escasas diferencias, el estimador ß1 y ß2 del
modelo original (ii):

ß1 = ∑ ( 0.0170468 * Y’ ) / 20 = 0.0306

ß2 = ∑ ( -0.4616473 * Y’ ) / 20 = - 0.8

246
Heterocedasticidad en Modelos econométricos

Una vez comprobada que el modelo MCG corrige los parámetros hay que notar que la
varianza del modelo ha cambiado, pasó de 0.7789 en el original de MCO a 0.2566 en el modelo
por MCG. Dado que en nuestro ejemplo no existe heterocedasticidad, al corregirlo en la práctica
estamos variando el error estándar de cada parámetro.

En el caso de la variable explicativa denominada Peso en el modelo MCO y Xe en modelo


MCG, el error estándar pasó de 0.0184 a 0.0216, la tasa de cambio ha sido pequeña, las
varianzas son bastante parecidas, 0.00034 en el caso MCO y 0.00047 en el caso MCG, ello se
debe a la no presencia de heterocedasticidad, en el caso de que el modelo (iii) original hubiera
sido heterocedástico, la corrección por MCG hubiera generado menores errores estándar.

La corrección por MCG debería mejorar la prueba t de Student, siempre que el modelo inicial
presente la varianza no constante.

La estimación por MCG nos daría parámetros con varianza constante, que serían en caso de
presencia heterocedástica, los resultados mostrados en la Fig. 6.13 anterior.

En el caso de que la varianza sea conocida, se puede aplicar directamente al modelo la


estimación por MCG ya planteada antes en la ecuación (3) donde A=1:

Yi / i = ß0 (A / i )+ ß1 ( Xi / i ) + Uij / i (3)

La varianza conocida se refiere a que conocemos las desviaciones existentes dentro de cada
sub muestra o grupos que conforman la muestra de análisis.

Por ejemplo, si analizamos la rentabilidad de los bancos, cajas municipales, cajas rurales y
otras entidades financieras en función al tamaño o volumen crediticio, podemos hallar las
varianzas al interno de cada subgrupo, es decir la varianza en el grupo de bancos, luego la
varianza en cajas y etc, esta vendría a ser la varianza conocida del modelo.

Para ejemplificar el uso de la varianza conocida, tomemos este ejemplo de Gujarati (2004),
donde el modelo a plantear sería el siguiente:

Rotación promedio = ß0 + ß1 Tamaño + eij

247
Heterocedasticidad en Modelos econométricos

Tabla 6.7 Datos trimestrales para rotación de activos según rango de tamaño de activos

Rotación de activos promedio por empresa (1) según Tamaño de


activos
(mills de soles)
Año / Rango * 100 a 250 a 1000 a
Trim ! 1 a 10 10 a 25 25 a 50 50 a 100 250 1000 +
1 1 6.696 6.929 6.858 6.966 7.819 7.557 7.860
2 6.826 7.311 7.299 7.081 7.907 7.685 7.351
3 6.338 7.035 7.082 7.145 7.691 7.309 7.088
4 6.272 6.265 6.874 6.485 6.778 7.120 6.765
2 1 6.692 6.236 7.101 7.060 7.104 7.584 6.717
2 6.818 7.010 7.719 7.009 8.064 7.457 7.280
3 6.783 6.934 7.182 6.923 7.784 7.142 6.619
4 6.779 6.988 6.531 7.146 7.279 6.928 6.919
3 1 7.291 7.428 7.272 7.571 7.583 7.053 6.630
2 7.766 9.071 7.818 8.692 8.608 7.571 6.805
3 7.733 8.357 8.090 8.357 7.680 7.654 6.772
4 8.316 7.621 7.766 7.867 7.666 7.380 7.072
Fuente: Basado en Gujarati (2004)
* El rango no es abierto, la categoría dos va de 10.01 a 25 millones y así en cada caso

En buena cuenta, el tamaño de las empresas puede influenciar en la rotación de activos, que
normalmente se mide como Ventas / Activos, la rotación es un indicador importante para medir la
productividad de la empresa y es un componente de la rentabilidad sobre activos.

En este modelo tomamos el tamaño promedio para cada grupo de activos, ello para realizar
una regresión del modo más simple posible y ejemplificar el proceso de estimación.

La variable Tamaño será categórica e irá de 1 a 7, donde 1 corresponde al tamaño de 1 a 10


millones y 7 corresponde al tamaño de 1000 millones a más.

Con base a lo anterior, el modelo finalmente usa los datos siguientes:

248
Heterocedasticidad en Modelos econométricos

Tabla 6.8 Rotación promedio y tamaño por categorías

Rango ! 1 a 10 10 a 25 25 a 50 50 a 100 100 a 250 250 a 1000 1000 a +


Rotac. Prom 7.026 7.265 7.299 7.359 7.664 7.370 6.990
Tamaño 1 2 3 4 5 6 7

Con esos datos, la regresión brinda los siguientes resultados:

Fig. 6.14 Resultados MCO para el modelo tamaño de activos rotación

. reg Rotacion Tamao

Source SS df MS Number of obs = 7


F( 1, 5) = 0.13
Model .007736167 1 .007736167 Prob > F = 0.7355
Residual .303023776 5 .060604755 R-squared = 0.0249
Adj R-squared = -0.1701
Total .310759942 6 .051793324 Root MSE = .24618

Rotacion Coef. Std. Err. t P>|t| [95% Conf. Interval]

Tamao .016622 .0465237 0.36 0.735 -.102971 .136215


_cons 7.215298 .2080604 34.68 0.000 6.680461 7.750134

El modelo anterior tiene un ajuste de 2.5%, con una varianza de 0.0606 y los parámetros no
son significativos.

Ahora consideremos que existe heterocedasticidad (puede probarse la misma con los test ya
señalados antes), entonces para estimar el modelo por MCG se requiere hallar la desviación
estándar, los resultados son los siguientes:

249
Heterocedasticidad en Modelos econométricos

Tabla 6.9 Desviación de la rotación y variables ponderadas por (1/desviación)

250 a 1000 a
Rango ! 1 a 10 10 a 25 25 a 50 50 a 100 100 a 250 1000 +
Desviación estándar 0.62 0.80 0.46 0.64 0.47 0.26 0.37
Rotac prom /desviación 11.31 9.05 15.77 11.42 16.40 28.75 19.14
1/desviación 1.61 1.25 2.16 1.55 2.14 3.90 2.74
X/desviación 1.61 2.49 6.48 6.21 10.70 23.41 19.17

Donde la desviación estándar calculada corresponde a cada grupo de datos de la tabla 6.7,
así la desviación de 0.62, equivale a la desviación estándar de la rotación trimestral para el
tamaño 1 de activos (1 a 10 millones), el calculo de la desviación se puede hacer con el comando
= desvest ( … ) de Excel ©.

Con los resultados previos, el modelo por MCG es el siguiente:

Rotación promedio / i = ß0 * ( 1 / i ) + ß1 * ( Tamaño / i ) + ( eij / i )

Las variables para correr este modelo están en la tabla 6.9, la regresión por MCG se hace sin
constante y los resultados se muestran en la Fig. siguiente. Como puede notarse la varianza del
MCG ha pasado a ser 0.12187, ligeramente mayor lo que evidencia la no presencia de
heterocedasticidad por cuanto la varianza no se redujo.

El error estándar de la variable Tamaño para el modelo inicial por MCO es 0.0465, mientras
que con MCG el error estándar de Tamaño / i, es 0.037, la cual es menor debido a que al
ponderar la variable, hemos reducido el efecto de la varianza no constante.

La prueba t de Student para la variable tamaño mejoró notoriamente entre el modelo con
MCO y el modelo con ponderaciones o MCG.

250
Heterocedasticidad en Modelos econométricos

Fig. 6.15 Regresión MCG o MC Ponderados para la rotación versus tamaño de activos

. reg Rotacion1 desv_inv Tamano1, noconstant

Source SS df MS Number of obs = 6


F( 2, 4) = 6909.50
Model 1684.14024 2 842.070122 Prob > F = 0.0000
Residual .48748545 4 .121871362 R-squared = 0.9997
Adj R-squared = 0.9996
Total 1684.62773 6 280.771288 Root MSE = .3491

Rotacion1 Coef. Std. Err. t P>|t| [95% Conf. Interval]

desv_inv 7.118227 .1838038 38.73 0.000 6.607905 7.628548


Tamano1 .0539352 .0373373 1.44 0.222 -.0497297 .1576002

Hay que indicar que el efecto del tamaño sobre la rotación de activos es de 0.0539, para el
caso de las variables ponderadas, el efecto es mayor a la estimación inicial de 0.0166, ello
debido a que elimina el sesgo de varianza no constante.

Finalmente si la ponderación fuera realizada con la variable X (para el caso que no se


conozca la varianza), el modelo original quedaría:

Rotación promedio / Tamaño = ß0 * (1 / tamaño) + ß1 (Tamaño / Tamaño) + eij

Rotación promedio / Tamaño = ß0 * (1 / tamaño) + ß1 + eij

El modelo anterior debe estimarse mediante una regresión donde se incluya el intercepto, el
valor del intercepto será el estimador de ß1 sin el efecto de heterocedasticidad.

251
Heterocedasticidad en Modelos econométricos

Conclusiones del capítulo


En este capítulo hemos explicado la presencia de heterocedasticidad o varianza no
constante. Como sabemos en los modelos econométricos se supone normalmente que la
varianza es constante, eso garantiza que los parámetros estimados sean insesgados y eficientes,
pero en muchos estudios realizados, sobre todo aquellos de corte transversal es muy probable
que la varianza sea cambiante o creciente conforme se usan más datos en la muestra.

Las razones de esta varianza no cambiante se basan en que la inclusión de grupos diferentes
de observaciones pueden elevar la variabilidad, piense en ejemplos donde vamos añadiendo
elementos o individuos de diferentes ingresos, diferentes niveles educativos y otras
características, ello hará que la varianza entre observaciones sea creciente o no constante.

La presencia de heterocedasticidad complica la estimación por mínimos cuadrados, los


estimadores se hacen ineficientes e insesgados (crece el intervalo de confianza) y con ello se
reduce la potencia de la prueba t de Student lo que hace que los modelos pierdan significancia
en sus variables explicativas.

Para evitar estos problemas se usan ponderaciones para las variables, un ponderador puede
ser la inversa de la desviación estándar del modelo (generando una variable ajustada o sin la
varianza) con ello la varianza final es la unidad, otra ponderación usada es la inversa de la
variable donde se presenta la relación con el error cuadrático (variable dependiente o
independiente), en este caso al dividir sobre la variable que crea la heterocedasticidad
procedemos a reducir el efecto.

Finalmente las estimaciones ponderadas tienden a llamarse mínimos cuadrados


generalizados o mínimos cuadrados ponderados (dependiendo que se use como ponderador), si
tengo la varianza del modelo o esta es conocida a partir de la muestra de datos, entonces uso la
estimación MCG, pero si esa varianza no está disponible, entonces ponderamos con las
variables existentes.

Las estimaciones de los parámetros cuando usamos las correcciones respectivas, tienden a
ser insesgados y eficientes, pudiendo verificarse el efecto en la variable dependiente y sus
respectivos valores de t de Student.

Finalmente hay que señalar que detectar la heterocedasticidad, supone relacionar el error
cuadrático con las variables (normalmente explicativas) que existen en el modelo, para ello se
pueden emplear test diversos como el de Park, White o el de Breusch-Pagan y Godfrey.
252
Heterocedasticidad en Modelos econométricos

Preguntas de opinión
1. ¿Por qué en una serie de tiempo es menos probable que haya
heterocedasticidad?
2. ¿La heterocedasticidad puede darse por sesgo de selección? Explique.
3. La varianza del modelo heterocedástico relacionada con X en la práctica ¿qué
implicancia tiene?
4. Explique ¿Por qué la varianza podría no ser conocida en caso de
heterocedasticidad?
5. ¿Cómo se relacionan entre sí, los test de detección de heterocedasticidad aquí
estudiados?

253
Heterocedasticidad en Modelos econométricos

Caso de aplicación
Lectura previa

Tomando textualmente a Amorós (2009):

En el Perú, como en otros países, la oferta de microcrédito con fines de lucha contra pobreza,
se ubica generalmente dentro de la estructura de organizaciones no gubernamentales (ONG);
otras modalidades de financiamiento son de aquellas entidades que sostienen el autoempleo de
sus miembros y se denomina generalmente Cooperativas de Ahorro y Crédito, un paso más
adelante y ya en la esfera de las microfinanzas; se encuentran aquellas orientadas al crédito a
microempresas como las Entidades de Desarrollo de la Microempresa (EDPYME) y en una
escala de mayor desarrollo con créditos hacia la micro y pequeña empresa, además de cumplir
diversas funciones de la banca comercial se encuentra las Cajas Rurales y Cajas Municipales
(Jansson, 2001).

Dado que el mercado crediticio no es restringido al accionar de una entidad específica, es


posible encontrar compitiendo en el mismo mercado a las cooperativas de crédito, edpymes,
cajas rurales, cajas municipales, bancos especializados en pequeña empresa y banca comercial,
de modo que todas estas entidades encajan en la idea de microfinanzas. Esto supone una oferta
de crédito orientada a las necesidades empresariales antes que personales, cuyo fin es
básicamente la expansión de las operaciones de la empresa mediante el financiamiento
especializado (Jansson, 2003).

Copa et al (1995) señala además que la oferta de financiamiento hacia la pequeña empresa
peruana, también ha pasado por alianzas entre bancos tradicionales y ONGs, estableciendo una
tecnología crediticia externa al banco, es decir el seguimiento y selección lo hacen las ONG y el
banco comercial actúa como financiador (similar a la banca de segundo piso) en este caso el
riesgo se comparte entre ambas entidades y el repago es mayor dado la vigilancia permanente
de las ONG; que además despliegan en la zona múltiples actividades no sólo de crédito, sino
ayuda social en general.

El sistema de microfinanzas tiene algunas diferencias con la banca comercial, una de ellas es
que las entidades de microfinanzas no cumplen todas las funciones que la banca realiza, esto
debido a criterios regulatorios. Otra diferencia notoria son las tasas de interés cobradas, las
mismas que superan en gran medida el interés cobrado por la banca. Copa et al (1995)
manifiestan que este podría ser un aspecto positivo, ya que la pequeña empresa peruana al
financiarse a altas tasas de prestamistas informales, en realidad no tienen mucha sensibilidad al
precio y ello ayudaría a la entrada de entidades de microfinanzas a tasas relativamente altas pero

254
Heterocedasticidad en Modelos econométricos

menores a los créditos informales; permitiendo de ese modo cubrir los altos costos de monitoreo
o vigilancia del repago, dado que el seguimiento efectuado por las entidades de microfinanzas al
crédito, es personal y continuo.

En otros casos la vigilancia del repago, se ayuda de créditos solidarios o grupales, aspecto
aún presente en las realidades rurales; pero en los ámbitos de la microempresa urbana, el crédito
es una actividad personal y por ende costosa de seguir, sobre todo cuando los montos son
pequeños, en ese caso la única forma de rentabilizar a los ofertantes es sostener altas tasas de
interés (Banerjee, 2002).

En el mercado de microfinanzas hay características que permiten su separación de los


mercados bancarios tradicionales, Chong y Schroht (1998) señalan que los clientes de
microfinanzas por lo general carecen de colateral, que la información respecto del historial
crediticio es limitada; que existen problemas de selección adversa por información asimétrica. Es
decir que la probabilidad de prestarle dinero a un cliente con problemas de repago, con riesgos
elevados o conducta dudosa; es alta ante ausencias de información pasada del cliente, riesgos
que actualmente se han reducido ante la expansión de las centrales de riesgo y la mayor
penetración del mercado, cambios que se han dado continuamente desde finales de los años 90.
Otros factores que diferencian el mercado microfinanciero se relacionan con el seguimiento más
costoso, ventajas que dispone la banca comercial al contar con clientes más grandes o mejor
conectados al mercado financiero. El mercado microfinanciero también tiene aspectos
culturalmente aceptados, como la permanencia de crédito subsidiado del estado o de ONGs
(aspecto muy reducido en los mercados urbanos) y la falta de ahorro de los hogares pobres. Sin
embargo este último argumento de los autores es un tema debatible, toda vez que el ahorro en
las microfinanzas tiende a ser creciente en los últimos años.

Investigaciones relacionadas a las microfinanzas tienden a especificar el financiamiento a


partir del género, en este sentido Yunus (2006) señala el abierto énfasis de brindar crédito a
mujeres, considerando que ello permite una elevación de ingresos en la familia y la generación
de ahorros que puede hacer sostenible el proceso de intermediación.

Stiglitz y Weiss (1981) señalan también, que subir la tasa de interés, eleva la probabilidad de
que los clientes asuman proyectos más riesgosos y por ende generan problemas de pago, este
aspecto conocido como riesgo moral, es algo que los mercados en competencia generalmente no
tienen, por ello en estas condiciones, la oferta se raciona o restringe y se equilibra en contextos
de exceso de demanda, discriminando a los demandantes.

De acuerdo a lo anterior, Tenjo (2002) hace algunas relaciones con el mercado crediticio
colombiano, encontrando que el comportamiento de la banca comercial sigue el esquema de
racionamiento a tasas diferenciadas entre clientes, es decir la decisión bancaria no es por el
255
Heterocedasticidad en Modelos econométricos

proyecto en cuestión rentable, sino por evaluaciones hechas a la empresa, de este modo se
encuentran los clientes racionados y las tasas más altas o las que corresponden a mayores
riesgos del cliente (no el proyecto) no acceden al crédito.

No obstante esta premisa debe ajustarse, dado que las entidades de microfinanzas entran
con éxito en mercados tradicionalmente racionados. Para ello Chong y Schroth (1998) añaden el
aspecto de la reputación, algo similar a la incidencia cultural del pago ya señalada antes. Un
cliente deudor que paga sus créditos a tiempo, genera una reputación buena y en la siguiente
oportunidad incrementa su crédito.

La persistencia de los riesgos de repago en los clientes de microfinanzas, han sido


analizadas por De Morais (2005). El autor manifiesta la múltiple segmentación que recibe el
pequeño empresario, ya que recibe financiamiento de acuerdo al tamaño que posee, las
garantías que puede exhibir o las relaciones que logre entablar con la banca. En todos los casos
aún cuando pueda ser segmentado en el tamaño del crédito, el pequeño empresario siempre
asume altas tasas de interés, producto de la elevada percepción de riesgo y las malas
condiciones de acceso a la información de la empresa en el contexto brasileño. Esta condición
final se ve mejorada en los últimos años, por la generación de credit scoring (calificación y
ranking crediticio por entidad) en la central de riesgo manejada por el Banco Central Brasileño. El
autor señala también, que las principales limitantes para el acceso al crédito en el caso brasileño,
se relacionan con la ausencia de registros contables fiables, con la escasa información
relacionada a las prácticas gerenciales de los pequeños empresarios, la alta mortalidad de las
micro y pequeñas empresas, lo cual limita el crédito hacia el muy corto plazo o se raciona el
crédito ante poca garantía de desempeño futuro. Otros factores son la informalidad de los
pequeños negocios, los altos costos en la recuperación de activos brindados como garantías
(costos judiciales o administrativos) y finalmente, el acceso se ve limitado por la exigencia de
garantías reales o bienes que sustenten la posibilidad de repago.

En el caso de la segmentación de pequeños negocios y sus relaciones con las entidades de


microcrédito, un aspecto muy relevante será el tamaño de la empresa, tal como señala Jaramillo
(2006). Este autor además señala que la conexión entre estas entidades y sus clientes, es
básicamente la asesoría para mejorar sus inversiones, de modo que es muy relevante la relación
que establece el cliente con su entidad de crédito. Los criterios financieros, como el uso de los
fondos, son problemas que se comparten con la gran empresa, de modo que el tamaño es lo
relevante para una microempresa, ya que las prácticas del microempresario deben tender a la
eficiencia como en cualquier corporación.

Se puede concluir que uno de los criterios de segmentación más importantes giran en torno al
tamaño del negocio y en segundo aspecto a las relaciones que se establecen con la entidad

256
Heterocedasticidad en Modelos econométricos

financiera, las cuales pueden derivar en poca o mucha lealtad al actual ofertante de microcrédito,
desde allí podemos explorar la insatisfacción de los clientes en un mercado ya cubierto. En el
caso que esas relaciones con los ofertantes no existan, pero hay la intención del crédito,
entonces podemos derivar la parte de mercado no satisfecha actualmente.

Es relevante, además, conocer las cualidades personales del microempresario como la


educación, aspecto relevante en los estudios de Amao y Ogbowa (2005); también aspectos
relacionados a la conducción del negocio, como los ingresos generados e inclusive el género
(Hietalahti y Linden, 2006) como factores de crecimiento empresarial, asimismo sus preferencias
en cuanto al financiamiento, sea mediante una entidad de microcréditos o mediante prestamos
informales, en este aspecto Lelong y Schwartz (2003) manifiestan que sólo el 2.6% de
microempresas en Latinoamérica accede al crédito formal. En algunos casos se puede dar una
conexión con entidades de la banca comercial, es decir ya el segmento es penetrado por actores
que tradicionalmente no intervienen en el mismo; de modo que considerar el acceso al crédito
formal e informal como criterio de segmentación es también relevante.

Tomado textualmente de Amorós (2009)

Preguntas

1. ¿Qué modelo econométrico diseñaría para analizar la demanda de microcréditos?


2. ¿Qué encuesta diseñaría para tomar la información que exige su modelo
econométrico?
3. ¿Por qué motivos el modelo a estimar tendría heterocedasticidad, considere que su
estimación es sólo en mercados urbanos y para diversas actividades económicas?

257
Heterocedasticidad en Modelos econométricos

Ejercicios
Sea el modelo y = X’ β Donde X representa a una constante y una variable. Visto en
matrices, tenemos que los parámetros se estiman como: β = (X’ X) -1 X’ y

Además la matriz de errores cuadráticos puede estimarse de los siguientes modos


equivalentes:

e’ e = y’ y – β X’X β e’ e = y’ y – y’ X β

También podemos estimar el R2, como: 1 - e’ e / y’ y

Para el modelo anterior, se tienen los siguientes resultados extraídos en dos muestras con
reemplazo, los datos fueron tomados para 50 observaciones elegidas al azar:

Muestra 1 Muestra 2

X’ X = 50 300 50 300

300 2100 300 2100

y’X = 300 2000 300 2200

y’y 2100 2800

Para cada muestra:

• Estime el vector de parámetros β.


• Estime el error cuadrático e’ e.
• Estime la desviación estándar del modelo: σ
• Estime el R2
• Consideremos la sospecha de que hay Heterocedasticidad, entonces corrija el modelo
dividiendo los datos entre σ, y estime nuevamente los indicadores anteriores.

258
Heterocedasticidad en Modelos econométricos

Referencias bibliográficas
Amorós, M. (2009) Determinantes del microcrédito y el perfil de microempresarios urbanos en las
ciudades de Chiclayo y Trujillo Perú. CIES.

Angrist, Joshua y Jorn-Steffen Pischke (2009) Mostly Harmless Econometrics. Princeton


University Press, Capítulo 4.

Amao, J. Ogbowa. O. y Oni, O. (2005). Determinants of credit demand among rural farming
household in OSE local government area: Ondo State of Nigeria. Journal of financial managerial
and analysis. Vol. 18. Nº 2. Nigeria.

Banerjee, A. (2002). The uses of economic theory: Against a purely positive interpretation of
theoretical results. Mimeo. MIT. USA.

Breusch, T. And Pagan A. (1979) A simple test for heteroscedasticity and random coefficient
variation. Econometrica Vol. 47.

Copa, T.; Gonzáles de Otoya, G. y Linares, C. (1995). Atractivo del financiamiento a las
pequeñas y microempresas para la banca comercial privada. ESAN. Lima. Perú.

Chong, A. y Schroth. (1998). Cajas municipales, microcrédito y pobreza en el Perú. CIES. Lima.
Perú.

De Morais, J. (2005). Crédito bancário no Brasil: Participacao das pequenas empresas e


condicoes de acesso. CEPAL. Chile.

Godfrey, L. (1978) Testing for multiplicative heteroscedasticity. Journal of Econometrics. Vol. 8.

Greene, W. (2003) Econometric Analysis. Fifth Edition. Pearson Ed.

Gujarati, D. (2004) Econometría. 4ta Edic. Mc Graw Hill.

Hietalahti, J. y Linden, M. (2006). Socio-economic impacts of microfinance and repayment


performance: A case study of the Small Enterprise Foundation, South Africa. Progress in
development studies. Vol. 6. Nº 3.

259
Heterocedasticidad en Modelos econométricos

Jansson, T. (2003). Financing microfinance. Exploring the funding side of microfinance


institutions. Sustainable Development Department. IADB. USA.

Jansson, T. (2001). Microfinance: From village to Wall Street. Sustainable Development


Department. IADB. USA.

Jaramillo, M. y Valdivia, N. (2005). Las políticas para el financiamiento de las Pymes en el Perú.
GRADE. Lima. Perú.

Jiménez, F. (2012) Elementos de teoría y política macroeconómica para una economía abierta.
Fondo Editorial PUCP.

Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill.

Lelong, C. y Schwartz, M. (2003). La microbanca en la región APEC y su relevancia para la micro


y pequeña empresa. Aportes. Revista Mexicana de estudios sobre la cuenca del Pacífico. Vol. 3.
Nº 5. México.

Novales, A. (1993) Econometría. Mc Graw Hill.

Park, R. (1966) Estimation with heteroscedasticity error terms. Econometrica Vol. 34.

Stiglitz, J. y Weiss, A. (1981) Credit rationing in markets with imperfect information. The American
economic review. Vol. 71 Nº 3.

Tenjo, F. (2002). Stiglitz, sus aportes y la economía colombiana. Carta Financiera. ANIF
Colombia.

White, H. (1980) A heteroscedasticity consistent covariance matrix estimator and a direct test of
heteroscedasticity. Econometrica. Vol. 48.

Wooldridge, J. (2009) Introductory Econometrics. A modern approach. Third Edition. Cengage


Learning.

Wooldridge, Jeffrey (2010) Econometric Analysis of cross section and panel data. The MIT Press,
Capítulos 5 y 21.

Yunus, M. (2006). Lectures in the Nobel Peace Prize 2006. Nobel Lecture. Oslo. Noruega.

260
CAPÍTULO VII

Autocorrelación de errores

261
Autocorrelación de errores

VII. AUTOCORRELACIÓN DE ERRORES

Introducción al tema

Uno de los supuestos de los modelos econométricos es que el valor esperado del error,
considerando una distribución normal de probabilidades, es cero y que sus relaciones con las
variables del modelo son equivalentes a cero o no existe covarianza alguna, asimismo el error
relacionado con su pasado es también una covarianza de cero, con ello se garantiza que los
errores son aleatorios y surgen de modelos donde el supuesto es la aleatoriedad de los datos.

La suposición previa puede estrellarse contra la multiplicidad de relaciones existentes en el


campo de la economía, por ejemplo es posible que la emisión monetaria afecte la tasa de
inflación no sólo ahora, sino que puede tener efectos de mayor plazo, es decir la inflación
existente puede deberse a tasas de emisión altas o bajas en el pasado también, con lo cual los
errores actuales y pasados van impactando en la estimación del modelo.

En algunos modelos econométricos, los errores configuran variables de interés, que tienen
efectos en las estimaciones, por ejemplo en un modelo donde la producción es explicada por el
capital y trabajo, se asume que el error contienen la posibilidad de cambios tecnológicos (aquello
que las otras variables no explican), esos cambios no crean efectos inmediatos sino efectos
rezagados en el tiempo, siendo importante conseguir estas estimaciones, aún sabiendo que el
error no es independiente en el tiempo.

En buena cuenta la presencia de autocorrelación puede ser asumida como algo abundante
en los modelos econométricos, que puede tomarse como una forma de explicar la realidad
también o se puede corregir para realizar análisis más independientes de los efectos entre
variables dependientes e independientes.
262
Autocorrelación de errores

7.1 Fallas generadas en los modelos por autocorrelación de errores


La autocorrelación es la relación que tienen los errores con su pasado o con otro error
vinculado a las estimaciones que realicemos de la variable dependiente. Por ejemplo si
analizamos la pobreza de las familias de una zona cualquiera, es natural que si una familia es
pobre y se encuentran localizados de manera cercana, esta pobreza afecta a las demás en el
tiempo, piense que algunas de las familias desea colocar un negocio, pues este negocio tendrá
un pobre desempeño al ser los potenciales clientes también pobres, en general la estimación de
la pobreza (bajo diversas variables explicativas) puede contener errores no sólo generales sino
que el error de cada elemento (la condición de ser pobre en cada hogar) puede contribuir a la
pobreza del otro y con ello los errores terminan siendo autocorrelacionados.

En el caso anterior la autocorrelación puede ser un fenómeno espacial o transversal, sin


embargo ello no limita los estudios que se hagan, por cuanto es natural encontrar este proceso,
en todo caso si las entrevistas o selección de variables y elementos de información son
aleatorios, el proceso de autocorrelación espacial no debería ser relevante a la hora de obtener
conclusiones del modelo respectivo.

Con respecto a las series de tiempo históricas, se presentan fenómenos de autocorrelación


inherentes al proceso económico, por ejemplo cuando el Banco Central de una país decide bajar
la tasa de interés, lo que está esperando no son efectos inmediatos, está esperando que la
demanda interna suba en el tiempo, meses después una vez que los efectos se presentan
podemos decir que la demanda interna está relacionada con la tasa de interés y su pasado, lo
que indica que el error actual de estimación de la demanda interna, tiene mucho que ver con los
errores de estimación pasados de dicha variable.

Lo anterior puede entenderse del siguiente modo, la demanda interna actual se relaciona en
alguna medida con la tasa de interés, sin embargo al no ser exacto hay un grado de error actual.
La demanda interna también depende del pasado de la tasa de interés, sin embargo eso
tampoco es 100% exacto, de modo que queda un error por explicar, todos los errores presentes
en estas estimaciones están relacionados, pues todos provienen de la misma variable: la tasa de
interés en el tiempo y su uso como explicador de la demanda interna.

Entonces la presencia de autocorrelación en modelos de series temporales es un hecho que


se dará de modo natural, sin embargo estos procesos pueden ocasionar algunas fallas en los
modelos o algunos efectos que quizás alteren las estimaciones a realizar.

La presencia de autocorrelación tiene algunas causas, entre ellas tenemos:

263
Autocorrelación de errores

- Las series económicas pueden ser adelantadas, rezagadas o cíclicas, en el caso de


series adelantadas, su comportamiento predice de algún modo el crecimiento o caída
siguiente, de modo que la correlación del error se presenta en las variables a ser
predichas. Por ejemplo la importación de insumos es una variable hoy día, que puede
indicar si la producción del mes siguiente (o meses) puede cambiar, entonces la
correlación del error de la variable producción va a relacionarse con el pasado
vinculado a la variable importación, eso pasará de todos modos.

Variables rezagadas pueden ser respuestas de caídas de la producción, es decir una


vez que se produce el ciclo recesivo o expansivo, la menor producción del último mes o
trimestre tendrá efectos negativos en el empleo actual, en la demanda interna actual,
luego en los salarios y posteriormente en otras variables como la demanda de créditos
(inclusive oferta), aquí la variable empleo por ejemplo, tienen errores de estimación
relacionadas con el presente pero también con el pasado ante cambios en el producto
anterior.

Las variables cíclicas o las que se mueven en conjunto con el ciclo, quizás no
presenten patrones de autocorrelación de errores, por ejemplo el menor consumo de
energía actual, implica que la producción actual está bajando, en ese caso ambas
variables se mueven al ritmo del ciclo y los errores pueden ser independientes.

- Una segunda causa de la autocorrelación son las omisiones de variables, también los
modelos con formas funcionales inexactas o estimaciones cuyas variables están
expresadas de modo incorrecto.

Pensemos que el modelo estimado, se expresa del siguiente modo:

Y i = ß 0 + ß 1X 1 + U i (1)

Pero que debería haberse expresado correctamente del modo siguiente:

Yi = ß0 + ß1Xi + ß2X2 + ei (2)

En este caso el error del modelo (1) sería:

Ui = ß2 X2 + ei

El valor esperado del error anterior es:

E Ui = ß2 E X2

264
Autocorrelación de errores

Y la covarianza entre los errores del modelo (1) y (2) sería:

Cov (ei, Ui) = ∑ ( ei – E ei ) ( Ui - ß2 E X2)

Cov (ei, Ui) = ∑ ( ei Ui – ei ß2 E X2 - E ei Ui + E ei ß2 E X2 )

Cov (ei, Ui) = ∑ ei Ui

En la estimación de la covarianza el valor esperado del error es cero y la sumatoria de


errores es también cero. Con ello el resultado final de covarianza es diferente de cero, lo
cual rompe el supuesto de que los errores no son relacionados.

- En el caso de formas funcionales incorrectas, se puede repetir el mismo análisis, por


ejemplo sea el modelo siguiente, la estimación verdadera:

Yi = ß0 + ß1Xi + ß2X1 2 + ei

Sin embargo para evitar la no linealidad, consideremos que se estima el modelo:

Y i = ß 0 + ß 1X i + v i

En ese caso el error tampoco es independiente, pues realmente se expresa así:

v i = ß 2X 1 2 + e i

Con lo cual la covarianza entre (ei, vi) deja de ser cero y también rompe el supuesto de
independencia de los errores.

- En algunos casos, el uso de variables construidas por el investigador puede generar


algún grado de autocorrelación de errores, piense que una serie es del tipo siguiente,
para la variable X en n períodos:

Xt, Xt-1, Xt-2, Xt-3, Xt-4 ….., Xt-n

Ahora como la variable dependiente Y es trimestral por ejemplo, entonces necesitamos


una variable X trimestral y para ello hacemos lo siguiente:

X1 = ( Xt + Xt-1 + Xt-2 ) / 3

X2 = ( Xt -3 + Xt-4 + Xt-5 ) / 3


265
Autocorrelación de errores

Xk = ( Xn + Xt-n-1 + Xt-n-2 ) / 3

Para k trimestres, la sería previa va a generar de todos modos una serie suavizada
respecto a la original, con lo cual los errores tenderán a correlacionarse con la variable
dependiente, toda vez que cada media explica parcialmente su período y el siguiente.

- Otra fuente de autocorrelación vendría a ser expresar modelos en desviaciones, algo


común en el análisis económico moderno, por ejemplo veamos un modelo en tiempo
actual y uno en tiempo rezagado:

Y t = ß 0 + ß 1X t + e t

Yt -1 = ß0 + ß1Xt -1 + e t -1

Restando ambos modelos tenemos:

Yt -1 - Yt = ß1 (Xt - Xt -1) + (et - e t -1)

∆Y = ß1 ∆ X + vi (3)

Una aplicación de este tipo de modelos, puede ser por ejemplo, que si el tipo de cambio
(en este caso X) va subiendo respecto al período anterior (depreciación vista la moneda
como valor local o soles por dólar), entonces es probable que las reservas
internacionales (en este caso Y) puedan ir bajando respecto al nivel anterior, esto se
produce porque el Banco Central al intervenir vende moneda extranjera con fines de
atenuar la subida cambiaria.

En el caso del modelo (3) “vi” sería el error del modelo, en muestras pequeñas el valor
esperado de vi no es cero, en muestras grandes podría acercarse a cero. Cuando “vi” es
cero hablamos de un concepto llamado estacionariedad del modelo y es la base de las
estimaciones de modelos seriales en la econometría actual:

E vi = E (et - e t -1) = 0

E vi = ∑ (et - e t -1) / N = 0

En el caso de los modelos en desviaciones (si es con un rezago también se llama


modelo en primeras diferencias) la varianza del mismo sería:

E vi 2 = ∑ [ ( et - e t -1) - E ( et - e t -1) ] 2

266
Autocorrelación de errores

E vi 2 = ∑ [ ( et - e t -1) 2 - 2 ( et - e t -1) E ( et - e t -1) + ( E ( et - e t -1)) 2 ] / N -1 - K

E vi 2 = ∑ ( et - e t -1) 2 - 2 ∑ ( et - e t -1) E ( et - e t -1) + N ( E ( et - e t -1)) 2 ] / N -1- K

E vi 2 = ∑ ( et - e t -1) 2 - 2 ∑ ( et - e t -1) E ( et - e t -1) + N (E ( et - e t -1)) 2 ] / N -1- K

E vi 2 = ∑ ( et - e t -1) 2 - ∑ ( et - e t -1) E ( et - e t -1) / N -1- K

Si el modelo es estacionario, la varianza queda (para K variables del modelo):

E vi 2 = ∑ ( et 2 - 2 et e t -1 + e t -1 2 ) / N -1- K

E vi 2 = ( ∑ et 2 + ∑ e t -1 2 ) / N -1- K

E vi 2 = 2 2

La varianza del modelo estacionario es, en buena cuenta, una constante cumpliendo
con los criterios de los modelos econométricos correctamente estimados.

- Si el error “vi” no es estacionario su varianza sería mucho más grande que la anterior y
el error “vi” deja de ser cero. Para analizar ello consideremos que el error se relaciona
hacia el pasado, en ese caso su covarianza es:

Cov (vt, vt-1) = E (et – et-1) ( et-1 – et-2)

Cov (vt, vt-1) = E (et et-1 – et et-2 – et-1 et-1 + et-1 et-2)

Cov (vt, vt-1) = - E (et-1 et-1 )

Cov (vt, vt-1) = - 2

Hay que notar entonces que la presencia de autocorrelación genera una covarianza diferente
de cero aunque constante.

Finalmente hay que señalar que la presencia de autocorrelación puede generar modelos en
diferencias, cuyos estimadores son correctos o insesgados, siempre que los errores de dicho
modelo sean estacionarios o de valor esperado cero.

Para analizar las fallas de los modelos con presencia de autocorrelación verifiquemos el
comportamiento del error, de su valor esperado y la covarianza que este error presenta con su
pasado. Comencemos con proponer el siguiente modelo genérico:
267
Autocorrelación de errores

Y t = ß 0 + ß 1X t + e t

Que tiene la siguiente secuencia de errores autocorrelacionados:

et = Ω et-1 + ui (4)

El modelo (4) indica una autocorrelación de errores, supone que el error del período t se
relaciona con el error del período t-1, en este caso el error esperado del modelo es:

E et = et = Ω E et-1 + E ui = 0

Mientras que la varianza del modelo puede estimarse como:

Var et = Ω2 Var et-1 + Var ut

Var et = Var ut / (1 - Ω2 )

Var et = e
2/ (1 - Ω2 ) = E et 2

Si bien se cumple que el error esperado es cero y también que la varianza previa es
constante, esta varianza se ajusta o es influenciada por el valor del parámetro del error
autocorrelacionado (Ω), lo que indica la presencia de este proceso.

Para valores positivos de Ω, note que la varianza con autocorrelación es naturalmente mayor
que la varianza de un modelo sin este problema (estimada con MCO), lo que significa que a
pesar que la varianza es constante, su mayor valor puede afectar la estimación del modelo.

Podemos probar la autocorrelación persistente en el tiempo, analicemos la covarianza entre


et y et-1 (recuerde que los valores esperados individuales del error son cero), esto tiene los
siguientes resultados:

Cov (et, et-1) = E (Ω et-1 + ui ) et-1

Cov (et, et-1) = Ω E et-12 + E ui et-1

Cov (et, et-1) = Ω E et-12

Cov (et, et-1) = Ω e


2/ (1 - Ω2 )

Para el caso de dos períodos de rezago, la covarianza entre et y et-2 es como sigue:

268
Autocorrelación de errores

et = Ω et-1 + ui

et -1= Ω et-2 + ui t-1

Cov (et, et-2) = E (Ω [ Ω et-2 + ui t-1] et-2

Cov (et, et-2) = E (Ω2 et-2 + Ω ui t-1] et-2

Cov (et, et-2) = Ω2 E et-22

Cov (et, et-2) = Ω2 e


2/ (1 - Ω2 )

Donde:

Ω s : Es la correlación entre et y et+s (para s períodos adelante o hacia atrás)

Dado que el error es:

et = Ω et-1 + ui, entonces:

Ω = ∑ et et-1 / ∑et-1 2 para 1 rezago

De la forma anterior, sucesivamente, se va obteniendo la covarianza de los errores rezagados


evidenciando la autocorrelación existente, por cuanto los errores van teniendo correlaciones
distintas de cero (lo cual ya viola los criterios básicos del diseño y estimación de los modelos
econométricos). Note que si el parámetro que relaciona el error con su pasado (Ω) es cero,
entonces las covarianzas son cero y el modelo sería el clásico estimado por MCO, con las
condiciones de parámetros eficientes e insesgados.

Para analizar estos parámetros insesgados o no, veamos los efectos de la autocorrelación en
la varianza de los mismos, esta varianza de los parámetros es importante en la significancia de
los mismos. El análisis puede plantearse del siguiente modo, en este caso para el parámetro ß1,
tomando estimaciones realizadas ya en capítulos previos:

Var ß1 = E [ Z1 2 e1 2 + Z2 2 e2 2 + Z2 2 e3 2 + … + Zn 2 en 2 + 2 Z1 Z2 e1 e2 + ….+ 2 Zn-1 Zn en-1 en ]

Ahora considere que:

Zt = xt / ∑xt2 Para: Yt = ß0 + ß1 Xt + ut

Zt+1= xt +1/ ∑xt+1 2 Para: Yt+1 = ß0 + ß1 Xt+1 + ut+1

269
Autocorrelación de errores

Zt+n = xt +n/ ∑xt+n2 Para: Yt+n = ß0 + ß1 Xt+n + ut+n

Donde:

∑xt 2 = xt 2+ xt+1 2+ xt+2 2 +… + Xt+n 2

También considere que:

Cov (et,et+1) = E (et et+1) = Ω u


2/ (1 - Ω2 )

Donde Ω, también equivale a:

Ω = E (et et-1) / Var et-1

Donde Var et-1 = Var et, entonces:

Ω Var et-1 = E (et et-1) = E (et et+1)

Ω 2= E (et et+1)

Y para diversos períodos, como se demostró antes:

Ω2 2= E (et, et+2)

Ωn-1 2= E (et, et+n-1)

De modo que la varianza de ß1 es como sigue para modelos:

Var ß1 = (1 / xt 2 ) 2+ ( 1 / xt +1 2 ) 2+ ( 1 / xt+2 2 ) 2 + … + ( 1 / xt+n 2) 2 + 2 ( ∑xt ∑xt+1


/ ∑xt ∑xt+1
2 2) Ω 2 ….+ 2 ∑xt ∑xt+n / ∑xt ∑xt+n 2 2 Ωn - 1 2

Var ß1 = (1 / ∑xt 2 ) 2[ 1 + 2 ( ∑xt ∑xt+1 / ∑xt+1 2 ) Ω ….+ 2 ∑xt ∑xt+n / ∑xt+n 2 Ωn - 1 ] (5)

Donde:

∑xt 2 = ∑xt+1 2 = …= ∑xt+n 2


270
Autocorrelación de errores

Entonces, la varianza de ß1 es mayor a la presente en los estimadores de MCO, ampliando el


intervalo de confianza de la estimación, eso incluso considerando que la varianza del modelo es
constante, esto significa que los parámetros del modelo en presencia de autocorrelación son
sesgados e ineficientes:

Var ß1 = (1 / ∑xt 2 ) 2[ 1 + 2 ( ∑xt ∑xt+1 / ∑xt 2 ) Ω ….+ 2 ( ∑xt ∑xt+n / ∑xt 2 ) Ωn - 1 ]

Otra perspectiva de las fallas ocasionadas en los parámetros, ha sido analizada por Kmenta
(1986) y Baltagi (2008), en este sentido la estimación del parámetro en un modelo con
autocorrelación, sigue el proceso siguiente: Sea un modelo donde se considera la estimación por
mínimos cuadrados generalizados, usando la correlación de errores como ponderador, se tiene:

Y t = ß 0 + ß 1X t + e t

Yt-1 = ß0 + ß1Xt-1 + et-1

et = Ω et-1 + ut

et = Ω (Yt-1 – ß0 - ß1Xt-1) + ut

Yt – ß0 - ß1Xt = Ω (Yt-1 – ß0 - ß1Xt-1) + ut

Yt – ß0 - ß1Xt = Ω Yt-1 - Ω ß0 - Ω ß1Xt-1+ ut

Yt - Ω Yt-1 = ß0 - Ω ß0 + ß1Xt - Ω ß1Xt-1+ ut

Yt - Ω Yt-1 = ß0 - Ω ß0 + ß1Xt - Ω ß1Xt-1+ ut

Yt - Ω Yt-1 = ß0 (1 - Ω ) + ß1 (Xt - Ω Xt-1 )+ ut

En este modelo, el parámetro queda:

ß1 = ∑ (Xt - Ω Xt-1) (Yt - Ω Yt-1) / ∑ (Xt - Ω Xt-1 )2

Como puede notarse, el parámetro estimado es diferente al de MCO, aún con autocorrelación
la varianza es constante, pero influenciada por Ω (en la práctica denominado coeficiente de
autocorrelación) por ello la estimación del parámetro difiere de la hallada en MCO, sin embargo
en ausencia de autocorrelación (Ω = 0) ambos estimadores son iguales.

Desde la perspectiva de Kmenta (1986) la varianza de ß1, es como sigue:

271
Autocorrelación de errores

Var ß1 = 2/ ∑ (Xt - Ω Xt-1 ) 2 (6)

Donde la ecuación (6) con un solo rezago equivale a la ecuación (5) en n rezagos.

Hay que notar que la autocorrelación genera una varianza de parámetros mayor que en
MCO, eso reduce la significancia de los parámetros. Otro detalles es que la varianza del modelo
autocorrelacionado, si bien es constante, es mayor que en MCO, ello reduce la potencia del
ajuste del modelo por lo tanto en presencia de correlación de errores, las estimaciones dejan de
ser insesgadas y el ajuste global del modelo esta sobre estimado.

7.2 Detección de la autocorrelación de errores


Como ya se ha señalado, la autocorrelación es la presencia de errores relacionados, de modo
que la detección de la misma se basa en hallar indicios de este comportamiento.

Un primer paso es graficar los residuos o errores del modelo, pensemos en el siguiente
modelo de ejemplo:

Preferencia por Circulante t = ß0 + ß1 Interés activo soles t + et

En este modelo partimos del siguiente análisis: si la tasa activa en soles es creciente,
entonces los bancos tienden a pagar más por la tasa pasiva en soles, ello debido a que la mayor
demanda en el mercado crediticio eleva las tasas o por que la tasa externa es más cara. Para
lograr tener más fondos en soles o depósitos, los bancos están dispuestos a pagar una mayor
tasa pasiva ya que esos fondos son necesarios para dar créditos. Esto debe impulsar la
reducción del indicador de preferencia por circulante debido a que los agentes prefieren llevar
sus fondos al mercado bancario de depósitos.

La preferencia por circulante se define como la tasa de Circulante sobre Depósitos bancarios,
y se entiende como un componente del multiplicador bancario, ello también puede plantear la
idea de que mayor multiplicador menor tasa de interés, lo que supone que el modelo planteado
podría tener una causalidad inversa, ya hemos visto antes el tema de causalidad y bien podría
hacerse un análisis de ese tipo, sin embargo aquí partiremos de las condiciones y relaciones
entre interés activo y circulante planteada previamente.

La tasa de interés activa en este modelo, se mide en soles. Para fines de simplicidad y hallar
un parámetro de elasticidad, vamos a plantear el modelo con las variables en logaritmos. Un
análisis previo del modelo se puede realizar observando la Fig. siguiente, hay evidencias de una
272
Autocorrelación de errores

relación inversa pero tenuemente, lo que implica realizar la regresión respectiva para probar el
ajuste del modelo y luego el proceso de autocorrelación. Los resultados de la regresión son
(prueba t en paréntesis):

Preferencia por Circulante t = 3.67025 - 0.1474987 Interés activo soles t + et

(12.79) ( -1.49) R 2 = 5.4%

Fig. 7.1 Relación entre log circulante y log tasa de interés activa en soles

(mensual feb 2011-junio 2014)

Fuente: BCRP

Como se puede encontrar en los resultados, la evidencia de ajuste global es pequeña, ahora
analicemos el comportamiento de los errores del modelo:

273
Autocorrelación de errores

Fig. 7.2 Relación entre errores del modelo y su rezago (t-1)

Se nota una clara relación positiva lo que podría evidenciar la presencia de autocorrelación.
La Fig. siguiente muestra otro patrón de comportamiento, por un lado los residuos o errores del
modelo y por otro los residuos estandarizados (los residuos divididos entre el error estándar del
modelo o raíz de la varianza), se supone que el error estandarizado debe comportarse de modo
aleatorio con media cero y varianza constante, sin embargo la Fig. evidencia que tiene el mismo
patrón que el error normal, de modo que es posible la autocorrelación de errores.

Fig. 7.3 Errores del modelo y errores estandarizados

274
Autocorrelación de errores

Para determinar el proceso de autocorrelación de modo concreto, aplicaremos la prueba de


Durbin y Watson (1951), considerando que hay un indicador denominado “d” de Durbin Watson,
que se estima del modo siguiente:

d = ∑ (et - et-1) 2 / ∑ et 2

d = ∑ ( et 2 + et-1 2 – 2 et et-1 ) / ∑ et 2

Si consideramos que en muestras grandes ∑ ut 2 = ∑ ut-1 2, entonces:

d = ( ∑ et 2 + ∑ ut-1 2 – 2 ∑ et et-1 ) / ∑ et 2

d = ( 2 ∑ et 2 – 2 ∑ et et-1 ) / ∑ et 2

d = 2 [ 1 – ∑ et et-1 / ∑ et 2 ]

Si tenemos en cuenta que:

Ω = ∑ et et-1 / ∑et-1 2 (coeficiente de correlación de errores)

Entonces:

d= 2[1 – Ω ]

El análisis de “d” presenta los siguientes escenarios, dependiendo de la correlación entre los
errores y su rezago:

Ω = -1 d=4

Ω=0 d=2

Ω=1 d=0

En buena cuenta en ausencia de autocorrelación (Ω = 0) el coeficiente de Durbin Watson (d)


es igual a 2, si la correlación es positiva que indica que los errores se comportan en la misma
dirección (igual a 1), entonces el d es 0 y si la correlación es negativa o los errores se comportan
a la inversa, entonces el “d” es 4.

La presencia de la autocorrelación bajo el criterio de Durbin Watson, supone que el modelo


se ha estimado considerando una constante (para extraer el máximo de error posible), además
sólo se incluyen las variables explicativas más no la dependiente, el modelo incluye rezagos de la
variable explicativa pero no debe contener rezagos de la variable dependiente.
275
Autocorrelación de errores

Finalmente hay que señalar que el Durbin Watson se analiza para modelos donde el error se
relaciona con un solo rezago, lo que se suele llamar también modelo autoregresivo de orden 1 o
AR (1).

La secuencia del valor de Durbin Watson (1951) ha sido también planteada en la Fig.
siguiente. Como puede verse hay zonas de indecisión y zonas donde se evidencia la
autocorrelación positiva o negativa, para ello hay que estimar los valores de dU y dL.

Fig. 7.4 Secuencia de Durbin Watson

Tomado de Gujarati (2006)

Con fines de analizar el indicador de Durbin Watson, procedemos a calcularlo del modo ya
planteado antes:

d = ∑ (et - et-1) 2 / ∑ et 2

d = 0.02728484 / 0.084980371

d = 0.321

Si reemplazamos este valor podemos hallar la correlación de errores:


276
Autocorrelación de errores

d= 2[1 – Ω ]

0.321 = 2 [ 1 – Ω ]

Ω = 0.84

Este valor de la correlación es idéntico si hiciéramos la siguiente regresión, cuyos resultados son:

et = Ω et-1 + ut

et = 0.84 et-1 + ut

(t = 9.67)

R2 = 70.6%

Donde vemos que el parámetro Ω, es significativo mediante la prueba t (valor mayor a 9) y


con un ajuste de modelo de 70.6%, evidenciando la clara presencia de autocorrelación.

Ahora usemos el valor de Durbin Watson calculado antes, para situarnos en la Fig. 7.4
necesitamos ubicar en la tabla estadística de Durbin y Watson (1951) los valores de dU y dL, los
cuales son para 41 datos (N) aunque usaremos 40 para usar la tabla y 1 variable explicativa (K):

dU = 1.544

dL = 1.442

d = 0.321

Como indica la Fig. siguiente, en nuestro modelo de ejemplo existe una autocorrelación
positiva, esto sólo confirma la evidencia previa de una correlación de 84% entre el error y su
pasado inmediato o un rezago. El indicador de Durbin Watson, como se ha visto, se estima
desde dos posibilidades, una de ellas hallando el parámetro del modelo de regresión entre el
error y su rezago o también a partir de las desviaciones entre el error y su rezago

277
Autocorrelación de errores

Fig. 7.5 Estableciendo autocorrelación

0.321! 1.442! 1.544!

El indicador de Durbin Watson funciona bien para un rezago del modelo del error, pero si
tenemos p rezagos, entonces se puede plantear el modelo siguiente:

et = ß0 + ß1 X1 + Ω1 et-1 + Ω2 et-2 + Ω3 et-3 … + Ωp et-p + ut

En este caso probamos dos cosas, una que el error es independiente de la variable
explicativa y dos que el error no tiene autocorrelaciones en p rezagos, esta prueba requiere
estimar el siguiente indicador:

(N – p ) R2

Que sigue una distribución chi cuadrado con p grados de libertad, apliquemos este test para
el modelo previo considerando 5 rezagos, los resultados son (prueba t en paréntesis):

et = 0.169 - 0.06 X1 + 0.702 et-1 - 0.063 et-2 + 0.271 et-3 - 0.139 et-4 + 0.09 et-5 + ut

(0.918) (-0.937) (3.904) (-0.283) (1.281) (-0.673) (0.499)

R2 = 0.735

278
Autocorrelación de errores

De modo que el indicador para la autocorrelación se estima así:

(N – p ) R2 = (36 – 5) 0.735 = 22.79

El valor de la tabla chi cuadrado con 5 grados de libertad, al 5% de confianza es de 11.07, de


modo que:

(N – p ) R2 > X2p (chi-cuadrado)

Eso evidencia la presencia de autocorrelación en el modelo estimado y la inexistencia de


independencia entre el error y la variable independiente, este test también se denomina prueba
de Breusch (1978) y Godfrey (1978).

7.3 Corrección de la autocorrelación de errores


Para considerar correcciones a los procesos de autocorrelación, es necesario tener claro lo
siguiente:

- Que el modelo ha sido bien especificado, de modo que la autocorrelación se denomina


pura, si el modelo ha tenido un mal diseño, el proceso se corrige agregando variables o
cambiando las mismas, de modo que el modelo gana potencia y elimina esta falla.

- Corregir la autocorrelación implica plantear el siguiente modelo ya especificado antes:

Yt - Ω Yt-1 = ß0 (1 - Ω) + ß1 (Xt - Ω Xt-1)+ ut

Esto requiere que sepamos el valor de Ω, sin embargo este valor en la práctica no es
conocido, recuerde que hemos llegado al valor de la correlación (Ω) mediante
estimaciones del modelo de errores y su rezago. Dado esta limitación práctica,
podemos indicar que el modelo previo si bien ayuda a corregir los parámetros, su
utilidad es limitada en la medida que no conocemos la correlación.

Una aproximación al modelo anterior puede ser usando la estimación de la correlación,


obtenida a partir del indicador de Durbin Watson, este valor fue de 0.84, con lo cual se
recalculan las variables del modo siguiente:

Y * = Yt - 0.84 Yt-1

X * = Xt – 0.84 Xt-1

279
Autocorrelación de errores

Por lo tanto el modelo queda:

Y * = ß0 (1 - Ω) + ß1 X* + ut

Hallemos los resultados respectivos en el caso de nuestro ejemplo (prueba t en


paréntesis):

Y * = 0.67 + -0.329 X* + ut

(7.00) (-1.59)

d = 2.2 R2 = 6.2%

El valor de Durbin Watson indica que la correlación entre errores es de -0.1


(equivalente a -10%) indicador que es bajo y podemos señalar que ya no existe
autocorrelación. Viendo la Fig. 7.5 también tenemos que el valor “d” calculado esta en
el centro y por tanto no hay autocorrelación.

El modelo anterior, podía haber sido estimado considerando también el valor de Ω,


hallado a partir de la estimación del modelo:

et = Ω et-1 + ut

Como hemos comprobado antes, el valor de Ω por este método fue también de 0.84,
esto nos lleva a los mismos resultados de estimación del modelo anterior.

Recuerde que el modelo original con autocorrelación era:

Preferencia por Circulante t = 3.67025 - 0.1474987 Interés activo soles t + et

Como vemos ahora el valor de la constante ha caído y el parámetro de la tasa de


interés pasó de ser negativo a positivo con un mayor valor, es de esperar que los
errores hayan influido en las estimaciones, ahora el problema es explicar la relación
teórica. Una mayor tasa activa puede ser respuesta de un mercado financiero de
menores fondos disponibles, es más complejo suponer que por demanda suba la tasa
de interés, obtener estos fondos puede incentivar el menor circulante, salvo que las
tasas pasivas no estén vinculadas a las activas; en este caso los movimientos del
circulante pierden conexión con la variable tasa de interés, que es lo aparentemente
hemos probado.

280
Autocorrelación de errores

Un parámetro positivo (en caso el modelo sea explicativo) indica que mayores tasas de
interés activa tiene efecto positivo o alcista en el circulante, en buena cuenta hay
menos preferencia por depósitos bancarios, esto puede ser porque en el mercado en
general las tasas de rentabilidad también están subiendo y los fondos pasan del sector
bancario a sectores reales, hacia el mercado de capitales (por lo menos el private
equity o financiamiento privado) o hacia operaciones primarias fuera de bolsa.

Así como han cambiado el valor de los parámetros, de igual modo comprobamos que el
R2 ha subido, igual sucede con los valores de la pruebas t de cada parámetro, el
modelo sin autocorrelación tiene mejor ajuste y mejores indicadores de significancia del
parámetro de la variable explicativa.

- Si no conoce la autocorrelación de errores puede recurrirse al criterio de


estacionariedad de los errores, aspecto que ya vimos antes, mediante este criterio
debemos suponer lo siguiente:

et = Ω et-1 + ut

et = (1) et-1 + ut

et - et-1 = ut

Hemos considerado que la correlación entre errores es 1, de modo que sus


desviaciones nos dan el valor del error ut, el mismo que es de media cero y varianza
constante o sea estacionario, si esto se cumple, el modelo previo puede corregirse del
siguiente modo:

Yt - Ω Yt-1 = ß0 (1 - Ω ) + ß1 (Xt - Ω Xt-1 )+ ut

Yt - Yt-1 = ß1 (Xt - Xt-1 ) + ut

Este modelo previo se conoce como de primeras diferencias y sus resultados son
(prueba t en paréntesis):

Yt - Yt-1 = - 0.514 (Xt - Xt-1 ) + ut

(-1.9)

d = 2.4 R2 = 8.3%

281
Autocorrelación de errores

Finalmente en este modelo, el valor del parámetro ya es significativo (al menos al 5%) y
el indicador Durbin Watson señala que no hay autocorrelación de errores, el valor
estimado de la correlación es de -20% bastante bajo para rechazar la posibilidad de
que los errores estén autocorrelacionados.

En este caso el signo del parámetro es el esperado, cumpliendo con lo que estamos
indicando en nuestro diseño teórico, que las mayores tasas en el mercado bancario
incentivan los depósitos (siempre que la tasa activa impulse la tasa pasiva) y reducen
la preferencia por circulante.

282
Autocorrelación de errores

Conclusiones del capítulo


En este capítulo, hemos tratado el concepto de autocorrelación de errores, el mismo que viola
los criterios o supuestos necesarios para la estimación de modelos econométricos, sabemos que
todo modelo debe presentar errores con valor esperado cero y varianza constante, sin embargo
en presencia de autocorrelación el error deja de ser independiente, pues tiene relaciones con su
pasado, con la variable explicativa y además su varianza es mayor a la estimada sin esta
autocorrelación.

La mayor varianza del modelo con sus errores correlacionados, implica que podemos reducir
la significancia de los parámetros y la bondad de ajuste es menor a la que esperamos, debido a
que los residuos al cuadrado mayores, reducen el peso de la suma cuadrada explicada.

La evidencia de autocorrelación se presenta en muchos casos en los modelos económicos,


no olvidemos por ejemplo que la inflación pasada incluye en la presente, esto que se conoce
como expectativas adaptativas y se presenta en los modelos macroeconómicos, siendo un claro
ejemplo de que los errores se vinculan al pasado o a sus propios rezagos.

Para detectar la autocorrelación hay que plantear un modelo econométrico donde


regresionamos el error con su pasado (normalmente un rezago), si este modelo tiene buen ajuste
y el parámetro (sin constante) es significativo, estamos en presencia de autocorrelación. Este
parámetro es parte de la estimación del indicador conocido como Durbin Watson, que puede ir de
2 a 4, es 2 en caso que la correlación de errores sea cero y es 4 si la correlación de errores es -1,
siendo 0 si la correlación de errores es 1, entonces esperamos que el indicador de Durbin
Watson este siempre alrededor de dos.

La corrección de la autocorrelación tiene dos enfoques, por un lado se halla un modelo de


mínimos cuadrados generalizados (ajustados por la correlación) o también se puede plantear un
modelo de primeras diferencias, con ello los parámetros se estiman de modo insesgado y el
ajuste del modelo deja de ser sobreestimado.

283
Autocorrelación de errores

Preguntas de opinión:
1. Brinde ejemplos de modelos económicos donde es posible la autocorrelación.
2. La autocorrelación tiene varianza constante, pero ¿Por qué es ineficiente?
3. ¿Por qué la correlación entre los errores no es conocida?
4. ¿Por qué el modelo de error con su rezago no tiene constante?
5. ¿Qué significa que los errores sean estacionarios?

284
Autocorrelación de errores

Caso de aplicación
Lectura previa

En base a Guerrero et al (2006):

La relación entre inflación y desempleo no es un análisis reciente, Sultan (1957) propone que
a medida que la sociedad requiere un menor desempleo, entonces debe estar dispuesto a
sacrificar su consumo mediante el alza de la tasa de inflación, este sacrificio no obstante es
atenuado y hasta reducido si el menor desempleo produce un crecimiento de la demanda interna.

La figura siguiente indica que conforme sube el nivel de precios, igualmente puede ir
subiendo el nivel de empleo (la llamada relación hipotética), sin embargo Sultan (1957) indica
también que hay un rango de precios tolerable máximo y de caída mínimo, en la caída también
baja el nivel de empleo, ambos casos relacionados con la mayor demanda de trabajadores en
contextos donde la demanda de bienes finales también es creciente.

Fig. 7.6 Curva de inflación y cambio en el empleo

Fuente: Sultan (1957)

285
Autocorrelación de errores

Phillips (1958) indica que los salarios crecen cuando aumenta su demanda respecto de la
oferta, en buena cuenta el salario es el precio del trabajo y se mueve según las fuerzas de
demanda u oferta laboral. Una demanda laboral mayor (con crecimiento positivo) genera un
crecimiento positivo de los salarios de modo que la relación es positiva, asimismo estos salarios
están vinculados al nivel de precios: Por ejemplo mayores niveles de precios incentivan al
empresario a producir más con lo cual sube la demanda de empleo (a la inversa baja el nivel de
desempleo) y finalmente sube el salario monetario.

Phillips (1958) plantea una relación no lineal sino más bien cuadrática, que puede plantearse así:

Y+a=BXx

En logaritmos:

Log (Y + a) = Log B + x Log X

Donde X es la tasa de desempleo (a la inversa la mayor demanda de empleo) y x es la


variación de esta tasa, Y es la tasa de variación del salario donde “a” representa una variable de
nivel que indica que el salario no puede crecer a tasa cero, crecerá desde un nivel base,
atendiendo la idea de que los sindicatos siempre parte de un crecimiento base. Finalmente
Phillips (1958) propone una relación negativa entre desempleo y salarios.

En base a Phillips (1958), Samuelson y Solow (1960) plantean que la relación del desempleo
se verifica en sus efectos en la tasa de inflación, variable de mayor dinámica que la tasa de
crecimiento de los salarios.

La fig. siguiente es la clásica representación de la curva de Phillips, donde un mayor nivel de


desempleo puede verse afectado por la menor inflación, efectos que Samuelson y Solow (1960)
plantearon a largo plazo.

Basado en Guerrero et al (2006)

286
Autocorrelación de errores

Fig. 7.7 Curva de inflación y cambio en el desempleo

Fuente: Samuelson y Solow (1960)

Preguntas

1. ¿Es posible que pueda ponerse variables rezagadas en el modelo?


2. En los modelos descritos antes, ¿Es probable que haya autocorrelación?
3. En el caso de Perú ¿Qué problemas enfrenta estimar un modelo al estilo de
Samuelson y Solow?

287
Autocorrelación de errores

Ejercicios

Como ya se indicó en el texto, la Curva de Phillips, es la relación negativa entre la tasa de


inflación y la tasa de desempleo. Debido a que los mercados tienen información, los precios
pueden ser estimados y anticipados, cuando sucede esto, existe independencia entre el
desempleo y la inflación, por cuanto los precios se ajustan antes de la ocurrencia del fenómeno,
sin embargo esta independencia debe ser probada. Por ello avances recientes consideran que la
Curva de Phillips debe ser con expectativas, en buena cuenta la independencia no se produce,
porque los agentes no estiman bien el precio y por ende hay efectos reales, esta mala estimación
se conoce como efecto sorpresa. Eso ha llevado al modelo con expectativas siguiente:

(ΔPt – ΔPt / Π t-1) = β (Dt – D*) + e (1)

Donde:

ΔPt: Inflación en el período t, calculado como la variación porcentual (%) del índice de precios Pt

ΔPt / Π t-1: Inflación estimada para el período t, dado la influencia de toda la información
disponible en t-1, esta información se resume en el conjunto de variables Π t-1,expresado en
variación %, esta variable es condicional.

Dt: Tasa de desempleo

D*: Desempleo natural, una variable constante no observable, pero que puede ser estimada a
partir de la ecuación (1) aplicando regresión con constante en este modelo.

ΔPt – ΔPt / Π t-1: Representa la inflación mal estimada, si es positiva la inflación es mayor a la
estimada o a la inversa.

Dt – D*: Representa el efecto real que existe cuando se estima mal la inflación, es decir el
desempleo real supera o es menor a la tasa natural, con lo cual hay efectos en la producción.

La lógica del modelo es: En el mercado los agentes producen más que el PBI natural
(variable estable a largo plazo o el promedio de largo plazo) cuando creen que el precio será
mayor al esperado. Cuando se da esto, el desempleo se reduce por debajo del nivel natural o de

288
Autocorrelación de errores

largo plazo. Este menor desempleo incentiva la demanda y con ello crece la inflación realmente
observada. Por lo tanto β debería ser negativo.

Para fines de estimación, consideramos que el conjunto de variables Π t-1, esta representado
por la variación porcentual de la emisión primaria (M t-1) y la variación porcentual del índice de
precios internacional de combustibles (PIC t-1), los datos son los siguientes:

Tabla 7.1 Datos para el ejercicio

Período t Pt M t (Miles Mlls) PIC t-1 Dt (%)

1 10 1000 5 5

2 11 1200 6 6

3 12 1400 7 5

4 13 1300 5 4

5 14 1500 4 3

6 15 1700 4 3

7 16 1600 5 2

8 17 1500 7 2

9 18 1800 8 3

10 19 2000 9 3

11 20 2000 13 2

Determine:

• La inflación ΔPt / Π t-1


• La tasa natural de desempleo
• La existencia de autocorrelación, mediante el estimador Durbin-Watson.
289
Autocorrelación de errores

Referencias bibliográficas
Angrist, Joshua y Jorn-Steffen Pischke (2009) Mostly Harmless Econometrics. Princeton
University Press, Capítulo 4.

Baltagi, B. (2008) Econometrics. 4th Edition Springer. USA

Breusch, T. (1978) Testing for autocorrelation dynamic linear models. Australian Economic
Papers. Vol. 17.

Godfrey, L. (1978) Testing against general autoregressive and moving average error models
when the regressor include lagged dependent variable. Econometrica. Vol. 46.

Greene, W. (2003) Econometric Analysis. Fifth Edition. Pearson Ed.

Guerrero, C. Osorio, P. Y Tiol, A. (2006) Un siglo de la curva de Phillips en México. Working


paper EGAP 2006-03. ITESM. México.

Gujarati, D. (2004) Econometría. 4ta Edic. Mc Graw Hill.

Jiménez, F. (2012) Elementos de teoría y política macroeconómica para una economía abierta.
Fondo Editorial PUCP.

Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill

Kmenta, J. (1986) Elements of Econometrics. McMillan NY. USA

Nigrinis, M. (2003) Es lineal la curva de Phillips en Colombia? Documentos de Trabajo Diciembre.


Banco de la República. Colombia

Novales, A. (1993) Econometría. Mc Graw Hill.

Phillips, A. W. (1958). “The relation between unemployment and the rate of change of money
wage rates in the United Kingdom, 1861-1957”. Economica 25: 283-299.

Samuelson, P. A. y R. M. Solow (1960), Problem of achieving and maintaining a stable price


level: analytical aspects of anti-Inflation policy, The American Economic Review, vol. 50, núm. 2,
pp. 177-94.
290
Autocorrelación de errores

Sultan, P. (1957), Labor Economics, Henry Holt and Company.


Wooldridge, J. (2009) Introductory Econometrics. A modern approach. Third Edition. Cengage
Learning.

Wooldridge, Jeffrey (2010) Econometric Analysis of cross section and panel data. The MIT Press,
Capítulos 5 y 21.

291
CAPÍTULO VIII

Modelos de respuesta
limitada: Probabilidad lineal y
logit

292
Modelos de respuesta limitada: Probabilidad lineal y logit

VIII. MODELOS DE RESPUESTA LIMITADA: PROBABILIDAD LINEAL Y LOGIT

Introducción al tema

Los estudios sociales normalmente buscan explicar el comportamiento de las personas, por
ejemplo saber si alguien comprará o no un producto es importante para las empresas, esta
decisión puede enmarcarse en dos posibilidades, cero (0) si no compra y uno (1) si compra, de
modo que estos modelos se conocen como discretos ante estas opciones o limitados, por cuanto
no superan 1 y dado la variabilidad de datos, puede ser la respuesta también una probabilidad
donde si no compra es cero y si decide comprar como máximo es una decisión con 100% de
probabilidad.

En otros casos los estudios sociales pueden querer conocer por ejemplo, cual es la
probabilidad de que un hogar deje de ser pobre, o cuál es la probabilidad de ganar más, o de
obtener un empleo en el caso de individuos que buscan empleo. Todos estos estudios son
naturalmente de corte transversal, es decir provienen de información que se extrae en un mismo
momento del tiempo y por tanto están sujetos a un correcto diseño de encuestas para evitar
errores cuadráticos cambiantes o heterocedasticidad.

Los estudios con variables probabilísticas o de respuesta limitada son muy comunes en el
campo econométrico y ayudan mucho a medir los efectos de las diversas políticas de orden
social o de los diversos impulsos que se dan para que un individuo o agente económico cambie
su comportamiento, siendo muy relevantes conocer en qué casos sus respuestas son
significativas.
293
Modelos de respuesta limitada: Probabilidad lineal y logit

8.1 Modelo de regresión de probabilidad lineal


Muchas respuestas en los modelos econométricos pueden ser de tipo dicotómico por
ejemplo:

- Desea comprar un producto: Si (1) No (0)

- Tiene empleo formal: Si (1) No (0)

- Posee vivienda propia: Si (1) No (0)

- Es madre soltera jefa de hogar: Si (1) No (0)

En cualquiera de estos casos, las variables explicativas pueden ser diversas, por ejemplo
para comprar un producto puede decidirse en función a los precios percibidos o cualidades del
producto, el empleo formal puede deberse a si el trabajador tiene calificaciones o estudios
superiores, la vivienda propia puede deberse al nivel de ingresos o tamaño familiar y si es mujer
jefa de hogar, puede deberse al grado de educación de la madre soltera.

Como se puede notar, la respuesta es simplemente una variable discreta, pero las
explicativas pueden ser variables discretas o continuas, el modelo planteado sería siempre con la
siguiente estructura:

Yi = ß0 + ß1 X1 + ß2 X2 + … + ßn Xn + ui

Donde:

Yi = 0 (si el evento no ocurre)

Yi = 1 (si el evento ocurre)

Dado que la estimación de Yi es un valor esperado condicional, se puede escribir del siguiente
modo:

E (Yi = 0/ Xi ) = ß0 + ß1 X1 + ß2 X2 + … + ßn Xn + ui

E (Yi = 1/ Xi ) = ß0 + ß1 X1 + ß2 X2 + … + ßn Xn + ui

Ahora consideremos que el evento ocurre con las siguientes probabilidades, si es exitoso, la
probabilidad es 1 (Pi) y si es fracaso la probabilidad es cero (1 - Pi), lo cual se define así:

Yi = 0 Probabilidad = 1 - Pi
294
Modelos de respuesta limitada: Probabilidad lineal y logit

Yi = 1 Probabilidad = Pi

Entonces el valor esperado de Y es:

E (Yi ) = 0 * (1 - Pi ) + Pi * 1 = Pi

Pi = ß0 + ß1 X1 + ß2 X2 + … + ßn Xn + ui

Donde Pi sigue una distribución binomial que puede representarse del siguiente modo:

P (Xi) = Combinatoria (N, X) * Pi x (1 – Pi ) (n-x) (1)

Donde:

Combinatoria (N, X) = N! / [ X! * ( N – X )! ]

La expresión !, representa el factorial de dicho número.

Considere que el evento fue un fracaso es decir Pi = 0, entonces para todo valor positivo del
número aleatorio X, la distribución de probabilidad binomial arroja el valor cero. Ahora considere
que el evento fue un éxito, es decir Pi = 1, entonces el valor de la distribución binomial será
nuevamente cero.

Ahora tomemos en cuenta que las probabilidades de suceso pueden ser números entre 0 y 1,
entonces el valor de la distribución binomial, por ejemplo para 5 datos, considerando que la
variable aleatoria X es cambiante, puede representarse en la figura que sigue.

Como pueden ver, considerando que la variable aleatoria va de 0 a 5, piense por ejemplo que
el experimento consiste en sacar de una ánfora (se sacan papeletas conteniendo el DNI)
aquellas personas que están o no desempleadas, entonces el número 0 indica que no se saco
ninguna desempleada, el número 1 indica que se sacó una desempleada y así sucesivamente
hasta sacar 5 desempleados.

La probabilidad de 0.1 para este primer caso indica que existen 10% de posibilidades de
obtener un desempleado en un conjunto cualquiera de personas, piense que en el ánfora existen
100 papeletas y el experimento es sacar al menos 10 papeletas, a ver cuales son empleados o
desempleados, en el ánfora existen al menos 10 desempleados.

295
Modelos de respuesta limitada: Probabilidad lineal y logit

Fig. 8.1 Distribución binomial para X que va de 0 a 5 con N = 5 datos

En la primera línea se muestra el comportamiento de la distribución binomial, para una


probabilidad de ocurrencia de 10% de obtener X la variable aleatoria de interés y 90% de no
obtenerla.

En el caso de la última distribución, se muestra la probabilidad de 50% de que se obtenga la


variable aleatoria de interés (en el ejemplo obtener 0, 1, 2, 3, 4 o 5 desempleados del ánfora),
igual la probabilidad de no obtener esta variable es 50%. El valor de la distribución se va
reduciendo en la medida que vamos introduciendo en el ánfora más elementos de interés, en
este caso introducimos más papeletas de desempleados, así es más probable que encontremos
un desempleado y menos probable que no lo encontremos.

Como se muestra en las distribuciones, el valor medio de la variable aleatoria X (esperanza o


valor esperado de X) va cambiando, esta se puede obtener del siguiente modo:

296
Modelos de respuesta limitada: Probabilidad lineal y logit

Tabla 8.1 Valor esperado de X en una distribución binomial

X (P = 0.1)*Xi (P = 0.2)*Xi (P = 0.3)*Xi (P = 0.5)*Xi


0 0 0 0 0
1 0.32805 0.4096 0.36015 0.15625
2 0.1458 0.4096 0.6174 0.625
3 0.0243 0.1536 0.3969 0.9375
4 0.0018 0.0256 0.1134 0.625
5 0.00005 0.0016 0.01215 0.15625
E (X) 0.5 1 1.5 2.5

El valor de cada elemento de la tabla anterior, resulta del valor de la distribución binomial por
Xi, a partir de la siguiente expresión:

E (Xi = 0) = Pi * (Xi = 0)

E (Xi = 0) = 0.59 * 0

E ( Xi = 1) = 0.328 * 1

E ( Xi = 1) = 0.07 * 2

Así sucesivamente, donde el valor de la distribución binomial siguiendo la ecuación (1) para
una probabilidad de 10% (P = 0.1) es de (mostrado en la figura 8.1):

Pi (X = 0) = 0.59

Pi (X = 1) = 0.328

Pi (X = 2) = 0.07

Entonces el valor esperado X para la distribución binominal con P=0.1, resulta en:

E X ( P = 0.1) = ∑ Pi Xi = 0.5

E X ( P = 0.2) = ∑ Pi Xi = 1

Y sucesivamente, esto puede expresarse a modo general como:

297
Modelos de respuesta limitada: Probabilidad lineal y logit

EX=N*P

Donde N es el número de datos y P es la probabilidad de éxito, en este caso 0.1, 0.2, 0.3 y
0.5, como las usadas en la tabla anterior. Si estuviéramos sólo con una distribución dicotómica
discreta, conocida como distribución de Bernoulli, el valor esperado de X es:

EX=P

La varianza en una distribución se puede expresar del siguiente modo:

Varianza = E (X 2) - ( E X) 2

Para lo cual hemos construido la tabla siguiente:

Tabla 8.2 varianza en una distribución binomial, para N = 5 datos y X de 0 a 5

X2 (P = 0.1)*Xi 2 (P = 0.2)*Xi 2 (P = 0.3)*Xi 2 (P = 0.5)*Xi 2


0 0 0 0 0
1 0.33 0.41 0.36 0.16
4 0.29 0.82 1.23 1.25
9 0.07 0.46 1.19 2.81
16 0.01 0.10 0.45 2.50
25 0.00 0.01 0.06 0.78
Suma 0.70 1.80 3.30 7.50
(EX)2 0.25 1.00 2.25 6.25
Varianza 0.45 0.80 1.05 1.25
Desviación 0.67 0.89 1.02 1.12

Los valores de la distribución binomial estimados usando la ecuación (1), se multiplican ahora
por Xi 2, estos resultados son sumados para cada nivel de probabilidad, por ejemplo para P = 0,1,
la suma resulta 0.70, lo que equivale al valor esperado: E (X2), esto se resta de la esperanza de
X cuadrática (E X) 2 estimada antes, con lo cual la varianza estimada y la desviación estándar se
muestran en el cuadro previo.

Los resultados estimados equivalen a decir que la varianza estimada de una distribución
binomial es:

298
Modelos de respuesta limitada: Probabilidad lineal y logit

Varianza X = N * P * (1 – P)

Así para una probabilidad de 0.1, se tiene una varianza de:

Varianza X = 5 * 0.1 * 0.9 = 0.45

Desviación estándar = 0.45 0.5 = 0.67

En el caso de que se tenga una variable discreta de probabilidad, la denominada Bernoulli, se


tiene que la varianza es:

Varianza X = P * (1 – P)

Finalmente hay que señalar, que la distribución binomial que sigue una variable cualquiera,
en estos modelos dicotómicos, tiene una distribución de probabilidad acumulada, mostrada en la
figura siguiente.

En este caso, el valor de la variable (para fines econométricos la respuesta probabilística es


una variable dependiente) equivalente a la probabilidad, es máximo 1, se muestra además que
toma valores entre 0 y 1, si bien el planteamiento del modelo muestra solo dos posibilidades
(éxito 1 y fracaso 0) las estimaciones de la variable dependiente son una distribución de
probabilidades continua.

Fig. 8.2 Distribución binomial acumulada para X que va de 0 a 5 con N = 5 datos

299
Modelos de respuesta limitada: Probabilidad lineal y logit

Veamos ahora una aplicación con el modelo siguiente:

Pi = ß0 + ß1 Xi + ui

Donde:

Pi = 1 si el gobierno tiene superávit fiscal primario

Pi = 0 si el gobierno tiene déficit fiscal primario

X1 = El porcentaje de inversión privada sobre el PBI

El modelo indica que si la inversión mejora, entonces se tendrá superávit del gobierno, si la
tasa de inversión privada cae, se tendrá un déficit primario. La figura siguiente ilustra el
comportamiento de las variables en el caso de Perú para los años 2009 a 2014.

Fig. 8.3 Resultado primario (0 déficit, 1 superávit) del Gobierno central e inversión privada
(% del PBI) trimestral 2009-2014

300
Modelos de respuesta limitada: Probabilidad lineal y logit

La figura previa indica que los resultados superavitarios del gobierno central (la variable toma
valor 1), tienden a relacionarse con un crecimiento de la inversión privada trimestral, lo cual
probaremos estimando los parámetros respectivos (prueba t en paréntesis):

Pi = -1.286 + 0.09 X1 + ui

(-1.87) (2.708)

R2 = 0.314

El modelo indica que el ajuste es de 31% y el parámetro X1 (la inversión privada sobre PBI)
es significativo pues tiene un valor t de 2.7, ahora veamos si el modelo presenta evidencias de
heterocedasticidad, para ello tomemos la siguiente figura:

Fig. 8.4 Error cuadrático (ui2) versus inversión privada sobre PBI (X)

La figura previa muestra una potencial heterocedasticidad, de modo que debemos corregir el
modelo, tomando en cuenta los cálculos de la desviación estándar de cada Pi estimado.

301
Modelos de respuesta limitada: Probabilidad lineal y logit

Para las correcciones consideramos, tal como muestra la tabla siguiente, que las
probabilidades estimadas (Yi’) negativas no serán tomadas en cuenta, toda vez que no existen en
el espacio binominal o discreto.

Asimismo consideramos que Yi es discreto y dicotómico, lo que supone que la varianza de


cada estimación equivale a Pi * (1 – Pi ), este valor servirá para ajustar las estimaciones
realizadas. Para corregir la heterocedasticidad usaremos el siguiente modelo:

Pi ‘ = Yi corr = ß0 + ß1 Xi corr + ui

Donde:

Yi corr = Yi / [ Pi * (1 - Pi) ] 0.5

Xi corr = Xi / [ Pi * (1 - Pi) ] 0.5

Tabla 8.3. Estimaciones de varianzas y corrección a Y’ (estimado) y X

Yi Xi Yi ' Pi Pi (1-Pi) ui u i2 Xi Yi ‘ corr Xi corr


0 12.355 -0.178 0.178 0.032 12.355 - -
1 18.742 0.394 0.394 0.239 0.606 0.367 18.742 0.806 38.355
1 20.664 0.566 0.566 0.246 0.434 0.188 20.664 1.143 41.695
0 18.714 0.392 0.392 0.238 -0.392 0.153 18.714 0.802 38.341
0 18.028 0.330 0.330 0.221 -0.330 0.109 18.028 0.702 38.338
1 22.676 0.747 0.747 0.189 0.253 0.064 22.676 1.717 52.141
1 21.871 0.675 0.675 0.220 0.325 0.106 21.871 1.440 46.678
1 19.705 0.480 0.480 0.250 0.520 0.270 19.705 0.962 39.441
0 18.249 0.350 0.350 0.227 -0.350 0.122 18.249 0.734 38.263
1 20.645 0.565 0.565 0.246 0.435 0.190 20.645 1.139 41.640
1 23.776 0.845 0.845 0.131 0.155 0.024 23.776 2.337 65.738
0 23.149 0.789 0.789 0.166 -0.789 0.623 23.149 1.934 56.741
0 17.146 0.251 0.251 0.188 -0.251 0.063 17.146 0.579 39.544
1 24.495 0.910 0.910 0.082 0.090 0.008 24.495 3.174 85.459
1 24.037 0.869 0.869 0.114 0.131 0.017 24.037 2.571 71.155
0 22.803 0.758 0.758 0.183 -0.758 0.575 22.803 1.770 53.242
0 18.320 0.356 0.356 0.229 -0.356 0.127 18.320 0.744 38.255
1 24.413 0.902 0.902 0.088 0.098 0.010 24.413 3.040 82.255

302
Modelos de respuesta limitada: Probabilidad lineal y logit

Los resultados del modelo corregido son los siguientes (usando constante pero puede
correrse sin constante, lo cual ajusta más el modelo, la prueba t está en paréntesis):

Pi ’ = -1.163219 + 0.0523105 X1 corr + ui

(-9.81) (23.53)

R2 = 0.97

Como indica la versión corregida del modelo (sin heterocedasticidad), el parámetro constante
y la pendiente se han ajustado a la baja (tienen menos varianza), así encontramos que la
inversión privada sobre PBI (%) tiene un efecto de 0.05 en la probabilidad de que el gobierno
tenga un resultado primario positivo (1% de crecimiento de la inversión privada eleva 5% la
probabilidad de superávit).

Ambas variables son significativas y el ajuste del modelo es 97%. Con lo cual los resultados
son de mejor explicación y ajuste que el modelo anterior, producto de que ahora tenemos
variables corregidas sin el efecto de la varianza. Hay que notar que Yi es discreto o sigue la
distribución de Bernoulli, mientras que Yi’ es continuo y sigue una distribución binominal, siendo
una versión ajustada del primero, pero de mayor consistencia.

No obstante el R2 no es buen indicador de ajuste, como hemos visto en figuras previas, la


distribución de datos no es normal sino Binomial (de forma discreto es de Bernoulli) esto limita el
uso del coeficiente de determinación, por lo que en este caso el indicador es más bien
referencial.

8.2 Modelo de regresión Logit


Las distribuciones de datos no siempre son normales (es decir simétricas) como hemos
venido considerando, muchas veces los datos se agrupan en algún lado de la distribución, por
ejemplo:

- En las colas de atención normalmente los usuarios llegan concentrados por horas, por
ejemplo primeras horas de la mañana o últimas horas de la tarde. Las teorías de colas
recogen este comportamiento a través de distribución de datos tipo Poisson.

- En los estudios sobre nivel educativo, es más probable encontrar individuos con
estudios básicos antes que superiores. Del total de población existente, las mayorías
se concentran estudios primarios y secundarios, mientras que la minoría se concentra
303
Modelos de respuesta limitada: Probabilidad lineal y logit

en estudios técnicos superiores y un grupo más reducido son los que siguen estudios
universitarios.

- Por ejemplo, en la figura siguiente tenemos la distribución de ingresos de los hogares


en el Perú, como puede verse estos hogares en su mayoría se concentran en los de
bajos ingresos y muy pocos llegan a los ingresos, altos por ejemplo 5,000 soles.

Fig. 8.5 Perú: Distribución de Ingresos por hogar 2013 (%) en soles netos por mes
40
30
Percent
20 10
0

0 5000 10000 15000 20000


(ocupaciÛn principal) ingreso lÌquido

Fuente: ENAHO 2013 – INEI

La figura anterior indica una concentración de datos hacia la izquierda, es decir hacia la parte
baja de ingresos, esto no es evidentemente una distribución normal, lo cual limita las

304
Modelos de respuesta limitada: Probabilidad lineal y logit

estimaciones de mínimos cuadrados, en estos casos inclusive los errores no siguen una
distribución normal.

Un problema adicional de los modelos de regresión binomiales o de elección dicotómica es la


posibilidad de que la estimación sea mayor que 1 o menor que cero, lo cual genera pérdidas de
datos, sobre todo si se quiere probar la heterocedasticidad, en estos casos los modelos previos
son de uso limitado y si los datos son no normales, entonces hay que recurrir a otra forma de
estimación.

Existe además secuencias de datos que no son necesariamente dicotómicas, por ejemplo si
tomamos como variable dependiente el nivel educativo, este puede tomar valores desde 0 a 1, 2,
3… y sucesivamente, donde 3 puede ser primaria completa. En este caso tenemos modelos de
tipo multinomial, cuya estimación supera los modelos de probabilidad lineal ya vistos
previamente.

Una forma de resolver los problemas previos, es plantear un modelo de distribución de datos
logística o Logit, en este tipo de distribución la probabilidad de éxito cambia lentamente conforme
la variable aleatoria se acerca a cero, lo mismo sucede si la variable es muy grande.

Fig. 8.6 Modelo Logit y Modelo de probabilidad lineal

305
Modelos de respuesta limitada: Probabilidad lineal y logit

Si se ve la figura anterior; en la distribución logística, la tasa de cambio de la frecuencia o


probabilidad entre cada nivel de ingresos, a medida que sube la variable, es pequeña, además
esto supone que la probabilidad no crece linealmente sino a tasas diferenciadas y continuas.
Esto implica que no estamos en presencia de un modelo de elección binario como el de Bernoulli
(dicotómico) sino en presencia de otra distribución, previamente señalada como Logit, que
cumple además la condición de tener estimaciones acotadas entre 0 y 1.

Como indica la figura analizada, el modelo de probabilidad lineal puede dar estimados que
superan a 1 o son menores que cero, sin embargo el modelo logit esta diseñado para ser
acotado entre 0 y 1, además es no lineal en X o la variable explicativa.

A partir de la figura anterior tenemos que las probabilidades de éxito Pi y de fracaso (1 - Pi)
son:

Pi = 1 / [ 1 + e – (ß0 + ß1 Xi ) ]

1- Pi = 1 - 1 / [ 1 + e – (ß0 + ß1 Xi ) ]

1- Pi = [ 1 + e – (ß0 + ß1 Xi ) – 1 ] / [ 1 + e – (ß0 + ß1 Xi ) ]

1- Pi = e – (ß0 + ß1 Xi ) / [ 1 + e – (ß0 + ß1 Xi ) ]

1- Pi = e – (ß0 + ß1 Xi ) * e (ß0 + ß1 Xi ) / [ e (ß0 + ß1 Xi ) + 1 ]

1- Pi = 1 / [ e (ß0 + ß1 Xi ) + 1 ]

Pi / (1 – Pi ) = ( 1 / [ 1 + e – (ß0 + ß1 Xi ) ] ) / (1 / [ e (ß0 + ß1 Xi ) + 1 ] )

Pi / (1 – Pi ) = (e (ß0 + ß1 Xi ) / [ 1 + e (ß0 + ß1 Xi ) ] ) / (1 / [ e (ß0 + ß1 Xi ) + 1 ] )

Pi / (1 – Pi ) = e (ß0 + ß1 Xi )

Pi / (1 – Pi ) = e Z est

Donde Z est (estimado) = ß0 + ß1 Xi

En logaritmos:

Ln [ Pi / (1 – Pi ) ] = ß0 + ß1 Xi

306
Modelos de respuesta limitada: Probabilidad lineal y logit

De modo que la estimación del modelo econométrico es una función de tipo logística.
Consideremos que la función de distribución probabilística logit (la versión acumulada de la figura
anterior) es:

L (Y1, Y2, Y3 ….Yn) = ∏ F ( Yi) = ∏ Pi Yi (1 – Pi) (1 - Yi)

En este caso contamos con una variable aleatoria Y con “n” datos o elementos, que toma
valores entre 0 y 1, estos valores son para un conjunto de probabilidades Pi y (1 - Pi ), de modo
que la función previa es un producto de todas las distribuciones, note que la función logit tiene
mucho parecido con la binomial, donde:

∏ = Función producto para todas las distribuciones de Yi

L = Función de verosimilitud Logit

Ahora expresemos la función L en logaritmos y obtenemos:

Ln L (Y1, Y2, Y3 ….Yn) = ∑ [ Yi Ln Pi + ( 1- Yi ) Ln (1 – Pi ) ]

= ∑ [ Yi Ln Pi + Ln (1 – Pi ) - Yi Ln (1 – Pi ) ]

= ∑ [ Yi (Ln Pi + Ln (1 – Pi ) + Ln (1 – Pi ) ]

= ∑ [ Yi Ln ( Pi / Ln (1 – Pi ) ) + Ln (1 – Pi ) ]

Ln L (Y1, Y2, Y3 ….Yn) = ∑ Yi Ln ( Pi / Ln (1 – Pi ) ) + ∑ Ln (1 – Pi )

Ln L (Y1, Y2, Y3 ….Yn) = ∑ Yi ( ß0 + ß1 Xi ) + ∑ Ln (1 / [ e (ß0 + ß1 Xi ) + 1 ] )

Ln L (Y1, Y2, Y3 ….Yn) = ∑ Yi ( ß0 + ß1 Xi ) – (1) ∑ Ln [ e (ß0 + ß1 Xi ) + 1 ]

Si derivamos la función logit con respecto a ß0 (maximizando el valor de la función) e


igualamos a cero, obtenemos:

∂ Ln L / ∂ ß0 = 0

∂ Ln L / ∂ ß0 = ∑ Yi - ∑ [ ( 1 / [ e (ß0 + ß1 Xi ) + 1] ) * (ß0 + ß1 Xi ) * [ e (ß0 + ß1 Xi ) + 1 ] (1) ] = 0

∂ Ln L / ∂ ß0 = ∑ Yi - ∑ ( ß0 + ß1 Xi ) = 0

∑ Yi - N ß0 + ß1 ∑ Xi = 0

307
Modelos de respuesta limitada: Probabilidad lineal y logit

N ß0 = ∑ Yi - ß1 ∑ Xi

Entonces el valor esperado o también ß0 estimado es:

E ß0 = Ym - ß1 X m

Donde:

Ym: es la media de Y

Xm: es la media de X

La estimación del parámetro es similar a la obtenida en los estimadores de mínimos


cuadrados, de modo que podemos emplear esta forma de cálculo para obtener los parámetros en
el modelo Logit. Del mismo modo puede expresarse el valor de ß1.

Hay dos formas de ver el modelo logit, una es el logit agrupado y la otra es el logit binomial
(cuando la variable dependiente toma valores entre 0 y 1).

8.2.1 Logit agrupado

En el caso del logit agrupado, se tiene el ejemplo siguiente, que plantea analizar la relación
entre la capitalización de una empresa que cotiza en bolsa y su respectiva rentabilidad,
para ello se requieren los datos siguientes:

Tabla 8.4 Empresas rentables según capitalización bursátil

Capitalización Miles
Sector Empresa Soles (Xi) Total empresas (Ni) Rentables (ni)
AFP Integra 55,467 4 1
Habitat 43,826 0
Prima 255,392 1
Profuturo 181,26 1
Agrarias Paramonga 332,709 18 0
Pucalá 208,822 0
Laredo 347,479 1
San Jacinto 119,501 1
308
Modelos de respuesta limitada: Probabilidad lineal y logit

Capitalización Miles
Sector Empresa Soles (Xi) Total empresas (Ni) Rentables (ni)
Cartavio 232,772 1
Casa Grande 774,957 1
Chucarapi 56,220 0
Andahuasi 227,462 0
Chiquitoy 888 1
Salamanca 40,027 0
La Unión 2,559 0
San Juan 60,000 1
Sintuco 34,599 0
Cayaltí 18,857 0
Pomalca 64,957 0
Tumán 28,749 0
Ingenio 43,699 0
Fanupe 2139 0
Fuente: BVL 2014

Como se indica en la tabla previa, en el sector de Administradoras de Fondos de


Pensiones (AFP) existen 4 empresas, las mismas que tienen su respectiva capitalización
bursátil (el valor en la bolsa de todas sus acciones), de estas empresa 3 fueron rentables
(usando como indicador la tasa de rentabilidad patrimonial anual positiva) y una no lo fue. En
el sector agrarias se tienen 18 empresas de las cuales 6 fueron rentables. La tabla previa
puede resumirse de modo que se use en un modelo logit agrupado.

Considere ahora la tabla siguiente, donde se cuenta con datos reales y datos hipotéticos
(debido a que algunas empresas no tienen información del último año al estar en
reorganización). La tabla 8.4 es la fuente para las dos primeras filas de AFP y empresas
agrarias, el resto de datos fueron añadidos, de ese modo se construye la tabla para tener un
logit de tipo agrupado.

Con fines de tener un dato que represente la variable Xi agrupada, se ha tomado el valor
de mercado o capitalización bursátil más alta por sector, este dato es tomado de la Bolsa de
Valores de Lima (BVL) y se hace considerando que la variabilidad en los tamaños de
empresas es muy alto, de modo que el promedio puede ser un mal referente del grupo, no

309
Modelos de respuesta limitada: Probabilidad lineal y logit

obstante la posibilidad de que el logit agrupado sea heterocedástico es alta para cualquier
tipo de estos modelos.

Tabla 8.5 Tabla de datos sobre rentabilidad de empresas para modelo logit

Sector Capitalización más alta (Xi) Total empresas (Ni) Rentables (ni) * Pi
AFP 255,392 4 3 0.75
Agrarias 774,957 18 6 0.33
Bancos 24,086,035 31 22 0.71
Diversas 6,435,524 68 41 0.60
Fondos de inversión 91,071 9 3 0.33
Industriales 5,285,275 47 19 0.40
Mineras 8,411,631 43 19 0.44
Seguros 348,384 18 5 0.28
Servicios 9,371,780 29 21 0.72
* Datos hipotéticos

Note que al final aparece el estimado de Pi, tomando la siguiente expresión:

Pi = ni / Ni

En este caso se tiene la probabilidad de que haya empresas rentables en cada sector o
actividad económica, en función a la capitalización bursátil, el modelo finalmente será:

Li = Ln [ Pi / (1 – Pi ) ] = ß0 + ß1 Xi

Considerando que el modelo tiene heterocedasticidad, estimaremos lo siguiente:

Li * wi 0.5 = ß0* wi 0.5 + ß1* Xi * wi 0.5

Para esta estimación tenga en cuenta que no hay constante, consideremos la tabla siguiente
con toda la información necesaria para ello:

310
Modelos de respuesta limitada: Probabilidad lineal y logit

Tabla 8.6. Estimación del Logit para la rentabilidad de empresas según capitalización

Xi Pi 1 - Pi Ln (Pi / 1 - Pi ) = Li Ni Pi (1 - Pi ) = wi wi 0.5 Li * wi 0.5 Xi*wi 0.5


255,392 0.75 0.25 1.10 0.75 0.87 0.95 221,176
774,957 0.33 0.67 -0.69 4.00 2.00 -1.39 1,549,914
24,086,035 0.71 0.29 0.89 6.39 2.53 2.26 60,871,929
6,435,524 0.60 0.40 0.42 16.28 4.03 1.69 25,965,893
91,071 0.33 0.67 -0.69 2.00 1.41 -0.98 128,794
5,285,275 0.40 0.60 -0.39 11.32 3.36 -1.30 17,781,749
8,411,631 0.44 0.56 -0.23 10.60 3.26 -0.76 27,392,294
348,384 0.28 0.72 -0.96 3.61 1.90 -1.82 662,031
9,371,780 0.72 0.28 0.97 5.79 2.41 2.32 22,556,812

En la tabla anterior, se ha tomado como varianza del modelo logit agrupado, la siguiente
expresión (note que es similar al modelo binomial) que sería la inversa de la varianza del
error (ui):

Varianza Li = 1 / Var (ui) = wi = Ni * Pi * (1 - Pi)

En base a la tabla anterior, se hizo una regresión de mínimos cuadrados ponderados (ya
que tanto Li como Xi han sido ponderados con wi 0.5) los resultados son los siguientes:

Li ponderado = -0.4194912 * wi 0.5 + 0.0000000641 * Xi ponderado + ui

(1.54) (2.33) R2 = 0.44

Los resultados de la regresión por Logit Agrupado indican que la variable capitalización
bursátil (equivale también al valor y tamaño de la empresa), tiene un efecto positivo (aunque
pequeño) en el logaritmo ponderado que mide la probabilidad de ser rentable, para cada
sector analizado con los datos de la tabla 8.5 (algunos datos hipotéticos).

Visto desde el análisis de significancia con la prueba t ( en paréntesis), la variable Xi es


significativa, mientras que el parámetro relacionado con la desviación estándar no lo es.

Ahora estimaremos la probabilidad de ocurrencia de Yi (la rentabilidad) para cada


elemento Xi (capitalización bursátil o tamaño de la empresa):

311
Modelos de respuesta limitada: Probabilidad lineal y logit

Tabla 8.7. Estimación de la probabilidad de ser rentable dado un tamaño empresarial

Li ponderado Li ' ez Pi Cambio


-0.35 -0.40 0.67 0.40 0.000000015
-0.74 -0.37 0.69 0.41 0.000000015
2.84 1.12 3.08 0.75 0.000000012
-0.03 -0.01 0.99 0.50 0.000000016
-0.58 -0.41 0.66 0.40 0.000000015
-0.27 -0.08 0.92 0.48 0.000000016
0.39 0.12 1.13 0.53 0.000000016
-0.75 -0.40 0.67 0.40 0.000000015
0.44 0.18 1.20 0.55 0.000000016

El logit (Li) ponderado se obtiene usando los resultados de la regresión del logit agrupado,
mientras que el Logit estimado (Li ’ ), se obtiene del siguiente modo:

Li ‘ = Li ponderado / wi 0.5

Siguiendo las fórmulas mostradas previamente, obtenemos la probabilidad para cada


capitalización bursátil o tamaño empresarial medido por la variable X. Así si el tamaño es de
255 millones de soles, la probabilidad de ser rentable es de 40%; mientras que si el tamaño
es de 774 millones, la probabilidad es 41%.

Para un tamaño de 24 mil millones de soles, la probabilidad de ser rentable es de 75%,


mientras que en el último caso, si el tamaño de la empresa (capitalización bursátil) es de 9 mil
millones de soles, la probabilidad de ser rentable es de 55%.

La estimación del Logit Agrupado, puede realizarse mediante el programa Stata ©, para
ello hay que cargar los datos respectivos mediante la opción de importación, en el cuadro de
variables deben aparecer X, N y n, tal como se muestra en el Data Editor del programa (click
en el menú Browse):

312
Modelos de respuesta limitada: Probabilidad lineal y logit

Fig. 8.7 Data Editor en Stata con variables necesarias para un Logit Agrupado

Una vez cargado los datos, se coloca en Do-file Editor la sentencia para el logit agrupado
del siguiente modo:

blogit N, n X

Está indicando que se agrupan los datos por N, con n sale la probabilidad (P i) y X es la
variable explicativa, los resultados en Stata se muestran en la figura siguiente, note que es
muy aproximado al cálculo manual que hemos realizado, debido al mayor uso de dígitos por
parte del programa:

313
Modelos de respuesta limitada: Probabilidad lineal y logit

Fig. 1.8 Resultados de Logit Agrupado para X tamaño empresarial y Pi Rentabilidad

. blogit n N X

Logistic regression for grouped data Number of obs = 267


LR chi2(1) = 10.74
Prob > chi2 = 0.0010
Log likelihood = -179.4723 Pseudo R2 = 0.0291

_outcome Coef. Std. Err. z P>|z| [95% Conf. Interval]

X 6.53e-08 2.11e-08 3.10 0.002 2.40e-08 1.07e-07


_cons -.4160216 .1988611 -2.09 0.036 -.8057822 -.026261

Los resultados señalan que la variable X es significativa (z con una probabilidad cercana a
cero) y también es significativa la constante, se tiene un Seudo R2 de 2.9%, indicador que
veremos en la sección final de este capítulo.

8.2.2 Logit individual

El logit individual puede ser binominal (para una respuesta dicotómica) o multinomial
(respuestas discretas), para cada elemento de la variable independiente se estima la
probabilidad respectiva usando la variable tal cual se obtiene en la muestra de información,
no se hacen agrupamiento de datos ni se obtiene probabilidades ex - ante, las estimaciones
se hacen directamente con las variables dependiente e independiente.

Usaremos un ejemplo con datos tomados de Gujarati (2003, pg 583), considerando el


siguiente modelo:

Nota_final = ß0 + ß 1 Promed_inicial + ß 2 Nota_diagn + ß 3 Aplica_met

El modelo indica que la nota final o promedio final de un curso actual (Nota_final),
depende del promedio inicial (Promed_inicial) que obtiene el alumno (es decir el promedio
que obtuvo en el período anterior en cursos relacionados o requisitos), otra variable que
314
Modelos de respuesta limitada: Probabilidad lineal y logit

influye en la nota final es la Nota de diagnóstico (Nota_diagn) o prueba de entrada del alumno
en el curso, donde se evalúa si conoce los temas o materias necesarias y llevadas
previamente para estudiar el curso actual y finalmente la última variable influyente es si el
profesor aplica metodologías activas en el aula (Aplica_met), por ejemplo uso de internet,
multimedia, debates, trabajos y otros que involucran al alumno fuertemente.

Los datos se muestran en el cuadro siguiente:

Tabla 8.8 Datos para el modelo logit explicativo de la nota final de un curso

id Promed_inicial Nota_diagn Aplica_met Nota_final


1 2.66 20.00 0 0
2 2.89 22.00 0 0
3 3.28 24.00 0 0
4 2.92 12.00 0 0
5 4.00 21.00 0 1
6 2.86 17.00 0 0
7 2.76 17.00 0 0
8 2.87 21.00 0 0
9 3.03 25.00 0 0
10 3.92 29.00 0 1
11 2.63 20.00 0 0
12 3.32 23.00 0 0
13 3.57 23.00 0 0
14 3.26 25.00 0 1
15 3.53 26.00 0 0
16 2.74 19.00 0 0
17 2.75 25.00 0 0
18 2.83 19.00 0 0
19 3.12 23.00 1 0
20 3.16 25.00 1 1
21 2.06 22.00 1 0
22 3.62 28.00 1 1
23 2.89 14.00 1 0
315
Modelos de respuesta limitada: Probabilidad lineal y logit

24 3.51 26.00 1 0
25 3.54 24.00 1 1
26 2.83 27.00 1 1
27 3.39 17.00 1 1
28 2.67 24.00 1 0
29 3.65 21.00 1 1
30 4.00 23.00 1 1
31 3.10 21.00 1 0
32 2.39 19.00 1 1

Con los datos se procedió a estimar el modelo Logit, usando Stata ©:

Fig. 8.9 Resultados Logit individual modelo para estimar la Nota Final
. logit Nota_final Promed_inicial Nota_diagn Aplica_met

Iteration 0: log likelihood = -20.59173


Iteration 1: log likelihood = -13.259769
Iteration 2: log likelihood = -12.894607
Iteration 3: log likelihood = -12.889639
Iteration 4: log likelihood = -12.889634
Iteration 5: log likelihood = -12.889634

Logistic regression Number of obs = 32


LR chi2(3) = 15.40
Prob > chi2 = 0.0015
Log likelihood = -12.889634 Pseudo R2 = 0.3740

Nota_final Coef. Std. Err. z P>|z| [95% Conf. Interval]

Promed_inicial 2.826113 1.262941 2.24 0.025 .3507936 5.301432


Nota_diagn .0951577 .1415542 0.67 0.501 -.1822835 .3725988
Aplica_met 2.378688 1.064564 2.23 0.025 .2921801 4.465195
_cons -13.02135 4.931324 -2.64 0.008 -22.68656 -3.356129

316
Modelos de respuesta limitada: Probabilidad lineal y logit

Como puede verse la estimación es bastante sencilla y permite señalar al menos usando la
probabilidad (P > z), que las variables significativas son el Promedio inicial (0.025 dentro del
5% de rechazo de la hipótesis nula), Aplica metodología y la constante. La variable Nota
diagnóstico no es significativa. En buena cuenta si el alumno tiene un buen promedio (señal
de que se preocupa por cumplir lo requerido en sus cursos) es probable que apruebe el curso
siguiente, esto se refuerza si el profesor aplica metodologías activas.

Las estimaciones de las probabilidades de suceso, se realizan considerando que

Zi est = ß0 + ß 1 Promed_inicial + ß 2 Nota_diagn + ß 3 Aplica_met

Adicional a esto se considera que:

Pi = e Z est / (1+ e Z est )

Las estimaciones se muestran en la tabla siguiente:

Tabla 8.9 Probabilidades estimadas para la Nota final

Id Z est e z est Pi
1 -3.60 0.03 0.03
2 -2.76 0.06 0.06
3 -1.47 0.23 0.19
4 -3.63 0.03 0.03
5 0.28 1.33 0.57
6 -3.32 0.04 0.03
7 -3.60 0.03 0.03
8 -2.91 0.05 0.05
9 -2.08 0.13 0.11
10 0.82 2.26 0.69
11 -3.69 0.03 0.02
12 -1.45 0.23 0.19
13 -0.74 0.48 0.32
14 -1.43 0.24 0.19
15 -0.57 0.56 0.36
16 -3.47 0.03 0.03
317
Modelos de respuesta limitada: Probabilidad lineal y logit

17 -2.87 0.06 0.05


18 -3.22 0.04 0.04
19 0.36 1.44 0.59
20 0.67 1.95 0.66
21 -2.73 0.07 0.06
22 2.25 9.51 0.90
23 -1.14 0.32 0.24
24 1.75 5.76 0.85
25 1.65 5.18 0.84
26 -0.08 0.93 0.48
27 0.56 1.74 0.64
28 -0.81 0.44 0.31
29 1.67 5.32 0.84
30 2.85 17.29 0.95
31 0.12 1.12 0.53
32 -2.08 0.12 0.11

De acuerdo con la tabla previa, el primer entrevistado tiene una probabilidad de aprobar el
curso de 3%, el segundo tiene una probabilidad de 6% y así sucesivamente, el último
entrevistado tiene una probabilidad de aprobar el curso actual, de 11%.

Podemos observar que las probabilidades suben conforme va subiendo el promedio inicial,
por ejemplo la probabilidad de aprobar el curso para un promedio inicial de 2.06 es de 6%
(véase el entrevistado 21), mientras que la probabilidad de aprobar el curso para quien
obtuvo un promedio inicial de 4 es de 57%, reflejando las relaciones que se establecen del
modelo.

8.3 Significancia y ajuste en modelos Logit


Como los modelos Logit no se basan en distribuciones normales hay que definir algunos
indicadores de la confianza o bondad de ajuste, tanto de los parámetros como del modelo
diseñado.

318
Modelos de respuesta limitada: Probabilidad lineal y logit

Para ello usemos el mismo ejemplo del caso anterior, para empezar los parámetros de un
modelo logit se analizan con el ratio z, que se estima del siguiente modo:

z = ßi / SE (ßi)

Si este valor tiende a cero, entonces cae en la región de rechazo de la hipótesis nula, que
indica que el parámetro es igual a cero. De este modo los coeficientes del modelo y sus
respectivos valores z son:

Tabla 8.10 Significancia de parámetros

Error
variable Parámetro estándar Valor Z Ratio Wald
Promed_inicial 2.826113 1.26 2.24 5.01
Nota_diagn 0.095158 0.14 0.67 0.45
Aplica_met 2.378688 1.06 2.23 4.99
Constante -13.021350 4.93 -2.64 6.97

El valor “z” debe superar a 2 para poder indicar que la variable es significativa, en el ejemplo
trabajado, la variable Nota_diagn no es significativa.

El ratio Wald es el valor z 2, indica que la distribución de los parámetros sigue una secuencia
t 2,
por lo que el valor crítico será 4, de modo que si el valor calculado supera a 4, se puede decir
que tenemos un variable significativa.

Otros indicadores que ayudan a entender la importancia y el impacto de los parámetros son el
ratio ODDS y los efectos marginales.

Tabla 8.11 Impacto de parámetros

Efecto
Variable Ratio ODDS marginal
Promed_inicial 16.87971 0.3626
Nota_diagn 1.099832 0.0122
Aplica_met 10.79073 0.3052

319
Modelos de respuesta limitada: Probabilidad lineal y logit

La tabla anterior indica que el parámetro de mayor importancia en el modelo es el promedio


inicial, medido con su ratio Odds de 16.8, le sigue la variable Aplica metodología con un ratio de
10.7 y finalmente la variable nota diagnóstico.

ODDS = e ß

Los efectos marginales indican como impacta cada parámetro en la estimación final de la
probabilidad, así el parámetro Promedio inicial impacta en la probabilidad de aprobar el curso en
36%, mientras que el parámetro Nota diagnóstico sólo impacta en la probabilidad de aprobar en
un 1%. Finalmente el parámetro aplica metodología, impacta en la probabilidad de aprobar en un
30.5%, de este análisis la variable de mayor impacto en e modelo es el Promedio Inicial.

Veamos la tabla siguiente donde se muestra el cálculo de los efectos marginales para cada
entrevistado y el promedio mostrado:

Tabla 8.12 Cálculo de efectos marginales en Logit

Pi Pi (1 - Pi) Promed_inicial Nota_diagn Aplica_met


0.03 0.03 0.07 0.00 0.06
0.06 0.06 0.16 0.01 0.13
0.19 0.15 0.43 0.01 0.36
0.03 0.03 0.07 0.00 0.06
0.57 0.25 0.69 0.02 0.58
0.03 0.03 0.10 0.00 0.08
0.03 0.03 0.07 0.00 0.06
0.05 0.05 0.14 0.00 0.12
0.11 0.10 0.28 0.01 0.23
0.69 0.21 0.60 0.02 0.51
0.02 0.02 0.07 0.00 0.06
0.19 0.15 0.43 0.01 0.37
0.32 0.22 0.62 0.02 0.52
0.19 0.16 0.44 0.01 0.37
0.36 0.23 0.65 0.02 0.55
0.03 0.03 0.08 0.00 0.07
0.05 0.05 0.14 0.00 0.12

320
Modelos de respuesta limitada: Probabilidad lineal y logit

0.04 0.04 0.10 0.00 0.09


0.59 0.24 0.68 0.02 0.58
0.66 0.22 0.63 0.02 0.53
0.06 0.06 0.16 0.01 0.14
0.90 0.09 0.24 0.01 0.20
0.24 0.18 0.52 0.02 0.44
0.85 0.13 0.36 0.01 0.30
0.84 0.14 0.38 0.01 0.32
0.48 0.25 0.71 0.02 0.59
0.64 0.23 0.65 0.02 0.55
0.31 0.21 0.60 0.02 0.51
0.84 0.13 0.38 0.01 0.32
0.95 0.05 0.15 0.00 0.12
0.53 0.25 0.70 0.02 0.59
0.11 0.10 0.28 0.01 0.23
Efectos Marginales
Promedio 0.36258 0.01221 0.30518

Donde los efectos marginales (como cambia la probabilidad ante cambios en X) individuales
se calculan del siguiente modo:

∂Pi / ∂Xi = [ ∂Pi / ∂Z ] [ ∂Z / ∂Xi ]

Donde:

Z = ßi Xi

∂Z / ∂Xi = ßi

Pi = 1 / [ 1 + e – Z ]

∂Pi / ∂Z = e – Z / ( 1+ e – Z ) 2

Pi * ( 1 - Pi ) = ( 1 / [ 1 + e – Z ] ) ( 1 – (1 / [ 1 + e – Z ] )) = e – Z / ( 1+ e – Z ) 2

321
Modelos de respuesta limitada: Probabilidad lineal y logit

Con las estimaciones anteriores, podemos señalar que los efectos marginales individuales
(para cada variable explicativa del modelo) resultan en:

ßi * Pi ( 1- Pi )

El efecto marginal promedio, sería la sumatoria de la expresión anterior entre el número de


datos. El programa Stata © también computa los efectos marginales para ello, una vez estimado
el logit, se usa el comando margins, del modo que se ve en la figura 8.10, donde dy/dx es el
indicador de efecto marginal.

Otros valores que nos ayudarán a estimar indicadores de ajuste del modelo son los
estimados de las funciones logit de verosimilitud que ya hemos visto anteriormente. Así se
cuentan con dos estimados, uno es L (M), donde M indica el máximo número de iteraciones
realizadas para el modelo y el otro es L(0) para la iteración de inicio.

Fig. 8.10 Estimación de efectos marginales con Stata ©

. . margins, dydx(Promed_inicial Nota_diagn Aplica_met)

Average marginal effects Number of obs = 32


Model VCE : OIM

Expression : Pr(Nota_final), predict()


dy/dx w.r.t. : Promed_inicial Nota_diagn Aplica_met

Delta-method
dy/dx Std. Err. z P>|z| [95% Conf. Interval]

Promed_inicial .3625808 .1094412 3.31 0.001 .1480801 .5770815


Nota_diagn .0122084 .0177942 0.69 0.493 -.0226675 .0470843
Aplica_met .3051777 .0923796 3.30 0.001 .1241171 .4862383

Cada iteración en la función de verosimilitud, supone el uso de los parámetros del modelo, así
podemos señalar que:

L(0), estima la función de verosimilitud considerando que es:

322
Modelos de respuesta limitada: Probabilidad lineal y logit

Σ Yi * Ln Pi + (1 - Yi ) * Ln (1 - Pi )

Donde Yi es el estimado de la función logit usando sólo el parámetro constante, que en


nuestro modelo de ejemplo es -13.021, así el valor de Yi es:

Yi = e Zi = 0.000002213

Como vemos el resultado es una constante. Con esos datos nos aproximamos al valor de L (0),
que en el modelo resultó - 20.59. Donde Pi proviene de la tabla 8.9.

L(5) la máxima iteración lograda en el modelo de ejemplo, se estimó considerando que es:

Σ Pi * Ln Pi + (1 - Pi ) * Ln (1 - Pi )

Donde:

Pi = e Z / (1+ e Z )

El valor de Z incluye todos los parámetros del modelo, la tabla 8.9 ya muestra los cálculos de
Pi, en este caso sólo se ha procedido a hallar los logaritmos y ponderarlos. Con estos datos el
valor de L(5) para las iteraciones realizadas con todos los parámetros fue de -12.88.

La tabla siguiente muestra los cálculos:

Tabla 8.13 Estimación del logaritmo de verosimilitud LM (5)

[ Pi Ln Pi ] +
Pi Ln Pi Ln (1 - Pi) Pi Ln Pi (1- Pi )( Ln (1 - Pi)) [ (1- Pi )( Ln (1 - Pi)) ]
0.03 -3.628 -0.027 -0.096 -0.026 -0.123
0.06 -2.822 -0.061 -0.168 -0.058 -0.226
0.19 -1.675 -0.207 -0.314 -0.169 -0.482
0.03 -3.653 -0.026 -0.095 -0.026 -0.120
0.57 -0.562 -0.844 -0.320 -0.363 -0.683
0.03 -3.356 -0.035 -0.117 -0.034 -0.151
0.03 -3.630 -0.027 -0.096 -0.026 -0.122
0.05 -2.965 -0.053 -0.153 -0.050 -0.203
0.11 -2.197 -0.118 -0.244 -0.105 -0.349
0.69 -0.366 -1.183 -0.254 -0.362 -0.616

323
Modelos de respuesta limitada: Probabilidad lineal y logit

0.02 -3.710 -0.025 -0.091 -0.024 -0.115


0.19 -1.661 -0.211 -0.316 -0.171 -0.486
0.32 -1.132 -0.389 -0.365 -0.264 -0.629
0.19 -1.644 -0.215 -0.318 -0.173 -0.491
0.36 -1.019 -0.448 -0.368 -0.286 -0.654
0.03 -3.500 -0.031 -0.106 -0.030 -0.135
0.05 -2.926 -0.055 -0.157 -0.052 -0.209
0.04 -3.255 -0.039 -0.126 -0.038 -0.163
0.59 -0.528 -0.891 -0.311 -0.366 -0.677
0.66 -0.414 -1.081 -0.274 -0.367 -0.641
0.06 -2.791 -0.063 -0.171 -0.059 -0.231
0.90 -0.100 -2.352 -0.090 -0.224 -0.314
0.24 -1.420 -0.277 -0.343 -0.210 -0.553
0.85 -0.160 -1.911 -0.136 -0.283 -0.419
0.84 -0.176 -1.822 -0.148 -0.295 -0.442
0.48 -0.732 -0.656 -0.352 -0.340 -0.692
0.64 -0.453 -1.009 -0.288 -0.368 -0.656
0.31 -1.180 -0.367 -0.363 -0.254 -0.617
0.84 -0.172 -1.843 -0.145 -0.292 -0.437
0.95 -0.056 -2.907 -0.053 -0.159 -0.212
0.53 -0.637 -0.753 -0.337 -0.355 -0.691
0.11 -2.198 -0.118 -0.244 -0.105 -0.349
LM (5) -12.8896

Hay que notar que L(4) y L(5) muestran el mismo valor, esto indica que la función de
verosimilitud en realidad hizo 4 combinaciones de las variables explicativas, quedándose con
aquella que dio el máximo valor (son números negativos) y que corresponde al empleo de todas
las variables del modelo.

Con estas estimaciones de la función L, se procede a calcular indicadores globales de ajuste,


como el Seudo R2, conocido también como R2 de Mc Fadden (1974):

Seudo R2 = 1 - [ L (M) / L (0) ]


324
Modelos de respuesta limitada: Probabilidad lineal y logit

Seudo R2 = 1- 12.89 / 20.59 = 0.3740

Esto indica que las variables independientes explican la probabilidad de aprobar el curso en
37.4%, hay que indicar que en modelos de este tipo, es adecuado inclusive si logramos ajustes
de 30 a 40%.

Otros indicadores de ajuste son los siguientes:

R2 Cox Snell = 1 – e [ −2 / N ] [ L (M) - L (0) ]

R2 Cox Snell = 1 – 2.71828 ( -2 / 32) * ( - 12.89 + 20.59 )

R2 Cox Snell = 0.382

En este caso el R2 de Cox Snell indica que el modelo es explicado en un 38% por las
variables independientes, este valor es algo mayor al Seudo R2, por tanto tiene más holgura al
ponderarse por el número de datos.

Finalmente tenemos el R2 de Nagelkerke:

R2 Nagelkerke = R2 Cox Snell / [ 1- e (2 / N) * L (0) ]

R2 Nagelkerke = 0.382 / [1 - 2.71828 ( 2 / 32) * - 20.59 )]

R2 Nagelkerke = 0.382 / (1 - 0.2761)

R2 Nagelkerke = 0.5278

En este caso el R2 de Nagelkerke indica que las variables independientes explican a la


dependiente en un 52.78%. Este estimador es de mayor amplitud puesto que eleva el cálculo de
Cox Snell, considerando que le quita el peso del estimador inicial de verosimilitud, ampliando la
potencia del R2, sin restringirlo a este límite menor.

325
Modelos de respuesta limitada: Probabilidad lineal y logit

Conclusiones del capítulo

En este capítulo se ha abordado el diseño de los modelos de probabilidad lineal y logit, en ambos
casos se recurre a estos modelos debido a que las distribuciones de probabilidad de las variables
aleatorias de interés, puede no ser normal, de modo que los parámetros deben ser estimados
considerando las distribuciones de Bernoulli o Binomial y la distribución logit.

En el primer caso las respuestas son dicotómicas o de naturaleza 1 y 0 (categorías si o no,


acuerdo o desacuerdo, compra o no compra etc), en estos modelos la estimación directa de los
parámetros conduce a hallar la probabilidad de suceso de la variable dependiente, sin embargo es
probable que este modelo genere respuestas por encima de 1 o debajo de cero, lo cual no es dable
en modelos de probabilidad.

Ante este problema se plantean distribuciones acotadas entre 0 y 1, conocidas como funciones
Logit, estas funciones crecen lentamente en torno a cero y uno, pero se desplazan rápidamente o a
ritmo continuo en medio de esos datos, por lo cual tienen mejor poder explicativo que el modelo
binomial o de Bernoulli.

En un modelo logit se puede tener variables dependientes dicotómicas conocidas como logit
binomial o variables de respuesta discreta lo que se conoce como logit multinomial.

La estimación de los modelos logit puede ser mediante dos mecanismos, uno de ello es el logit
agrupado en donde es necesario conocer la variable explicativa (o variables) y también conocer la
estructura de la variable dependiente, esto es cuántos elementos de interés hay para cada set o
conjunto de respuestas o características de la variable. Por ejemplo cuantos tienen casa propia de
un total de hogares para cierto nivel de ingresos, o cuál es la rentabilidad de las empresas que
cotizan en bolsa para cada sector económico según el tamaño de las empresas.

En esos casos de datos agrupados se puede estimar este tipo de logit, aunque las respuestas
dada la presencia de heterocedasticidad (note que en cada grupo hay desviaciones y en el total se
amplifican) tienen que ser corregidas y estimar un logit agrupado bajo el método de mínimos
cuadrados ponderados (es decir usando la desviación estándar como ponderador).

Otro modelo aplicable es el logit individual, en este caso la estimación es directa para cada
elemento de la muestra de análisis, hay que notar que la variable dependiente es un ratio de
probabilidad de éxito sobre fracaso, con lo cual el valor estimado debe ser computado hasta hallar la
probabilidad requerida.

326
Modelos de respuesta limitada: Probabilidad lineal y logit

Los modelos Logit tienen indicadores de ajustes global como el R2 de Mc Fadden, o el de Cox
Snell, ambos indican el grado de explicación de las variables independientes sobre la variable
respuesta. Los parámetros se validan mediante un ratio “z” de distribución o el ratio Wald, asimismo
se procura estimar los impactos de cada parámetro mediante los efectos marginales, que miden cual
es la variable de mayor efecto en la probabilidad estimada.

327
Modelos de respuesta limitada: Probabilidad lineal y logit

Preguntas de opinión
1. Diseñe un logit agrupado para medir la productividad agrícola.
2. Diseñe una encuesta breve para un logit individual que mida las causas del
desempleo temporal.
3. ¿El logit es mejor que el modelo de probabilidad lineal?
4. ¿Cuándo usar un logit multinomial?
5. Explique ¿Por qué el test de Wald debe ser mayor a 4?

328
Modelos de respuesta limitada: Probabilidad lineal y logit

Caso de aplicación
Lectura previa

Zegarra et al (2007) encontraron una asociación positiva entre la actividad minera y los gatos
e ingresos de las familias urbanas, pero no se encontraron efectos en las familias rurales, no
obstante ellos afirman que si es posible encontrar menor pobreza en zonas donde hay actividad
minera comparada con zonas donde no existe dicha actividad.

Otros hallazgos vinculados a su estudio indican que la agricultura rural en general, no ha


sufrido desplazamientos producto de la actividad minera, excepto zonas en donde se produce
alta competencia entre ambas actividades, como el centro del país.

Las evidencias por zonas indican que la sierra norte ha tenido mejoras de ingreso, mientras
que la sierra sur se ha visto afectada con mayor pobreza. Ahora en el caso de los hogares
estudiados por Zegarra et al (2007), se hallan evidencias de impacto positivo de la minería en
aquellos hogares donde el jefe tienen mayor nivel educativo, mientras que en grupos de mayor
pobreza y vulnerabilidad (menos calificación) el impacto de la minería puede ser hasta negativo.

En el caso del norte, Aragon y Rud (2009) encuentran que el efecto de la minería es concreto,
ellos hallan incrementos del ingreso de 1.7% relacionado con al menos 10% de las compras que
las empresas mineras realizan en la región o distrito de influencia, en esa línea dicha mejora de
los ingresos sustenta un aumento del bienestar y reducción de la pobreza.

Estudios de Macroconsult (2012) indican que la minería si impacta en la pobreza, así zonas
con actividad minera comparables con otras que no lo son, tienen menores índices de pobreza,
los efectos son mayores si se trata de la gran minería, mientras que la pequeña minería apenas
genera una reducción de pobreza de 1.4% entre hogares no pobres y pobres.

En materia de indicadores sociales, la minería reduce los efectos de la desnutrición infantil


hasta en 6% y reduce el analfabetismo en 5%, mientras que la pequeña minería aumenta el
efecto de la mortalidad infantil en 5% (explicada por la incidencia negativa de zonas pobladas sin
servicios, contaminadas e infecciosas). En ambos casos, esas medidas son los mayores
impactos en variables sociales entre hogares vinculados a la minería y aquellos que no.

Kunanayagam et al (2000) señala que la minería puede tener efectos positivos en la


macroeconomía del país, pero también efectos directos en los hogares, puesto que es posible
encontrar efectos contaminantes en el aire, agua y suelo que afecten la productividad.

329
Modelos de respuesta limitada: Probabilidad lineal y logit

Es posible que el desarrollo humano, junto a la salud de los trabajadores formales informales
vinculados al rubro minero, se deterioren e inclusive pueden surgir actividades ilegales en torno a
la minería que generan empleos precarios y de alto contagio de enfermedades.

Hay efectos más institucionales por ejemplo en la corrupción local, o en la solidez de las
finanzas locales, por ejemplo la minería eleva los precios de los alimentos y otros bienes,
además de afectar el valor de la moneda local, esto puede ser el lado negativo del incremento de
los ingresos, considerando además que las poblaciones locales sufren evidentes cambios en sus
perfiles socio culturales.

Preguntas

1. ¿Cómo diseñaría un modelo (o modelos) LOGIT para medir los efectos de la minería
en los hogares, incluya las variables a usar?
2. ¿Cómo tomaría la información o que fuentes de datos necesita?
3. ¿Qué valores o signos deben tener los parámetros para explicar el efecto de la
minería en los hogares?

330
Modelos de respuesta limitada: Probabilidad lineal y logit

Ejercicios
Si consideramos que la tasa de interés en moneda extranjera para un país cualquiera sube,
entonces esto promueve la entrada de capitales y el tipo de cambio expresado en la moneda
local debería bajar (por ejemplo en soles por dólar). Al revés, menores tasa de interés por la
moneda extranjera suponen que el tipo de cambio debe subir en moneda local, esto se da por la
salida de moneda extranjera del país.

En buena cuenta, si las tasas de interés se reducen, es más probable que suban los tipos de
cambio en moneda local o que la moneda local se deprecie.

El modelo previo puede expresarse del siguiente modo:

F = St * ( 1+ i en moneda local t ) / ( 1+ i en Moneda extranjera t )

Donde F se expresa en dólares por sol y S también, F es el tipo de cambio esperado, así un
crecimiento de la tasa en moneda extranjera implica una caída de F (cae en dólar por sol), lo que
a su vez indica un alza de la moneda en soles por dólar. Esto valida la intuición de la salida de
capitales por menor rendimiento local frente a la moneda extranjera (medido en tasas de interés
pasivas).

Entonces podemos plantear el modelo siguiente:

Y=a+bX+e

Donde Y es la probabilidad lineal de que suba el tipo de cambio en dólares por sol, en buena
cuenta la probabilidad de que (F/S) sea creciente. Considere que Y es 1 si F es creciente o tiene
variación porcentual positiva (indicando lo que en economía se denomina apreciación del sol o de
la moneda local pues requiere más moneda extranjera por unidad) y cero de no ser así. Esto
puede expresarse del siguiente modo también:

F = St+1 = St* ( 1+ i en moneda local t ) / ( 1+ i en Moneda extranjera t )

St+1 / St = ( 1+ i en moneda local t ) / ( 1+ i en Moneda extranjera t )

Donde:

331
Modelos de respuesta limitada: Probabilidad lineal y logit

Sol se aprecia: (St+1 / St ) – 1 > 0 , Y = 1

Sol se deprecia: (St+1 / St ) – 1 < 0 , Y = 0

X es el ratio entre (1+ i en moneda local) sobre (1+ i en moneda extranjera), entonces si el ratio
sube, la probabilidad de que el tipo de cambio F (respecto a S), suba es creciente o tiende a 1. Si
no sucede esto la probabilidad sería cero. En resumen alzas del interés local, elevan la
probabilidad de que el sol se aprecie.

Datos a usar:

Tasa Pasiva Tasa Pasiva


TC Nominal Interbancario Promedio en Promedio en
Venta - promedio Moneda Nacional Moneda Extranjera
mensual (S/. por US$) (TIPMN) (TIPMEX)

Oct12 2.5883000 2.4000 0.7000

Nov12 2.599142857 2.4423 0.8703

Dic12 2.567045635 2.3700 0.8860

Ene13 2.552474026 2.3774 0.9752

Feb13 2.579000000 2.3671 1.1500

Mar13 2.594601504 2.2871 1.1213

Abr13 2.598584416 2.3090 0.9172

May13 2.646616883 2.3039 0.7265

Jun13 2.750819549 2.3187 0.6263

Jul13 2.778047619 2.3271 0.5968

Ago13 2.802897959 2.3158 0.5448

332
Modelos de respuesta limitada: Probabilidad lineal y logit

Sep13 2.77937415 2.3467 0.4763

Oct13 2.770027211 2.3432 0.4461

Nov13 2.799300000 2.3327 0.4367

Dic13 2.787042857 2.2697 0.4074

Ene14 2.810006494 2.2552 0.3700

Feb14 2.813221429 2.2636 0.3493

Mar14 2.807285714 2.2732 0.3390

Abr14 2.795021429 2.2957 0.3400

May14 2.787659864 2.3419 0.3452

Jun14 2.795306122 2.403 0.3547

Jul14 2.78722449 2.3829 0.3548

Ago14 2.815619048 2.3319 0.3539

Sep14 2.865642857 2.324 0.3517

Fuente: BCRP

Preguntas

• Considere los datos siguientes y estime el modelo previo, analice si se cumple la intuición
aquí señalada o si requiere algunos ajustes al modelo.
• Si el modelo es poco explicativo, ¿qué otras variables pueden explicar la probabilidad de
que el sol se aprecie?

333
Modelos de respuesta limitada: Probabilidad lineal y logit

Referencias bibliográficas
Aragon, F. Rud., J. (2009) The blessing of natural resources: Evidence from Peruvian gold mine.
DT 2009-015. BCRP.

Cox, D. R., and E. J. Snell. 1989. The Analysis of Binary Data, 2nd ed. London: Chapman and
Hall.

Greene, W. (2003) Econometric Analysis. Fifth Edition. Pearson Ed.

Gujarati, D. (2004) Econometría. 4ta Edic. Mc Graw Hill.

Hausman, R. Hwang, J. and Rodrick, D. (2005) What your export matters. NBER Working Papers
11905.

Imbs, J. and Wacziarg, R. (2003) Stages of Diversification. American Economic Review. Vol. 93
Issue 1.

Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill

Kunanayagam, R. McMahon, G. Sheldon, C. Strongman, J. and Weber, M. (2000) La minería y la


reducción de la pobreza. Banco Mundial

Mc Fadden, D. 1974. Conditional logit analysis of qualitative choice behavior. In: Frontiers in
Economics, P. Zarembka, eds. New York: Academic Press.

Nagelkerke, N. J. D. 1991. A note on the general definition of the coefficient of determination.


Biometrika, 78:3, 691-692.

Novales, A. (1993) Econometría. Mc Graw Hill.

Rodrick, D. And Mc Millan, M. (2012) Globalization, structural change and Economic Growth.
NBER Working Papers 17143.

Wooldridge, J. (2009) Introductory Econometrics. A modern approach. Third Edition. Cengage


Learning.

Zegarra, E. Orihuela, C. y Paredes M. (2007) Minería y economía en los hogares en la sierra


peruana: Impactos y espacios de conflicto. DT Nro 51, GRADE.

334

También podría gustarte