Está en la página 1de 59

MÓDULO ECONOMETRÍA FINANCIERA

FACULTAD DE CIENCIAS CONTABLES ECONÓMICAS Y ADMINISTRATIVAS


UNIVERSIDAD DE MANIZALES

1
Unidad 1. El modelo de regresión lineal
La utilidad del modelo de regresión lineal permite explicar la relación entre
una variable 𝑦, que recibe el nombre de variable dependiente y una variable 𝑥, que
recibe el nombre de variable explicativa o exógena. Cuando se cuenta solamente
con estas dos variables se llama modelo de regresión lineal simple. Si, en cambio,
se evalúa la relación entre 𝑦 y una serie de variables explicativas 𝑥! , 𝑥" , … , 𝑥# se
habla del modelo de regresión lineal múltiple. De esta forma, el modelo de regresión
intenta explicar los movimientos de la variable dependiente a través de las
variaciones presentadas en las variables explicativas (Brooks, 2008).
1.1. La regresión lineal simple
Si bien las aplicaciones del modelo de regresión lineal simple son limitadas,
en este apartado se presenta su desarrollo, debido a que este es el punto de partida
de modelos más elaborados y más habituales. La premisa que se maneja en la
regresión lineal simple es que existe una variable 𝑦 cuyos movimientos, por lo
menos desde un punto de vista teórico, podrían ser explicados a través de los
movimientos de una variable 𝑥 . La estadística descriptiva utiliza diagramas de
dispersión para ilustrar, por lo menos desde un enfoque visual, la naturaleza de la
relación entre dos variables. La Figura 1 presenta un ejemplo de un diagrama de
dispersión cualquiera. Este gráfico representa una relación directa entre las dos
variables. Sugiere que, conforme aumenta el valor de la variable 𝑥 , existe una
tendencia al aumento en la variable 𝑦. Debe notarse que las relaciones que aquí se
plantean no son determinísticas, sino que cuentan con un componente de
aleatoriedad. Esto quiere decir que a cada valor de 𝑥 no le corresponde por fuerza
un único valor de 𝑦. Así mismo, la relación que se plantea se interpreta como una
tendencia. Esto quiere decir que no necesariamente tener un valor más alto de 𝑥
garantiza tener un valor más alto de 𝑦. Pero, aquellos individuos que cuentan con
valores altos de 𝑥 sí tienden a tener valores más altos en la variable 𝑦 que aquellos
con valores bajos en la variable 𝑥.

2
Figura 1
Diagrama de dispersión con dos variables

Para comprender mejor la naturaleza de la relación entre una variable 𝑥 y


una variable 𝑦, el modelo de regresión lineal utiliza una línea recta con el fin de
representar las tendencias en las variaciones conjuntas entre ambas variables
(Wooldridge, 2006). De esta manera, la ecuación que resulta útil al representar esta
relación es:
𝑦 = 𝛽$ + 𝛽! 𝑥
Esta ecuación cuenta con dos parámetros que la definen. En primer lugar, 𝛽$
es el punto de corte en el eje horizontal. En cuanto a 𝛽! representa la pendiente de
una función de tipo lineal. Es decir que 𝛽! muestra el cambio en 𝑦 que se obtiene
luego de una variación en 𝑥. La Figura 2 muestra la línea recta que podría ajustarse
a la nube de puntos vista anteriormente. Esta línea corrobora la intuición que se
tenía inicialmente, conforme 𝑥 aumenta se presenta una tendencia a aumentar el
valor de 𝑦.
Figura 2

3
Diagrama de dispersión con dos variables y ajuste de una línea recta

Una vez se entiende que esta línea puede ser usada para comprender mejor
la relación entre ambas variables, es necesario establecer un método que tenga un
criterio sólido para calcular una línea que se ajuste de manera adecuada a los datos
presentados. El método que se presentará para realizar este cálculo es el de
mínimos cuadrados ordinarios (MCO).
1.2. El método de mínimos cuadrados ordinarios (MCO)
1.2.1. Los componentes del modelo de regresión

La ecuación de la línea recta 𝑦 = 𝛽$ + 𝛽! 𝑥 , vista anteriormente, es una


ecuación que describiría de manera adecuada la relación entre ambas variables si
es que esta relación fuera totalmente determinística. Por ejemplo, si todos los
puntos del diagrama de dispersión observados en la Figura 2 se encontraran sobre
la línea recta, esta línea estaría representando de manera perfecta la relación entre
𝑥 y 𝑦. Es decir, que bastaría conocer el valor de 𝑥 de un individuo para saber con
total exactitud cuál sería su valor correspondiente en la variable 𝑦. Naturalmente,
en los fenómenos que estudia la econometría financiera, tal perfección no se

4
espera. Así, se incluye dentro del análisis un término de perturbación estocástica
que se denota como 𝑢. De esta forma, el análisis de regresión supone que el valor
de 𝑦 para un individuo 𝑖 puede representarse de la siguiente forma:
𝑦% = 𝛽$ + 𝛽! 𝑥% + 𝑢%
En el cual 𝑦% es el valor de 𝑦 para el individuo 𝑖, 𝑥% es el valor de 𝑥 para el
individuo 𝑖 y 𝑢% es el valor de 𝑢 para el individuo 𝑖.
El siguiente ejemplo se plantea con el fin de comprender mejor a qué se
refiere el término 𝑢. Existe una relación directa entre la estatura y el peso de las
personas, la relación se da de la siguiente forma: las personas de mayor estatura
tienden a tener un peso más elevado que las personas más bajas. Esto no quiere
decir que una persona de baja estatura no pueda tener un peso mayor que una
persona de estatura más alta, en realidad es solo una tendencia. En este ejemplo,
se plantea que el peso de las personas depende en cierta medida de su estatura,
por tal razón, la variable dependiente 𝑦 es el peso, mientras que la variable
independiente 𝑥 es la estatura. Ahora, dos personas tienen la misma estatura, por
ejemplo 170 centímetros. ¿Significa esto que estas dos personas deben tener el
mismo peso? Naturalmente no. Esto, debido a que la estatura no es el único factor
relevante en el peso de una persona. Existen otros factores que en el ejemplo no
están siendo observados y que pueden hacer que dos individuos con la misma
estatura tengan diferente peso. Uno de ellos podría ser la alimentación, la actividad
física o, incluso, la predisposición genética. En el modelo de regresión lineal, el
término de perturbación 𝑢 se usa para representar a todos aquellos factores
diferentes de 𝑥 que pueden tener algún efecto sobre la variable 𝑦 . Estos son
factores que se consideran “no observables”, ya sea porque no se cuenta con esta
información o, simplemente, porque no fue incluida dentro del modelo. La Figura 3
muestra los componentes del modelo de regresión lineal. Esta centra la atención en
un punto particular, la coordenada (15, 26). En este punto, el valor de 𝑦% es 26, es
decir, el valor real observado para la variable 𝑦 para este individuo particular. De la
misma forma, 𝑥% en este ejemplo, es igual a 15, el valor real observado para este
individuo particular para la variable 𝑥. En la gráfica también se puede ver que,
cuando 𝑥% = 15 , el valor de 𝛽$ + 𝛽! 𝑥% es igual, aproximadamente, a 21,45 . Por

5
ahora, este valor se puede interpretar como el valor de 𝑦 que se esperaría para un
individuo cuyo valor en la variable 𝑥 es igual a 15. La diferencia entre el valor que
se espera y el valor real es lo que se denota con 𝑢% , que en este ejemplo es 26 −
21,45 = 4,15.
Figura 3
Componentes del modelo de regresión lineal simple

Es necesario profundizar un poco en el valor 𝛽$ + 𝛽! 𝑥% . Se ha dicho que esta


magnitud puede ser interpretada como el valor que se esperaría para 𝑦
dependiendo del valor tomado por 𝑥% . Esto indica que este componente del modelo
es una esperanza condicional, de la siguiente manera:
𝐸 [𝑦|𝑥% ] = 𝛽$ + 𝛽! 𝑥%
Para precisar, la línea de regresión muestra el valor esperado (o promedio)
de 𝑦 para cada valor posible de 𝑥% . A esta expresión se le conoce como Función de
Regresión Poblacional (Gujarati & Moreno López, 2006). De esta forma, se asume
que el valor de 𝑦 para un individuo 𝑖 se puede descomponer en dos partes. La
primera corresponde al valor de 𝑦 que se esperaría que tuviera ese individuo

6
teniendo en cuenta su valor para la variable 𝑥% . La segunda, corresponde a una
parte de su valor que es explicada por factores diferentes de 𝑥, que en este caso se
representa con 𝑢% .
𝑦% = 𝐸 [𝑦|𝑥% ] + 𝑢%
Estos elementos son clave para entender el método de estimación conocido
como mínimos cuadrados ordinarios. En la siguiente sección se profundiza en la
diferencia entre estimadores y parámetros, y se presenta el método de manera
formal.
1.2.2. Poblaciones y muestras
Cuando se trata de explicar la relación entre dos variables, como se veía en
la sección precedente, hay un conjunto de individuos o unidades 𝑖 que cuentan con
información para dichas variables. Al conjunto de la totalidad de estos individuos se
le llama población. Lastimosamente, la información de una población completa no
siempre está disponible. Habitualmente, se cuenta con información de un
subconjunto de individuos o de unidades, el cual recibe el nombre de muestra. De
forma ideal, una muestra debería ser aleatoria y representativa (Martino et al.,
2018), como se enseña en los cursos de Estadística Inferencial. En el modelo de
regresión elaborado hasta el momento, 𝛽$ y 𝛽! son parámetros poblacionales, es
decir, son magnitudes que ayudan a entender la relación entre 𝑥 y la variable 𝑦
cuando se cuenta con la información completa de todos los individuos. Pero si la
información que se tiene es muestral, no es posible calcular 𝛽$ y 𝛽! . En cambio, sí
es posible calcular un valor aproximado a través de esta muestra. A este
procedimiento se le conoce como estimación y a los valores aproximados se les
conoce como estimadores. En el contexto de la regresión, los estimadores para
estos parámetros se representan a través de un acento circunflejo sobre las letras,
de la siguiente forma: 𝛽6$ es el estimador de 𝛽$ y 𝛽6! es el estimador de 𝛽! . Así, surge
la contraparte de la Función de Regresión Poblacional, la cual es la función de
Regresión Muestral, que se representa de la siguiente forma:
𝑦7% = 𝛽6$ + 𝛽6! 𝑥%
El valor 𝑦7% puede ser interpretado de dos formas: en primer lugar, es la
contraparte muestral de 𝐸[𝑦|𝑥% ], en otras palabras, una media condicional estimada.

7
Por otra parte, puede ser interpretado como una predicción del valor de 𝑦 dado un
valor específico de 𝑥. A la diferencia entre el valor real de 𝑦 para un individuo 𝑖 y el
valor predicho por el modelo se le conoce como residual y se representa 𝑢7% .
𝑢7% = 𝑦% − 𝑦7%
De acá es posible deducir que los residuales son la contraparte muestral del
término de perturbación. El método de mínimos cuadrados ordinarios implica un
procedimiento que minimiza el valor de los residuales. Es decir que, gráficamente,
busca la línea recta que pase lo más cercana posible a los puntos del diagrama de
dispersión.
1.2.3. Obtención de los estimadores por mínimos cuadrados ordinarios
El objetivo de este procedimiento es encontrar un método de cálculo de 𝛽6$ y
𝛽6! que permita minimizar el valor de los residuales. El método de MCO lo logra a
través de la minimización de una función conocida como la suma de los residuales
al cuadrado (SRC).
&

𝑆𝑅𝐶 = ; 𝑢7%"
%'!

A través de las ecuaciones vistas anteriormente, esta expresión se puede


reescribir de la siguiente forma:
&
"
𝑆𝑅𝐶 = ;<𝑦% − 𝛽6$ − 𝛽6! 𝑥% =
%'!

Para obtener los estimadores requeridos, es necesario minimizar esta


función con respecto a 𝛽6$ y 𝛽6! . Esto se logra calculando las dos derivadas parciales
de esta función con respecto a 𝛽6$ y 𝛽6! , igualando el resultado a cero (condiciones
de primer orden) y resolviendo el sistema de ecuaciones obtenido. El procedimiento
da como resultado los estimadores:
𝛽6$ = 𝑦> − 𝛽6! 𝑥̅
∑&%'!(𝑥% − 𝑥̅ ) (𝑦% − 𝑦>)
𝛽6! =
∑&%'!(𝑥% − 𝑥̅ )"
Donde 𝑥̅ y 𝑦> son el promedio muestral de 𝑥 y 𝑦 , respectivamente. Estos
serán entonces los estimadores que se utilizarán para calcular estos valores. La

8
interpretación, tanto de los parámetros como de sus estimadores se da de la
siguiente forma:
• El parámetro 𝛽$ es el punto de corte como ya fue mencionado. Corresponde al
valor esperado, o promedio, de 𝑦 cuando 𝑥 es igual a 0. Este parámetro no
siempre es útil ya que en ocasiones los valores de 0 no tienen sentido para
algunas variables, o quizás estos valores no están presentes en la muestra.
• El parámetro 𝛽! es la pendiente y representa el efecto de 𝑥 sobre 𝑦. Por cada
unidad que aumenta la variable 𝑥, la variable 𝑦 tiene una tendencia a variar en
𝛽! unidades.
Como ya se mencionó, la aplicación del modelo de regresión lineal en su
forma simple es limitada. La mayor parte de las aplicaciones implican, por lo menos,
la utilización de una cantidad mayor de variables explicativas (Brooks, 2008). Esta
generalización se desarrolla en la siguiente sección.
1.3. El modelo de regresión lineal múltiple
Habitualmente, es necesario incluir más de una variable explicativa en el
cálculo del modelo de regresión lineal. Cuando se cuenta con múltiples variables
explicativas, se habla de un modelo de regresión lineal múltiple. Si se denomina 𝑘,
al número de variables explicativas, entonces el modelo se representa:
𝑦% = 𝛽$ + 𝛽! 𝑥! + 𝛽" 𝑥" + ⋯ + 𝛽# 𝑥# + 𝑢%
Al aumentar el número de variables explicativas es necesario reformular la
interpretación de los coeficientes. Cada uno de ellos se interpreta como el efecto
parcial de la variable explicativa que lo acompaña sobre 𝑦, después de eliminar el
efecto de las demás variables explicativas (Brooks, 2008). Por ejemplo, 𝛽" es el
efecto parcial de 𝑥" sobre 𝑦 después de eliminar los efectos de 𝑥! , 𝑥( , … , 𝑥# . La
estimación de estos parámetros se realiza a través del método de mínimos
cuadrados ordinarios, pero el cálculo se complica un poco. Nótese que, en el modelo
de regresión lineal simple se derivaba la suma residual de cuadrados con respecto
a los dos estimadores que se necesitaban. En el caso en que se cuenta con 𝑘
variables explicativas, es necesario derivar esta función 𝑘 + 1 veces, igualar las
derivadas a cero y resolver el sistema de ecuaciones resultante (Stock et al., 2012).
Esto significa que los estimadores tendrían que cambiar en función del número de

9
variables, lo cual no es muy práctico. Por fortuna, el álgebra matricial permite
encontrar un estimador generalizado que funciona independientemente del número
de variables incluidas en el modelo. La siguiente sección desarrollará la notación
matricial necesaria para este proceso.
1.3.1. Notación matricial del modelo de regresión lineal
Expresar el modelo de regresión lineal en forma matricial permite mostrar de
forma compacta operaciones que, de otra forma, serían bastante extensas. Los
primeros componentes en esta notación corresponden al vector 𝑌, el cual contiene
la información de la variable 𝑦 para cada uno de los individuos 𝑖. Si el tamaño de la
población es 𝑁, entonces las dimensiones de este vector son 𝑁 × 1. Por otra parte,
así como este arreglo contiene la información de la variable 𝑦, debe existir un arreglo
similar para las variables explicativas. Este arreglo es la matriz 𝑋, que cuenta con la
información de 𝑘 variables para 𝑁 individuos, más una columna inicial de 1
(Greene, 2003). De esta forma, las dimensiones de la matriz 𝑋 son 𝑁 × 𝑘. Dentro
de esta matriz, se usa la notación 𝑥)% para hacer referencia al valor de la variable 𝑥)
para el individuo 𝑖.
𝑦! 1 𝑥!! 𝑥"! ⋯ 𝑥#!
𝑦" 1 𝑥!" 𝑥"" ⋯ 𝑥#"
𝑌=H ⋮ J 𝑋=H J
1 ⋮ ⋮ ⋱ ⋮
𝑦* 1 𝑥!* 𝑥"* ⋯ 𝑥#*
Así mismo, se cuenta con un vector columna que representa los coeficientes.
Este vector se denomina Β y tiene como dimensiones (𝑘 + 1) × 1. Nótese que el
hecho de que exista 𝛽$ en este vector es lo que justifica la inclusión de una columna
de 1 en la matriz 𝑋, con el fin de garantizar la conformabilidad. Finalmente, se
construye un vector de perturbaciones llamado 𝑈 y con dimensiones 𝑁 × 1.
𝛽$ 𝑢!
𝛽 𝑢"
Β = H !J 𝑈=H ⋮ J

𝛽# 𝑢*
Con estos elementos definidos, la expresión compacta para el modelo de
regresión lineal se convierte en1:

1 Es de notar que, así como en el modelo de regresión lineal simple se tenía que 𝐸[𝑦|𝑥 ] = 𝛽 + 𝛽 𝑥 , en
! " # !
el modelo de regresión lineal múltiple se tiene que 𝐸[𝑌|𝑋] = 𝑋Β, lo que implica que el modelo

10
𝑌 = XΒ + U
Esta expresión es útil independientemente de cuál sea el tamaño de la
población y de cuál sea el número de variables incluidas. Su contraparte muestral
es:
Q+𝑈
𝑌 = 𝑋Β Q
En este contexto, se deduce que es posible construir un vector de valores
ajustados para 𝑦 a partir de la expresión 𝑌R = 𝑋Β
Q . Dados estos arreglos se hace
posible aplicar el método de mínimos cuadrados ordinarios para cualquier muestra
y cualquier número de variables explicativas.
1.3.2. Mínimos cuadrados ordinarios en notación matricial
En forma matricial, la suma residual de cuadrados es expresada a través del
vector de residuos de la siguiente manera (Hayashi, 2011):
Q+𝑈
𝑆𝑅𝐶 = 𝑈 Q
A continuación, se puede demostrar que esta expresión y la fórmula vista
anteriormente en sumatorias para la SRC son equivalentes:
𝑢7! &
Q+𝑈
Q = [𝑢7! 𝑢7"
𝑈 𝑢7" ⋯ 𝑢7& ] H J = 𝑢7!" + 𝑢7"" + ⋯ + 𝑢7&" = ; 𝑢7%"

%'!
𝑢7&
Q , se iguala a 0 y se
Si se deriva esta expresión con respecto al vector Β
resuelve la expresión resultante, la expresión que minimiza la suma residual de
cuadrados es:
Q = (𝑋 + 𝑋),! 𝑋 + 𝑌
Β
Así, basta con conocer la matriz 𝑋 y el vector 𝑌 para aplicar esta operación y
encontrar de esta forma un vector con los valores estimados para cada uno de los
coeficientes. Hasta este momento, el método se reduce a aplicar una fórmula que
permite llegar a las estimaciones. A este tipo de inferencia se le conoce como
estimación puntual.

descompone el valor de 𝑌 en una parte que es explicada por las variables explicativas presentes en la
matriz 𝑋 y un componente no explicado incluido en el vector 𝑈.

11
1.4. Inferencia estadística para los estimadores del modelo de regresión
lineal

De forma ideal, el modelo de regresión lineal permitiría conocer el efecto de


una serie de variables explicativas sobre una variable dependiente. De ahora en
adelante, se hará referencia a cada uno de esos efectos con 𝛽) . Cada uno de los
coeficientes 𝛽) son parámetros, es decir, valores poblacionales que cuentan con un
valor que se desconoce. Lastimosamente, en la mayoría de las ocasiones no será
posible calcularlos, ya que la información disponible suele ser de naturaleza
muestral. Este hecho implica que el valor que se calcula no es un parámetro, sino
una estimación. Es decir, dependiendo de la muestra con que se cuente, el valor
calculado puede ser más o menos cercano al real. Esto implica que los estimadores
𝛽6) son variables aleatorias (Greene, 2003). En primer lugar, sus valores cambian
dependiendo de los individuos incluidos en la muestra. En segundo lugar, al incluir
estos valores están sujetos a probabilidades de ocurrencia. De esta forma, la
estimación puntual puede llegar a ser insuficiente, por lo que se hace necesario
complementarla a través de otras técnicas de inferencia estadística como pruebas
de hipótesis e intervalos de confianza.
1.4.1. Varianza y error estándar de la regresión
Dado que las estimaciones obtenidas por mínimos cuadrados ordinarios son
específicas de la muestra con que se trabaja (cambian de una muestra a otra),
puede ser conveniente tener una medida de la precisión de los estimadores (Brooks,
2008). El error estándar puede cumplir con esta tarea al brindar una medida de qué
tanto puede variar un estimador de una muestra a otra. Para calcular el error
estándar, primero es necesario estimar la varianza del término de error. Por
definición, la varianza de cualquier variable aleatoria X está dada por:
"
𝑣𝑎𝑟[𝑋] = 𝐸V𝑋 − 𝐸 [𝑋 ]W
De esta forma, la varianza de 𝑢% es:
"
𝑣𝑎𝑟[𝑢% ] = 𝐸V𝑢% − 𝐸 [𝑢% ]W

12
El método de MCO hace que el valor esperado del término de error sea
siempre igual a cero2. Por esta razón, la varianza de 𝑢% que en adelante se llamará
𝜎 " será igual a:
𝜎 " = 𝐸 [𝑢%" ]
Ya que el valor estimado se puede estimar a través de un promedio, se
tendría la tentación de sugerir que un estimador adecuado de 𝜎 " fuera:
∑&%'! 𝑢%"
𝜎7 " =
𝑛
Pero este estimador tendría dos problemas (Brooks, 2008). En primer lugar,
𝑢% corresponde a perturbaciones poblacionales, por lo cual, a menos que se
conozca la población, no es posible contar con su valor. En su lugar, podría usarse
su contraparte muestral, 𝑢7% :
∑&%'! 𝑢7%"
𝜎7 " =
𝑛
Pero existe un segundo problema: este sería un estimador sesgado de 𝜎 " .
Cuando se estima una varianza cualquiera, la manera de corregir este problema de
sesgo es utilizando en el denominador los grados de libertad, es decir, el número
de observaciones de la muestra menos el número de variables independientes
menos 1.
∑&%'! 𝑢7%"
𝜎7 " =
𝑛−𝑘−1
Si se calcula la raíz cuadrada de este estimador se obtiene el error estándar
de la regresión, que se denota con 𝜎7:

∑&%'! 𝑢7%"
𝜎7 = Z
𝑛−𝑘−1

2La demostración de esto puede realizarse a través de la ley de expectativas iteradas. Esta ley
(demostrable) dice que 𝐸.𝐸[𝑌|𝑋 ]0 = 𝐸[𝑌]. El modelo de regresión dice que 𝑌 = 𝑋Β + U. Si se calcula el
valor esperado a ambos lados de la igualdad, se tiene 𝐸[𝑌] = 𝐸[𝑋Β] + 𝐸[𝑈]. Como 𝐸[𝑌|𝑋] = 𝑋Β,
entonces 𝐸[𝑌] = 𝐸.𝐸[𝑌|𝑋]0 + 𝐸[𝑈]. Y por la ley de expectativas iteradas 𝐸[𝑌] = 𝐸[𝑌] + 𝐸[𝑈], de donde
se deduce que 𝐸[𝑈] = 0.

13
De forma alternativa, usando notación matricial, la varianza y, por lo tanto, el
error estándar de la regresión pueden ser reformuladas. En el caso de la varianza,
la expresión se transformaría en:
𝑈Q+𝑈
Q
𝜎7 " =
𝑛−𝑘−1
La varianza del término de error está relacionada con el grado de
incertidumbre en un modelo de regresión. Si, al estimar esta varianza, el resultado
es elevado, esto puede deberse a tres motivos:
• Las observaciones tienen una tendencia a alejarse de la línea de regresión (en
el contexto de la regresión lineal múltiple, esta línea podría imaginarse como un
hiperplano). Esto puede deberse a un bajo poder predictivo de las variables
explicativas con respecto a la variable dependiente o también a una mala
especificación de la forma funcional (es posible que la relación entre las variables
sea no lineal).
• El tamaño de la muestra es demasiado pequeño lo cual aumenta la
incertidumbre.
• El modelo incluye un número elevado de variables explicativas con relación al
tamaño de la muestra.
Q𝒋
1.4.2. Varianza y error estándar de los estimadores 𝜷
Al comienzo de esta unidad se hizo énfasis en que los estimadores 𝛽6) son en
realidad variables aleatorias. Una variable aleatoria cuenta con un valor esperado y
una varianza. Por ahora, es necesario desarrollar la varianza de estos estimadores
útil para calcular los intervalos de confianza y las pruebas de hipótesis. De esta
forma, es posible calcular la varianza a través de la expresión3:
𝑣𝑎𝑟V𝛽6) W = 𝜎7 " (𝑋´𝑋),!
El resultado de este cálculo es una matriz conocida como la matriz de
varianzas y covarianzas de los coeficientes (Hayashi, 2011). En esta matriz, lo más
importante, por ahora, es la diagonal principal. En esta diagonal se encontrará la
varianza de cada uno de los 𝛽6) . Por ejemplo, el primer elemento de la diagonal

3 Para el estudiante interesado en conocer cómo se origina esta expresión, se recomienda el apéndice

del capítulo 3 de Brooks (2008).

14
principal es la varianza de 𝛽6$ , el segundo elemento es la varianza de 𝛽6! y así
sucesivamente. A la raíz cuadrada de cada uno de estos elementos se le conoce
como error estándar de los coeficientes, 𝑆𝐸V𝛽6) W.
1.4.3. Intervalos de confianza
Los intervalos de confianza son rangos de valores dentro de los cuales se
tiene un nivel medible de certeza en cuanto a que contienen el valor del parámetro
poblacional. Es decir, después de ajustar un modelo de regresión, se obtienen
estimaciones llamadas 𝛽6) . Con estas estimaciones no hay garantía alguna de que
midan el verdadero efecto de las variables independientes sobre la variable
dependiente. Una de las razones para que no exista esta garantía está en que los
estimadores son variables aleatorias y sus posibles valores cambian de acuerdo a
los individuos incluidos en una muestra. Por esta misma razón, estos estimadores
cuentan con una distribución de probabilidades. Con el fin de construir los intervalos
de confianza y las pruebas de hipótesis, se asumirá una distribución normal para
/ ,.
.
$ $
los estimadores y una distribución t de student para la expresión 012.
/ 3. En realidad,
$

es habitual que se cuente con esta distribución. Los pasos para construir los
intervalos de confianza a partir de este punto no difieren de aquellos usados en
estadística inferencial para construir intervalos para la media poblacional.
Simplemente, se elige un nivel de significancia 𝛼 y se calcula un valor crítico
utilizando una tabla de distribución o un paquete estadístico con 𝑛 − 𝑘 − 1 grados
de libertad. Una vez encontrado este valor 𝑡&,#,!,5 , se procede a implementar la
siguiente fórmula:
𝛽6) ± 𝑡&,#,!,5 × 𝑆𝐸V𝛽6) W
El intervalo obtenido muestra que, si se repitiera una gran cantidad de veces
el experimento de tomar una muestra y calcular un intervalo de confianza con un
nivel de significancia 𝛼 , en el (1 − 𝛼) × 100% de las ocasiones el verdadero
parámetro poblacional estaría contenido en dicho intervalo.
1.4.4. Pruebas de hipótesis
Tal como se mostró en la construcción de intervalos de confianza para los
coeficientes, el procedimiento para las pruebas de hipótesis es también similar en

15
cuanto a su construcción a aquel desarrollado para la media poblacional. En
ocasiones es necesario verificar hipótesis sobre los valores de estos coeficientes.
Pero una prueba que es habitual y sumamente relevante es aquella en la que se
verifica la posibilidad de que los efectos de las variables dependientes sean iguales
a 0. Si el coeficiente 𝛽) es igual a 0 quiere decir que la variable 𝑥) no tiene efecto
alguno sobre la variable 𝑦. Una vez calculados los errores estándar, los pasos que
se siguen con el fin de realizar una prueba de hipótesis son (Wooldridge, 2006):
• Plantear la hipótesis nula y la hipótesis alternativa. Sea 𝛽),&678 el valor que se
quiere evaluar, la hipótesis nula tiene la forma 𝐻$ : 𝛽) = 𝛽),&678 y la hipótesis
alternativa tiene la forma 𝐻! : 𝛽) ≠ 𝛽),&678 si es que se está realizando una
prueba de dos colas.
/ $ ,.$,&'()
.
• Calcular el estadístico de prueba: 𝑡 = 012./$3 El cual sigue una distribución t

de student con 𝑛 − 𝑘 − 1 grados de libertad.


• Definir la significancia deseada 𝛼 y usar la distribución t de student para
encontrar el área de rechazo y de no rechazo repartiendo el valor 𝛼 entre ambas
colas (si la prueba es de dos colas).
• Establecer la zona en la cual se ubica el estadístico de prueba, de manera que
se determine si se rechaza o no se rechaza la hipótesis nula.
Así, los pasos son prácticamente idénticos a aquellos de una prueba de
hipótesis para la media poblacional. Si la hipótesis nula es 𝐻$ : 𝛽) = 0 y la prueba da
como resultado un rechazo de la hipótesis nula, se dice que el efecto de 𝑥) sobre 𝑦
es estadísticamente significativo con un nivel de confianza de (1 − 𝛼) × 100%. De
lo contrario, significa que no se encontró evidencia lo suficientemente contundente
de que existe tal efecto.
1.5. Bondad de ajuste
En ocasiones resulta útil verificar qué tanto se acercan los valores ajustados
por un modelo de regresión lineal a aquellos reales. La bondad de ajuste se refiere
a medidas que buscan cuantificar, precisamente, este poder predictivo. Aunque es
habitual observar y reportar estos valores, se debe tener cuidado en pensar que
estos indicadores son el criterio más determinante para la calidad de un modelo.

16
Para construir dichos indicadores es necesario, en primer lugar, considerar las
fuentes de variación del modelo de regresión lineal.
1.5.1. Fuentes de variación del modelo de regresión lineal
Hasta este punto, se ha mostrado cómo un modelo de regresión lineal
descompone una variable dependiente en un componente que se puede explicar a
través del modelo y un componente que es explicado por factores no observables.
Cada uno de estos componentes presenta variaciones que pueden ser medidas a
través de la información muestral. En primer lugar, la variable dependiente presenta
variaciones que se pueden medir a través de lo que se conoce como la Suma Total
de Cuadrados (STC):
&

𝑆𝑇𝐶 = ;(𝑦% − 𝑦>)"


%'!

Nótese que, si se quisiera calcular la varianza muestral de 𝑦, bastaría con


dividir la 𝑆𝑇𝐶 entre 𝑛 − 1. Por otra parte, una vez se calculan los valores ajustados
por el modelo, estos también presentan variaciones alrededor de su media. Para
calcular estas variaciones se utiliza la Suma Explicada de Cuadrados (SEC):
&

𝑆𝐸𝐶 = ;(𝑦7% − 𝑦>)"


%'!

La razón por la cual se utiliza la media de 𝑦 en este cálculo es que los


promedios de los valores ajustados y los valores reales de 𝑦 son exactamente
iguales. Finalmente, las variaciones de la parte no explicada por el modelo se
representan a partir de la Suma Residual de Cuadrados que ya fue vista
previamente:
&

𝑆𝑅𝐶 = ; 𝑢7%"
%'!

Una identidad importante que surge de estos componentes y que puede ser
verificada matemáticamente es que:
𝑆𝑇𝐶 = 𝑆𝐸𝐶 + 𝑆𝑅𝐶
Es, precisamente, esta identidad la que permite obtener el indicador de
bondad de ajuste o coeficiente de determinación 𝑅" .

17
1.5.2. Coeficiente de determinación 𝑹𝟐
El coeficiente de determinación 𝑅" es un indicador que obtiene valores entre
0 y 1 . Cuando existe un ajuste lineal perfecto, este indicador asume un valor
exactamente igual a 1, mientras que, si hay una ausencia total de ajuste lineal, el
valor es igual a 0. Partiendo de la identidad encontrada en la sección 1.5.1., es
posible modificar esta expresión para ponerla en términos de proporciones:
𝑆𝐸𝐶 𝑆𝑅𝐶
1= +
𝑆𝑇𝐶 𝑆𝑇𝐶
Esto implica que hay un porcentaje de las variaciones de 𝑦 que están
relacionadas con las variaciones de los componentes que pueden ser explicados
por el modelo, esto es el 𝑅" :
𝑆𝐸𝐶
𝑅" =
𝑆𝑇𝐶
Tanto las pruebas de hipótesis como la bondad de ajuste suelen ser
indicadores a los que se presta bastante atención por parte de quienes desarrollan
modelos de econometría financiera. Pero, cuando se busca realizar inferencia sobre
los efectos parciales de las variables independientes, puede resultar mucho más
importante cumplir con una serie de supuestos que garanticen la calidad de los
modelos. Estos supuestos serán abordados en la segunda unidad.
Unidad 2. Supuestos del MRL
Durante la Unidad 1 se insistió en el hecho de que los estimadores de MCO
son variables aleatorias. Una de las implicaciones de esto es que las estimaciones
obtenidas a partir de una muestra dependen de los individuos seleccionados para
la misma. Incluso, es posible que las estimaciones obtenidas a través de una
muestra no estén si quiera cerca del parámetro poblacional verdadero. En parte, la
estimación a través de intervalos de confianza puede ayudar en este asunto. Pero,
aún más importante resulta que los estimadores cuenten con propiedades
adecuadas que garanticen, por lo menos, una tendencia a que las estimaciones se
acerquen a los parámetros poblacionales. Durante esta unidad se muestran cuáles
son estas propiedades, qué condiciones existen para que estas propiedades estén
presentes, cómo diagnosticar en un modelo calculado a través de una muestra el

18
cumplimiento de estas condiciones y qué medidas correctivas se pueden tomar en
caso de que no se cumplan.
2.1. Propiedades de los estimadores de MCO
Existen tres propiedades que son determinantes para garantizar la calidad de
los modelos de regresión lineal calculados por el método de MCO. Estas tres
propiedades son:
• Insesgamiento: un estimador 𝜃R es insesgado si 𝐸V𝜃R W = 𝜃 (Casella & Berger,
2021). En otras palabras, un estimador es insesgado si su valor esperado es
igual al parámetro poblacional. La importancia de esta propiedad radica en que
un estimador insesgado no tendrá tendencias a sobreestimar o a subestimar el
verdadero parámetro poblacional (esto, recordando que el valor esperado es una
medida de tendencia central).
• Consistencia: un estimador 𝜃R es consistente si 𝑝𝑙𝑖𝑚V𝜃R W = 𝜃 (Takeshi, 1985).
Cuando un estimador es consistente, su límite en probabilidades tiende al
verdadero parámetro poblacional conforme se aumenta el tamaño de la muestra.
Es decir que, conforme aumenta el número de observaciones, se tiene mayores
probabilidades de que las estimaciones sean cercanas al valor real.
• Eficiencia: un estimador insesgado es eficiente si su varianza es menor que
aquella presentada por otros estimadores insesgados. Esta propiedad es
importante ya que, si la varianza de un estimador es pequeña, las estimaciones
obtenidas a través de este tendrán pequeñas variaciones entre una muestra y
otra (Everitt, 2002). Si a esto se suma que el estimador es insesgado, entonces
esta varianza pequeña ayudará a contar con mayores probabilidades de obtener
estimaciones cercanas al verdadero parámetro poblacional.
Por lo visto, resultaría ideal que los estimadores utilizados durante la
inferencia estadística contaran con estas tres propiedades. En efecto, los
estimadores de MCO, si es que se cumple con una serie de supuestos, pueden ser
insesgados, consistentes y eficientes. Dichas condiciones, o supuestos, tienen que
ver con el valor esperado y con la varianza de los estimadores.
2.2. Valor esperado de los estimadores de MCO

19
Como se ha dicho anteriormente, el valor esperado de un estimador se refiere
a su tendencia central. Los supuestos presentados a continuación son
especialmente importantes para garantizar que los estimadores sean insesgados.
2.2.1. Supuesto 1. Linealidad en los parámetros
El primer supuesto afirma que la relación que da origen a los datos, o proceso
generador de datos, puede ser descrita a través de un modelo lineal. En otras
palabras, el primer supuesto asume una relación lineal entre la variable dependiente
y los regresores (Hayashi, 2011). De forma que, para cualquier individuo 𝑖 , se
cumple:
𝑦% = 𝛽$ + 𝛽! 𝑥%! + 𝛽" 𝑥%" + ⋯ + 𝛽# 𝑥%# + 𝑢%
La consecuencia de este supuesto es que la esperanza condicional de 𝑦%
dada por 𝐸[𝑦% |𝑥%! , 𝑥%" , … , 𝑥%# ] tiene una forma lineal de manera que se presenta
homogeneidad en los efectos. Es decir, el efecto de la variación de una variable 𝑥
sobre la dependiente será constante. Este supuesto se centra en la linealidad de los
parámetros y no en la linealidad de las variables. Así, las variables regresoras
pueden expresarse en formas no lineales.
2.2.2. Supuesto 2. Muestreo aleatorio
El segundo supuesto indica que la muestra con que se realiza el ejercicio de
inferencia estadística es tomada de forma aleatoria. Esto significa que, en el
momento en que se obtiene la información, ningún individuo de la población cuenta
con mayores o menores probabilidades de ser incluido en la muestra. La
importancia de este supuesto radica en que, de cumplirse, garantiza que la
información no ha sido seleccionada de manera deliberada o accidental de una
manera que pudiera excluir a algún segmento de la población, generando sesgos
en los estimadores.
2.2.3. Supuesto 3. Exogeneidad
El tercer supuesto podría ser considerado como el principal. Este afirma que
las variables explicativas deben ser exógenas, es decir, que no deben tener relación
con el término de perturbación. Existen diferentes versiones del supuesto que se
diferencian en que algunas son más estrictas que otras. La versión que se

20
implementará en este documento dice que las variables explicativas tendrán una
independencia en media del término de perturbación:
𝐸 [𝑈|𝑋] = 𝐸 [𝑈] = 0
La razón de que este sea un supuesto fundamental radica en que en los
entornos no experimentales suele incumplirse, lo que hace que el trabajo de quienes
aplican modelos econométricos se centre en gran parte en tratar de resolver este
problema. Aunque existen más casos, este supuesto se incumple de manera
habitual cuando:
• Hay variables importantes que se omiten en el modelo. Por variables importantes
se hace referencia a variables que tienen efecto sobre 𝑦 y que adicionalmente
tienen relación con alguna de las variables explicativas incluidas.
• Existe una mala especificación de la forma funcional. Si bien, el modelo de
regresión lineal parte de asumir una relación lineal, existen formas de “linealizar”
otro tipo de funciones.
2.2.4. Supuesto 4. No colinealidad perfecta
El cuarto supuesto indica que no puede existir una relación lineal exacta entre
dos variables explicativas. Si esto llegara a suceder, la matriz 𝑋 sería una matriz de
rango incompleto y, por lo tanto, no invertible, lo que imposibilitaría el cálculo a
través de mínimos cuadrados ordinarios. Es importante anotar que el supuesto no
se incumple cuando hay una relación lineal no perfecta entre las variables
explicativas o cuando existe una relación perfecta pero no lineal.

El cumplimiento de estos primeros 4 supuestos garantiza que los


estimadores de mínimos cuadrados ordinarios serán insesgados. Expresado de otra
forma, el cumplimiento de estos supuestos garantiza que:

QW = Β
𝐸VΒ
Los supuestos restantes tienen que ver principalmente con la varianza de
estos estimadores.
2.3. Varianza de los estimadores de MCO
Los supuestos que se construyen a partir de la varianza de los estimadores
de Β sirven para garantizar, sobre todo, la eficiencia de los mismos.

21
2.3.1. Supuesto 5. No heterocedasticidad
El término “homocedasticidad” significa varianza constante. En cambio,
“heterocedasticidad” quiere decir que la varianza cambia. En el contexto del modelo
de regresión lineal se dice que existe heterocedasticidad cuando la varianza cambia
en función de los valores de las variables explicativas. Por lo tanto, el supuesto 5
exige que:
𝑣𝑎𝑟[𝑢% |𝑋 ] = 𝑣𝑎𝑟[𝑢 ] = 𝜎 " , 𝑖 = 1, 2, … , 𝑁
Es decir que, para cualquier individuo, la varianza de los errores será
siempre una constante, independientemente del valor que tomen las variables 𝑋.
2.3.2. Supuesto 6. No autocorrelación serial
El supuesto de no autocorrelación serial exige que la covarianza entre los
términos de error para cualquier par de individuos sea siempre igual a 0.
𝑐𝑜𝑣V𝑢% , 𝑢) W = 0, 𝑖≠𝑗
En ocasiones, el supuesto de no heterocedasticidad y de no autocorrelación
serial se combinan en un solo supuesto que dice que la matriz de varianzas y de
covarianzas del término de perturbación, condicional a las características de toda la
población es equivalente a la varianza de 𝑢 multiplicada por la matriz identidad:
𝑣𝑎𝑟[𝑈|𝑋] = 𝜎 " 𝐼&
A este supuesto también se le conoce como varianzas esféricas. El teorema
de Gauss-Markov dice que, si se cumple con los supuestos planteados hasta ahora,
el estimador de MCO será el mejor estimador lineal insesgado. Esto quiere decir
que, si existiera un estimador alternativo que también fuera insesgado y lineal, el
estimador de MCO sería más eficiente al poseer una menor varianza. De esta forma,
resulta crucial evaluar el cumplimiento de estos supuestos con el fin de que los
modelos calculados cuenten con buenas propiedades.
2.4. Distribución de los estimadores de MCO
Hasta este punto se ha insistido en que los estimadores 𝛽6 son variables
aleatorias dado que sus valores pueden cambiar de una muestra a otra. Una de las
características de una variable aleatoria es que cuenta con una función que permite
calcular la probabilidad de que dicha variable tome diferentes valores. Cuando se
estudian probabilidades, se dan a conocer varias de estas funciones, por ejemplo,

22
la distribución binomial y la distribución de Poisson, que se usan para algunas
variables aleatorias discretas, o la distribución normal, que es especialmente útil
para algunas variables aleatorias continuas y suele ser usada en la inferencia
estadística, lo que se posibilita a través del teorema central del límite (Gujarati &
Moreno López, 2006). De esta forma, cabe preguntarse, qué distribución de
probabilidades es seguida por los estimadores 𝛽6 .
2.4.1. Supuesto 7. Normalidad en la distribución de los estimadores
En realidad, incluso si se cumplen todos los supuestos planteados
anteriormente, la distribución de estos estimadores podría ser cualquiera
(Wooldridge, 2006). Esto es problemático ya que, en la construcción de intervalos
$ $
/ ,.
.
de confianza, como se vio anteriormente, se asume que la expresión 012.
/ 3 sigue
$

una distribución t de Student. Para que esto sea cierto, es necesario que la
distribución de 𝛽6) sea una distribución normal, lo cual se puede lograr si se cumple
una de las siguientes condiciones.
• Condición 1: si el tamaño muestral es suficientemente grande, gracias al
teorema central del límite, la distribución de cada una de las 𝛽6) será una
distribución normal. Si además se cumplen los primeros supuestos, se tendrá
que (Stock et al., 2012):
𝛽6) ~𝑁<𝛽, 𝑣𝑎𝑟V𝛽6) W=
• Condición 2: es posible que la muestra no sea lo suficientemente grande,
pero aun así los estimadores 𝛽6) podrían contar con una distribución normal
si es que la distribución del término de error es igualmente normal
(Wooldridge, 2006).
¿Qué sucede si el supuesto de normalidad no se cumple? El estimador de
MCO aún puede ser el mejor estimador lineal insesgado (Baissa & Rainey, 2020).
El problema se presentaría en el momento de construir intervalos de confianza y
realizar pruebas de hipótesis, ya que los métodos presentados antes no serían
válidos. Esto no quiere decir que estas formas de estimación sean imposibles bajo
no normalidad. Lo que quiere decir es que los métodos habituales ya no serían

23
correctos. Las alternativas requerirían conocer la distribución de los estimadores 𝛽6)
(lo cual no siempre es sencillo) o la aplicación de métodos no paramétricos.
2.5. La multicolinealidad
La multicolinealidad (que no debe ser confundida con la colinealidad perfecta)
es un problema que suele presentarse cuando existe una relación lineal no exacta
entre algunas de las variables explicativas del modelo. La multicolinealidad no viola
ninguno de los supuestos vistos anteriormente, de manera que los estimadores de
MCO pueden seguir siendo los mejores estimadores lineales insesgados en
presencia de esta (Wooldridge, 2006). Aun así, la multicolinealidad puede afectar la
precisión del modelo al incrementar la varianza de los estimadores 𝛽6) . En otras
palabras, la multicolinealidad puede hacer que los intervalos de confianza sean más
amplios. Adicionalmente, podría suceder que una variable 𝑥) tuviera un efecto real
sobre la variable 𝑦, pero que, debido a la falta de precisión, no se consiga rechazar
la hipótesis nula en una prueba de hipótesis. Aunque pareciera intuitivo suponer
que, si se presentan problemas de multicolinealidad, debería eliminarse una de las
variables correlacionadas, es extremadamente importante tener en cuenta que, de
hacer esto, la variable eliminada terminaría en el término de error y esto haría que
se incumpliera con el supuesto 3, ya que ahora la relación se presentaría entre 𝑢 y
la variable 𝑥) que permanece en el modelo. De acuerdo con Wooldridge (2006), el
verdadero problema de la multicolinealidad es la micronumerosidad. Es decir, este
problema solamente es relevante en muestras pequeñas, ya que cuando existen
muestras grandes el número de observaciones puede hacer que se disminuya la
varianza de los 𝛽6) y compensar el aumento de la varianza generado por la
multicolinealidad.
2.6. Pruebas diagnósticas y correcciones
Una vez se tienen claros los supuestos que deberían cumplirse y los
problemas que podrían aparecer en el cálculo de los modelos de regresión,
conviene estudiar qué tipo de pruebas diagnósticas se pueden utilizar para verificar
el cumplimiento de estos supuestos, con métodos que sean útiles cuando se cuenta
con una muestra aleatoria. A continuación se abordan algunas de las pruebas

24
utilizadas para verificar el cumplimiento de los supuestos. Las pruebas, conocidas
como pruebas de especificación, se centrarán sobre los supuestos 3 y 5.
2.6.1. Pruebas para la endogeneidad
Las pruebas diagnósticas para la endogeneidad pueden ser pruebas
estadísticas o instrumentos gráficos. Si bien, este tipo de pruebas es fundamental,
la presencia de endogeneidad también puede ser detectada a través del uso de la
teoría económica y financiera que soporta los modelos. La teoría puede dar pistas
sobre las variables que deben ser incluidas y sobre las formas funcionales de las
relaciones planteadas. Dicho esto, una de las pruebas estadísticas utilizadas
habitualmente es el test de Ramsey, también llamado “RESET” (Regression
Specification Error Test). Esta prueba es especialmente útil para detectar errores de
especificación de la forma funcional, pero no necesariamente para detectar
problemas de variables omitidas (Wooldridge, 2006). La intuición detrás de esta
prueba es que, de existir alguna función no lineal de las variables explicativas en el
término de error, al incluir estas funciones en el modelo, estas tendrían significancia
estadística. De esta manera, se usa una regresión auxiliar de la siguiente forma:
𝑦 = 𝛽$ + 𝛽! 𝑥! + ⋯ + 𝛽# 𝑥# + 𝛿! 𝑦7 " + 𝛿" 𝑦7 ( + 𝑒𝑟𝑟𝑜𝑟
A continuación, se plantea la hipótesis nula 𝐻$ : 𝛿! = 𝛿" = 0 y se construye
una prueba con la distribución F utilizando 2 grados de libertad en el numerador y
𝑛 − 𝑘 − 3 grados de libertad en el denominador. Si se rechaza la hipótesis nula,
entonces se puede concluir que hay evidencia de no linealidades que no fueron
incluidas en el modelo. En tal caso, se debe probar qué forma funcional es la que
hace falta incluir.
2.6.2. Pruebas para la heterocedasticidad
Existen diversas pruebas para la detección de la heterocedasticidad, de las
cuales una de las más usadas es la prueba de White. Esta prueba consiste en, tal
como se realizó durante la prueba RESET, utilizar una regresión auxiliar. En este
caso, la regresión auxiliar cuenta con los residuales al cuadrado como variable
dependiente. Es decir, esta prueba comienza por estimar el modelo original a través
de mínimos cuadrados ordinarios y, una vez obtenidos los residuales, estos son
elevados al cuadrado e incluidos en el siguiente modelo:

25
𝑢7" = 𝛿$ + 𝛿! 𝑥! + 𝛿" 𝑥" + ⋯ + 𝛿# 𝑥# + 𝛿#:! 𝑥!" + 𝛿#:" 𝑥"" + ⋯ 𝛿#:# 𝑥#" + 𝛿#:#:! 𝑥! 𝑥"
+ 𝛿#:#:! 𝑥! 𝑥( + ⋯ + 𝑒𝑟𝑟𝑜𝑟
Es decir, esta prueba trata de establecer si existe una relación lineal o no
lineal de los residuos al cuadrado con alguna de las variables explicativas o sus
productos. Si por lo menos uno de los coeficientes resulta significativo, se concluye
que puede existir presencia de heterocedasticidad. Al igual que en la prueba
RESET, se evalúa a través del estadístico F esta significancia. Debido a que la
prueba de White incluye demasiados regresores, existe una versión reducida que,
en lugar de usar las variables al cuadrado y sus productos, usa los valores ajustados
de 𝑦 elevados al cuadrado, ya que dicha variable incluiría de manera implícita los
otros términos:
𝑢7" = 𝛿$ + 𝛿! 𝑦7 + 𝛿" 𝑦7 " + 𝑒𝑟𝑟𝑜𝑟
Aquí se evaluaría simplemente la hipótesis 𝐻$ : 𝛿! = 𝛿" = 0. De rechazarse,
se concluye que hay presencia de heterocedasticidad. Cuando hay
heterocedasticidad se ha dicho que los estimadores de MCO no son eficientes. Esto
significa que existen estimadores alternativos con varianzas menores. Pero si los
estimadores de MCO son insesgados y consistentes y el número de observaciones
compensa por esta mayor varianza, entonces esto no supondría un gran problema.
Lo que si sería problemático es una consecuencia sobre los estimadores de la
varianza, lo cual se tratará a continuación.
• Inferencia robusta en presencia de heterocedasticidad: en condiciones de
heterocedasticidad, el estimador de la varianza de los 𝛽6) no es válido, lo cual
tiene como consecuencia que los intervalos de confianza y las pruebas de
hipótesis que se basan en estas varianzas pierden su validez (Brooks, 2008).
Para entender el cálculo de este estimador robusto, el estimador puede ser
reescrito para cada una de los 𝛽6) de la siguiente manera:

r6 W = 𝜎7 "
𝑣𝑎𝑟V𝛽;
𝑆𝑇𝐶) <1 − 𝑅)" =
En el cual 𝑆𝑇𝐶) es la suma de cuadrados de la variable 𝑥) y 𝑅)" es el 𝑅"
obtenido al realizar una regresión auxiliar con 𝑥) como variable dependiente y el
resto de las 𝑥 como variables independientes. Como ya se ha dicho, este estimador

26
no es válido en presencia de heretocedasticidad. Un estimador alternativo de esta
varianza que sí cobra validez en este contexto sería:
& " "
r6 W = ∑%'! 𝑟̂%) 𝑢7%
𝑣𝑎𝑟V𝛽;
𝑆𝑇𝐶)
En el que 𝑟̂%) es el residual 𝑖 que se obtiene al regresar 𝑥) sobre las demás
variables independientes. Este estimador permite que, incluso sin eliminar la
heterocedasticidad, los intervalos de confianza del modelo sigan siendo válidos. En
cuanto al supuesto de no autocorrelación serial, en el contexto de datos de corte
transversal no tiene tanto sentido evaluar este supuesto (aun así, existen casos en
los cuales puede existir autocorrelación en los errores, por ejemplo, por factores
espaciales, es decir, cuando una unidad geográfica afecta a las unidades
contiguas).
Unidad 3. Introducción a las series de tiempo
Todos los procedimientos que se han abordado hasta este punto utilizan
información de corte transversal, a través del modelo de regresión lineal y sus
supuestos correspondientes. En otras palabras, se ha recurrido a información en la
cual las observaciones fueron realizadas de manera contemporánea para todas las
variables, es decir, dentro de un mismo marco temporal. Este tipo de modelos tiene
un gran número de aplicaciones, pero cuando se cuenta con información a lo largo
del tiempo, como suele suceder en gran parte de la información financiera, el
modelo empieza a presentar fallos debido a la violación del supuesto de no
autocorrelación serial. Es aquí donde entran los modelos de series de tiempo. En
una serie de tiempo se cuenta con información de una o varias variables para un
mismo individuo a lo largo del tiempo. Cuando se utiliza información de una sola
variable, los modelos se agrupan bajo lo que se conoce como series de tiempo
univariadas. En cambio, existen modelos que utilizan múltiples variables, los cuales
reciben el nombre de series de tiempo multivariadas. En los modelos de series de
tiempo univariados se trata de comprender el comportamiento de un fenómeno en
relación con sus valores pasados. En otras palabras, se trata de extraer información
de la relación de un individuo consigo mismo a través del tiempo. Dentro de esta
unidad se hará especial énfasis en los modelos de series de tiempo de una sola

27
variable, tratando de comprender cuáles son sus componentes. Para esto, es
necesario ofrecer una fundamentación estadística en cuanto a los procesos
estocásticos y el concepto de estacionariedad. La teoría presentada para estos
conceptos trata de ser suficiente para comprender los modelos de series de tiempo,
pero se invita al estudiante a profundizar en el concepto y en el uso de los procesos
estocásticos que no solamente pueden ser útiles para la inferencia y la predicción,
también pueden resultar claves para realizar simulaciones de tipo financiero.
3.1. Procesos estocásticos
Cuando se realizan modelos de corte transversal, se suele utilizar muestras
aleatorias como punto de partida. Una muestra aleatoria puede ser vista como una
sucesión de variables aleatorias idénticamente distribuidas. Para comprender esto
es posible plantearlo de la siguiente forma: se puede suponer que una muestra de
tamaño 𝑛 cuenta con información de una variable 𝑋 para 𝑛 individuos. Así, antes de
recoger la muestra, se podría considerar esta misma como una sucesión de
incógnitas 𝑋! , 𝑋" , 𝑋( , … , 𝑋& , en el que 𝑋% representa el valor de la variable 𝑋 para un
individuo 𝑖. Si todos los individuos provienen de una misma población, entonces
podría decirse que cada una de las incógnitas 𝑋% es una variable aleatoria con la
misma distribución que las otras (Wei, 2006). Pero si los fenómenos estudiados ya
no ocurren en un mismo momento, sino que corresponden a observaciones de una
misma variable a lo largo del tiempo, no es posible hablar de una sucesión de
variables aleatorias independientes e idénticamente distribuidas. Por ejemplo,
considérese una variable que se observa en intervalos de tiempo discretos. Sea 𝑇
el número total de observaciones que se realizará de dichas variables, entonces,
antes de realizar estas observaciones, se cuenta con una serie de incógnitas
𝑋! , 𝑋" , 𝑋( , … , 𝑋< , en el cual 𝑋% hace referencia al valor de la variable 𝑋 en un período
𝑖. Por una parte, es posible que el valor que puedan tomar estas incógnitas dependa
de lo que ha sucedido en períodos anteriores, por lo que ya no se podría hablar de
independencia entre variables aleatorias. En segundo lugar, los fenómenos
económicos y financieros pueden modificar su distribución a lo largo del tiempo, por
ejemplo, épocas en las que existe mayor volatilidad que en otras, lo cual modifica la
varianza, o variables que tienen una tendencia creciente, lo cual modifica la media

28
a lo largo del tiempo. Si la distribución de probabilidades de cada una de estas 𝑋%
cambia, entonces no se puede hablar de una muestra aleatoria. En cambio, puede
hablarse de un proceso estocástico, el cual es una sucesión de variables aleatorias
𝑋(𝑡), en el que 𝑡 representa el tiempo. Con esto, se quiere hacer énfasis en el hecho
de que todos los aspectos importantes de esta variable pueden variar en función del
tiempo. Si estos valores dejan de ser incógnitos y pasan a ser observados, entonces
a esta observación se le conoce como serie de tiempo (Wei, 2006).
3.2. Estacionariedad
Como se ha dicho, un proceso estocástico es una sucesión de variables
aleatorias. Considérese un proceso estocástico {𝑋=! , 𝑋=" , … 𝑋=& }. Es decir, existen
𝑛 momentos 𝑡𝑖 en el tiempo. Cada uno de los 𝑋=% representa entonces una variable
aleatoria, cuyos posibles valores están dados por una distribución de
probabilidades. Si se llama con el término 𝑥% a una realización cualquiera de la
variable 𝑋=% , entonces la función de distribución de probabilidades conjunta se
puede representar a través de la expresión:
𝐹>*+ ,>*, ,… >*& (𝑥! , 𝑥" , … , 𝑥& ) = 𝑃(𝑋=! ≤ 𝑥! , 𝑋=" ≤ 𝑥" , … , 𝑋=& ≤ 𝑥& )
Es de recordar que una función de distribución de probabilidades muestra la
probabilidad acumulada para un valor específico. En este caso, esta función
representa la probabilidad de que cada uno de los 𝑋=% tome valores menores o
iguales a aquellos mostrados en el paréntesis. La probabilidad de que cada una de
las 𝑋=% tome un valor menor o igual a un 𝑥% dado, recibe el nombre de distribución
marginal, que puede ser representado de la siguiente forma:
𝐹>*- = 𝑃(𝑋=% ≤ 𝑥% )
La estacionariedad es un concepto fundamental en el análisis de series de
tiempo ya que muchos de los procedimientos que se verán exigen trabajar con
procesos estacionarios. En palabras simples, se dice que una serie de tiempo es
estrictamente estacionaria si la distribución de distribución de probabilidades
conjunta no cambia con el tiempo, es decir, si (Brooks, 2008):
𝐹>*+ ,>*, ,… >*& (𝑥! , 𝑥" , … , 𝑥& ) = 𝐹>*+./ ,>*,./ ,… >*&./ (𝑥! , 𝑥" , … , 𝑥& )
Pero esta es una condición demasiado fuerte y difícilmente verificable de
manera empírica (Tsay, 2002). Por esta razón, se suelen asumir formas más débiles

29
de estacionariedad, de manera que se pueda relajar este supuesto. Con el fin de
ver cómo funcionan estas formas más débiles de estacionariedad se dan algunas
definiciones. Sea {𝑋= |𝑡 = 0, ±1, ±2, … } un proceso estacionario. Su valor esperado
se define a través de la expresión:
𝜇= = 𝐸[𝑋= ]
Por otra parte, la varianza está dada por:
𝜎=" = 𝑉𝑎𝑟[𝑋= ] = 𝐸 [𝑋= − 𝜇= ]"
Adicionalmente, se puede definir la covarianza entre dos valores cualquiera
de 𝑋 en dos momentos dados, 𝑋=! y 𝑋=" , con la expresión:
𝐶𝑜𝑣[𝑋=! , 𝑋=" ] = 𝛾(𝑡! , 𝑡" ) = 𝐸[(𝑋=! − 𝜇=! )(𝑋=" − 𝜇=" )]
Que a su vez puede ser usada para calcular la correlación entre el mismo
par, 𝑋=! y 𝑋=" , usando la expresión:
𝛾(𝑡! , 𝑡" )
𝜌(𝑡! , 𝑡" ) =
" "
}𝜎=! }𝜎="
3.2.1. Estacionariedad débil
Se dice que una serie de tiempo es estacionaria débil si para cualquier 𝑖 =
1, 2, … , ∞ se cumplen tres condiciones:
𝐸 [𝑋= ] = 𝜇
Es decir que el valor esperado es constante a lo largo de la serie. En segundo
lugar, la varianza también debe ser constante:
𝑉𝑎𝑟[𝑋= ] = 𝜎 "
Finalmente, las covarianzas y las correlaciones son constantes, dependiendo
solamente de la distancia 𝑘 entre ambos momentos (Tsay, 2002). Este valor 𝑘
también se puede definir como el número de rezagos.
𝐶𝑜𝑣V𝑋=% , 𝑋=(%,# ) W = 𝛾#
Nótese que 𝛾$ equivale a la varianza de 𝑋= . En resumen, un proceso
estacionario débil es un proceso con media (valor esperado) constante, varianza
constante y covarianzas constantes que presentan cambios solamente en función
de la distancia entre los dos valores. La razón de que se discutan los procesos
estacionaros débiles es que dicho supuesto sí puede ser verificado a través de un
número suficiente de observaciones, lo que hace que sea un supuesto habitual en

30
finanzas, en donde se suele contar con grandes números de observaciones (por
ejemplo, los retornos diarios de una acción). De lo discutido, surgen dos conceptos
en los que resulta conveniente profundizar: la función de autocorrelación.
3.2.2. Función de autocorrelación muestral
Sea 𝜌# la correlación entre 𝑋=% y 𝑋=(%,#) . Esta función está definida por:
𝐶𝑜𝑣V𝑋=% , 𝑋=(%,#) W 𝛾#
𝜌# = =
𝑉𝑎𝑟[𝑋= ] 𝛾$
Si, para todo 𝑘 > 0, esta correlación es siempre igual a 0, entonces se dice
que la serie no presenta correlación serial. Pero este es un concepto teórico que,
de no contar con la función de distribución que define el proceso, no podría ser
calculado. Por lo tanto, es necesario encontrar una manera de estimar estos valores
a través de una serie observada. Esto se logra a través de la función de
autocorrelación muestral, la cual está dada por:
∑&%'#:!(𝑥=% − 𝑥̅ )(𝑥=(%,#) − 𝑥̅ )
𝜌7# =
∑&%'!(𝑥=% − 𝑥̅ )"
Los resultados de calcular la función de autocorrelación son presentados de
manera general en gráficos como el que se muestra a continuación, en el que se
realiza este cálculo para el rendimiento de las acciones de Netflix. Nótese que, por
razones obvias, la autocorrelación con 0 rezagos debe ser siempre igual a 1. Estos
gráficos suelen incluir dos bandas como las que se observan en las líneas
punteadas que indican el umbral a partir del cual se consideran las correlaciones
como estadísticamente diferentes de 0 a través de una prueba de hipótesis de dos
colas. En este caso, no se encontraron correlaciones con evidencia suficiente de
ser diferentes de cero, salvo en el sexto rezago, donde se presenta una correlación
negativa.
Figura 4
Ejemplo de una función de autocorrelación

31
Otro concepto útil corresponde a las autocorrelaciones parciales. El cálculo
de las mismas se introducirá durante el análisis de los modelos tipo MA. Un caso
particular de un proceso estocástico estacionario que se conoce como ruido blanco.
Además de ser ilustrativo, algunos supuestos de los modelos que se verán en
adelante asumen que ciertos componentes son ruido blanco. Se habla de un
proceso de ruido blanco cuando se cuenta con un proceso estocástico con media
constante, varianza constante y estructura de covarianzas constante con valor igual
a cero para cualquier número de rezagos. En otras palabras, un proceso de ruido
blanco es un proceso estacionario con la característica especial de que las
autocovarianzas siempre son iguales a cero. Esto quiere decir que en un proceso
de ruido blanco cada observación no está correlacionada con otros valores de la
serie.
𝐸 [𝑋= ] = 𝜇
𝑉𝑎𝑟[ 𝑋= ] = 𝜎 "
𝛾# = 0 ∀𝑘 ≠ 0

32
3.3. Procesos de media móvil
Uno de los procesos más simples que resulta útil en los modelos de series
de tiempo es el proceso de media móvil. Si se parte de un proceso de ruido blanco
llamado 𝑢= , en el que 𝐸 [𝑢= ] = 0 y 𝑉𝑎𝑟[𝑢= ] = 𝜎 " (Tsay, 2002), entonces se puede
expresar un proceso de media móvil a partir de la expresión:
𝑦= = 𝜇 + 𝑢= + 𝜃! 𝑢=,! + 𝜃" 𝑢=," + ⋯ + 𝜃C 𝑢=,C
De manera alternativa y compacta, este proceso puede ser expresado también de
la forma:
C

𝑦= = 𝜇 + ; 𝜃% 𝑢=,% + 𝑢=
%'!

Se dice que un proceso de este tipo es entonces un proceso de media móvil


de orden q, lo que también se expresa como MA(q). Algunas operaciones simples
permiten demostrar las siguientes propiedades:
𝐸 [𝑦= ] = 𝜇
𝑉𝑎𝑟[𝑦= ] = <1 + 𝜃!" + 𝜃"" + ⋯ + 𝜃C" =𝜎 "
(𝜃D + 𝜃D:! 𝜃! + 𝜃D:" 𝜃" + ⋯ + 𝜃C" ), 𝑝𝑎𝑟𝑎 𝑠 = 1,2, … , 𝑞
𝛾D = •
0, 𝑠>𝑞
Esto significa que en un proceso 𝑀𝐴(𝑞) las autocovarianzas pueden ser
diferentes de cero hasta el rezago 𝑞 y, a partir de entonces, las autocovarianzas se
convierten en ceros (Brooks, 2008). El diagrama de autocorrelaciones en una serie
𝑀𝐴(𝑞) tiende entonces a mostrar correlaciones estadísticamente diferentes de cero
hasta el orden 𝑞, y a partir de este punto correlaciones no diferentes de cero. Por
ejemplo, la siguiente figura muestra un diagrama de una serie 𝑀𝐴(3) simulada en
R. Los coeficientes fueron calculados a través de la fórmula de estimación.
Figura 5
Función de autocorrelación de proceso 𝑀𝐴(3)

33
3.4. Procesos autorregresivos
Un proceso autorregresivo es aquel en el que el valor actual de una variable
𝑦= depende de los valores previos de esta misma variable más un término de error
(Brooks, 2008), este término es ruido blanco. Si la variable depende de 𝑝 rezagos
de si misma, entonces un proceso 𝐴𝑅(𝑝) puede ser representado como:
E

𝑦= = 𝜇 + ; 𝜙% 𝑦=,% + 𝑢=
%'!

Para que un proceso 𝐴𝑅(𝑞) pueda ser utilizado, la serie de tiempo debe
originarse de un proceso estacionario. Una de las formas de verificar que esto
suceda es que las raíces características de la ecuación que se muestra a
continuación deben yacer por fuera del círculo unitario. En otras palabras, todas las
raíces de dicha ecuación deben tener un valor absoluto mayor que 1 (Brooks, 2008):
1 − 𝜙! 𝑧 − 𝜙" 𝑧 " − ⋯ − 𝜙E = 0
Los parámetros del modelo 𝐴𝑅(𝑝) se pueden estimar a través de un método
conocido como el sistema de ecuaciones de Yule-Walker (Tsay, 2005):
𝜌! = 𝜙! 𝜌$ + 𝜙" 𝜌! + 𝜙( 𝜌" + ⋯ + 𝜙E,! 𝜌E," + 𝜙E 𝜌E,!

34
𝜌" = 𝜙! 𝜌! + 𝜙" 𝜌$ + 𝜙( 𝜌! + ⋯ + 𝜙E,! 𝜌E,( + 𝜙E 𝜌E,"
𝜌( = 𝜙! 𝜌" + 𝜙" 𝜌! + 𝜙( 𝜌$ + ⋯ + 𝜙E,! 𝜌E,F + 𝜙E 𝜌E,(
𝜌E = 𝜙! 𝜌E,! + 𝜙" 𝜌E," + 𝜙( 𝜌E,( + ⋯ + 𝜙E,! 𝜌! + 𝜙E 𝜌$
El proceso de ajuste consiste en estimar en primer lugar las correlaciones a
través de 𝜌7# y, a continuación, encontrar los valores de 𝜙 que resuelven el sistema
resultante.
3.5. Procesos ARMA
Los modelos ARMA son modelos que se podrían considerar mixtos en el
sentido en que combinan procesos de media móvil y procesos autorregresivos. De
esta forma, un modelo 𝐴𝑅𝑀𝐴(𝑝, 𝑞) se puede representar de la forma:
E C

𝑦= = 𝜇 + ; 𝜙% 𝑦=,% + ; 𝜃% 𝑢=,% + 𝑢=
%'! %'!

De nuevo, tal como se vio en los modelos anteriores, se considera que los
errores 𝑢= son un proceso de ruido blanco con media cero. Para determinar si se
sigue un proceso ARMA es útil el concepto de autocorrelación parcial. La
autocorrelación parcial entre 𝑦= y 𝑦=,# puede ser obtenida a partir de una regresión
lineal entre 𝑦= y sus 𝑘 valores previos:
𝑦= = 𝜌#! 𝑦=,! + ⋯ + 𝜌## 𝑦=,# + 𝜖=
En otras palabras, las autocorrelaciones parciales son las correlaciones que
se encuentran una vez se ha controlado el efecto de los demás rezagos. En esta
ecuación, los 𝑦= corresponden a los valores originales menos la media del proceso,
lo cual elimina el término independiente. Si una serie sigue un proceso 𝐴𝑅(𝑝),
entonces las autocorrelaciones parciales serán estadísticamente significativas.
Existen algunas ayudas que se pueden utilizar para determinar el orden que se
sigue en un proceso ARMA para cada uno de sus componentes. Cuando se tiene
una serie estacionaria, esta serie es:
• 𝑀𝐴(𝑞) si sus autocorrelaciones parciales son decrecientes, mientras que sus
autocorrelaciones no son estadísticamente diferentes de 0 después de 𝑞
rezagos. Un ejemplo de este tipo puede ser visto en los cuatro gráficos que se
presentan a continuación, en los cuales se ilustran las funciones de

35
autocorrelación y de autocorrelación parcial de procesos 𝑀𝐴(2) y 𝑀𝐴(3)
simulados en R.
Figura 6
Función de autocorrelación y función de autocorrelación parcial en procesos
𝑀𝐴(2) y 𝑀𝐴(3)

• 𝐴𝑅(𝑝) cuando las autocorrelaciónes caen de manera lenta, mientras que las
autocorrelaciones parciales dejan de ser estadísticamente significativas a partir
de 𝑝 rezagos. En la Figura 7 se ilustran procesos 𝐴𝑅(2) y 𝐴𝑅(3) simulados en
R.
Figura 7
Función de autocorrelación y función de autocorrelación parcial en procesos 𝐴𝑅(2)
y 𝐴𝑅(3)

36
• 𝐴𝑅𝑀𝐴(𝑝, 𝑞) si tanto las autocorrelaciones como las autocorrelaciones parciales
disminuyen conforme 𝑘 aumenta, como se muestra en la Figura 8.
Figura 8
Función de autocorrelación y función de autocorrelación parcial en procesos
𝐴𝑅𝑀𝐴(3,3)

37
En ocasiones, las series de tiempo usadas pueden no ser estacionarias, por
ejemplo, debido a la existencia de una tendencia. En estos casos es posible realizar
transformaciones, por ejemplo, diferenciando las series en lo que se conoce como
un modelo de tipo ARIMA. Identificar el orden de cada uno de los componentes de
un modelo ARIMA no es una tarea tan sencilla. En ocasiones conviene utilizar
paquetes estadísticos que permitan identificar de forma sencilla este orden, como
puede ser la función auto.arima() en R. Una vez se identifica el orden de los
componentes, el siguiente punto puede ser realizar predicciones con los modelos
obtenidos. Sea 𝑡 el origen a partir del cual se desea proyectar una serie de tiempo.
Para obtener el siguiente valor hacia el futuro, se puede usar la expresión:
E C

𝑦7=:! = 𝐸(𝑦=:! |𝑦= , 𝑦=,! , … ) = 𝜇 + ; 𝜙% 𝑦=:!,% + ; 𝜃% 𝑢=:!,% + 𝑢=


%'! %'!

Si la proyección se hace hacia 𝑘 períodos en el futuro, se tiene (Brooks,


2008):
E C

𝑦7=:# = 𝐸(𝑦=:# |𝑦= , 𝑦=,! , … ) = 𝜇 + ; 𝜙% 𝑦7=:#,% + ; 𝜃% 𝑢=:#,% + 𝑢=


%'! %'!

38
Unidad 4. Aplicaciones financieras
Durante esta unidad se presentará el desarrollo de algunos modelos que
pueden resultar útiles e interesantes relacionados con aplicaciones financieras. Los
ejemplos presentados son desarrollados en el programa R, de manera que se
incluirán también los códigos que llevan a estos resultados. Se incluyen tanto
aplicaciones en datos de corte transversal como aplicaciones en datos de series de
tiempo.
4.1. Modelo de valoración de activos financieros
El modelo de valoración de activos financieros, comúnmente conocido como
CAPM (Capital Asset Pricing Model). Este modelo puede ser utilizado para
determinar qué tan rentable resulta la inversión en un activo financiero determinado.
Este modelo asume la existencia de un activo libre de riesgo (𝑅G ) y una tasa de
mercado (𝑅H ). A partir de esta información, el CAPM usa la regresión lineal con el
fin de obtener la línea característica del título que se está evaluando, usando los
rendimientos de dicho título como variable dependiente y la prima de riesgo como
regresor (Rachev et al., 2007). La ecuación que permite este cálculo se presenta a
continuación:
𝐸 [𝑅% ] = 𝑅G + 𝛽<𝐸 [𝑅H ] − 𝑅G =
Habitualmente, con el fin de realizar trabajos empíricos, el CAPM es
expresado en la forma:
𝑅% − 𝑅G = 𝛼 + 𝛽(𝑅H − 𝑅G )
Con el fin de ilustrar la aplicación de este modelo, se utilizará el precio de
las acciones de Netflix. Adicionalmente, se muestra cómo descargar la información
necesaria directamente desde Yahoo! Finance. Para este fin, se utilizará el
paquete quantmod. De no encontrarse instalado, se debe escribir el siguiente
comando en la consola: install.packages(quantmod)
A continuación, debe cargarse el paquete ejecutando el comando:
library(“quantmod”)
Una vez cargado, este paquete permite descargar información financiera
desde diferentes fuentes. En este ejercicio, se utilizará la función getSymbols() la
cual se usa precisamente para este fin. Para descargar el precio de una acción, es

39
necesario escribir la abreviación de la misma dentro del paréntesis. En el caso de
Netflix, esta abreviación es “NFLX”. A continuación, se debe usar la opción src con
el fin de indicarle a R la fuente de la cual se desea descargar la información. Esta
fuente es “yahoo”. Una vez hecho esto, se indicará la fecha inicial y la fecha final
para obtener los precios. La periodicidad deseada también debe ser indicada. En
este caso, se usará la periodicidad mensual.
getSymbols("NFLX", src = "yahoo", from = "2017-08-01", to = "2022-08-01",
periodicity = "monthly")
Ahora, el CAPM requiere también la utilización de un activo que represente
el mercado. En este caso se usará el índice S&P 500 que también podrá ser
descargado de la misma fuente.
getSymbols("SPY", src = "yahoo", from = "2017-08-01", to = "2022-08-01",
periodicity = "monthly")
Finalmente, se hace necesario obtener un activo libre de riesgo. En las
aplicaciones del CAPM es habitual utilizar los bonos del tesoro de Estados Unidos
a tres meses. El paquete quantmod también permite descargar esta información
usando la fuente de la Reserva Federal. El nombre de los bonos requeridos es
DGS3MO.
getSymbols("DGS3MO", src = "FRED", from = "2017-08-01", to = "2022-08-01",
periodicity = "dialy")
El uso de estas funciones carga tres objetos en el ambiente de R. Los objetos
NFLX, SPY y DGS3MO respectivamente. En el momento de la construcción de este
documento, la importación del objeto DGS3MO presentaba problemas debido a que
no tomaba las fechas requeridas, sino que importaba la serie completa desde 1981.
Más adelante se muestra cómo solucionar este problema. Por ahora, se pueden
realizar algunos gráficos para visualizar las series obtenidas. Por ejemplo, la función
chartSeries() del paquete quantmod permite obtener el grafico que se muestra a
continuación.
chartSeries(SPY, theme = chartTheme("white"))
Figura 9
Serie de tiempo del precio del índice S&P500

40
También es posible construir gráficos más sencillos como un gráfico de
líneas, a través del siguiente código:
plot(NFLX$NFLX.Adjusted, main="Precio de cierre ajustado - Netflix", xlab="Mes",
ylab="Precio de cierre")
Figura 10
Precio de cierre de acción de Netflix

41
En este caso, se está graficando el precio de cierre ajustado de la acción de
Netflix. Los parámetros xlab, ylab y main de la función plot permitieron nombrar el
eje horizontal, vertical y el título del gráfico respectivamente. Para la construcción
del CAPM se debe contar con los rendimientos tanto de las acciones de Netflix como
del S&P 500. Hasta el momento, se cuenta solamente con sus precios. Para
encontrar los rendimientos, se puede utilizar la función Delt(), la cual calcula la
variación porcentual de una serie de tiempo.
mercado <− Delt(SPY$SPY.Adjusted)
netflix <− Delt(NFLX$NFLX.Adjusted)
Para el caso del activo sin riesgo, en primer lugar, se modificará la serie con
el fin de que incluya solamente la información necesaria. Así, la función to.monthly
convierte la información que tiene una frecuencia diaria en información con
periodicidad mensual. Los datos de esta serie corresponden a datos de
rendimientos con respecto al año anterior, por lo que se debe realizar una
transformación para obtener la información mensual. El siguiente código realiza
dicho procedimiento:

42
rf <− to.monthly(DGS3MO)
rf <− (1 +rf$DGS3MO.Open / 100)^(1 / 12) − 1
Adicionalmente, se debe filtrar la información para las fechas requeridas:
rf <− rf["20170801/20220801"]
Hasta el momento, ya se cuenta con la información necesaria para ajustar el
modelo. De esta forma, se usará la función cbind() para poner esta información en
una misma tabla. A estos componentes se les asignaron los nombres Rm, Ri y Rf
con el fin de conservar la nomenclatura de la fórmula del CAPM.
datos <− cbind(mercado, netflix, rf)
names(datos) <− c("Rm", "Ri","Rf")
Finalmente, la variable dependiente se construye como el excedente del
rendimiento de la acción de Netflix y la variable independiente es la prima de riesgo:
datos$y <- datos$Ri-datos$Rf
datos$x <- datos$Rm-datos$Rf
Para ejecutar la regresión lineal, se usa el comando lm(), se almacena dentro
de un objeto que en este ejemplo fue llamado capm y se usa la función summary()
con el fin de extraer los resultados del modelo.
capm <- lm(y~x, data=datos)
summary(capm)
Las salidas que se obtienen de este procedimiento pueden verse en la
siguiente figura que presenta una captura de pantalla tal como se obtiene en R. La
atención debe centrarse en las estimaciones de 𝛼 y 𝛽. Para el caso de 𝛼 se obtuvo
un valor de -0,0016, mientras que el valor de 𝛽 fue igual a 1,32. Si bien el valor 𝛼 es
importante (conocido como el alfa de Jensen), la atención se centrará en el
coeficiente 𝛽. La interpretación del mismo indica que, de producirse una variación
en el mercado del 1%, se esperaría una variación del precio de la acción de Netflix
en 1,32%. Por otra parte, el valor 𝛼 no presenta significancia estadística, mientras
que el valor 𝛽 es significativo al 99%. Aun así, cabe recordar que los resultados de
estas pruebas de hipótesis dependen de los errores estándar y que, para verificar
la fiabilidad de los mismos, se deben realizar algunas pruebas estadísticas.
Figura 11

43
Captura de pantalla de resultado de modelo de regresión lineal simple en R

4.2. Modelo de precios hedónicos


El modelo de precios hedónicos parte de entender un bien, generalmente
viviendas, como la suma de una serie de bienes intangibles que pueden tener
influencia sobre el precio final. De esta manera, el modelo de regresión es aplicado
con el fin de encontrar el aporte de estos intangibles al precio, lo cual también podría
entenderse como la valoración que tiene el mercado de dichos bienes. Por ejemplo,
el modelo puede ser utilizado para estimar cuanto valora el mercado un medio
ambiente “limpio”. En el ejercicio que se plantea en esta sección, se usará un
modelo de precios hedónicos con el fin de determinar el aporte de la cercanía a las
estaciones de metro subterráneo. La información utilizada hace parte de un estudio
realizado por Ahnet al. (2020). Estos datos fueron capturados en el área
metropolitana de Busan4, la cual es una de las cuatro áreas usadas en el estudio
(Song et al., 2020). Para comenzar el análisis, es necesario subir las bases de datos

4 Los resultados que se reproducen aquí difieren de aquellos que se presentan en el artículo ya que,

según parece, en las bases de datos suministran los autores no cuentan con el mismo número de
observaciones que aquellas del estudio.

44
a R. Una vez se ha determinado la carpeta de trabajo, se usa el archivo en formato
de valores separados por coma:
Busan <- read.csv("Busan.csv", sep=";")
Los nombres originales de las variables incluidas en la base de datos son
demasiado largos y pueden entorpecer en algunos casos el proceso de análisis. De
todas formas, se conservarán estas variables con el fin de simplificar la ilustración.
En primer lugar, se realiza una regresión lineal simple, utilizando la función lm(). Los
resultados se evidencian en la siguiente figura, donde en apariencia existe un efecto
inverso de la distancia a las estaciones con respecto al precio de las viviendas. Este
efecto se muestra, además, como estadísticamente significativo.
summary(lm(Busan$Condominium.price~Busan$Network.distance.to.nearest.subw
ay.station))
Figura 12
Captura de pantalla de resultado de modelo de regresión lineal simple en R

Un primer análisis teórico sugeriría que pueden existir problemas de variable


omitida, por ejemplo, los precios de la vivienda pueden ser más altos en lugares con

45
mayor densidad poblacional debido a la mayor demanda. Así mismo, es posible que
las estaciones del metro tiendan a ubicarse en lugares más densos de la ciudad. De
ser así, no incluir una variable que refleje la densidad poblacional podría generar
sesgo en los estimadores. De la misma forma, las características de la vivienda
pueden ser diferentes en dichos sitios y estas características pueden relacionarse
con el precio. Los autores del estudio proponen una lista de variables de control que
se dividen en propiedades de la vivienda, características demográficas locales,
amenidades locales y estación del año. La mayor parte de las variables evaluadas
en un modelo de regresión múltiple que se presenta en la Figura 13 resultaron
estadísticamente significativas. El coeficiente de la distancia varió entre un modelo
y otro como resultado de la inclusión de las variables previas, ya que en el caso
anterior el efecto pudo estarse subestimando como consecuencia de las variables
omitidas.
Figura 13
Captura de pantalla de resultado de modelo de regresión lineal múltiple en R

46
A continuación, se realiza el test de Ramsey con el fin de establecer si existen
errores en la especificación de la forma funcional. El test de Ramsey puede ser
aplicado en R utilizando el paquete lmtest. Una vez instalado este paquete, se usa
el comando reset() tal como se muestra a continuación.
reset(regresion2)
Figura 14
Resultados de test de Ramsey en R

El resultado de la prueba, al presentar un p-valor tan bajo, indica que el


modelo puede tener problemas en la especificación de su forma funcional. Aun así,
estos valores deben ser tomados con cautela debido a que cuando el número de
observaciones es alto, como en este caso, las pruebas tienden a rechazar la
hipótesis nula. Aun así, se realizarán ajustes en algunas de las variables tal como
lo sugieren los autores del artículo, usando logaritmos en algunas de ellas. El
modelo resultante se muestra a continuación.
regresion3<-
lm(log(Busan$Condominium.price)~Busan$Size.of.unit+Busan$Floor+Busan$Con

47
struction.year+Busan$Number.of.households+Busan$Parking.space.per.househol
d+Busan$Heating.type+log(Busan$Network.distance.to.nearest.subway.station)+B
usan$Number.of.bus.stops+Busan$Network.distance.to.the.CBD+Busan$Number.
of.top.university.entrants+log(Busan$Network.distance.to.nearest.greenspace)+log
(Busan$Network.distance.to.nearest.waterfront)+Busan$Population.density+Busan
$Ratio.of.adults.with.higher.degrees+Busan$Spring+Busan$Fall+Busan$Winter,su
bset=Busan$Network.distance.to.nearest.subway.station>0&Busan$Network.dista
nce.to.nearest.waterfront>0&Busan$Network.distance.to.nearest.greenspace>0 )
Figura 15
Resultados de modelo de regresión lineal múltiple en R

Estos resultados indican de nuevo una relación inversa entre la distancia a


las estaciones del metro y el precio de las viviendas. Dicha relación se interpreta en
términos porcentuales: por un aumento del 1% en la distancia a las estaciones del
metro, el precio de la vivienda tiende a disminuir alrededor de un 0,006%. La última
aplicación de esta unidad consiste en un ejemplo relacionado con modelos de series

48
de tiempo, retornando así a la información financiera que se puede obtener del sitio
de Yahoo!
4.3. Predicción de los retornos de una acción con series de tiempo
univariadas
En esta sección se reproducirá el estudio de caso sugerido en (Finance Train,
2022) con los precios de las acciones de Facebook durante tres años. Debido a que
existe información más actualizada, se utilizarán entonces los datos desde la misma
fecha de inicio que usan los autores, pero tomando como fecha de finalización el 8
de agosto de 2022. En primer lugar, se importarán los datos a ser usados y se
graficará la serie de tiempo resultante.
library("quantmod")
getSymbols("META",
src = "yahoo",
from = "2014-01-01",
to = "2022-08-01",
periodicity = "daily")
plot(META$META.Adjusted,
main="Precio de cierre ajustado - META",
xlab="Mes",
ylab="Precio de cierre")
Figura 16
Precio de cierre de acción de META

49
El gráfico obtenido muestra que esta serie no es estacionaria. En primer
lugar, hay una clara tendencia creciente que se sostiene hasta 2021, mientras que,
a partir de ese año se comienza un período de caídas en el precio. Así mismo, el
precio de la acción se ha vuelto más volátil con el tiempo. Incluso si el análisis gráfico
muestra estos patrones, conviene así mismo complementar utilizando pruebas
estadísticas. En este caso se utilizará la prueba de Dickey-Fuller que hace parte del
paquete tseries. El resultado, al no conseguir rechazar la hipótesis nula sugiere que
la serie no es estacionaria. Por esta razón, se utilizará la serie diferenciada. Los
resultados de la prueba mencionada se muestran a continuación.
library(tseries)
adf.test(META$META.Adjusted)
Figura 17
Prueba de Dickey-Fuller

50
Una vez se determina que la serie no es estacionaria, se pasa a construir los
diagramas de la función de autocorrelación y la función de autocorrelación parcial
con el fin de determinar el orden en el modelo ARIMA. En el caso del gráfico del
diagrama de autocorrelación se muestra una autocorrelación decreciente a ritmo
lento, lo cual corresponde a un modelo de tipo AR. En cuanto al gráfico de
autocorrelación parcial, sugiere que el orden para este modelo es AR(1).
acf(META$META.Adjusted)
pacf(META$META.Adjusted)
Figura 18
Función de autocorrelación de precio de la acción de META

51
Con los resultados del análisis de los gráficos de autocorrelación, el siguiente
paso consiste en ajustar el modelo. La función arima() de R permite realizar este
cálculo. En la opción order se establece un vector que indica en el primer número el
orden para un modelo AR, el segundo número indica el grado para las diferencias y
el tercer número indica el orden para un modelo MA. A continuación, se muestran
los resultados de ajustar el modelo.
modelost <- arima(META$META.Adjusted,order=c(1,1,0))
summary(modelost)
Figura 19
Resultado de ajuste de modelo 𝐴𝑅(1) en R

52
Una vez calculado, el modelo puede ser usado para realizar predicciones a
través de la función predict(). Esta usa el modelo calculado y a través de la opción
n.ahead predice el número de periodos indicado hacia el futuro. Es necesario
recordar que las predicciones realizadas tienden a ser mucho más imprecisas en
períodos más largos, por lo que en este caso se calcula la predicción hacia 20 días
en el futuro solo con fines ilustrativos como se muestra en la Figura 20.
predict(modelost, n.ahead = 20)
Figura 20
Predicciones realizadas con modelo 𝐴𝑅(1)

53
Una forma alternativa de realizar estos cálculos consiste en utilizar la función
auto.arima() del paquete forecast. Esta función determina el orden de cada uno de
los componentes utilizando diferentes combinaciones y, finalmente, conserva aquel
con el menor valor para el criterio Akaike. La utilización de esta función para el
presente ejemplo, cuyos resultados aparecen en la Figura 21, sugiere un modelo
AR(3), I(1), MA(1). La predicción obtenida para el día 02 de agosto de 2022 indica
un precio de $160,3, resultado que puede observarse en la Figura 22. El precio de
este día fue en realidad de $160,2 lo que muestra que, en este caso, la predicción
fue bastante ajustada al valor real.
library(forecast)
modelost2 <- auto.arima(META$META.Adjusted)
summary(modelost2)
Figura 21
Resultados de modelo 𝐴𝑅𝐼𝑀𝐴(3,1,1) en R

54
predict(modelost2, n.ahead =20)
Figura 22
Predicciones realizadas con modelo 𝐴𝑅𝐼𝑀𝐴(3,1,1) en R

55
Por lo visto, a pesar de su simplicidad, los modelos de series de tiempo
univariados pueden generar buenas predicciones. Eventualmente, los modelos
multivariados surgen cuando la información histórica de una variable no es
suficiente para comprender su comportamiento, por lo cual se requiere encontrar
factores que complementen los componentes vistos.
Recursos de estudio
Hanck, C., Arnold, M., Gerber, A. & Schmelzer, M. (2021). Introduction to
econometrics with R. University of Duisburg-Essen. Disponible en:
https://www.econometrics-with-r.org/

Descripción: este es un texto interactivo permite reproducir algunos modelos


econométricos e implementarlos en el programa R. El libro abarca los métodos
usados durante el curso de Econometría Financiera y permite tener acceso a
ejemplos adicionales.
Heiss, F. (2020). Using R for Introductory Econometrics. Disponible en:
http://www.urfie.net/

56
Descripción: este es un texto que reproduce los ejemplos de Wooldridge (2006) y
los implementa en el programa R. El libro también menciona brevemente los
componentes teóricos de los ejemplos implementados.
Lee, Cheng-Few & Lee, John. (2015). Handbook of Financial Econometrics and
Statistics. Springer. Disponible en: https://link-springer-
com.umanizales.lookproxy.com/referencework/10.1007/978-1-4614-7750-1

Descripción: en este libro se recopilan trabajos avanzados de investigación en el


campo de la Econometría Financiera. El texto puede ser accedido a través de las
bases de datos de la Biblioteca de la Universidad de Manizales, a través de
Springer.
Metcalfe, A. & Cowpertwait, P. (2009). Introductory Times Series with R. Springer.
Disponible en: https://link-springer-
com.umanizales.lookproxy.com/book/10.1007/978-0-387-88698-5

Descripción: el libro fundamenta la parte teórica de los modelos de series de


tiempo, pero también muestra aplicaciones de los conceptos estudiados en R. No
es un libro enfocado a las finanzas, pero es bastante útil para comprender y aplicar
los conceptos. El texto puede ser accedido a través de las bases de datos de la
Biblioteca de la Universidad de Manizales, a través de Springer.
Zivot, E. (2021). Introduction to Computational Finance and Financial Econometrics
with R. Disponible en línea en:
https://bookdown.org/compfinezbook/introcompfinr/

Descripción: este texto también incluye algunos ejemplos de modelos ejecutables


en R, con la particularidad de que los modelos mostrados se enfocan en el campo
de las finanzas.
Brooks, C. (2008). Introductory Econometrics for Finance. Cambridge University
Press.
Descripción: este es uno de los libros de texto que mejor abarca la econometría
financiera desde sus aspectos introductorios. Se sugiere utilizarlo como
acompañamiento del módulo, especialmente para reproducir los ejemplos de
naturaleza financiera.

57
Rachev, S., Mittnik, S., Fabozzi, F. J., Focardi, S. M. & Jasic, T. (2007). Financial
Econometrics: From Basic to Advanced Techniques. John Wiley and Sons.
Descripción: se pueden encontrar aplicaciones de métodos econométricos a
problemas financieros, desde los modelos más básicos hasta aquellos más
sofisticados. Adicionalmente, analiza las consecuencias de la aplicación de estos
modelos y posibles problemas empíricos.
Tsay, R. S. (2005). Analysis of financial time series (Vol. 543). John wiley & sons.

Descripción: el texto elabora la aplicación de series de tiempo a problemas


financieros. Este libro, si bien es más avanzado que los aquí referidos, puede ser
usado para continuar el proceso formativo hacia temas de mayor complejidad.
Wooldridge, J. (2006). Introducción a la Econometría: Un enfoque moderno.
Cengage Learning.
Descripción: este texto es uno de los más utilizados en cursos de Econometría de
todos los niveles y puede ser útil para fundamentar los aspectos estadísticos y
matemáticos sin entrar en la sofisticación matemática de libros más avanzados.

Referencias bibliográficas
Ahn, K., Jang, H., & Song, Y. (2020). Economic impacts of being close to subway
networks: A case study of Korean metropolitan areas. Research in
Transportation Economics.
Baissa, D., & Rainey, C. (2020). When BLUE is not best: non-normal errors and
the linear model. Political Science Research and Methods, 136-148.
Brooks, C. (2008). Introductory Econometrics for Finance. Cambridge University
Press.
Casella, G., & Berger, R. (2021). Statistical Inference. Cengage Learning.
Cerniglia, J. A., & Fabozzi, F. J. (2020). Selecting Computational Models for Asset
Management: Financial Econometrics versus Machine Learning - Is There a
Conflict? The Journal of Portfolio Management, 107-118.
Everitt, B. (2002). The Cambridge Dictionary of Statistics. Cambridge University
Press.
Finance Train. (2022). Financial Times Series Analysis in R. Finance Train.

58
Greene, W. (2003). Econometric Analysis. Pearson Education.
Gujarati, D., & Moreno López, Y. (2006). Principios de Econometría. McGraw-Hill.
Hayashi, F. (2011). Econometrics. Princeton University Press.
Martino, L., Luengo, D. & Míguez, J. (2018). Independent Random Sampling
Methods. Springer.
Metcalfe, A. & Cowpertwait, P. (2009). Introductory Times Series with R. Springer.
Rachev, S., Mittnik, S., Fabozzi, F. J., Focardi, S. M. & Jasic, T. (2007). Financial
Econometrics: From Basic to Advanced Techniques. John Wiley and Sons.
Shiryaev, A. (1999). Essentials of Stochastic Finance: Facts, Models, Theory.
World Scientific Publishing Company.
Song, Y., Ahn, K., An, S., & Jang, H. (2020). Hedonic dataset of the metropolitan
housing market—cases in South Korea. Retrieved from Mendeley Data, V1:
https://data.mendeley.com/datasets/d7grg846wv/1
Stock, J., Watson, M., & Larrión, R. (2012). Introducción a la Econometría.
Takeshi, A. (1985). Advanced Econometrics. Harvard University Press.
Tsay, R. (2002). Analysis of Financial Times Series. John Wiley & Sons.
Wei, W. (2006). Time Series Analysis. Pearson.
Wooldridge, J. (2006). Introducción a la Econometría: Un enfoque moderno.
Cengage Learning.

59

También podría gustarte