Está en la página 1de 10

series de tiempo

Introducción
El análisis de los datos experimentales y los datos observados conduce a problemas
nuevos y únicos en el modelo estadístico y la inferencia. La obvia correlación
introducida por el muestreo de puntos adyacentes en el tiempo puede restringir
severamente la aplicabilidad de los muchos métodos estadísticos convencionales que
tradicionalmente dependen de la suposición de que estas observaciones adyacentes
son independientes y están distribuidas de manera idéntica. El enfoque sistemático
mediante el cual se responde a las preguntas matemáticas y estadísticas planteadas
por estas correlaciones de tiempo es a menudo referido al análisis de tiempo. El
impacto de las series analizadas en las aplicaciones de los clientes puede ser
documentado parcialmente produciendo una lista abreviada de los campos de los
niños en los que hay problemas importantes de la época. Los científicos sociales
siguen series de población, como las tasas de natalidad o las matrículas escolares. Un
epidemiólogo podría estar interesado en el número de casos de influenza observados
durante un período de tiempo. En medicina, las mediciones de la presión arterial
trazadas a lo largo del tiempo podrían ser útiles para evaluar los fármacos que se
utilizan para tratar la hipertensión. Los patrones de series de resonancia magnética
funcional del cerebro y la vida podrían usarse para estudiar cómo reacciona el cerebro
a ciertos estímulos bajo diversas condiciones experimentales. En nuestra entrevista, el
primer paso en cualquier momento en la investigación incluye un examen cuidadoso
de los datos registrados trazados a lo largo del tiempo. Este análisis a menudo sugiere
el método de análisis, así como las estadísticas que serán útiles para resumir la
información en los datos. Antes de examinar más de cerca los métodos estadísticos
particulares, es apropiado considerar que existe una diferencia parcial, pero no
necesariamente exclusiva, ya que existe un análisis de series de tiempo, comúnmente
identificado como el enfoque del dominio del tiempo y el enfoque del dominio de la
frecuencia. El enfoque del dominio del tiempo considera la investigación de las
relaciones retrasadas como la más importante.
Definición
Una serie temporal (o simplemente una serie) es una secuencia de N observaciones
(datos) ordenados y equidistantes cronologicamente sobre una característica (serie
univariante o escalar) o sobre varias característica (serie multivariante o
vectorial) de una unidad observable en difetentes momentos. Una serie temporal se
define como una colección de observaciones de una variable recogidas
secuencialmente en el tiempo. Estas observaciones se suelen recoger en instantes de
tiempo equiespaciados. Si los datos se recogen en instantes temporales de forma
continua, se debe o bien digitalizar la serie, es decir, recoger sólo los valores en
instantes de tiempo equiespaciados, o bien acumular los valores sobre intervalos de
tiempo.

Presentaciones matemática frecuentes de series temporales univariantes:


𝑡=1 ; (𝑌𝑡 : 𝑡 = 1, . . . . , 𝑁) donde 𝑌𝑡 es la observación 𝑛 𝑡(1 ≤ 𝑡 ≤ 𝑁) de
𝑌1 , 𝑌2 , . . . , 𝑌𝑁 ; (𝑌𝑡 )𝑁 °

la serie y N es el número de observaciones de que consta la serie completa (el tamaño


o la longitud de la serie). Las N observaciones 𝑌1 , 𝑌2 , . . . , 𝑌𝑁 pueden recogerse en un
vector columna 𝑌 = [𝑌1 , 𝑌2 , . . . , 𝑌𝑁 ]´ de orden 𝑁 × 1

El primer objetivo del análisis econométrico de una serie temporal consiste en


elaborar un modelo estadístico que describa adecuadamente la procedencia de dicha
serie, de manera que las implicaciones teóricas del modelo resulten compatibles con
las pautas muestrales en las series temporales.
⇒ Describir la evolución observada de dicha serie, así como las relaciones
contemporáneas y dinámicas entre sus componentes (en el caso de series
multivariantes).
⇒ Prever la evolucion futura de dicha serie.
⇒ Contrastar (presentar evidencia empírica en favor o en contra de ) alguna teoría
sobre las características o variables a las que se refieren los componentes de dicha
serie.
Características de las series temporales
1.1 Modelos estadísticos de series de tiempo
El objetivo primario de la serie analiza el desarrollo de un modelo matemático que
ofrece una lista de ejemplos, como el que se encuentra en la sección anterior. Con el
fin de proporcionar una configuración estadística para describir el carácter de los
datos que aparentemente fluctúan en un tiempo extravagante, una gran cantidad de
tiempo puede ser utilizada en la recopilación de datos de las variables en el orden del
tiempo que se obtuvieron en el tiempo. 𝑥1 , 𝑥2 , 𝑥3 , . . ., donde la variable aleatoria 𝑥1
denota el valor tomado por la serie en el primer punto de tiempo, la variable 𝑥2
denota el valor para el segundo período de tiempo, 𝑥3 denota el valor para el tercer
período de tiempo, y así.Por lo general, es conveniente conectar los valores en
períodos de tiempo adyacentes para reconstruir visualmente algunas series
temporales originales hipotéticas originales que podrían haber producido estos
valores como una muestra discrete.

1.2 Medidas de dependencia


Las descripciones completas de las series de tiempo, observadas en la recopilación de
los valores aleatorios de las variables en los puntos de tiempo arbitrarios 𝑡1 , 𝑡2 , . . . , 𝑡𝑛 ,
para un entero positivo son proporcionadas por la función de distribución en el
calendario, evaluadas como la probabilidad de que los valores de la serie sean
conjuntos entre sí, constantes de 𝑛, 𝑐1, 𝑐2 , . . . , 𝑐𝑛 ; es decir:

𝐹𝑡1 ,𝑡2 ,....𝑡𝑛 (𝑐1 , 𝑐2 , . . . , 𝑐𝑛 ) = 𝑃𝑟(𝑥𝑡1 ≤ 𝑐1 , 𝑥𝑡2 ≤ 𝑐2 , . . . . , 𝑥𝑡𝑛 ≤ 𝑐𝑛 )


Desafortunadamente, estas funciones de distribución multidimensional pueden
escribirse de manera muy fácil a menos que las variables aleatorias sean
conjuntamente normales, en cuyo caso la densidad de las articulaciones se ha
mostrado de forma bien conocida.Aunque la función de distribución conjunta describe
los datos completamente, es una herramienta difícil de manejar para visualizar y
analizar datos de series de tiempo. La función de distribución debe evaluarse como
una función de 𝑛 argumentos, por lo que cualquier representación de las funciones de
densidad multivariada correspondiente es prácticamente imposible. Las funciones de
distribución marginal.

𝐹𝑡 (𝑥) = 𝑃(𝑥𝑡 ≤ 𝑥)
o las funciones de densidad marginal correspondientes

𝜕𝐹𝑡 (𝑥)
𝑓𝑡 (𝑥) =
𝜕𝑥
Definición 1.1
La función media se define como funciones:
+∞
𝜇𝑥𝑡 = 𝐸(𝑥𝑡 ) = ∫ 𝑥 𝑓𝑡 (𝑥)𝑑𝑥
−∞

siempre que exista, donde E denota el operador de valor esperado habitual. Cuando
no exista confusión sobre el momento en que la serie debe referirse, omitiremos la
subíndice y escribiremos 𝜇𝑥𝑡 como 𝜇𝑡 .

Definición 1.2
La función de autocovariedad se define como el producto del segundo momento

𝛾𝑡 (𝑠, 𝑡) = 𝑐𝑜𝑣(𝑥𝑠 , 𝑥𝑡 ) = 𝐸[(𝑥𝑠 − 𝜇𝑠 )((𝑥𝑡 − 𝜇𝑡 )]

para todos 𝑠 y 𝑡. Cuando no exista una posible confusión sobre a qué serie de tiempo
nos referimos, descartaremos el subíndice y escribiremos 𝛾𝑥 (𝑠, 𝑡) como 𝛾(𝑠, 𝑡). Tenga
en cuenta que 𝛾𝑥 (𝑠, 𝑡) = 𝛾𝑥 (𝑡, 𝑠) para Todos los puntos de tiempo 𝑠 y 𝑡.
La autocovarianza mide la dependencia lineal entre dos puntos de la misma serie
observada en diferentes momentos. Las series muy suaves exhiben funciones de
autocovariedad que permanecen grandes incluso cuando 𝑡 y 𝑠 están muy separadas,
mientras que las series entrecortadas tienden a tener funciones de autocovariedad
que son casi cero para las grandes separaciones. Y 𝑥𝑡 no están relacionados
linealmente, pero aún puede haber alguna estructura de dependencia entre ellos. Sin
embargo, si 𝑥𝑠 y 𝑥𝑡 son bivariadas normales, $ _{x}(s, t)= 0$ garantiza su
independencia. Es claro que, para 𝑠 = 𝑡, la autocovariedad se reduce a la varianza
(supuestamente finita), porque

𝛾𝑥 (𝑡, 𝑡) = [(𝑥𝑡 − 𝜇𝑡 )2 ] = 𝑣𝑎𝑟(𝑥𝑡 )


Propiedad : Covarianza de combinaciones lineales

Si las variables aleatorias


𝑚 𝑟
𝑈 = 𝛴𝑗=1 𝑎𝑗 𝑋𝑗 y 𝑉 = 𝛴𝑘=1 𝑏𝑘 𝑌𝑘
son combinaciones lineales de (varianza finita) variables aleatorias 𝑋𝑗 y 𝑌𝑘 ,
respectivamente, luego
𝑚 𝑟
𝑐𝑜𝑣(𝑈, 𝑉) = 𝛴𝑗=1 𝛴𝑘=1 𝑏𝑘 𝑎𝑗 𝑐𝑜𝑣(𝑋𝑗 , 𝑌𝑘 )
ademas, 𝑣𝑎𝑟(𝑈) = 𝑐𝑜𝑣(𝑈, 𝑈)

Las series temporales se pueden clasificar en:


1. Series de tiempo estacionarias
Un proceso estocástico (𝑌𝑡 ) es estacionario cuando las propiedades estadísticas de
cualquier secuencia finita 𝑌𝑡1 , 𝑌𝑡2 , . . . , 𝑌𝑡𝑛 ; (𝑛 ≥ 1) de componentes (𝑌𝑡 ) son
semejantes a las de la secuencia 𝑌𝑡1+ℎ , 𝑌𝑡2+ℎ , . . . , 𝑌𝑡𝑛+ℎ para cualquier número entero
ℎ = ±1, ±2, . ... Una serie es estacionaria cuando es estable, es decir, cuando la media y
la variabilidad son constantes a lo largo del tiempo. Esto se refleja gráficamente en
que los valores de la serie tienden a oscilar alrededor de una media constante y la
variabilidad con respecto a esa media también permanece constante en el tiempo.Para
este tipo de series tiene sentido conceptos como la media y la varianza. Sin embargo,
también es posible aplicar los mismos métodos a series no estacionarias si se
transforman previamente en estacionarias

Definicion 1.1:
Las series de tiempo estrictamente estacionarias son aquellas para las cuales el
comportamiento probabilístico de toda la selección de valores

𝑥𝑡1 , 𝑥𝑡2 , , . . . . , 𝑥𝑡𝑘


es idéntico a la del conjunto de turnos desplazados

𝑥𝑡1 +ℎ , 𝑥𝑡2 +ℎ , . . . . , 𝑥𝑡𝑘 +ℎ


Es decir,
𝑃𝑟(𝑥𝑡1 , ≤ 𝑐1 , . . . . . , 𝑥𝑡𝑘 , ≤ 𝑐𝑘 ) = 𝑃𝑟(𝑥𝑡1 ℎ , ≤ 𝑐1 , . . . . . , 𝑥𝑡𝑘 +ℎ , ≤ 𝑐𝑘
para todo 𝑘 = 1,2,3. ..,todos los puntos de tiempo 𝑡1 , 𝑡2 , . . . . , 𝑡𝑘 , todos los numeros
𝑐1, 𝑐2 , . . . . , 𝑐𝑘 y todos los cambios de tiempo ℎ = 0 ± 1, ±2, . . ..
Si una serie de tiempo es estrictamente estacionaria, entonces todas las funciones de
distribución multivariable para los subconjuntos de variables deben coincidir con sus
contrapartes en el conjunto desplazado para los valores del parámetro de
desplazamiento ℎ.

𝑃𝑟(𝑥𝑠 ≤ 𝑐) = 𝑃𝑟(𝑥𝑡 ≤ 𝑐)

Definicion 1.2:
Una serie temporal débilmente estacionaria 𝑥𝑡 , es un proceso de variación finita tal
que:
𝑖) La función de valor medio, 𝜇𝑡 es constante y no depende del tiempo 𝑡.
𝑖𝑖) La función de autocovariedad, 𝛾(𝑠, 𝑡), depende de 𝑠 y 𝑡 solo a través de su
diferencia |𝑠 − 𝑡|.
La estacionariedad requiere regularidad en la media y en las funciones de
autocorrelación para que estas cantidades (al menos) puedan estimarse promediando.
Debería quedar claro a partir de la discusión sobre la estacionariedad estricta que
sigue a la Definición 1.6 que una serie de tiempo estrictamente estacionaria y fi nita
también es estacionaria. Lo contrario no es cierto a menos que haya otras condiciones.

Definicion 1.3:
La función de autocovariedad de una serie de tiempo estacionaria se escribe como:

𝛾(ℎ) = 𝑐𝑜𝑣(𝑥𝑡+ℎ , 𝑥𝑡 ) = 𝐸[(𝑥𝑡+ℎ − 𝜇)(𝑥𝑡 − 𝜇)]

Definicion 1.4:
La función de autocorrelación de una serie de tiempo estacionaria se escribirá;
𝛾(𝑡 + ℎ, 𝑡) 𝛾(ℎ)
𝜌(ℎ) = =
√𝛾(𝑡 + ℎ, 𝑡 + ℎ)𝛾(𝑡, 𝑡) 𝛾(0)
Definicion 1.5:
Se dice que dos series de tiempo, digamos, 𝑥𝑡 y 𝑦𝑡 , son estacionarias conjuntamente si
son estacionarias, y la función de covarianza cruzada

𝛾𝑥𝑦 (ℎ) = 𝑐𝑜𝑣(𝑥𝑡+ℎ , 𝑦𝑡 ) = 𝐸[(𝑥𝑡+ℎ − 𝜇𝑡 )(𝑦𝑡 − 𝜇𝑦 )]

Definicion 1.6:
La función de correlación cruzada de las series de tiempo estacionarias conjuntas 𝑥𝑡 y
𝑦𝑡 se define como:

𝛾𝑥𝑦 (ℎ)
𝜌𝑥𝑦 (ℎ) =
√𝛾𝑥 (0)𝛾𝑦 (0)
La función de correlación cruzada generalmente no es simétrica con respecto a cero,
es decir, típicamente 𝜌𝑥𝑦(ℎ) ≠ 𝜌𝑥𝑦(−ℎ). Este es un concepto importante; debe
quedar claro que 𝑐𝑜𝑣(𝑥2 , 𝑦1 ) y 𝑐𝑜𝑣(𝑥1 , 𝑦2 ) no necesitan ser iguales. Sin embargo, es el
caso.

𝜌𝑥𝑦 (ℎ) = 𝜌𝑦𝑥 (−ℎ)


que puede mostrarse mediante manipulaciones similares a las utilizadas para
mostrar.

Definicion 1.7:
Un proceso lineal, 𝑥𝑡 , se define como una combinación lineal de ruido blanco que varía
𝑤𝑡 , y está dado por

𝑥𝑡 = 𝜇 + 𝛴𝑗=−∞ 𝜓𝑗 𝑤𝑡−𝑗

𝛴𝑗=−∞ |𝜓𝑗 | < ∞

2. Series de tiempo no estacionarias


Un proceso estocástico (𝑌𝑡 ) es no estacionario cuando las propiedades estadísticas
de al menos una secuencia finita 𝑌𝑡1 , 𝑌𝑡2 , . . . , 𝑌𝑡𝑛 ; (𝑛 ≥ 1) de componentes de (𝑌𝑡 ), son
diferentes de las secuencia 𝑌𝑡1+ℎ , 𝑌𝑡2+ℎ , . . . , 𝑌𝑡𝑛+ℎ para al menos un numero entero ℎ >
0. Y son series en las cuales la media y/o variabilidad cambian en el tiempo. Los
cambios en la media determinan una tendencia a crecer o decrecer a largo plazo, por
lo que la serie no oscila alrededor de un valor constante
⇒ En general una condicion suficiente para que un proceso sea no estacionario es que
la esperanza incondicional de algunos de sus componentes sea distintas de la de otros.
Al menos por este motivo las propiedades estadisticas de un proceso no estacionario
son mas complicados.
⇒ Dado que las propiedades estadisticas de un procesos no estacionario son muy
diferentes de las de un proceso estacionario, uno de los primeros pasos en el analisis
de series temporales consiste en determinar si cada una de las series consideradas
resulta o no compatibles con la hipotesis de estacionariedad.

Procesos Estocástico

Definición:
Un proceso estocástico es una secuncia de variables aleatorias ordenadas y
equidistantes cronológicamente, referidas a una (proceso univariante o escalar) o a
varias (proceso multivariante o vectorial) características de una unidad observable en
diferentes momentos.

-Proceso estocástico estacionario


Un proceso estocástico se dice que es estacionario si su media y su varianza son
constantes en el tiempo y si el valor de la covarianza entre dos periodos depende
solamente de la distancia o rezago entre estos dos periodos de tiempo y no del tiempo
en el cual se ha calculado la covarianza.
Sea 𝑋𝑡 una serie de tiempo entonces con estas propiedades:
Media:𝐸(𝑋𝑡 ) = 𝐸(𝑋𝑡+𝑘 ) = 𝜇
Varianza:𝑉(𝑋𝑡 ) = 𝑉(𝑋𝑡+𝑘 ) = 𝜎 2
Covarianza:𝑌𝑘 = 𝐸[(𝑋𝑡 − 𝜇)(𝑋𝑡+𝑘 − 𝜇)]
donde 𝑌𝑘 , la covarianza (o autocovarianza) al rezago 𝑘 , es la covarianza entre los
valores de 𝑋𝑡 y 𝑋𝑡+𝑘 , que están separados 𝑘 periodos.
En resumen si una serie de tiempo es estacionaria, su media, su varianza y su
autocovarianza (en diferentes rezagos) permanecen iguales sin importar el momento
en el cual se midan; es decir, son invariantes respecto al tiempo.
-Proceso estocástico no estacionario
⇒ Muchas series temporales no pueden considerarse generadas por procesos
estocasticos estacionarios (son no estacionarias) porque presentan ciertas
tendencias claras en su evolucion temporal (de manera que no presenta afinidad hacia
algun valor constante en el tiempo), porque su dispersion no es constante, porque sos
estacionarias.
⇒ No obstante, muchas series temporales no estacionarias se puede transformar de
forma adecuada para obtener series de aspecto estacionario, que pueden ser
utilixadas como puntos de partida para elavorar en lapractica modelos ARMA(p,q)
⇒ Para convertir una serie no estacionaria en otra estacionaria, suele emplearse en la
practica dos tipos de transformaciones: un primer tipo para estabilizar su dispersion
(es decir, para inducir estacionaridad en varianza) y un segundo tipo para
estabilizar su nivel (para eliminar su tendencia o para inducir estacionaridad en
media)

a). No estacionaridad en varianza

Definicion
Sea (𝑌𝑡 ) un proceso estocastico no estacionario tal que 𝜇𝑡 ≡ 𝐸[𝑌𝑡 ] y 𝜎𝑡2 ≡ 𝑉𝑎𝑟[𝑌𝑡 ]
existen y dependen de 𝑡. 𝜎𝑡2 = 𝜎 2 × ℎ(𝜇𝑡 )2 , donde $ ^{2} > o$ es una constante y ℎ(•)
es una funcion real tal que ℎ(•) ≠ 0 para cualquier valor de 𝜇𝑡 , entonces una
transformacion estabilizadora de la varianza de (𝑌𝑡 ) es cualquier funcion real 𝑔(•) tal
que
1
𝑔′(•) = ℎ(•) para cualquier valor de 𝜇𝑡 .

b). No estacionaridad en media

1). Definicion
El operador diferencial de orden d (𝑑 ≥ 1 entero) se representa con el simbolo 𝛻 𝑑 y se
define como 𝛻 𝑑 ≡ 𝑋𝑡 − 𝑋𝑡−1 , 𝛻 𝑑 ≡ 𝑋𝑡 − 2𝑋𝑡−1 + 𝑋𝑡−2 . . ..,
2). Definicion
Un proceso estocastico (𝑌𝑡 ) es integrado de orden d (𝑑 ≥ 1 entero), o 𝐼(𝑑), si y solo si
el proceso 𝛻 𝑑 𝑌𝑡 sigue un modelo 𝐴𝑅𝑀𝐴(𝑝, 𝑞) estacionario e invertible. En tal caso,
suele escribirse (𝑌𝑡 ) ∼ 𝐼(𝑑)

Representaciones matemáticas frecuentes de procesos estocásticos


univariantes:
. . . , 𝑌−1 , 𝑌0 , 𝑌1 , 𝑌2 , . . . ; (𝑌𝑡 : 𝑡 = 0 ± 1 ± 2, . . ); (𝑌𝑡 , ) donde $Y_{t} $ es una variable
aleatoria escalar referida a la unidad observable considerada en el momento 𝑡

También podría gustarte