Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
El análisis de los datos experimentales y los datos observados conduce a problemas
nuevos y únicos en el modelo estadístico y la inferencia. La obvia correlación
introducida por el muestreo de puntos adyacentes en el tiempo puede restringir
severamente la aplicabilidad de los muchos métodos estadísticos convencionales que
tradicionalmente dependen de la suposición de que estas observaciones adyacentes
son independientes y están distribuidas de manera idéntica. El enfoque sistemático
mediante el cual se responde a las preguntas matemáticas y estadísticas planteadas
por estas correlaciones de tiempo es a menudo referido al análisis de tiempo. El
impacto de las series analizadas en las aplicaciones de los clientes puede ser
documentado parcialmente produciendo una lista abreviada de los campos de los
niños en los que hay problemas importantes de la época. Los científicos sociales
siguen series de población, como las tasas de natalidad o las matrículas escolares. Un
epidemiólogo podría estar interesado en el número de casos de influenza observados
durante un período de tiempo. En medicina, las mediciones de la presión arterial
trazadas a lo largo del tiempo podrían ser útiles para evaluar los fármacos que se
utilizan para tratar la hipertensión. Los patrones de series de resonancia magnética
funcional del cerebro y la vida podrían usarse para estudiar cómo reacciona el cerebro
a ciertos estímulos bajo diversas condiciones experimentales. En nuestra entrevista, el
primer paso en cualquier momento en la investigación incluye un examen cuidadoso
de los datos registrados trazados a lo largo del tiempo. Este análisis a menudo sugiere
el método de análisis, así como las estadísticas que serán útiles para resumir la
información en los datos. Antes de examinar más de cerca los métodos estadísticos
particulares, es apropiado considerar que existe una diferencia parcial, pero no
necesariamente exclusiva, ya que existe un análisis de series de tiempo, comúnmente
identificado como el enfoque del dominio del tiempo y el enfoque del dominio de la
frecuencia. El enfoque del dominio del tiempo considera la investigación de las
relaciones retrasadas como la más importante.
Definición
Una serie temporal (o simplemente una serie) es una secuencia de N observaciones
(datos) ordenados y equidistantes cronologicamente sobre una característica (serie
univariante o escalar) o sobre varias característica (serie multivariante o
vectorial) de una unidad observable en difetentes momentos. Una serie temporal se
define como una colección de observaciones de una variable recogidas
secuencialmente en el tiempo. Estas observaciones se suelen recoger en instantes de
tiempo equiespaciados. Si los datos se recogen en instantes temporales de forma
continua, se debe o bien digitalizar la serie, es decir, recoger sólo los valores en
instantes de tiempo equiespaciados, o bien acumular los valores sobre intervalos de
tiempo.
𝐹𝑡 (𝑥) = 𝑃(𝑥𝑡 ≤ 𝑥)
o las funciones de densidad marginal correspondientes
𝜕𝐹𝑡 (𝑥)
𝑓𝑡 (𝑥) =
𝜕𝑥
Definición 1.1
La función media se define como funciones:
+∞
𝜇𝑥𝑡 = 𝐸(𝑥𝑡 ) = ∫ 𝑥 𝑓𝑡 (𝑥)𝑑𝑥
−∞
siempre que exista, donde E denota el operador de valor esperado habitual. Cuando
no exista confusión sobre el momento en que la serie debe referirse, omitiremos la
subíndice y escribiremos 𝜇𝑥𝑡 como 𝜇𝑡 .
Definición 1.2
La función de autocovariedad se define como el producto del segundo momento
para todos 𝑠 y 𝑡. Cuando no exista una posible confusión sobre a qué serie de tiempo
nos referimos, descartaremos el subíndice y escribiremos 𝛾𝑥 (𝑠, 𝑡) como 𝛾(𝑠, 𝑡). Tenga
en cuenta que 𝛾𝑥 (𝑠, 𝑡) = 𝛾𝑥 (𝑡, 𝑠) para Todos los puntos de tiempo 𝑠 y 𝑡.
La autocovarianza mide la dependencia lineal entre dos puntos de la misma serie
observada en diferentes momentos. Las series muy suaves exhiben funciones de
autocovariedad que permanecen grandes incluso cuando 𝑡 y 𝑠 están muy separadas,
mientras que las series entrecortadas tienden a tener funciones de autocovariedad
que son casi cero para las grandes separaciones. Y 𝑥𝑡 no están relacionados
linealmente, pero aún puede haber alguna estructura de dependencia entre ellos. Sin
embargo, si 𝑥𝑠 y 𝑥𝑡 son bivariadas normales, $ _{x}(s, t)= 0$ garantiza su
independencia. Es claro que, para 𝑠 = 𝑡, la autocovariedad se reduce a la varianza
(supuestamente finita), porque
Definicion 1.1:
Las series de tiempo estrictamente estacionarias son aquellas para las cuales el
comportamiento probabilístico de toda la selección de valores
𝑃𝑟(𝑥𝑠 ≤ 𝑐) = 𝑃𝑟(𝑥𝑡 ≤ 𝑐)
Definicion 1.2:
Una serie temporal débilmente estacionaria 𝑥𝑡 , es un proceso de variación finita tal
que:
𝑖) La función de valor medio, 𝜇𝑡 es constante y no depende del tiempo 𝑡.
𝑖𝑖) La función de autocovariedad, 𝛾(𝑠, 𝑡), depende de 𝑠 y 𝑡 solo a través de su
diferencia |𝑠 − 𝑡|.
La estacionariedad requiere regularidad en la media y en las funciones de
autocorrelación para que estas cantidades (al menos) puedan estimarse promediando.
Debería quedar claro a partir de la discusión sobre la estacionariedad estricta que
sigue a la Definición 1.6 que una serie de tiempo estrictamente estacionaria y fi nita
también es estacionaria. Lo contrario no es cierto a menos que haya otras condiciones.
Definicion 1.3:
La función de autocovariedad de una serie de tiempo estacionaria se escribe como:
Definicion 1.4:
La función de autocorrelación de una serie de tiempo estacionaria se escribirá;
𝛾(𝑡 + ℎ, 𝑡) 𝛾(ℎ)
𝜌(ℎ) = =
√𝛾(𝑡 + ℎ, 𝑡 + ℎ)𝛾(𝑡, 𝑡) 𝛾(0)
Definicion 1.5:
Se dice que dos series de tiempo, digamos, 𝑥𝑡 y 𝑦𝑡 , son estacionarias conjuntamente si
son estacionarias, y la función de covarianza cruzada
Definicion 1.6:
La función de correlación cruzada de las series de tiempo estacionarias conjuntas 𝑥𝑡 y
𝑦𝑡 se define como:
𝛾𝑥𝑦 (ℎ)
𝜌𝑥𝑦 (ℎ) =
√𝛾𝑥 (0)𝛾𝑦 (0)
La función de correlación cruzada generalmente no es simétrica con respecto a cero,
es decir, típicamente 𝜌𝑥𝑦(ℎ) ≠ 𝜌𝑥𝑦(−ℎ). Este es un concepto importante; debe
quedar claro que 𝑐𝑜𝑣(𝑥2 , 𝑦1 ) y 𝑐𝑜𝑣(𝑥1 , 𝑦2 ) no necesitan ser iguales. Sin embargo, es el
caso.
Definicion 1.7:
Un proceso lineal, 𝑥𝑡 , se define como una combinación lineal de ruido blanco que varía
𝑤𝑡 , y está dado por
∞
𝑥𝑡 = 𝜇 + 𝛴𝑗=−∞ 𝜓𝑗 𝑤𝑡−𝑗
∞
𝛴𝑗=−∞ |𝜓𝑗 | < ∞
Procesos Estocástico
Definición:
Un proceso estocástico es una secuncia de variables aleatorias ordenadas y
equidistantes cronológicamente, referidas a una (proceso univariante o escalar) o a
varias (proceso multivariante o vectorial) características de una unidad observable en
diferentes momentos.
Definicion
Sea (𝑌𝑡 ) un proceso estocastico no estacionario tal que 𝜇𝑡 ≡ 𝐸[𝑌𝑡 ] y 𝜎𝑡2 ≡ 𝑉𝑎𝑟[𝑌𝑡 ]
existen y dependen de 𝑡. 𝜎𝑡2 = 𝜎 2 × ℎ(𝜇𝑡 )2 , donde $ ^{2} > o$ es una constante y ℎ(•)
es una funcion real tal que ℎ(•) ≠ 0 para cualquier valor de 𝜇𝑡 , entonces una
transformacion estabilizadora de la varianza de (𝑌𝑡 ) es cualquier funcion real 𝑔(•) tal
que
1
𝑔′(•) = ℎ(•) para cualquier valor de 𝜇𝑡 .
1). Definicion
El operador diferencial de orden d (𝑑 ≥ 1 entero) se representa con el simbolo 𝛻 𝑑 y se
define como 𝛻 𝑑 ≡ 𝑋𝑡 − 𝑋𝑡−1 , 𝛻 𝑑 ≡ 𝑋𝑡 − 2𝑋𝑡−1 + 𝑋𝑡−2 . . ..,
2). Definicion
Un proceso estocastico (𝑌𝑡 ) es integrado de orden d (𝑑 ≥ 1 entero), o 𝐼(𝑑), si y solo si
el proceso 𝛻 𝑑 𝑌𝑡 sigue un modelo 𝐴𝑅𝑀𝐴(𝑝, 𝑞) estacionario e invertible. En tal caso,
suele escribirse (𝑌𝑡 ) ∼ 𝐼(𝑑)