Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tema 5. Procesos Estocásticos PDF
Tema 5. Procesos Estocásticos PDF
PROCESOS ESTOCSTICOS
En el estudio de las variables aleatorias realizado hasta ahora se han explorado las car-
actersticas aleatorias del fenmeno pero se ha mantenido una premisa por defecto, que esas
caractersticas aleatorias permanecen constantes a travs del tiempo. Al incluir en el estu-
dio la presencia de la variable determinstica tiempo se est considerando que, de alguna
forma, la variable aleatoria depende del tiempo. En otras palabras, la variable aleatoria
depender del fenmeno probabilstico y del tiempo. En consecuencia, cualquier funcin que
se establezca en trminos de la variable aleatoria, como lo son la funcin de distribucin o
la funcin de densidad, sern tambin dependientes del tiempo.
Uno de los objetivos de este captulo es construir un modelo que nos permita explicar la
estructura y preveer la evolucin, al menos a corto plazo, de una variable que observamos
a lo largo del tiempo. La variable observada puede ser econmica (I.P.C., demanda de un
producto, existencias en un determinado almacn, etc...), fsica (temperatura de un proceso,
velocidad del viento en una central elica, concentracin en la atmsfera de un contaminante,
etc..) o social (nmero de nacimientos, votos de un determinado partido, etc..). Supondremos
a lo largo del tema que los datos se obtienen en intervalos regulares de tiempo (horas, das,
aos,..) y el objetivo es utilizar la posible inercia en el comportamiento de la serie con el
fin preveer su evolucin futura. As, una serie temporal ser una sucesin de valores de una
variable obtenidos de manera secuencial durante el tiempo.
1
en la que se representa para cada t la funcin de densidad correspondiente a Xt . Aunque
en la figura se han representado unas funciones de densidad variables, un proceso estocs-
tico no tiene por que presentar esas diferencias en la funcin de densidad a lo largo del
tiempo. Como ms adelante se comentar presentan un especial inters aquellos procesos
cuyo comportamiento se mantiene constante a lo largo de t.
A los posibles valores que puede tomar la variable aleatoria se le denominaran estados,
por lo que se puede tener un espacio de estados discreto y un espacio de estados continuo.
Por otro lado, la variable tiempo puede ser de tipo discreto o de tipo continuo. En el caso del
tiempo discreto se podra tomar como ejemplo que los cambios de estado ocurran cada da,
cada mes, cada ao, etc.. En el caso del tiempo continuo, los cambios de estado se podran
realizar en cualquier instante.
Por tanto, dependiendo de cmo sea el conjunto de subndices T y el tipo de variable
aleatoria dado por Xt se puede establecer la siguiente clasificacin de los procesos estocsti-
cos:
Si por el contrario T es discreto, por ejemplo N, diremos que nos encontramos frente a
un proceso estocstico de parmetro discreto.
t Discreto t Continuo
Proceso de estado discreto
Proceso de estado discreto
y tiempo discreto (Cadena)
X Discreta y tiempo continuo ( Proc. Saltos Puros)
(Unidades producidas mensualmente
(Unidades producidas hasta el instante t)
de un producto)
Proceso de estado continuo Proceso de estado continuo
y tiempo discreto y tiempo continuo (Proceso Continuo)
X Continua
(Toneladas de produccin diaria de (Velocidad de un vehculo en
un producto) el instante t)
2
operacin con el valor 1, la siguiente figura muestra una posible secuencia de cambios de
estado a travs del tiempo para esa mquina.
Para el caso de los Procesos de Saltos Puros se puede considerar como un ejemplo una
seal telegrfica. Slo hay dos posibles estados (por ejemplo 1 y -1) pero la oportunidad
del cambio de estado se da en cualquier instante en el tiempo, es decir, el instante del cambio
de estado es aleatorio. La siguiente figura muestra una seal telegrfica.
3
5.2. Procesos de Estado Discreto.
En el caso de procesos estocsticos con espacio de estados discreto, una secuencia de variables
que indique el valor del proceso en instantes sucesivos suele representarse de la siguiente
manera:
{X0 = x0 , X1 = x1 , ..., Xn1 = xn1 , Xn = xn }
en la que cada variable Xi , i = 0, ..., n, tiene una distribucin de probabilidades que, en
general, es distinta de las otras variables aunque podran tener caractersticas comunes.
El principal inters del estudio a realizar en el caso discreto es el clculo de probabilidades
de ocupacin de cada estado a partir de las probabilidades de cambio de estado. Si en el
instante n 1 se est en el estado xn1 , con qu probabilidad se estar en el estado xn en
el instante siguiente n?. Esta probabilidad de denotar como:
Ntese que esta probabilidad depende de toda la historia pasada del proceso, mientras
que la probabilidad de transicin depende nicamente del estado actual que ocupe el proceso.
Propiedad de Markov: Se dice que un proceso cumple la propiedad de Markov cuando
toda la historia pasada del proceso se puede resumir en la posicin actual que ocupa el proceso
para poder calcular la probabilidad de cambiar a otro estado, es decir, se cumple la propiedad
siguiente:
Una propiedad interesante que puede tener una Cadena es que los valores pij (n) no de-
pendan del valor de n. Es decir, las probabilidades de cambiar de estado son las mismas
en cualquier instante. Esta propiedad indica que las probabilidades de transicin son esta-
cionarias.
Cadenas de Markov
Considere un equipo de computacin el cual ser revisado al inicio de cada da para verificar
si est operativo o si est daado. El diagrama de estados de la siguiente figura muestra
los dos posibles estados del proceso y las relaciones que se deben cumplir para pasar de un
4
estado al otro. As, con probabilidad PO-D se pasa del estado operativo al estado daado;
sta es una probabilidad de transicin o de cambio de estado. En el caso de que el valor
de la probabilidad anterior no cambie a travs del tiempo y, esto se repite para todas las
probabilidades involucradas en la figura, se dice que la Cadena es estacionaria.
5
El elemento en la fila i, columna j, pij = P (Xn = sj /Xn1 = si ), representa la probabil-
idad de transicin de un paso.
El usar esta representacin en forma matricial nos facilita el cmputo de las probabili-
dades de transicin en ms de un paso. En general P P = P2 corresponde a las probabili-
dades de transicin en dos pasos, y P3 , P4 , ..., Pm , ... corresponden a las probabilidades de
transicin en 3, 4, ..., m pasos respectivamente. De hecho, la matriz Pm se conoce como la
matriz de transicin en m pasos de la cadena de Markov.
Distribucin Inicial de la Cadena.
En ocasiones no se conoce a ciencia cierta la ubicacin del proceso en el instante inicial.
Esta ocupacin podra presentarse en forma probabilstica como un vector de ocupacin
inicial 0 . Este vector tiene como componentes la probabilidad de ocupar cada uno de los
estados en el instante inicial, es decir, los trminos 0 (j), para cada estado j = 1, 2, ..., k.
0 = (0 (1), 0 (2), 0 (3), ..., 0 (k))
con:
X
k
0 (j) 0, 0 (j) = 1
j=1
6
Procesos de Saltos Puros
En este caso, el proceso sigue siendo discreto en estados pero la gran diferencia es que
los cambios de estado ocurren en cualquier instante en el tiempo (tiempo continuo). Hemos
apuntado anteriormente que un ejemplo tpico de procesos de saltos puros es la seal telegr-
fica.
Otros ejemplos de procesos de saltos puros son los siguientes:
1. N(0) = 0
2. N(t1 ) N(t0 ), N(t2 ) N(t1 ), ..., N(tn ) N(tn1 ) son variables aleatorias inde-
pendientes (proceso de incrementos independientes).
3. N(t + s) N(s) (No de sucesos que ocurren entre el instante s y el instante t + s)
sigue una distribucin de Poisson de parmetro t.
El proceso de Poisson se utiliza basicamente para modelar los llamados procesos de colas.
En ellos se pueden incluir muchos procesos: coches que llegan al peaje de una autopista,
clientes que llegan a un banco, peticiones que llegan a un servidor de Internet, llamadas que
pasan por una centralita, etc.
Consideremos, por ejemplo, el caso de un servidor de Internet. Queremos estudiar las
peticiones que va recibiendo este servidor. Podemos suponer que las peticiones llegan de
una en una. Si llamamos N(t) al nmero de peticiones que ha recibido el servidor hasta el
instante t, encontramos que una posible realizacion de este proceso sera del tipo:
7
donde S(1) indica el instante en que llega la primera peticin, S(2) indica el instante en
que llega la segunda y, en general, S(i) indica el instante en que llega la i-sima. ste es un
ejemplo de un proceso que se puede representar utilizando el proceso de Poisson.
Tiene algunas caractersticas fundamentales:
Las diferencias entre los tiempos de llegadas consecutivas siguen una distribucin expo-
nencial de parmetro , es decir, S(i + 1) S(i) siguen una exponencial de parmetro
.
8
Por tanto, una realizacin de un proceso estocstico es una sucesin de infinitos valores de
una cierta variable a lo largo del tiempo. Si t tiene una consideracin continua obtendremos
una representacin continua , mientras que si t es discreto obtendremos una sucesin de
puntos.
Si recordamos la definicin de serie temporal que dimos en la introduccin, una serie
temporal ser una sucesin de valores de una variable obtenidos de manera secuencial durante
el tiempo, la nica diferencia que hay entre ellas radica en que la realizacin consta de
infinitos elementos y la serie temporal de un nmero limitado. As, desde el punto de vista
de los procesos estocsticos, diremos que
Por tanto, la teora de los procesos estocsticos ser de aplicacin a las series temporales.
No obstante, nos encontraremos con una fuerte restriccin que radica en el hecho de que en
muchas series temporales, ellas son la nica realizacin observable del proceso estocstico
que las ha generado (por ejemplo, la serie de turistas que visitan Espaa mes a mes, o la
unidades producidas diariamente en una factora, etc.). Esto, en general nos colocar, cuando
queramos deducir las caractersticas del proceso a partir de las de la serie, en una situacin
hasta cierto punto similar a la que tendramos al intentar describir la composicin de una
urna en base a una nica bola extrada. Tal problema, que parece insalvable, requerir que
apliquemos una serie de restricciones e hiptesis al tipo de proceso que queramos analizar.
9
Definicin: Llamaremos funcin de medias del proceso a una funcin de t que proporciona
las medias de las distribuciones marginales para cada instante t
t = E(Xt )
Definicin: Llamaremos funcin de varianzas del proceso a una funcin de t que propor-
ciona las varianzas de las distribuciones marginales para cada instante t
t2 = V ar(Xt )
y por ltimo,
En general, estas dos ltimas funciones dependen de dos parmetros (dos instantes).
Una condicin de estabilidad que aparece en muchos fenmenos es que la dependencia slo
dependa, valga la redundancia, de la distancia entre ellos y no del instante considerado.
En estos casos tendremos:
Por otro lado, si estudiamos casos concretos como la evolucin de las ventas de una
empresa o la concentracin de un contaminante, slo disponemos de una nica realizacin
y aunque el proceso estocstico exista, al menos conceptualmente, para poder estimar las
caractersticas transversales del proceso (medias, varianzas, etc..) a partir de la serie es
necesario suponer que estas permanecen estables a lo largo de t. Esta idea nos conduce a
lo que se entiende por condiciones de estacionariedad de un proceso estocstico (o de una
serie temporal).
10
En la prctica del anlisis de series encontraremos series con problemas de estacionariedad
que afecten a cualquiera de sus parmetros bsicos, siendo los que ms suelen afectar al pro-
ceso de anlisis las inconstancias en media y varianza. En las siguientes figuras se muestran
dos ejemplos de series no estacionarias, la primera en media y la segunda en varianza.
Esta condicin resulta bastante restrictiva y por consiguiente se adoptan otras un poco
ms dbiles
1. t =
2. t2 = 2
3. Cov(t, t + j) = Cov(s, s + j) = j j = 0, 1, 2, ...
Nota.-
En algunos libros este tipo de estacionariedad recibe el nombre de estacionariedad en
sentido amplio o estacionariedad de segundo orden. Por otro lado si slo exigimos que la
funcin de medias sea constante se dir que el proceso es estacionario de primer orden
o en media. Por ltimo, indicar que la estacionariedad en sentido dbil no garantiza la
estacionariedad, ahora bien bajo la suposicin de normalidad de las variables si se verifica
esta igualdad.
11
Es inmediato probar que si un proceso es estacionario en sentido dbil la funcin de
autocorrelacin viene dada por:
j j
j = = 2
0
Obviamente esta funcin es simtrica (j = j ) y slo depender de la distancia o
retardo entre los instantes de tiempo o tambin llamado decalaje . As:
Definicin: Se denomina funcin de autocorrelacin simple (acf) a dicha funcin:
j j
j = = 2
0
y la representacin grfica en forma de diagrama de barras de sus valores recibe el
nombre de correlograma.
Observar que el correlograma, tal y como se ha definido, slo tiene sentido para series
estacionarias.
12
Modelos Auto-Regresivos de orden p, AR(p).
Al tratar de representar la influencia que hechos pasados tienen sobre el presente (y
en consecuencia sobre el futuro) de un proceso estocstico, podemos considerar diferentes
expresiones alternativas. Una de ellas consiste en colocar el valor actual del proceso como
dependiente de modo lineal de valores pasados del propio proceso, ms una perturbacin
aleatoria, que supondremos normalmente distribuida, que evite que el modelo sea
determinista:
B Xt = Xt1 B k Xt = Xtk
y por tanto, un proceso autorregresivo puede expresarse en la forma:
t = (1 a1 B a2 B 2 ... ap B p )Xt
Consideremos la expresin autorregresiva antes definida. En principio, no hay nada que
nos limite el nmero de periodos del pasado que influyen en el valor actual del proceso, sin
embargo tal planteamiento (probablemente cierto en trminos tericos) provoca problemas
no justificables por las ventajas prcticas obtenidas: el hecho de tener que estimar infinitos
coeficientes de regresin no se justifica cuando en la prctica se observa que slo los periodos
ms recientes tienen influencia significativa en el valor actual del proceso. Con ello, la
expresin anterior se trunca, dejando el valor actual dependiente de los ltimos p valores del
proceso, ms una perturbacin aleatoria:
t = (1 a1 B a2 B 2 ... ap B p )Xt
Un proceso de estas caractersticas se denomina proceso autorregresivo de orden p AR(p).
Si denotamos por ap (B) = 1a1 B a2 B 2 ...ap B p , al llamado polinomio caracterstico del
proceso obtenemos, el siguiente resultado que nos garantiza la estacionariedad del proceso.
13
Proposicin: La condicin necesaria y suficiente para que un proceso AR(p) sea esta-
cionario es que las races de su polinomio caracterstico estn fuera del crculo unidad
del plano complejo.
E(Xt Xtj ) = a1 E(Xt1 Xtj ) + a2 E(Xt2 Xtj ) + ... + ap E(Xtp Xtj ) + E(t Xtj ) (3)
0 = a1 1 + a2 2 + ... + ap p + 2
puesto que al ser E(t tj ) = 0 para j > 0 se tiene (sin mas que aplicar de manera recursiva
(2)) E(t Xtj ) = 2 . Por otro lado, dividiendo en (3) por 0 es fcil probar que la funcin
de autocorrelacin asociada al proceso debe verificar la misma ecuacin en diferencias:
j = a1 j1 + a2 j2 + ... + ap jp j>0
1 = a1 + a2 1 + ... + ap p1
j = a1 1 + a2 2 ... + ap p2
j = a1 p1 + a2 p2 + ... + ap
llamando:
14
el sistema anterior se escribe matricialmente:
= R a a = R1
por consiguiente, los valores de los parmetros a se pueden obtener una vez estimada la
matriz de autocorrelaciones de orden p.
Veamos que el modelo de Yule-Walker nos da estimadores ptimos segn mnimos cuadra-
dos de los coeficientes ak a partir de un conjunto trminos observados de la serie. As, si
consideramos un proceso AR(p):
a partir de n valores observados de la serie, x1 , x2 , ..., xn , los residuos et vendrn dados por:
Si denotamos por:
X
n
kj = jk = xik xij
i=1
que se corresponden con las ecuaciones de Yule-Walker donde se ha sustituido las correla-
ciones tericas por sus estimaciones.
15
Sin embargo, en un AR(2) adems del efecto de Xt2 que se transmite a Xt , a travs de
Xt1 , existe un efecto directo de Xt2 , sobre Xt , Podemos escribir:
p q
AR(2) : Xt3 Xt2 Xt1 Xt
b c
La funcin de autocorrelacin simple tiene slo en cuenta que Xt , y Xt2 estn rela-
cionadas en ambos casos, pero si medimos la relacin directa entre Xt y Xt2 , esto es,
eliminando del efecto total debido a Xt1 , encontraremos que para un AR(1) este efecto es
nulo y para un AR(2) no.
En general, un AR(p) presenta efectos directos de observaciones separadas por 1, 2,
..., p retardos y los efectos directos de las p + 1, ... son nulos. Esta idea es la clave
para la utilizacin de la funcin de autocorrelacin parcial, entendiendo el coeficiente de
autocorrelacin parcial de orden k como una medida de la relacin lineal entre observaciones
separadas k perodos con independencia de los valores intermedios. Llamaremos funcin de
autocorrelacin parcial (fap) a la representacin de los coeficientes de correlacin parcial en
funcin del retardo. De esta definicin se deduce que un proceso AR(p) tendr los p primeros
coeficientes de autocorrelacin parcial distintos de cero, y por tanto, en la f ap el nmero
de coeficientes significativamente distintos de cero indica el orden del proceso AR. Esta
propiedad va a ser clave para identificar el orden de un proceso autorregresivo.
16