Está en la página 1de 39

Procesos

estocasticos

Ideas preliminares
Series temporales

Serie temporal o
cronolgica
- sucesin de valores
de una variable
observada durante un
periodo de tiempo.

Ejemplo
Registro de la temperatura
mxima diaria en una ciudad
durante un mes.

Ideas preliminares
Series temporales

Importancia
Conocer la evolucin de
los valores de la variable
tratada en el tiempo.

Predecir el
comportamiento
de los fenmenos.

Ideas preliminares
Procesos estocsticos

Variable aleatoria a lo
largo del tiempo

Objetivo
Ajustar un modelo con el fin
de hacer predicciones sobre

el comportamiento futuro.

Proceso estocstico

Procesos estocsticos (aleatorios)


Definicin formal

Estados:
Posibles
valores que
puede tomar
la variable
aleatoria

espacio de estados
discreto

espacio de estados
continuo
Adems la variable tiempo puede ser
de tipo discreto o de tipo continuo

Procesos estocsticos (aleatorios)


Definicin formal

Un proceso estocstico
puede considerarse
tambin como un funcin
de dos variables.
De manera que a la pareja

Para cada t

es una variable aleatoria.


Para cada

se le asocia el estado
o

es una trayectoria del


proceso.

Procesos estocsticos
Si el conjunto T es...

La v. a. Xt es...

continuo

proceso estocstico de
parmetro continuo

discreto

proceso estocstico de
parmetro discreto

Si para instante t

el proceso estocstico es..

Xt es continua

de estado continuo

Xt es discreta

de estado discreto

Procesos estocsticos
Caso sencillo tiempo discreto

Supongamos el espacio
parametral:
(Discreto)

que interpretamos como


tiempos.

Entonces habr:
variables aleatorias

Entonces para cada n, Xn


es el valor del proceso o
estado del sistema al
tiempo n.

Procesos estocsticos
Caso tiempo continuo

El espacio parametral tambin


puede ser un conjunto continuo

Entonces el proceso es a
tiempo continuo y se denota:
Convencin:
si el subndice es n, entonces los
tiempos son discretos, y si el
subndice es t, el tiempo se mide de
manera continua

Procesos estocsticos

Procesos estocsticos
Cadena - Ejemplo mquina en una fbrica
Los posibles estados para la mquina son que est
operando o que est fuera de funcionamiento.
La vericacin se realizar al
principio de cada da siendo
los estados:
"fuera de operacin" con el
valor 0
"en operacin" con el valor 1.
Posible secuencia
de cambios de
estado a travs del
tiempo para esa
mquina.

Procesos estocsticos
Procesos de Saltos Puros - Ejemplo

Seal telegrca.
Slo hay dos posibles
estados (por ej. 1 y -1)
pero la oportunidad del
cambio de estado se da
en cualquier instante en
el tiempo, es decir, el
instante del cambio de
estado es aleatorio.

Procesos estocsticos
Proceso continuo - Ejemplo

Seal de voz vista en la


pantalla de un
osciloscopio.
Esta seal acstica es
transformada en una seal
elctrica analgica que puede
tomar cualquier valor en un
intervalo continuo de estados.
seal de voz modulada
en amplitud.

Procesos estocsticos
Procesos de estado discreto

Una secuencia de variables que indique el valor del


proceso en instantes sucesivos suele representarse de la
siguiente manera:

en la que cada variable Xi , i = 0, ..., n, tiene una


distribucin de probabilidades, en general, distinta de las
otras variables.

Procesos estocsticos
Procesos de estado discreto

Principal inters
en el caso
discreto:
* clculo de
probabilidades de
ocupacin de
cada estado a
partir de las
probabilidades de
cambio de
estado.

Si en el instante n1 se est
en el estado xn1con qu
probabilidad se estar en el
estado xn en el siguiente n?
Esta probabilidad se denotar
con
probabilidad de transicin
o de cambio de estado.

Procesos estocsticos
Procesos de estado discreto

Probabilidades de
ocupacin de estado

Probabilidades de
transicin o de cambio de
estado.

Otra notacin

Procesos estocsticos
Procesos de estado discreto

Otro probabilidad de inters es la de ocupar un cierto


estado en un instante n, dado que en todos los instantes
anteriores, desde n=0 hasta n1, se conoce en qu
estados estuvo el proceso. Esto se puede escribir como:

Ntese que esta probabilidad


depende de toda la historia
pasada del proceso, mientras
que la probabilidad de transicin
depende nicamente del estado
actual que ocupe el proceso.

Procesos estocsticos
Procesos de estado discreto

Procesos de Markov
Propiedad de Markov.
Son procesos donde,
suponiendo conocido el
estado presente del sistema,
los estados anteriores no
tienen influencia en los
estados futuros del sistema.

Procesos estocsticos
Procesos de estado discreto

Cadenas de Markov
Aquellas Cadenas que cumplen la propiedad de
Markov se llaman Cadenas de Markov.

Procesos estocsticos
Procesos de estado discreto

Cadenas de Markov
Considere una mquina que ser
revisado al inicio de cada da para
vericar si est operativa o si est
daada.

diagrama de estados

Ejemplo
El clima en la Tierra de Oz

Segn el cuento, en la Tierra de


Oz nunca hay dos das buenos
en sucesin. Despus de un da
con buen tiempo, le sigue (con
igual probabilidad) un da con
lluvia o nieve. Del mismo modo,
si nieva (o llueve), el da
siguiente nevar (o llover) con
probabilidad 1/2, pero si cambia
el tiempo, solo la mitad de las
veces ser un lindo da.

Ejemplo
El clima en la Tierra de Oz
Primero encontremos la probabilidades de transicin, es
decir las probabilidades de que teniendo cierto clima un da,
al da siguiente se tenga otro clima.
Indiquemos con b un da bueno, con uno lluvioso y n si
nieva.

Ejemplo
El clima en la Tierra de Oz

Resumiendo:

Veamos que:
Los coeficientes son positivos.
Si sumamos una fila el resultado es 1.
En cambio la suma por columnas no da 1.

Se le llama matriz de
transicin (o transiciones).

Una matriz estocstica derecha es una matriz cuadrada cada una de


cuyas filas est formada por nmeros reales no negativos, sumando
cada fila 1.
Una matriz estocstica izquierda es una matriz cuadrada cada una
de cuyas columnas est formada por nmeros reales no negativos,
sumando cada columna 1.

Una matriz doble estocstica es una matriz cuadrada donde todos los
valores son no negativos y todas las filas y columnas suman 1.

Ejemplo
El clima en la Tierra de Oz

En el siguiente momento
volveremos a ese estado o a
otro.
Pasaremos de un estado a
otro con cierta probabilidad.

Este es un ejemplo de una


cadena de Markov
Hay ciertos estados: b,l y n.
En cada momento estamos en
alguno de esos estados.

Solo depende del estado


inmediato anterior.
La probabilidad no cambia
con el transcurso del tiempo.

Procesos estocsticos
Cadenas de Markov

La matriz de transicin

Con la condicin (matriz


estocstica.

pij es la probabilidad de
estar en el estado j dado
que est en el estado i.
En cualquier paso puede
ocurrir alguno de los
sucesos E1 , E2 , . . . , Em y

Procesos estocsticos
Cadenas de Markov - Ejemplo 1

Ejemplo
Cadenas de Markov
Las siguientes matrices son estocsticas?

Procesos estocsticos
Cadenas de Markov - Ejemplo 2

Paseante
La zona urbana de mi pueblo tiene 6
cuadras de largo, que van de norte a
sur.
Estoy con ganas de deambular y pasar
el tiempo, y como tengo una moneda,
se me ocurre tirarla y caminar una
cuadra hacia el norte si sale cara o una
cuadra hacia el sur si sale cruz. Y
contino este juego hasta salir de la
zona urbana, ya sea hacia el norte o hacia
el sur

Procesos estocsticos
Cadenas de Markov - Ejemplo 2

Podemos pensar que los estados son 0,1,...,5,6, donde


0 es la esquina sur donde empieza la zona urbana, 6 la
esquina norte.
La matriz de transicin puede escribirse entonces
como:

Al llegar al estado 0 o 6
el "juego" se termina,
por lo que ponemos un
1 en la entrada
correspondiente
indicando que ya nos
quedamos para siempre
en esa posicin.

Procesos estocsticos
Cadenas de Markov - Dos pasos, ejemplo.

Supongamos que estando


en un estado i lleguemos
en dos pasos al estado j.

Evidentemente en el
primer paso estaremos
en algn estado
intermedio
k (que puede ser i o j) y
despus pasar de k a j

En cada camino
multiplicamos
las probabilidades, y
despus sumamos los
caminos

Procesos estocsticos
Cadenas de Markov - Dos pasos, ejemplo.

Procesos estocsticos
Cadenas de Markov
Supongamos que estando en un estado i lleguemos en
varios pasos al estado j.
Entonces la matriz que
contiene todos estos
estados se llama:

es la probabilidad de
transicin del estado i al
estado j en n pasos

matriz de transicin de n
pasos.
Nota
La matriz P es de un paso

Procesos estocsticos
Cadenas de Markov

Matriz de transicin de n
pasos.
Propiedades

Puesto que para hacer n


pasos necesitamos hacer
n-1 pasos y luego otro
ms, podemos escribir:

Se puede obtener
multiplicando la matriz de
transicin de un paso.

En general:

Procesos estocsticos
Cadenas de Markov - Probabilidades iniciales

Procesos estocsticos
Cadenas de Markov - Probabilidades iniciales

Procesos estocsticos
Cadenas de Markov - Probabilidades iniciales

Procesos estocsticos
Cadenas de Markov - Probabilidades iniciales

También podría gustarte