Está en la página 1de 3

Proceso estocástico

Ir a la navegaciónIr a la búsqueda
Véase también: Sistema estocástico
Introducción a los Procesos Estocásticos La teoría de los procesos estocásticos se centra en el
estudio y modelización de sistemas que evolucionan a lo largo del tiempo, o del espacio, de
acuerdo a unas leyes no determinísticas, esto es, de carácter aleatorio. La forma habitual de
describir la evolución del sistema es mediante sucesiones o colecciones de variables aleatorias.
De esta manera, se puede estudiar cómo evoluciona una v.a. a lo largo del tiempo. Por
ejemplo, el número de personas que espera ante una ventanilla de un banco en un instante t
de tiempo; el precio de las acciones de una empresa a lo largo de un año; el número de
parados en el sector de Hostelería a lo largo de un año. La primera idea básica es identificar un
proceso estocástico con una sucesión de v.a. {Xn, n ∈ N} donde el subíndice indica el instante
de tiempo (o espacio) correspondiente. Esta idea inicial se puede generalizar fácilmente,
permitiendo que los instantes de tiempo en los que se definen las v.a. sean continuos. Así, se
podrá hablar de una colección o familia de v.a. {Xt, t ∈ R}, que da una idea más exacta de lo
que es un proceso estocástico. Se tenía que una v.a. X(s) es una función que va desde un
espacio muestral S a la recta real, de manera que a cada punto s ∈ S del espacio muestral se le
puede asociar un número de la recta real. De este modo, la probabilidad de cada suceso de S
se puede trasladar a la probabilidad de que un valor de X (v.a.) caiga en un cierto intervalo o
conjunto de números reales. Si a todo esto se le añade una dimensión temporal, se obtiene un
proceso estocástico. La definición formal es la siguiente:

El índice de la bolsa es un ejemplo de proceso estocástico de tipo no estacionario.


En la teoría de la probabilidad, un proceso estocástico es un concepto matemático que sirve
para usar magnitudes aleatorias que varían con el tiempo o para caracterizar una sucesión
de variables aleatorias (estocásticas) que evolucionan en función de otra variable,
generalmente el tiempo.1 Cada una de las variables aleatorias del proceso tiene su propia
función de distribución de probabilidad y pueden o no estar correlacionadas entre sí.
Cada variable o conjunto de variables sometidas a influencias o efectos aleatorios constituye

Ejemplos[editar]
Los siguientes son ejemplos dentro del amplio grupo de las series temporales:

 señales de telecomunicación;
 señales biomédicas (electrocardiograma, encefalograma, etc.);
 señales sísmicas;
 el número de manchas solares año tras año;
 el índice de la bolsa segundo a segundo;
 la evolución de la población de un municipio año tras año;
 el tiempo de espera en la cola de cada uno de los usuarios que van llegando a una
ventanilla;
 el clima, un gigantesco conjunto de procesos estocásticos interrelacionados
(velocidad del viento, humedad del aire, etcétera) que evolucionan en el espacio y
en el tiempo;
 los procesos estocásticos de orden mayor a uno, como el caso de una serie de
tiempo de orden 2 y una correlación de cero con las demás observaciones.
Casos especiales[editar]
 Proceso estacionario: Un proceso es estacionario en sentido estricto si la función
de distribución conjunta de cualquier subconjunto de variables es constante
respecto a un desplazamiento en el tiempo. Se dice que un proceso es
estacionario en sentido amplio (o débilmente estacionario) cuando se verifica que:

1. La media teórica es independiente del tiempo, y


2. Las autocovarianzas de orden s solo vienen afectadas por el lapso de
tiempo transcurrido entre los dos periodos y no dependen del tiempo.

 Proceso homogéneo: variables aleatorias independientes e idénticamente


distribuidas. Son proceso donde el dominio tiene cierta simetría y las
distribuciones de probabilidad finito-dimensionales tienen la misma simetría.
Un caso especial incluye a los procesos estacionarios, también llamados
procesos homogéneos en el tiempo.
 Proceso de Márkov: Aquellos procesos discretos en que la evolución solo
depende del estado actual y no de los anteriores.
 Procesos de tiempo discreto
o Proceso de Bernoulli son procesos discretos en los que el número
de eventos viene dado por una distribución binomial.
o Proceso de Galton-Watson: es un tipo de proceso de Markov con
ramificación.
 Procesos de tiempo continuo:
o Proceso de Gauss: Proceso continuo en el que toda combinación
lineal de variables es una variable de distribución normal.
o Proceso de Márkov continuo
 Proceso de Gauss-Márkov: Son procesos, al mismo
tiempo, de Gauss y de Márkov
 Proceso de Feller: son procesos estocásticos que
toman valores sobre espacios de operadores de
algún espacio funcional.
 Proceso de Lévy: son procesos homogéneos de
Markov de "tiempo continuo" que generalizan
el paseo aleatorio que usualmente se define como de
"tiempo discreto".
 Proceso de Poisson, es caso particular
de proceso de Lévy donde el tiempo
transcurrido entre saltos sigue una
distribución exponencial y, por tanto, el
número de eventos en un intervalo viene
dado por una distribución de Poisson.
 Proceso de Wiener, el incremento de la
variable entre dos instantes tiene una
distribución gaussiana y, por tanto,
además de un proceso de Lévy es
un proceso de Gauss simultáneamente.
 Proceso doblemente estocástico, es un tipo de
modelo estocástico usado para modelar ciertas series
temporales, en el que los parámetros que dan las
distribuciones también varían aleatoriamente (de ahí
el término de doblemente estocástico).
 Proceso de Cox es un proceso
doblemente estocástico que generaliza
el proceso de Poisson, donde el
parámetro de intensidad varía
aleatoriamente.
o Proceso estocástico continuo, es un tipo de proceso estocástico
de tiempo continuo en que las trayectorias son además caminos
continuos.
TEMA 5. PROCESOS ESTOCÁSTICOS En el estudio de las variables aleatorias realizado hasta
ahora se han explorado las características aleatorias del fenómeno pero se ha mantenido una
premisa por defecto, que esas características aleatorias permanecen constantes a través del
tiempo. Al incluir en el estudio la presencia de la variable determinística tiempo se está
considerando que, de alguna forma, la variable aleatoria depende del tiempo. En otras
palabras, la variable aleatoria dependerá del fenómeno probabilístico y del tiempo. En
consecuencia, cualquier función que se establezca en términos de la variable aleatoria, como
lo son la función de distribución o la función de densidad, serán también dependientes del
tiempo. Uno de los objetivos de este capítulo es construir un modelo que nos permita explicar
la estructura y preveer la evolución, al menos a corto plazo, de una variable que observamos a
lo largo del tiempo. La variable observada puede ser económica (I.P.C., demanda de un
producto, existencias en un determinado almacén, etc...), física (temperatura de un proceso,
velocidad del viento en una central eólica, concentración en la atmósfera de un contaminante,
etc..) o social (número de nacimientos, votos de un determinado partido, etc..). Supondremos
a lo largo del tema que los datos se obtienen en intervalos regulares de tiempo (horas, días,
años,..) y el objetivo es utilizar la posible ”inercia” en el comportamiento de la serie con el fin
preveer su evolución futura. Así, una serie temporal será una sucesión de valores de una
variable obtenidos de manera secuencial durante el tiempo.

También podría gustarte