Está en la página 1de 65

PROCESOS ESTOCASTICOS

ACETATOS DE CLASE

PROFESOR: GABRIEL CONDE A.


ESCUELA DE ESTADSTICA
UNIVALLE
Comentario inicial:

Consideremos un sistema que puede estar en cualquiera


de un conjunto de estados (E) especificado. El sistema
cambia de un estado a otro a lo largo del tiempo regido
por una ley de movimiento y sea Xt el estado del sistema
en el tiempo t. Si se considera que el sistema evoluciona
aleatoriamente entonces Xt es una v. a. para cada t.

Esto define una coleccin de variables aleatorias la cual


llamaremos proceso estocstico.

{Xn : n = 0, 1, } tiempo discreto


{Xt : t 0} tiempo continuo
DEFINICION DE PROCESO ESTOCASTICO

Definicin: Un proceso estocstico es una coleccin


indexada de variables aleatorias:
{ Xt } donde tT
(T puede ser conjunto de enteros no negativos o un
intervalo del continuo real)

Xt conjunto de caractersticas medibles en t


(estados = E)

( Por ejemplo E = {0, 1, 2, ..., M})


UN PROCESO ESTOCASTICO PUEDE SER:

De tiempo discreto: la variable tiempo puede


cambiar de valor nicamente en instantes
concretos (discretos) del tiempo

De tiempo continuo: la variable tiempo puede


cambiar de valor en cualquier instante del tiempo

De variable estado discreta: aquel en el que la


variable slo puede tomar determinados valores
discretos

De variable estado continua: aquel en el que la


variable puede tomar cualquier valor real
Definicin: Un PE de tiempo continuo {X(t), t T}
se dice que tiene incrementos independientes si
para todo t0 < t1 < t2 < < tn las variables
aleatorias:

X(t1) X(t0), X(t2) - X(t1), , X(tn) - X(tn-1)

son independientes.

Es decir, un PE tiene incrementos independientes si


los cambios del proceso entre intervalos de
tiempo, que no se intersectan, son independiente.
Definicin: Un PE de tiempo continuo {X(t), t T}
se dice que tiene incrementos estacionarios si:

X(t + s) X(t), tiene la misma distribucin para


todo t.

Es decir, si la distribucin de cambios entre


cualquier par de puntos depende slo de la
distancia entre dichos puntos.
EJEMPLOS

Supongamos que un numero aleatorio de


eventos ocurren en un tiempo t. Denotemos por
X(t) el nmero de estos eventos que ocurren en
el intervalo de tiempo [0, t]

Ejercicio: Simular una realizacin y graficarla.


Ejemplo de Ross, pag 80
Una partcula se mueve alrededor de m+1
nodos dispuestos en crculo, (en el sentido o en
sentido contrario a las manecillas). Si Xn es la
posicin de la partcula despus del paso n,
entonces:
P[Xn+1=i+1 Xn=i] = P[Xn+1=i-1 Xn=i] =
i+1 = 0 cuando i = m; i 1 = m cuando i = 0.
El proceso continua hasta que todos los nodos
sean visitados.

Ejercicio: Cul es la probabilidad de


que el nodo i sea el ltimo visitado?
Estudiar solucin en Ross (2010)
pgina 85
Ejemplos del texto de procesos estocsticos,

Xt = Acos(wt);
A es v. a. con A = 1, 2, 3, 4, 5, 6;
P(A = i) = 1/6 i

Ejercicio: Hacer varias realizaciones y graficarlas


PROCESO BERNOULLI

Xt =

FILTRO LINEAL

Yt = Yt-1 + Xt
donde Xt es un proceso Bernoulli

Ejercicio: Hacer varias realizaciones y graficarlas


EJEMPLO DE PROCESO ESTOCASTICO:
UN PROBLEMA DE INVENTARIOS. Tomado del libro Introduccin a la
Investigacin de Operaciones. De Hillier y Lieberman (2001).

Una tienda de cmaras tiene en almacn un modelo especial de cmara que se


puede ordenar cada semana. Sean D1, D2, las demandas de sta cmara
durante la primera, segunda, ., semana, respectivamente. Se supone que las Di
son variables aleatorias independientes e idnticamente distribuidas con
distribucin conocida. Sea X0 el nmero de cmaras que se tienen en el momento
de iniciar el proceso, X1 el nmero de cmaras que se tienen al finalizar la semana
1, X2 el nmero de cmaras que se tienen al finalizar la semana 2, etc. El sbado
en la noche la tienda hace un pedido que le entregan el lunes en el momento de
abrir la tienda. La tienda usa la siguiente poltica para ordenar: si el nmero de
cmaras en inventario al final de la semana es menor que uno entonces ordena 3
cmaras. De otra manera no coloca la orden. Se supone que las ventas se pierden
cuando la demanda excede el inventario. Entonces la serie { Xt , t = 0, 1, .} define
lo que se llama un proceso estocstico. Los estados posibles del proceso son los
enteros 0, 1, 2, 3 que representan el nmero posible de cmaras en inventario al
final de la semana. Las variables aleatorias Xt son dependientes y se pueden
evaluar en forma iterativa por medio de la expresin:
(Continuacin)

Mx {(3 Dt+1), 0 } si Xt < 1


Xt+1 =
Mx {( Xt Dt+1), 0 } si Xt 1

Para t = 0, 1, 2, . Podemos estar interesados en preguntas tales como Cual


es la probabilidad de que hayan tres cmaras en inventario dos semanas
despus de que el sistema se puso en marcha? O cul es le estado del
inventario despus de un tiempo determinado?. Esta y otras preguntas
podrn ser contestadas utilizando los modelos de Markov que sern parte del
desarrollo del curso.
EXPRESIN ANALTICA DE UN PROCESO ESTOCSTICO

Sabemos que el comportamiento de una variable aleatoria se


describe mediante una adecuada distribucin de probabilidad.

En un proceso estocstico el comportamiento de la(s) variable(s)


aleatoria(s) considerada(s) vara con el tiempo. Por tanto, la
distribucin de probabilidad utilizada para describirla(s) tambin
puede variar con el tiempo.

Para describir el proceso estocstico que sigue una variable aleatoria


temporal X(t) deberemos indicar, en cada instante t, cual es la
distribucin de probabilidad asociada a X(t).
Los diferentes tipos de PE se obtienen al
considerar las distintas posibilidades para los
valores de t, el espacio de estados, las
caractersticas de las trayectorias y principalmente
las relaciones de dependencia entre las variables
aleatorias que conforman el proceso
PROCESOS DE MARKOV

Constituyen una forma sencilla y til de dependencia entre las


variables aleatorias que forman el proceso estocstico. Un
proceso de Markov con un espacio de estado discreto se
denomina cadena de Markov. La cadena de Markov de tiempo
discreto es la ms fcil de conceptualizar y comprender.

Un conjunto de variables {Xn} forma una cadena de Markov si la


probabilidad que el nuevo estado sea xn + 1 depende solo del
estado actual xn y no de los estados anteriores; es decir la
dependencia se extiende hacia atrs solo una unidad de tiempo
o bien la historia del proceso que afecta a su futuro queda
resumida en su estado actual.
En el caso de una cadena de Markov de tiempo discreto, los
instantes en que el sistema puede cambiar de estado se pueden
asimilar a los enteros 0, 1, 2, ..., n, . En el caso de cadenas de
Markov de tiempo continuo, las transiciones entre estados
pueden producirse en cualquier instante. Por lo tanto se est
obligado a considerar la variable aleatoria que describe durante
cuanto tiempo el sistema permanecer en su estado (discreto)
actual antes que se produzca una transicin a otro estado.
Puesto que la propiedad de Markov exige que toda la historia
pasada se resuma en el estado actual, ello impone una fuerte
restriccin en la distribucin del tiempo que el sistema
permanecer en el estado actual. De hecho, como se ver, se exige
que la distribucin sea sin memoria, lo cual cumplen la distribucin
exponencial para tiempo continuo y la geomtrica para tiempo
discreto.

Analticamente la propiedad de Markov puede escribirse como


P[X(tn + 1) = xn + 1 | X(tn) = xn, X(tn - 1) = xn - 1, ..., X(t1) = x1] =

P[X(tn + 1) = xn + 1 | X(tn) = xn]

donde t1 < t2 < ... < tn < tn + 1 y xi est incluida en algn espacio de
estado discreto.
Martingalas

Una matingala de tiempo discreto se define


como un proceso {Xn, n = 0, 1, 2, } con la
condicin:

E[Xn+1 X0 = x0, , Xn = xn] = xn


Otro ejemplo de PE: Consideremos el procesos estocstico
X(t) dado por:

X(t) N(X0 + t, 2t), X0 , , constantes conocidas.

En un instante t, X(t) sigue una distribucin de probabilidad


normal de media (X0 + t) y de varianza 2t
Y otro ejemplo ms:

La secuencia {Xn} definida por:

Xn = X0 + 1 + 2 + + n para n = 0, 1, 2,

Donde X0 = 0 y 1, 2 son v.a con la misma


distribucin de probabilidad.

Ejercicio: pensar en posibles casos particulares.


Comente.
CAMINATAS ALEATORIAS

Una caminata aleatoria sobre los enteros Z es un


proceso estocstico de tiempo discreto:
{Xn : n = 0, 1, }
que podemos representar como en la figura:

p = probabilidad de ir un paso a la derecha


q = probabilidad de ir un paso a la izquierda
p+q=1
Xn es el estado del proceso al tiempo n.
Las probabilidades se pueden expresar as:

{p, si j = i + 1
P[Xn+1 = jXn = i] = { q, si j = i - 1
{ 0, en otro caso

Como estas probabilidades no dependen de n,


se dice que son homogneas en el tiempo,
(propiedad markoviana)
Ejercicio: realizar una caminata aleatoria en Z,
con p = 0.6 y q = 0.4, con X0 = 0. Hacer un grfico
Xn vs n
Una caminata aleatoria tambin se puede definir as:
Sea 1, 2, una sucesin de v. a. iid.
Podemos referirnos a las v. a. slo con la letra y
escribimos P[ = +1] = p y P[ = -1] = q, en donde
p + q = 1, entonces la caminata queda definida por:

X n = X0 + 1 + 2 + + n
Algunas propiedades de Xn
Teorema: Para cualquier n 0,
1) E(Xn) = n(p q) y 2) Var(Xn) = 4npq

Ejercicio 1: Demostracin.
Ejercicio 2: Hacer una discusin de las expresiones
E(Xn) = n(p q) y Var(Xn) = 4npq

Nota: si p = q = se dice que la caminata es


simtrica, en tal caso Var(Xn) es mxima.

Ejercicio 3: Demuestre que la fgm de Xn es:


M(t) = E(etXn) = (pet + qe-t)n
PROBABILIDADES DE TRANSICIN
Caractersticas: 1) despus de n pasos la partcula
estar en posicin par si n es par y en posicin impar
si n es impar, 2) despus de n pasos la posicin final
slo puede llegar a una distancia mxima de n
unidades.
Teorema: A) para nmeros enteros n y x con n x
n, siendo x y n ambos pares o ambos impares, se
tiene:

Para otros caso esta probabilidad es cero.


B) En particular, cuando la caminata es simtrica y
con las mismas condiciones para x y n, tenemos:

Ejercicio: Demostrar
Idea: Considerar la v. a. Xn = Rn - Ln donde Rn y Ln
representan el nmero de pasos a la derecha y a
la izquierda respectivamente. Adems considerar
n = Rn + Ln y de donde se tiene la v. a. Rn dada por:

Rn = (n + Xn) =

distribuida binomial (n, p)


Teorema: Las formulas anteriores pueden
extenderse para calcular la probabilidad de pasar
de un estado y a un estado x en n pasos, as:

Si los nmeros n y (x y) son ambos pares o


ambos impares y tales que n x - y n, entonces:

Esta probabilidad es cero en otro caso.

Demostracin: considerar Zn = Xn y con X0 = y,


entonces: P[Xn = xX0 = y] = P[Zn = x - yZ0 = 0]
Nota: Se pueden definir otras caminatas aleatorias,
tal como se muestra en los grficos siguientes:

(a) unidimensional, (b) bidimensional.


Incluso se puede pesar en caminatas aleatorias de n
dimensiones!
Podemos definir o expresar procesos
estocsticos a travs de sistemas
dinmicos o ecuaciones en diferencia
Cuando se est modelando un fenmeno real, resulta difcil establecer directamente
cual va ser la distribucin de probabilidad adecuada as como determinar cmo van a
variar sus parmetros en el tiempo.

Es frecuente que los procesos estocsticos vengan dados mediante ecuaciones,


similares a las de los modelos discretos en diferencias finitas que veremos mas
adelante. En dichas ecuaciones se relaciona el valor de la variable aleatoria X(t)
en el instante t, con su valor en el instante anterior X(t-1).

Para que una ecuacin en diferencias sea estocstica es necesario que en su


expresin intervenga una variable aleatoria (t). De este modo el valor de X(t) no se
deduce de forma determinista a partir del valor de X(t-1), sino que depende tambin
del comportamiento de la variable aleatoria (t).

(t) inducir en X(t) una distribucin de probabilidad variable en el tiempo. Es decir,


X(t) seguir un proceso estocstico.
SISTEMAS DINAMICOS

Ejemplos de sistemas dinmicos

Las cascadas discretas definidas por funciones


tales como: f(x) = x2, f(x) = x, f(x) = 1/x, f(x) =
cos(x), f(x) = x2 - 1

CALCULADORA
X CUADRADO

0,30000
0,25000
0,20000
x2 0,15000
0,10000
0,05000
0,00000
-0,05000 0 5 10 15 20 25 30 35 40 45

Iteraciones

1/x (EL INVERSO)

5,00000

4,00000

3,00000
1/x

2,00000

1,00000

0,00000
0 10 20 30 40 50
Iteraciones
RAIZ CUADRADA DE X

1,20000
1,00000
0,80000
RAIZ(X) 0,60000
0,40000
0,20000
0,00000
0 10 20 30 40 50
Iteraciones

COSENOS

1,20000
1,00000
0,80000
Cos(x)

0,60000
0,40000
0,20000
0,00000
0 10 20 30 40 50
Iteraciones
X CUADRADO - UNO

0,40000
0,20000
0,00000
-0,20000 0 10 20 30 40 50
x2 + 1

-0,40000
-0,60000
-0,80000
-1,00000
-1,20000
Iteraciones

PROGRAMA EXCEL
Estos sistemas se llaman sistemas dinmicos
discretos. Aqu es posible obtener la secuencia x0,
x1, , xn de sucesivos estados del sistema (rbita de
x0) de forma que:

x1 = f(x0), x2 = f(x1) = f2(x0), x3 = f(x2) = f3(x0), , xn =


fn(x0).
UN MODELO DE ESTE TIPO
Lo que nos dice en la prctica es:

Supongamos que en un instante dado conocemos


la posicin y la velocidad de un cuerpo, las
ecuaciones nos proveen una regla que se aplica a
dichos nmeros, para obtener la posicin y la
velocidad en el instante siguiente. La regla se sigue
aplicando una y otra vez hasta obtener una
trayectoria o unos valores en un instante deseado.
(Stewart I. 1991)
MAS FORMALMENTE

Un sistema de k variables que evoluciona en el


tiempo puede estudiarse como una variable
vectorial x Rk dependiente de la variable
temporal t, de tal manera que el estado xn+1 del
sistema en el instante n + 1 se obtiene del estado
xn del sistema en el perodo anterior a travs de
cierta funcin vectorial f mediante la relacin xn+1 =
f(xn).
Si un fenmeno natural se asocia a un
modelo de este tipo podramos decir que el
fenmeno es estable y que dicha
estabilidad se refleja en las soluciones
(convergencia).
EJEMPLO
Un modelo matemtico muy estudiado:
El modelo logstico.

La iteracin de la funcin:
f(x) = K.x.(1 x), 0 < x < 1
Se llama cascada logstica.

La dinmica queda definida por:


xn+1 = kxn(1 xn)
Es interesante su estudio para 0 K 4
LOGISTICA. K=0.7; X0 = PI/10

0,35
0,3
0,25

kx(1-x)
0,2
0,15
0,1
0,05
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Iteraciones

LOGISTICA. K=2.5; X0 = PI/10

0,7
0,6
0,5
kx(1-x)

0,4
0,3
0,2
0,1
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Iteraciones
LOGISTICA. K=2.9; X0 = PI/10

0,8
0,7
0,6
0,5

kx(1-x)
0,4
0,3
0,2
0,1
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Iteraciones

LOGISTICA. K=3.0; X0 = PI/10

0,8
0,7
0,6
0,5
kx(1-x)

0,4
0,3
0,2
0,1
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Iteraciones
LOGISTICA. K=3.2; X0 = PI/10

0,8

kx(1-x)
0,6

0,4

0,2

0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Iteraciones

LOGISTICA. K=3.4495; X0 = PI/10

0,8
kx(1-x)

0,6

0,4

0,2

0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Iteraciones
LOGISTICA. K=3.56; X0 = PI/10

0,8

kx(1-x)
0,6

0,4

0,2

0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Iteraciones

LOGISTICA. K=3.835; X0 = PI/10

1,2
1
0,8
kx(1-x)

0,6
0,4
0,2
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Iteraciones
LOGISTICA

1,200000
1,000000
0,800000
KX(1 - X)

0,600000
0,400000
0,200000
0,000000
-0,200000 0 10 20 30 40 50 60 70 80

Iteracones. X0 = 0.09767602. K = 3.987451


LOGISTICA, X0 = PI/10, K = 4

1,2
1
0,8

KX(1 - X)
0,6
0,4
0,2
0
-0,2 0 10 20 30 40 50 60 70 80

Iteraciones

LOGISTICA, X0 = PI/10 + 0,001, K = 4

1,2
1
0,8
KX(1 - X)

0,6
0,4
0,2
0
-0,2 0 10 20 30 40 50 60 70 80

Iteraciones
Existe contraparte continua:

Sistemas dinmicos autnomos que se modelan


con las formas dx/dt = f(x(t)).
Para un sistema dinmico TC con parmetros := (1, 2,..., ) y
variables de estado x(t) := (x1(t), x2(t),..., xg(t)) el cambio del
estado del sistema se describe por el conjunto de ecuaciones
diferenciales:

d
x 1 F1 (x, t; ),
dt
d
x 2 F2 (x, t; ),...
dt
d
x g Fg (x, t; )
dt
Se puede escribir:
d
x = F(x, t; )
dt
Donde x y F son vectores de la forma:
x 1 F1
x F
2
x := (t), F := 2 (x, t; )
... ...

x g Fg

Se requiere adems un estado inicial del sistema


x0 = (x1(t0), x2(t0), ..., xg(t0)) = x(t0).
A partir del estado inicial se puede determinar el
estado del sistema en cualquier instante de tiempo
por la relacin:
t
x(t) = x(t0) + t0
F(x(t' ), t' ; )dt'
Para un sistema dinmico de TD tenemos las
relaciones de tipo cascada

n 1 G 1 (x n ; ),
x (1)
n 1 G 2 (x n ; ),...
x (2)
n 1 G g (x n ; )
x (g)

En forma ms compacta se escribe:


xn+1 = G(xn; )
Tambin se debe especificar la condicin inicial x0
:= ( x0(1) , x0( 2) ,..., x0( g ) )
Un proceso estocstico puede verse tambin
como un sistema dinmico que incluye
componentes aleatorias en sus variables de
estado. Es as que podemos definir procesos
estocsticos de la forma:
Xt = f(Xt-1) + t
Donde t es variable aleatoria para todo t.
(x0 es un valor conocido)
Por ejemplo:
Xt = Xt-1 + t , con x0 conocido
Casos:
1) Para cada t se define t tal que:
P(t = 1) = P(t = -1) =

2) Para cada t, t sigue una distribucin N(0, )


PROCESO AUTOREGRESIVO DE 1er ORDEN

Xt = a + rXt-1 + t
Donde:
x0 conocido, a y r constantes con 0 r 1,
Para cada t, t sigue una distribucin N(0, )
PROCESO WIENER

Xt = Xt-1 + tt

x0 conocido, t = t-1 + t
Para cada t, t sigue una distribucin N(0, 1)
t es independiente de s para todo t s
DISTRIBUCIONES MARGINALES
Si se tiene un proceso estocstico tal como
X(t1),X(t2),X(t3), . . .
se define la funcin de distribucin de probabilidad de
cada una de ellas:
Ft(x) = FX(t)(x) = Pr[X(t) x],
y su funcin de densidad de probabilidad (V continuas)
ft(x) = fX(t)(x) = FX(t)(x),

o de funcin de probabilidad (V discretas)


P{X(t)(x)} = Pr[X(t) = x].
DISTRIBUCIONES CONJUNTAS
Para analizar las propiedades del proceso estocstico,
adems de las distribuciones de cada variable por separado,
hay que definir las distribuciones conjuntas que indican
cmo se relacionan grupos de VA.
Se necesitan distribuciones conjuntas o multivariantes para
cualquier coleccin de VA: Xt(1),Xt(2), . . .,Xt(n):

FX(t1),X(t2),...,X(tn)(x1,x2,...,xn) = Pr[X(t1)x1,X(t2)x2,...,X(tn) xn],

y la correspondiente funcin de densidad o probabilidad.


Dependiendo de la forma de esas distribuciones conjuntas,
se puede formar tipos diferentes de procesos estocsticos.
Si FX(t1),X(t2),...,X(tn)(x) es igual para todo t1, t2, . . . , tn y
todo n entonces X(t) es estacionario.
Si FX(t1)(x) es igual para todo t1, con n = 1 entonces
X(t) es estacionario de primer orden.
Si FX(t1),X(t2)(x) es igual para todo t1, t2, con n = 2
entonces X(t) es estacionario de segundo orden.
En general estas propiedades definen las denominas
estacionariedades estricta o fuerte. Para distinguirla
de la estacionariedad dbil, que slo atiende a que
determinadas caractersticas de FX(t1),X(t2),...,X(tn)(x)
permanezcan constantes en el tiempo
EJEMPLOS
Ruido Blanco Normal: X(t) N(0, 1),
independientes unos de otros para todo t (IID).
Si X(t) = X N(0, 1), la misma VA para todo t,
entonces cada VA por separado sigue siendo
Normal como antes, pero las realizaciones del
proceso son iguales a una constante.
MEDIA, AUTOCOVARIANZA, AUTOCORRELACION
MEDIDAS CARACTERISTICAS MARGINALES
Como un proceso estocstico en tiempo discreto es una secuencia
indexada de VA, se puede calcular la media o esperanza de cada una
de ellas, y formar la secuencia:

mX (t)= E[X(t)], t= . . . ,1, 0, 1, . . . que es la media del proceso.

Calculando la varianza de cada VA, se obtiene la varianza del proceso:

2X(t) =Var[X(t)] = E[(X(t) mX(t))2], t= . . . ,1, 0, 1, . . .

Ambas son en general funciones de t y representan el valor medio y la


oscilacin media alrededor de ese valor para cada t. Estas dos
medidas dependen slo de las distribuciones univariantes, pero
tambin es importante definir conceptos sobre la distribucin
conjunta de ms de una variable.
MEDIA, AUTOCOVARIANZA, AUTOCORRELACION
MEDIDAS CARACTERISTICAS CONJUNTAS

La autocovarianza se define como la covarianza


entre dos VAs del mismo proceso en el
instante k y en el instante l,
RX(k, l) =Cov[X(k),X(l)] =
=E[(X(k)mX(k))(X(l)mX(l))], k, l = 0,1, . . .
y la autocorrelacin es:

X(k, l) = {Cov[X(k),X(l)]}/sqr{Var[X(k)]Var[X(l)]}

= {RX(k, l)}/{X(k)X(l)}, k,l = . . . ,1, 0, 1, . . .

Cuando k = l, entonces la autocovarianza es igual


a la varianza, RX(k, k) = 2X(k), k = . . . ,1, 0, 1, . .
.
y la autocorrelacin es igual a uno,
X(k, k) = 1, k = . . . ,1, 0, 1, . . .
NOTA:
La covarianza y la correlacin proporcionan
informacin sobre el grado de dependencia lineal
entre dos VAs (descripcin parcial del proceso).

Por ejemplo si RX(k, l) = 0, para k l entonces las


variables estn incorreladas y el conocimiento de
una no ayuda en la prediccin o estimacin de la
otra mediante estimadores lineales.
ESTACIONARIEDAD DEBIL (SEGUNDO ORDEN)

Decimos que hay estacionariedad dbil en un proceso


si mX(k) = mX, RX(k, l) = RX(k l, 0), k,l = . . . ,1, 0, 1, . . .
es decir, las medidas caractersticas (momentos) de
primer orden (media) son constantes y las de segundo
orden (autocovarianzas) slo dependen de la distancia
entre los dos puntos considerados, k l, y no del valor
de k, o de l. Adems 2X(t) = RX(t, t) = RX(0, 0) = 2X, y
por tanto la varianza tambin es constante, si lo es la
autocovarianza en el sentido anterior.
EJEMPLO (Procesos armnicos)
Muy usados en procesamiento de seales de radar y sonar.
A U(1, 6), p = 1/6 y se define el proceso estocstico con fijo,
X(t) = Acos t.
Media del proceso mX(t) = E[X(t)] = E[Acos t] = costE[A] = cost (1 + 6)/2
= 3.5 cos t.
Varianza 2X(t) = Var[X(t)] = Var[Acos t] = cos2tVar[A]
= cos2t (12 + + 62)/2 3.52 = 2.917 cos2t.
Autocovarianza
RX(k, l) = Cov[Xk,Xl] = Cov[Acos k,A cos l] = cos k cos lCov[A,A]
= cosk cos lVar[A] = 2.917 cos k cos l.
La media y la varianza dependen de t, mientras que la autocovarianza depende de
k y de l.
Entonces X(t) no es estacionario en sentido dbil.
Es posible que 2X(t) = 0 cuando t = /2mod, ya que entonces cos2 t = 0, y en
ese caso X(t) es una constante igual a 0.

También podría gustarte