Está en la página 1de 11

Curso: Procesos estocásticos (BMA12-M)

Procesos estocásticos
Introducción
Los sistemas de comunicaciones trabajan con señales, señales que dependen del tiempo,
a veces es posible caracterizar estas señales de forma determinista y en otras ocasiones
será preciso tratarlas como señales aleatorias: los ejemplos más claros son el ruido térmico
en cualquier dispositivo, o las propias señales de información, son señales que toman
valores aleatorios en cualquier tiempo dado y debido a eso deben ser descritas en términos
de probabilidades y promedios estadísticos. El modelo probabilístico usado para describir
señales aleatorias se denomina proceso estocástico (o aleatorio).

Definición
Consideremos un experimento aleatorio con salidas λ y espacio muestral S, si asignamos
a cada salida λ , de acuerdo con algún tipo de regla, una función del tiempo: x(t; λ ) .
La familia de todas estas funciones, designada por X(t; λ ) , se denomina proceso
estocástico. Para simplificar la notación, es práctica común suprimir la variable λ y
simplemente escribir X(t) en lugar de X(t; λ ) para denotar un proceso estocástico.
Usaremos la notación abreviada x(t) para representar una forma de onda especifica de un
proceso estocástico, designado por X(t) .

Figura 1: Proceso estocástico (o aleatorio): colección de funciones del


tiempo o de variables aleatorias.

Tomando como base la figura 1, debemos observar que:


a) Cuando t y λ son variables, X(t; λ ) representa una familia de funciones temporales, la
figura 1, ilustra unos pocos miembros de una familia. Cada función temporal miembro se
denomina función muestra o realización del proceso. La totalidad de todas las funciones
muestra es llamada un “ensemble” (colección, familia)

b) Cuando t es variable y λ se fija en un valor especifico (resultado), el proceso estocástico


representa una sola función temporal, es decir una función muestra o realización del
proceso.
Página 1
c) Cuando se fija t y λ se considera variable, el proceso estocástico representa una variable
aleatoria.
Por ejemplo, la variable aleatoria X(t1; λ ) =X(t1) se obtiene del proceso cuando se congela
el tiempo en el t1. A menudo, usamos la notación X1 para indicar la variable aleatoria
asociada con el proceso X(t) en el instante t1, como se ilustra en la figura 1.

d) Cuando t y λ toman valores fijos, el proceso estocástico represente un número real. En


la figura 1 seleccionaríamos una función concreta xi (t) y observaríamos un instante
temporal concreto t = t1 .

Clasificación de procesos estocásticos


Es recomendable clasificar los procesos estocásticos según las características de t y la
variable aleatoria X = X(t) en el instante t.
a) Si X es continua y t puede tomar valores en el conjunto de números reales ( t ∈  ),
entonces se dice que X(t) es un proceso estocástico continuo.

b) Si X toma valores discretos y t toma valores en el conjunto de números reales ( t ∈  ),


se dice que X(t) es un proceso aleatorio discreto.

Página 2
c) Si X es continua y t solo toma valores discretos, se dice que X(t) es una secuencia
aleatoria continua

d) Si X y t toman valores discretos, X(t) es una secuencia aleatoria discreta.

Un proceso aleatorio puede describirse por la forma de sus funciones muestra:


Procesos deterministas
Un proceso es determinista si pueden predecirse los valores futuros de cualquier función
muestra a partir de los valores anteriores.

Procesos no deterministas
Un proceso es no determinista, si el futuro valor de cualquier función muestra no puede
predecirse de forma exacta observando los valores anteriores.
Nota:
En un proceso estocástico { X(t),t ∈ T} , el conjunto de índices T es llamado el conjunto
parametral del proceso estocástico. Los valores asumidos por X(t) son llamados estados y

Página 3
el conjunto de todos los posibles valores forma el espacio de estado E del proceso
estocástico.

Descripción de un proceso estocástico


Un proceso estocástico se puede describir mediante dos tipos de descripciones:
a) Analítica
b) Estadística
La descripción analítica utiliza una expresión analítica compacta de la transformación,
donde por un lado aparece la dependencia temporal, y por otro la dependencia con un
conjunto de variables aleatorias θ :
= f(t, θ)
X(t)
El vector θ= {θ1 , θ2 , ... , θn} es un vector de variables aleatorias que modifica algún
parámetro de la función f( , ).
La descripción analítica incluye la expresión analítica involucrando índice temporal y
variables aleatorias, y la descripción estadística de las variables aleatorias involucradas
(variables incluidas en θ ).

Ejemplos
a)= X(t) A cos(2πf0 t + θ) , siendo A y f0 dos valores constantes y θ una variable aleatoria
uniforme en [0,2π > . Esta es una descripción analítica de un proceso aleatorio en tiempo
continuo que podría por ejemplo utilizarse para modelar la salida de un oscilador en un
sistema de comunicaciones (asignando a A y a f0 los valores de amplitud de tensión y la
frecuencia del oscilador, respectivamente).
b) X [n]= Aθ , siendo A un valor constante y θ una v.a. de Bernoulli con p = 0,5. Esta es
una descripción analítica de un proceso aleatorio en tiempo discreto que puede por ejemplo
utilizarse para representar estadísticamente la transmisión de una secuencia de bits
(haciendo la constante A = 1) con unos y ceros equiprobables.

Descripción estadística completa


Una descripción estadística completa de un proceso aleatorio X(t) consiste en conocer para
cualquier conjunto de n instantes de tiempo {t1,t 2 ,..,tn } , para cualquier valor de n, la
función densidad de probabilidad conjunta de las n variables aleatorias resultantes de
evaluar el proceso aleatorio en los n instantes de tiempo especificados,
{X(t1), X(t2 ),..., X(tn )} .
fX(t ), X(t ),..., X(t ) ( x1,x 2 ,...,xn )
1 2 n

Expresiones probabilísticas
Funciones de distribución y densidad de primer orden
Sea X(t) un proceso aleatorio, para un tiempo particular t1 , X(t1) = X1 , es una variable
aleatoria y su función de distribución está definida por:
Fx (x1;t1) = P ( X(t1) ≤ x1) , x1 ∈ 
Fx (x1;t1) se denomina función de distribución de primer orden.
La función de densidad de primer orden correspondiente es:
∂F (x ;t )
fx (x1;t1) = x 1 1
∂x1

Página 4
Funciones de distribución y densidad de segundo orden
Para dos variables aleatorias X(t1) = X1 y X(t 2 ) = X2 , la función de distribución conjunta de
segundo orden, está definida por: Fx (x1,x 2;t1,t 2 ) =P ( X(t1) ≤ x1, X(t 2 ) ≤ x 2 ) , x1,x 2 ∈ 
La función de densidad de segundo orden correspondiente es:
∂ 2Fx (x1,x 2 ;t1,t 2 )
fx (x1,x 2 ;t1,t 2 ) =
∂x1∂x 2
Función de distribución de orden N
Para n variables aleatorias = Xi x(t = i ),i 1,2,... ,N , la función de distribución conjunta de
orden N es:
Fx (x1,...,xN ; t1,...,tN ) =P {X(t1) ≤ x1, ... , X(tN ) ≤ xN}
La correspondiente función de densidad de orden N es
∂NFx (x1, ... ,xN;t1, ... ,tN )
fx (x1,...,xN;t1,...,tN ) =
∂x1... ∂xN
Independencia estadística
Dos procesos X(t) e Y(t) son estadísticamente independientes si el grupo de variables
aleatorias X(t1) , X(t 2 ) , … , X(tN ) es independiente del grupo Y(t′1) , Y(t′2 ) , … , Y(t′M )
para cualquier elección de instantes de tiempo t1,t 2 ,...,tN , t′1,t′2 ,...,t′M . La independencia
requiere que la función de densidad conjunta pueda factorizarse por grupos:
=
fXY (x1,...,xN ,y1,...,yM ;t1,...,tN ,t′1,...,t′M ) fx (x1,...,xN ;t1,...,tN ) fY (y1,...,yM ;t′1,...,t′M )

Procesos estocásticos estacionarios


Un proceso estocástico se dice que es estacionario si todas sus propiedades estadísticas
no cambian con el tiempo.

Procesos estacionarios de primer orden


Un proceso aleatorio es estacionario de orden uno si su función de densidad de primer
orden no cambia al desplazar el origen de tiempos.
fX=(x;t) fX (x;t + ∆t) , ∀t , ∀∆t
La relación anterior implica que :
a) fX (x;t) es independiente de t: fX (x;t) = fX (x) , es decir sus funciones de probabilidad
Fdp y fdp de orden uno no dependen de t
b) El valor medio del proceso aleatorio es una constante
E [ X(t)=
] X= constante
Procesos estacionarios de segundo orden
Un proceso aleatorio es estacionario de segundo orden si su función de densidad de
segundo orden no cambia al desplazar el origen de tiempos.
fX (x1=
,x 2 ;t1,t 2 ) fX (x1,x 2 ;t1 + ∆t,t 2 + ∆t) , ∀t , ∀∆t
Si hacemos ∆t =−t1 y τ= t 2 − t1
fX (x1,x 2 ;t=
1,t 2 ) fX (x1,x 2 ;0,t 2=
− t1) fX (x1,x 2 ; τ)
La relación anterior implica que:
a) La fdp y Fdp de orden dos no depende de los tiempos absolutos t1 y t 2 sino solamente
de la diferencia τ= t 2 − t1 .
b) Un proceso estacionario de orden 2 es también es estacionario de orden uno.

Página 5
Repaso de cálculo de la esperanza

Ejemplo
Calcular la media del proceso estocástico X(t)= A + t , si A  U[0 ; π]
Solución
E [ X(t)=
] E[A + =
t ] E [ A ] + E [=
t] E[A ] + t
Cálculo de E [ A ]

Se sabe: E [ X(t)] = ∫ x ⋅fX (x) ⋅ dx
−∞
π π 1 1  π2 − 0  π
E [ A ] = ∫ a ⋅fA (a) ⋅ da = ∫ a ⋅ ⋅ da =  =
0 0 π π  2  2
π
E [ X(t)=] 2+t

Ejemplo
Calcular la media del proceso estocástico X(t) = At , si A  U[0 ; 2π]
Solución
E [=
X(t)] E=
[ At ] E [ A ]=
E [ t ] tE [ A ]
Cálculo de E [ A ]

Se sabe: E [ X(t)] = ∫ x ⋅fX (x) ⋅ dx
−∞

2π 2π
1 1  a2  1  4 π2 − 0 
E [ A ]= ∫ a ⋅fA (a) ⋅ da= ∫ a ⋅ ⋅ da=   =  = π
0 0 2π 2π  2  2π  2 
0
E [ X(t)] = πt

Ejemplo
Calcular la media del proceso estocástico X(t) = cos(At) , si A  U[0 ; π]
Solución
π π
1
E [=
X(t)] E [cos(At)
= ] ∫ cos(at) ⋅ fA (a)=
⋅ da ∫ cos(at) ⋅ π ⋅ da
0 0
1 π 1
= [ sen(at)]0 = ⋅ sen( πt)
πt πt
1
E [ X(t)] = ⋅ sen( πt)
πt

Ejemplo
= at + Y , con Y  U[0 ; 1] , calcular
Sea X(t)
a) media b) autocorrelación c) autocovarianza d) varianza e) valor cuadrático medio

Página 6
Procesos estacionarios en sentido amplio (ESA o WSS = wide sense stationary)
En muchos problemas prácticos es deseable una forma más relajada de estacionariedad,
la forma más útil es el proceso estacionario en sentido amplio, definido como aquel que
cumple las dos condiciones siguientes:
a) E [ X(t)=
] X= constante
b) R XX (t1= ( τ) E [ X(t)X(t + τ)]
,t 2 ) R XX=
Nota:
1) Si hacemos t1 = t y t 2= t1 + τ , entonces: R XX= (t1;t 2 ) R XX (t,t + τ) y como tiene que
ser función solo de la diferencia de tiempos, escribimos:= R XX ( τ) E [ X(t)X(t + τ)] .
2) Todas las variables aleatorias producidas por un proceso estocástico estacionario en
sentido amplio tienen los mismos estadísticos de primer orden: E [ x ] , E  x 2  , σ2x .
 
3) Un proceso estacionario de orden 2 es estacionario en sentido amplio, sin embargo, la
afirmación inversa no necesariamente es cierta.

Ejemplo
Sea X(t) =+
(A 1)cos t + Bsent , donde A y B son variables aleatorias independientes para
[ A ] E=
las cuales E= [B] 0 , mostrar que X(t) no es wss.
Solución
Cálculo de E [ X(t)]
E [ X(t)] =E [(A + 1)cos t + Bsent ] =E [(A + 1)cos t ] + E [Bsent ]
= cos t ⋅ E [(A + 1)] + sent ⋅ E [B] = cos t(1) + cos t E [ A ] + sent ⋅ E [B]
 
0 0
E [ X(t)] = cos t , X(t) no es wss, porque E [ X(t)] depende de t.
Ejemplo
=
Demostrar que el proceso aleatorio X (t ) A cos(ω0t + θ ) es WSS, A y ω0 son constantes y
θ es una variable aleatoria uniformemente distribuida en el intervalo [ 0; 2π ] .
Solución
a) Calculo de la esperanza

=
E 0 t + θ)] AE [cos( ω0 t + θ)] , se sabe E [G (θ ) ] = ∫
[ X(t)] E [ A cos(ω= −∞
g (θ ) fθ (θ ) dθ
2π 2π
1 1
E [cos(ω0 t=
+ θ )] ∫ cos(ω0 t + θ) ⋅ = ⋅ dθ ∫ cos(ω0t + θ) ⋅ d(ω0t + θ)
2π 2π
0 0

= [sen(ω0 t + θ)]02π= sen(ω0 t + 2π) − sen(ω0 t)= sen(ω0 t) − sen(ω0 t)= 0


E [ X(t)
= ] A(0)
= 0 , E [ X(t)] es constante
b) Calculo de la autocorrelación
=
R XX (t;t + τ) E [ X(t)X(t
= + τ)] E A cos(ω0 t + θ)A cos(ω0 (t + τ) + θ)
 
τ + θ) A 2E cos(ω0 t + θ)cos(ω0 t + ω0 τ + θ)
= E A cos(ω0 t + θ)A cos(ω0 t + ω0=

   
 β α 
Página 7
1
Se sabe: cos α ⋅ =
cos β[cos(α − β) + cos(α + β)] , α = ω0t + ω0τ + θ , β = ω0t + θ
2
 
A2  A2 A2
= 2θ)
E cos( ω0 τ) + cos(2ω0 t + ω0 τ += cos(ω0 τ) + E cos(2ω0 t + ω0 τ + 2θ)
2   2 2 
 α−β α+β 
Cálculo de E cos(2ω0 t + ω0 τ + 2θ)
2π 1
E cos(2ω0 t + ω0=
τ + 2θ) ∫0 cos(2ω0 t + ω0 τ + 2θ)

1 2π 1 2π
= ∫
4π 0
cos(2ω0 t + ω0 τ + 2θ)d(2ω0 t + ω=
0 τ + 2θ)

sen(2ω0 t + ω0 τ + 2θ) 0

1
= sen(2ω0 t + ω0 τ + 4π) − sen(2ω0 t=
+ ω0 τ) 0
4π 
A2
=
Entonces R XX (t;t + τ) cos(ω0 τ) , solo depende de τ .
2
Por lo tanto, como E[X(t)] es constante y R xx solo depende de τ ,entonces X(t) es WSS.

Procesos aleatorios conjuntamente estacionarios


Dos procesos aleatorios X(t) e Y(t) se dice que son estacionarios conjuntamente en sentido
amplio, si:
a) X(t) e Y(t) son estacionarios en sentido amplio por separado
b) La función de correlación cruzada es una función solo de la diferencia de tiempos
τ= t 2 − t1 y no del tiempo absoluto, es decir, si
+ τ) E [ X(t)Y(t +=
R XY (t;t = τ)] R XY ( τ)
Estacionariedad de orden N
Para N variables aleatorias = Xi X(t= i ) , i 1,2...,N , decimos que un proceso aleatorio es
estacionario de orden N, si su función de densidad de orden N no varía al desplazar el
origen de tiempos.
=
fX (x1,...,xN ;t1,...,tN ) fX (x1,...,xN ;t1 + ∆ ,...,tN + ∆ ) , ∀t , ∀∆
La estacionariedad de orden N implica la estacionariedad de todos los órdenes k ≤ N .

Proceso estocástico estacionario en sentido estricto


Un proceso estocástico es estacionario en sentido estricto, si es estacionario para todos los
órdenes N = 1,2,... .
Promedios temporales
En muchos casos, solo disponemos de una realización del proceso aleatorio y no con todas
las realizaciones(ensemble), por este motivo, tendremos que inferir ciertas propiedades
estadísticas del proceso aleatorio a partir de una única realización (es decir un único
miembro del ensemble).
El promedio temporal de una función muestra x(t) de un proceso aleatorio X(t), se define
1 T
como: =x = x(t) lim ∫ x(t)dt
T →∞ 2T −T

Página 8
El símbolo 〈 ⋅〉 se usa para indicar promedio temporal, de forma similar a E [ ⋅ ] para el valor
medio estadístico. La función temporal de autocorrelación de una función muestra x(t), se
define como:
1 T
R=
XX ( τ) =
x(t) x(t + τ) lim ∫ x(t) x(t + τ)dt
T →∞ 2T −T
Para una función muestra del proceso X(t), estas dos integrales simplemente generan dos
números (para un valor fijo de τ ). Sin embargo, cuando se consideran todas las funciones
muestra, vemos que x y R XX ( τ) son realmente variables aleatorias.
Nota
E  x(t)  = X , E R XX ( τ=
) R XX ( τ)

Procesos ergódicos
Un proceso aleatorio X(t) es ergódico si los promedios temporales x y R XX ( τ) son iguales
a los promedios estadísticos X y R XX ( τ) .
=
Es decir x =
x(t) X , R XX= ( τ) R XX ( τ)
En un proceso ergódico, todos los estadísticos pueden ser obtenidos observando una sola
= X(t; λ ) del proceso ( λ fijo).
función muestra x(t)

Procesos ergódicos respecto a la media


Un proceso X(t) con un valor medio constante X se dice que es un proceso ergodico
respecto a la media, si su promedio estadístico X es igual al promedio temporal x de
cualquier función muestra x(t) con probabilidad i, para todas las funciones muestra, es decir:
E [ X(t)=
] X= x(t)= x
con probabilidad 1 para todo x(t)

Condiciones para que X(t) (WSS) sea ergódico respecto a la media


Teorema 1: Condición necesaria y suficiente
1 2T  τ 
lim ∫ 
T →∞ 2T −2T 
1−  C XX ( τ)dτ) =0
2T 
Teorema 2: Condición suficiente

∫−∞ CXX (τ) dτ < ∞
Teorema 3: Condición suficiente

C XX (0) < ∞ , lim C XX ( τ) =0


τ →∞
Procesos ergódicos respecto a la correlación
Un proceso estacionario continuo X(t) con una función de autocorrelación R XX ( τ) se dice
que es ergódico respecto a la correlación si y solo si , para todo τ .
1 T
lim ∫ X(t) X(t + τ=
T →∞ 2T −T
)dt R XX ( τ)

Página 9
Nota
Dos procesos X(t) e Y(t) se dice que son ergódicos respecto a la correlación cruzada, si la
función de correlación cruzada temporal es igual a la función de correlación cruzada
estadística
Ejemplo
Dado el proceso aleatorio = X (t ) A cos(ω0t + θ ) , donde A y ω0 son constantes y
θ  U [ −π ; π ] . Demostrar que X(t) es ergódico respecto a la media y a la autocorrelación.
Solución
1) X(t) es ergódico respecto a la media, si: E [ X (t )] =
〈 x (t )〉
Cálculo de 〈 x (t )〉
1 T 1 T
=〈 x (t )〉 lim = ∫
T →∞ 2T −T
x (t ) ⋅ dt lim
T →∞ 2T −T
∫ A cos(ω0t + θ ) ⋅ dt
A A
lim [sen(ω0t + θ )]−T
T T
lim ∫
T →∞ 2ω0T −T
cos(ω0t= + θ ) ⋅ d (ω0t + θ )
2ω0T T →∞
A 2π
lim [sen(ω0T + θ ) − sen( −ω0T + θ )] , se sabe T =
2ω0T T →∞ ω0
A A
= lim [sen(2π + θ ) − sen( −2π=
+ θ )] [senθ − sen
= θ] 0
2π T →∞ 4π
2ω0 ⋅
ω0
〈 x (t )〉 =0
Calculo de E [ X (t )]

=
E [ X(t)] E [ A cos(ω=
0 t + θ)] AE [cos( ω0 t + θ)] , se sabe E [G (θ ) ] = ∫ −∞
g (θ ) fθ (θ ) dθ
π π
1 1
E [cos(ω0 t=
+ θ )] ∫ cos(ω0 t + θ) ⋅ = ⋅ dθ ∫ cos(ω0t + θ) ⋅ d(ω0t + θ)
2π 2π
−π −π
π
=[sen(ω0 t + θ)]−π =sen(ω0 t + π) − sen(ω0 t − π) =−sen(ω0 t) + sen(ω0 t) =0
E [ X(t)
= ] A(0)
= 0 , como E [ X(t)] =
〈 x(t)〉 , X(t) es ergódico respecto de la media.
2) X(t) es ergódico respecto a la autocorrelación si: Rxx (τ ) =
〈Rxx (τ )〉
Cálculo de Rxx (τ )
(t + τ )] E [ A cos(ω0t + θ ) ⋅ A cos(ω0t + θ )]
Rxx (τ ) E [ X (t ) X=
=
=
R XX (t;t + τ) E [ X(t)X(t
= + τ)] E A cos(ω0 t + θ)A cos(ω0 (t + τ) + θ)
 
= E A cos(ω0 t + θ)A cos(ω0 t + ω0= τ + θ) A E cos(ω0 t + θ)cos(ω0 t + ω0 τ + θ)
2 

   
 β α 
1
Se sabe: cos α ⋅ = [cos(α − β) + cos(α + β)] , α = ω0t + ω0τ + θ , β = ω0t + θ
cos β
2
 
A2  A2 A2
= 2θ)
E cos( ω0 τ) + cos(2ω0 t + ω0 τ += cos(ω0 τ) + E cos(2ω0 t + ω0 τ + 2θ)
2   2 2 
 α−β α+β 

Página 10
Cálculo de E cos(2ω0 t + ω0 τ + 2θ)
2π 1
E cos(2ω0 t + ω0=
τ + 2θ) ∫0 cos(2ω0 t + ω0 τ + 2θ)


1 2π 1 2π
= ∫
4π 0
cos(2ω0 t + ω0 τ + 2θ)d(2ω0 t + ω=
0 τ + 2θ)

sen(2ω0 t + ω0 τ + 2θ) 0
1
= sen(2ω0 t + ω0 τ + 4π) − sen(2ω0 t=+ ω0 τ) 0
4π 
A2
=
Entonces R XX (t;t + τ) cos(ω0 τ)
2
Cálculo de 〈Rxx (τ )〉
1 T
〈Rxx (τ )〉 = 〈 x (t )x (t + τ )〉 = lim ∫ x(t )x(t + τ ).dt
T →∞ 2T −T
1 T 1 T
∫ ω θ ω τ θ ∫ cos(ω0t + θ )cos(ω0 (t + τ ) + θ )dt
2
lim A cos( 0 t + ) A =
cos( 0 ( t + ) + )dt A lim
T →∞ 2T −T T →∞ 2T −T
 
1 T 
2
A lim ∫ cos(ω0τ ) + cos(2ω0t + ω0τ + 2θ ) dt
T →∞ 4T −T   
 α −β α +β 
A2
lim  ∫ cos(ω0τ )dt + ∫ cos(2ω0t + ω0τ + 2θ )dt 
T T
4T T →∞  −T −T 
A2  1 T  2π
lim cos(ω0τ ) [t ]−T +
4T T →∞ 
T
2ω0
[ sen(2ω0t + ω0τ + 2θ ]−T  , T =
ω0

A2  1 
lim 2T cos(ω0τ ) +
4T T →∞  2ω0
[ sen(4π + ω0τ + 2θ ) − sen( −4π + ω0τ + 2θ )]

A2 A2
= lim [ 2T cos(ω0τ )] cos(ω0τ )
4T T →∞ 2
Como Rxx (τ ) = 〈Rxx (τ )〉 , X(t) es ergódico respecto de la autocorrelación

Página 11

También podría gustarte