Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Procesos estocásticos
Introducción
Los sistemas de comunicaciones trabajan con señales, señales que dependen del tiempo,
a veces es posible caracterizar estas señales de forma determinista y en otras ocasiones
será preciso tratarlas como señales aleatorias: los ejemplos más claros son el ruido térmico
en cualquier dispositivo, o las propias señales de información, son señales que toman
valores aleatorios en cualquier tiempo dado y debido a eso deben ser descritas en términos
de probabilidades y promedios estadísticos. El modelo probabilístico usado para describir
señales aleatorias se denomina proceso estocástico (o aleatorio).
Definición
Consideremos un experimento aleatorio con salidas λ y espacio muestral S, si asignamos
a cada salida λ , de acuerdo con algún tipo de regla, una función del tiempo: x(t; λ ) .
La familia de todas estas funciones, designada por X(t; λ ) , se denomina proceso
estocástico. Para simplificar la notación, es práctica común suprimir la variable λ y
simplemente escribir X(t) en lugar de X(t; λ ) para denotar un proceso estocástico.
Usaremos la notación abreviada x(t) para representar una forma de onda especifica de un
proceso estocástico, designado por X(t) .
Página 2
c) Si X es continua y t solo toma valores discretos, se dice que X(t) es una secuencia
aleatoria continua
Procesos no deterministas
Un proceso es no determinista, si el futuro valor de cualquier función muestra no puede
predecirse de forma exacta observando los valores anteriores.
Nota:
En un proceso estocástico { X(t),t ∈ T} , el conjunto de índices T es llamado el conjunto
parametral del proceso estocástico. Los valores asumidos por X(t) son llamados estados y
Página 3
el conjunto de todos los posibles valores forma el espacio de estado E del proceso
estocástico.
Ejemplos
a)= X(t) A cos(2πf0 t + θ) , siendo A y f0 dos valores constantes y θ una variable aleatoria
uniforme en [0,2π > . Esta es una descripción analítica de un proceso aleatorio en tiempo
continuo que podría por ejemplo utilizarse para modelar la salida de un oscilador en un
sistema de comunicaciones (asignando a A y a f0 los valores de amplitud de tensión y la
frecuencia del oscilador, respectivamente).
b) X [n]= Aθ , siendo A un valor constante y θ una v.a. de Bernoulli con p = 0,5. Esta es
una descripción analítica de un proceso aleatorio en tiempo discreto que puede por ejemplo
utilizarse para representar estadísticamente la transmisión de una secuencia de bits
(haciendo la constante A = 1) con unos y ceros equiprobables.
Expresiones probabilísticas
Funciones de distribución y densidad de primer orden
Sea X(t) un proceso aleatorio, para un tiempo particular t1 , X(t1) = X1 , es una variable
aleatoria y su función de distribución está definida por:
Fx (x1;t1) = P ( X(t1) ≤ x1) , x1 ∈
Fx (x1;t1) se denomina función de distribución de primer orden.
La función de densidad de primer orden correspondiente es:
∂F (x ;t )
fx (x1;t1) = x 1 1
∂x1
Página 4
Funciones de distribución y densidad de segundo orden
Para dos variables aleatorias X(t1) = X1 y X(t 2 ) = X2 , la función de distribución conjunta de
segundo orden, está definida por: Fx (x1,x 2;t1,t 2 ) =P ( X(t1) ≤ x1, X(t 2 ) ≤ x 2 ) , x1,x 2 ∈
La función de densidad de segundo orden correspondiente es:
∂ 2Fx (x1,x 2 ;t1,t 2 )
fx (x1,x 2 ;t1,t 2 ) =
∂x1∂x 2
Función de distribución de orden N
Para n variables aleatorias = Xi x(t = i ),i 1,2,... ,N , la función de distribución conjunta de
orden N es:
Fx (x1,...,xN ; t1,...,tN ) =P {X(t1) ≤ x1, ... , X(tN ) ≤ xN}
La correspondiente función de densidad de orden N es
∂NFx (x1, ... ,xN;t1, ... ,tN )
fx (x1,...,xN;t1,...,tN ) =
∂x1... ∂xN
Independencia estadística
Dos procesos X(t) e Y(t) son estadísticamente independientes si el grupo de variables
aleatorias X(t1) , X(t 2 ) , … , X(tN ) es independiente del grupo Y(t′1) , Y(t′2 ) , … , Y(t′M )
para cualquier elección de instantes de tiempo t1,t 2 ,...,tN , t′1,t′2 ,...,t′M . La independencia
requiere que la función de densidad conjunta pueda factorizarse por grupos:
=
fXY (x1,...,xN ,y1,...,yM ;t1,...,tN ,t′1,...,t′M ) fx (x1,...,xN ;t1,...,tN ) fY (y1,...,yM ;t′1,...,t′M )
Página 5
Repaso de cálculo de la esperanza
Ejemplo
Calcular la media del proceso estocástico X(t)= A + t , si A U[0 ; π]
Solución
E [ X(t)=
] E[A + =
t ] E [ A ] + E [=
t] E[A ] + t
Cálculo de E [ A ]
∞
Se sabe: E [ X(t)] = ∫ x ⋅fX (x) ⋅ dx
−∞
π π 1 1 π2 − 0 π
E [ A ] = ∫ a ⋅fA (a) ⋅ da = ∫ a ⋅ ⋅ da = =
0 0 π π 2 2
π
E [ X(t)=] 2+t
Ejemplo
Calcular la media del proceso estocástico X(t) = At , si A U[0 ; 2π]
Solución
E [=
X(t)] E=
[ At ] E [ A ]=
E [ t ] tE [ A ]
Cálculo de E [ A ]
∞
Se sabe: E [ X(t)] = ∫ x ⋅fX (x) ⋅ dx
−∞
2π
2π 2π
1 1 a2 1 4 π2 − 0
E [ A ]= ∫ a ⋅fA (a) ⋅ da= ∫ a ⋅ ⋅ da= = = π
0 0 2π 2π 2 2π 2
0
E [ X(t)] = πt
Ejemplo
Calcular la media del proceso estocástico X(t) = cos(At) , si A U[0 ; π]
Solución
π π
1
E [=
X(t)] E [cos(At)
= ] ∫ cos(at) ⋅ fA (a)=
⋅ da ∫ cos(at) ⋅ π ⋅ da
0 0
1 π 1
= [ sen(at)]0 = ⋅ sen( πt)
πt πt
1
E [ X(t)] = ⋅ sen( πt)
πt
Ejemplo
= at + Y , con Y U[0 ; 1] , calcular
Sea X(t)
a) media b) autocorrelación c) autocovarianza d) varianza e) valor cuadrático medio
Página 6
Procesos estacionarios en sentido amplio (ESA o WSS = wide sense stationary)
En muchos problemas prácticos es deseable una forma más relajada de estacionariedad,
la forma más útil es el proceso estacionario en sentido amplio, definido como aquel que
cumple las dos condiciones siguientes:
a) E [ X(t)=
] X= constante
b) R XX (t1= ( τ) E [ X(t)X(t + τ)]
,t 2 ) R XX=
Nota:
1) Si hacemos t1 = t y t 2= t1 + τ , entonces: R XX= (t1;t 2 ) R XX (t,t + τ) y como tiene que
ser función solo de la diferencia de tiempos, escribimos:= R XX ( τ) E [ X(t)X(t + τ)] .
2) Todas las variables aleatorias producidas por un proceso estocástico estacionario en
sentido amplio tienen los mismos estadísticos de primer orden: E [ x ] , E x 2 , σ2x .
3) Un proceso estacionario de orden 2 es estacionario en sentido amplio, sin embargo, la
afirmación inversa no necesariamente es cierta.
Ejemplo
Sea X(t) =+
(A 1)cos t + Bsent , donde A y B son variables aleatorias independientes para
[ A ] E=
las cuales E= [B] 0 , mostrar que X(t) no es wss.
Solución
Cálculo de E [ X(t)]
E [ X(t)] =E [(A + 1)cos t + Bsent ] =E [(A + 1)cos t ] + E [Bsent ]
= cos t ⋅ E [(A + 1)] + sent ⋅ E [B] = cos t(1) + cos t E [ A ] + sent ⋅ E [B]
0 0
E [ X(t)] = cos t , X(t) no es wss, porque E [ X(t)] depende de t.
Ejemplo
=
Demostrar que el proceso aleatorio X (t ) A cos(ω0t + θ ) es WSS, A y ω0 son constantes y
θ es una variable aleatoria uniformemente distribuida en el intervalo [ 0; 2π ] .
Solución
a) Calculo de la esperanza
∞
=
E 0 t + θ)] AE [cos( ω0 t + θ)] , se sabe E [G (θ ) ] = ∫
[ X(t)] E [ A cos(ω= −∞
g (θ ) fθ (θ ) dθ
2π 2π
1 1
E [cos(ω0 t=
+ θ )] ∫ cos(ω0 t + θ) ⋅ = ⋅ dθ ∫ cos(ω0t + θ) ⋅ d(ω0t + θ)
2π 2π
0 0
1 2π 1 2π
= ∫
4π 0
cos(2ω0 t + ω0 τ + 2θ)d(2ω0 t + ω=
0 τ + 2θ)
4π
sen(2ω0 t + ω0 τ + 2θ) 0
1
= sen(2ω0 t + ω0 τ + 4π) − sen(2ω0 t=
+ ω0 τ) 0
4π
A2
=
Entonces R XX (t;t + τ) cos(ω0 τ) , solo depende de τ .
2
Por lo tanto, como E[X(t)] es constante y R xx solo depende de τ ,entonces X(t) es WSS.
Página 8
El símbolo 〈 ⋅〉 se usa para indicar promedio temporal, de forma similar a E [ ⋅ ] para el valor
medio estadístico. La función temporal de autocorrelación de una función muestra x(t), se
define como:
1 T
R=
XX ( τ) =
x(t) x(t + τ) lim ∫ x(t) x(t + τ)dt
T →∞ 2T −T
Para una función muestra del proceso X(t), estas dos integrales simplemente generan dos
números (para un valor fijo de τ ). Sin embargo, cuando se consideran todas las funciones
muestra, vemos que x y R XX ( τ) son realmente variables aleatorias.
Nota
E x(t) = X , E R XX ( τ=
) R XX ( τ)
Procesos ergódicos
Un proceso aleatorio X(t) es ergódico si los promedios temporales x y R XX ( τ) son iguales
a los promedios estadísticos X y R XX ( τ) .
=
Es decir x =
x(t) X , R XX= ( τ) R XX ( τ)
En un proceso ergódico, todos los estadísticos pueden ser obtenidos observando una sola
= X(t; λ ) del proceso ( λ fijo).
función muestra x(t)
Página 9
Nota
Dos procesos X(t) e Y(t) se dice que son ergódicos respecto a la correlación cruzada, si la
función de correlación cruzada temporal es igual a la función de correlación cruzada
estadística
Ejemplo
Dado el proceso aleatorio = X (t ) A cos(ω0t + θ ) , donde A y ω0 son constantes y
θ U [ −π ; π ] . Demostrar que X(t) es ergódico respecto a la media y a la autocorrelación.
Solución
1) X(t) es ergódico respecto a la media, si: E [ X (t )] =
〈 x (t )〉
Cálculo de 〈 x (t )〉
1 T 1 T
=〈 x (t )〉 lim = ∫
T →∞ 2T −T
x (t ) ⋅ dt lim
T →∞ 2T −T
∫ A cos(ω0t + θ ) ⋅ dt
A A
lim [sen(ω0t + θ )]−T
T T
lim ∫
T →∞ 2ω0T −T
cos(ω0t= + θ ) ⋅ d (ω0t + θ )
2ω0T T →∞
A 2π
lim [sen(ω0T + θ ) − sen( −ω0T + θ )] , se sabe T =
2ω0T T →∞ ω0
A A
= lim [sen(2π + θ ) − sen( −2π=
+ θ )] [senθ − sen
= θ] 0
2π T →∞ 4π
2ω0 ⋅
ω0
〈 x (t )〉 =0
Calculo de E [ X (t )]
∞
=
E [ X(t)] E [ A cos(ω=
0 t + θ)] AE [cos( ω0 t + θ)] , se sabe E [G (θ ) ] = ∫ −∞
g (θ ) fθ (θ ) dθ
π π
1 1
E [cos(ω0 t=
+ θ )] ∫ cos(ω0 t + θ) ⋅ = ⋅ dθ ∫ cos(ω0t + θ) ⋅ d(ω0t + θ)
2π 2π
−π −π
π
=[sen(ω0 t + θ)]−π =sen(ω0 t + π) − sen(ω0 t − π) =−sen(ω0 t) + sen(ω0 t) =0
E [ X(t)
= ] A(0)
= 0 , como E [ X(t)] =
〈 x(t)〉 , X(t) es ergódico respecto de la media.
2) X(t) es ergódico respecto a la autocorrelación si: Rxx (τ ) =
〈Rxx (τ )〉
Cálculo de Rxx (τ )
(t + τ )] E [ A cos(ω0t + θ ) ⋅ A cos(ω0t + θ )]
Rxx (τ ) E [ X (t ) X=
=
=
R XX (t;t + τ) E [ X(t)X(t
= + τ)] E A cos(ω0 t + θ)A cos(ω0 (t + τ) + θ)
= E A cos(ω0 t + θ)A cos(ω0 t + ω0= τ + θ) A E cos(ω0 t + θ)cos(ω0 t + ω0 τ + θ)
2
β α
1
Se sabe: cos α ⋅ = [cos(α − β) + cos(α + β)] , α = ω0t + ω0τ + θ , β = ω0t + θ
cos β
2
A2 A2 A2
= 2θ)
E cos( ω0 τ) + cos(2ω0 t + ω0 τ += cos(ω0 τ) + E cos(2ω0 t + ω0 τ + 2θ)
2 2 2
α−β α+β
Página 10
Cálculo de E cos(2ω0 t + ω0 τ + 2θ)
2π 1
E cos(2ω0 t + ω0=
τ + 2θ) ∫0 cos(2ω0 t + ω0 τ + 2θ)
2π
dθ
1 2π 1 2π
= ∫
4π 0
cos(2ω0 t + ω0 τ + 2θ)d(2ω0 t + ω=
0 τ + 2θ)
4π
sen(2ω0 t + ω0 τ + 2θ) 0
1
= sen(2ω0 t + ω0 τ + 4π) − sen(2ω0 t=+ ω0 τ) 0
4π
A2
=
Entonces R XX (t;t + τ) cos(ω0 τ)
2
Cálculo de 〈Rxx (τ )〉
1 T
〈Rxx (τ )〉 = 〈 x (t )x (t + τ )〉 = lim ∫ x(t )x(t + τ ).dt
T →∞ 2T −T
1 T 1 T
∫ ω θ ω τ θ ∫ cos(ω0t + θ )cos(ω0 (t + τ ) + θ )dt
2
lim A cos( 0 t + ) A =
cos( 0 ( t + ) + )dt A lim
T →∞ 2T −T T →∞ 2T −T
1 T
2
A lim ∫ cos(ω0τ ) + cos(2ω0t + ω0τ + 2θ ) dt
T →∞ 4T −T
α −β α +β
A2
lim ∫ cos(ω0τ )dt + ∫ cos(2ω0t + ω0τ + 2θ )dt
T T
4T T →∞ −T −T
A2 1 T 2π
lim cos(ω0τ ) [t ]−T +
4T T →∞
T
2ω0
[ sen(2ω0t + ω0τ + 2θ ]−T , T =
ω0
A2 1
lim 2T cos(ω0τ ) +
4T T →∞ 2ω0
[ sen(4π + ω0τ + 2θ ) − sen( −4π + ω0τ + 2θ )]
A2 A2
= lim [ 2T cos(ω0τ )] cos(ω0τ )
4T T →∞ 2
Como Rxx (τ ) = 〈Rxx (τ )〉 , X(t) es ergódico respecto de la autocorrelación
Página 11