Procesos Aleatorios en Ingeniería Eléctrica
Procesos Aleatorios en Ingeniería Eléctrica
p x1 , x2 ,K, x k ( x1 , x 2 , K , x k ) = P[ X 1 = x1 , X 2 = x 2 , K X k = x k ] (6.2)
Si el proceso estocástico está evaluado en valores continuos, la colección de pdf puede ser
usada en lugar de:
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-1-
f x1 ,K, xk ( x1 , x 2 ,K , x k ) (6.3)
Un proceso aleatorio x(t) se dice que tiene incrementos independientes si para cualquier k y
para cualquier elección de instantes de muestreo t1 < t2 < ......< tk las variables aleatorias X(t2 )
- X( t1 ), X(t3 ) - X(t2), ........., X(tk ) - X(tk-1 ), son variables aleatorias independientes.
Un proceso aleatorio X(t) se dice que es de Markov si el futuro del proceso dado el
presente es independiente del pasado, esto es, para cualquier k y cualquier elección del
instante de muestreo t1 < t2 < ......< tk y para cualquier x1, x2 , ...,xk .
f x ( t k ) ( x k / X (t k −1 ) = x k −1 ,K , X (t1 ) = x1 ) = f x ( t k ) ( x k / X (t k −1 ) = x k −1 )
si x(t) es continuo, y
P[ X ( t k ) = x k / X ( t k −1 ) = x k −1 , K , X ( t1 ) = x1 ] = P[ X ( t k ) = x k / X ( t k −1 ) = x k −1 ]
si X(t) es discreto.
Es fácil mostrar que un proceso aleatorio que tiene incrementos independientes, es
también un proceso de Markov; la inversa no se cumple, es decir, la propiedad de Markov no
implica incrementos independientes.
mx (t ) = E[ X (t )] = ∫ xf x (t ) ( x )dx , (6.4)
−∞
donde fx(t)(x) es la pdf de x(t). Generalmente mx(t) es una función del tiempo. La tendencia en
el comportamiento de X(t) se refleja en la variación con el tiempo mx(t).
La autocorrelación Rx(t1, t2) de un proceso X(t), está formada por el momento conjunto
de X(t1) y X(t2):
∞ ∞
Cx (t1 , t 2 )
ρ x (t 1 , t 2 ) = (6.9)
C x (t1 , t1 ) C x (t 2 , t 2 )
donde tenemos que |ρx(t1, t2)| ≤ 1. Recordemos que el coeficiente de correlación es una medida
de cuanto se puede predecir de una variable aleatoria, como función lineal de otra.
La media, la autocorrelación y la autocovariancia son sólo descripciones parciales de
un proceso aleatorio. Por lo tanto, es posible que dos procesos aleatorios bastante diferentes
tengan las mismas funciones media, autocorrelación y autocovariancia.
Ejemplo:
Sea X(t) = cos(wt + θ), donde θ está uniformemente distribuido en el intervalo (-π, π). La
media de X(t) es:
π
∫ cos( wt + θ )dθ
1
mx (t ) = E[cos( wt + θ )] = =0
2π −π
1
C x (t1 , t 2 ) = cos( w( t 1 − t 2 )),
2
K −1 ( x − m )
e −1/ 2 ( x − m)
T
f X 1 , X 2 ,..., X k ( x1 , K , x k ) = (6.10)
(2π ) k / 2 K
1/ 2
donde
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-3-
C x (t 1 , t1 ) C x (t 1 , t 2 ) K C x (t1 , t k )
mx ( t1 ) C (t , t ) C (t , t )
K Cx (t 2 , t k )
m= M K =
x 2 1 x 2 2
(6.11)
M M O M
mx (t k ) C (t , t )
x k 1 K K C x (t k , t k )
Por lo tanto, un proceso aleatorio Gaussiano tiene la propiedad especial que sus pdf’s
conjuntas están completamente especificadas por la media del proceso mx(t) y por la función
de covarianza Cx(t1, t2).
Más adelante se verá que el proceso Gaussiano tiene, también, la propiedad que
operaciones lineales aplicadas a un proceso Gaussiano resulta en otro proceso aleatorio
Gaussiano. Estas dos propiedades, combinadas con el hecho que muchos procesos de señales
y ruidos se modelan correctamente como Gaussianos, hacen a estos procesos el modelo mas
útil en procesamiento de señales.
Ejemplo
Supongamos que el proceso aleatorio de tiempo discreto Xn es una secuencia de variables
aleatorias Gaussianas independientes con media m y varianza σ2.
La matriz de covarianza para los tiempos t1, ..., tk es
{C X (t 1 , t j )} = {σ 2δ ij } = σ 2 I ,
k
exp− ∑ ( xi − m) 2 / 2σ 2 = f X ( x1 )K f X ( x k )
1
f X 1 ,K, X k ( x1 , x 2 ,K , x k ) =
( 2πσ 2 ) k / 2 i =1
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-4-
C XY (t1 , t 2 ) = E[{ X (t 1 ) − m X (t 1 )}{Y (t 2 ) − mY (t 2 )}]
(6.14)
C XY (t1 , t 2 ) = R XY (t 1 , t 2 ) − m X (t 1 )mY (t 2 )
Ejemplo
Supongamos que se observa un proceso Y(t), que está compuesta por una señal buscada X(t)
mas un señal de ruido N(t):
Encontrar la correlación cruzada entre la señal observada y la señal buscada, asumiendo que
X(t) y N(t) son procesos aleatorios independientes.
De la ecuación (6.12) tenemos
donde la tercer igualdad sigue del hecho que X(t) y N(t) son independientes.
6.3 EJEMPLOS DE PROCESOS ALEATORIOS DE TIEMPO DISCRETO
- Procesos aleatorios independientes idénticamente distribuidos (iid)
Sea xn un proceso aleatorio de tiempo discreto consistiendo de una secuencia de variables
aleatorias iid con la misma cdf Fx (x), media m, y varianza σ2 . La secuencia Xn se denomina
proceso aleatorio iid . La cdf conjunta para cualquier instante de tiempo n1 , n2 ,......,nk está
dado por
Fx1 ,K xk ( x1 , x 2 ,K , x k ) = P[ X 1 ≤ x1 , X 2 ≤ x 2 , K , X k ≤ x k ]
(6.16)
= Fx ( x1 ). Fx ( x 2 ) .K Fx ( x k )
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-5-
C X (n1 , n2 ) = E[( X n − m) 2 ] = σ 2 .
Sn = X1 + X2+.......+Xn n = 1,2,......
= Sn-1 + Xn (6.20)
Xn + Sn = Sn-1 + Xn
Sn-1D
donde S0 = 0. Llamamos a Sn el proceso suma. La pdf o pmf de Sn se encuentra usando la
convolución o la ecuación característica.
El proceso suma Sn tiene incrementos independientes en intervalos de tiempo que no
se solapan. Para verlo, considere dos intervalos de tiempo : n0 < n ≤ n1 , y
n2 < n ≤ n3 , donde n1 ≤ n2 .
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-6-
P[Sn1 = y1, Sn2 = y2, Sn3 = y3]
= P[Sn1 = y1, Sn2 - Sn1 = y2 - y1, Sn3 - Sn2 = y3 - y2] (6.23)
puesto que el proceso es igual a y1, y2, y3 en los tiempos n1, n2 y n3, si y sólo si, es igual a y1
en el tiempo n1, y los incrementos subsecuentes son y2 - y1, e y3 - y2. La propiedad de los
incrementos independientes implica que
Claramente, podemos usar este procedimiento para escribir la pmf conjunta de Sn, en
cualquier instante de tiempo n1 < n2 < ... < nk, en términos de la pmf en el instante de tiempo
inicial y las pmf’s de los incrementos subsecuentes:
Si las Xn son variables aleatorias de tiempo continuo, entonces se puede demostrar que
la densidad conjunta de Sn en los tiempos n1, n2, ..., nk es
fSn1, Sn2, ... , Snk (y1, y2, ..., yk) = fSn1 (y1) f S(n2-n1)(y2 - y1) ... f Snk- nk-1 (yk - yk-1) (6.26)
La autocovariancia de Sn es :
n k
= E ∑ ( X i − m) ∑ ( X j − m)
i =1 j =1
∑ ∑ E [( X (
− m) X j − m . )]
n k
= i
i =1 j =1
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-7-
El término dentro de la sumatoria es la autocovariancia Cx(i,j) del proceso iid Xn .
Como vimos en la ecuación (6.18) que Cx(i,j) es igual a σ2 cuando i = j y cero para otro valor.
De esta manera todos menos los términos de i = j en la sumatoria doble son cero, y la
autocovariancia del proceso suma es
min ( n , k )
CS( n, k) = ∑C x (i , j ) = min(n, k ).σ 2 (6.29)
i =1
= E[(Sn - n.m)2]
- Proceso Poisson
Consideremos una situación en la cual, ocurren ciertos eventos en instantes de tiempo
aleatorios con una velocidad promedio de λ eventos por segundo. Por ejemplo, un evento
podría representar la llegada de un cliente a una estación de servicio, o la avería de un
componente en algún sistema. Tomamos N(t) como el número de eventos ocurridos en un
intervalo de tiempo [0, t]. N(t) es un proceso aleatorio no decreciente, evaluado en números
enteros y de tiempo continuo.
N(t) ↑
4 -
3-
2-
1-
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-8-
S1 S2 S3 S4 S5 t
La primer consideración implica que los sucesos en dicho subintervalo puede ser visto
como una prueba Bernoulli. La segunda implica que las pruebas Bernoulli son independientes.
De esta forma las consideraciones (1) y (2) juntas implican que el proceso de conteo N(t)
puede ser aproximado por el modelo binomial, que cuenta el número de éxitos en las n
pruebas Bernoulli.
Si la probabilidad de ocurrencia en cada subintervalo es p , entonces el valor esperado
de eventos ocurridos en el intervalo [0, t] es n.p . Como los eventos ocurren con una velocidad
de λ eventos por segundo, el promedio de eventos en el intervalo
[0, t] es también λt. De esta manera, debemos tener que
λt = n.p
Si ahora hacemos n→ ∞ ( esto es δ→ 0) y p→ 0 como λt = n.p, entonces el modelo binomial
se aproxima a la distribución Poisson con parámetro λt . Por lo tanto, concluimos, que el
número de eventos ocurridos en el intervalo [0, t] tiene una distribución Poisson con media
λt :
( λ t ) k − λ. t
P[ N (t ) = k ] = ⋅e para k: 0,1..... (6.30)
k!
por esta razón a N(t) se lo denomina proceso Poisson. La distribución para el número de
eventos ocurridos en el intervalo de longitud t está dado por la ec. (6.30). Las propiedades de
los incrementos independientes y estacionarios, nos permite escribir la pmf conjunta para N(t).
Por ejemplo, para t1< t2
= P[N(t1) = i ]. P[N(t2-t1) = j - i ]
− λ. t − λ( t 2 − t 1)
( λ. t 1 ) i . e 1
( λ.(t 2 − t1 )) j −i . e
= ⋅ (6.31 a)
i! ( j − i )!
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-9-
= E[( N(t1) - λ t1){ ( N(t2) - N(t1) - λ t2 + λ t1 +( N(t1) - λ t1)}]
= VAR [N(t1)] = λ t1
λ. t n
= ( 1 - p )n = ( 1− )
n
Sn = T1 + T2 + ... + Tn
La suma de n variables aleatorias exponenciales e iid, tiene una distribución de Erlang. Por lo
tanto, la pdf de Sn es
( λ . y) n-1
f Sn (y) = λ . e − λy y≥0 (6.33)
(n − 1)!
Supongamos que se nos dice que sólo ocurre una llegada en un intervalo de tiempo
[0, t] , y sea X el tiempo de llegada de un cliente. Para 0 < x > t , sea N(x) el número de
eventos hasta el tiempo x, y sea N(t) - N(x) el incremento en el intervalo (x, t] , entonces
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-10-
P[ N(x) = 1 y N(t) = 1]
=
P [ N(t) = 1]
x
= (6.34)
t
La ecuación (6.34) implica, que dado que ocurrió un arribo en el intervalo de tiempo
[0, t], entonces el tiempo de arribo del cliente está uniformemente distribuido en el intervalo
de tiempo [0, t].Es en este sentido que el tiempo de arribo de un cliente ocurre
“aleatoriamente”. Puede ser demostrado que si el número de arribos en el intervalo [0, t] es k,
entonces los tiempos de arribos individuales están independiente y uniformemente
distribuidos en el intervalo.
Ejemplo:
Supongamos que dos clientes entran a un negocio durante un período de dos minutos.
Encontrar la probabilidad que ambos clientes lleguen durante el primer minuto.
Los tiempos de arribo de los clientes están distribuidos independiente y uniformemente
en el intervalo de dos minutos. Cada cliente llega durante el primer minuto con probabilidad
1/2. Por lo tanto, la probabilidad de que ambos lleguen en el primer minuto es (1/2)2 = 1/4.
Esta respuesta se puede verificar mostrando que
P[N(1) = 2 | N(2) = 2] = 1/4.
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-11-
La pmf de X(t) está dada por
Las pmf’s condicionales se encuentran advirtiendo que X(t) tendrá la misma polaridad que
X(0) solo cuando ocurran un número par de eventos en el intervalo (o, t]. Por lo tanto
1 αt
= e − αt {e + e −αt }
2
1
= {1 + e −2αt } (6.36)
2
∞ (α t ) 2j+1
11 11 1
P[ X (t ) = 1] = {1 + e −2αt } + {1 − e −2αt } =
22 22 2
1
P[ X (t ) = −1] = 1 − P[ X (t ) = 1] = (6.38)
2
Por lo tanto, la señal telegráfica aleatoria será 1 o -1 con la misma probabilidad en cualquier
instante de tiempo t > 0.
La media y la varianza de X(t) son
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-12-
C X (t 1 , t 2 ) = E[X(t 1 )X(t 2 )]
= 1P[X(t 1 ) = X(t 2 )] + (−1)P[X(t 1 ) ≠ X(t 2 )]
1 1 (6.39)
= {1 + e −2α t2-t1 } − {1 − e −2α t2-t1 }
2 2
−2α t2-t1
=e
Vemos que las muestras de tiempo de X(t) están menos correlacionadas a medida que
aumenta el tiempo entre ellas.
Puesto que la integral de un impulso δ(t-S) es una función escalón u(t-S), podemos
considerar a N(t) como el resultado de integrar un tren de impulsos que ocurren en los tiempos
Sn:
∞
Z ( t ) = ∑δ ( t − S i )
i =1
Se pueden obtener otros procesos continuos reemplazando la función escalón por otra
función h(t):
∞
X ( t ) = ∑ h(t − Si ) (6.40)
i =1
Por ejemplo, h(t) podría representar el pulso de corriente que resulta cuando un fotoelectrón
choca un detector. X(t) es, entonces, la corriente total que fluye en el tiempo t.
El siguiente ejemplo muestra cómo se pueden utilizar las propiedades del proceso
Poisson para evaluar promedios envolviendo el proceso filtrado.
-Ejemplo 6.24
Hallar la esperanza del proceso de golpe de ruido X(t).
Condicionamos en N(t), el número de impulsos que ocurren en el tiempo t:
E[ X(t)] = E[ E[ X(t)N(t)] ]
supongamos que N(t) = k , entonces
k k
E[ X(t)N(t) = k ] = E ∑ h(t - S j ) = ∑ E[ h(t - S )]
j=1
j
j=1
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-13-
Puesto que los tiempos de arribo, S1,....,Sk, están uniformemente distribuidos en el intervalo
[0,t] cuando los impulsos ocurridos son independientes:
t
ds 1 t
E[h(t - S j )] = ∫ h(t - s) = ∫ h(u) du
0 t t0
de esta manera,
kt
E[X(t)|N(t) = k] = ∫ h(u) du
t 0
N(t) t
E[X(t)|N(t)] =
t 0
∫ h(u) du
Finalmente, obtenemos
E[N(t)] t
E[X(t)] = E[E[X(t)|N(t)]] =
t
∫ h(u) du
0
= λ ∫ h(u) du (6.41)
0
donde hemos usado E[N(t)] = λt. Notemos que E[X(t)] tiende a un valor constante a medida
que t va aumentando si la integral anterior es finita.
E[Xδ(t)] = hE[Sn] = 0
VAR[Xδ(t)] = h2 n VAR[Dn] = h2 n,
donde hemos usado el hecho que VAR[Dn] = 4p(1-p) = 1, puesto que p = 1/2.
Supongamos ahora que achicamos simultáneamente el tamaño de los saltos y el tiempo
entre saltos. En particular hagamos δ → 0 y h → 0 con h = αδ , siendo X(t) el proceso
resultante.
Entonces, X(t) tendrá una media y una varianza dadas por
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-14-
E[X(t)] = 0 (6.43)
( ) (t / δ ) = α t
2
VAR[ X (t )] = αδ (6.44)
Por ende, obtenemos un proceso de tiempo continuo X(t) que comienza en el origen, tiene
media cero en todo tiempo, pero tiene una varianza que aumenta linealmente con el tiempo. A
X(t) se lo llama proceso aleatorio de Wiener. Este proceso se utiliza para modelar el
movimiento Browniano, el movimiento de partículas suspendidas en un fluido según el
impacto aleatorio de las partículas vecinas.
A medida que δ → 0, la ecuación (6.42) implica que X(t) se aproxima a la suma de un
infinito número de variables aleatorias, ya que n = [t / δ] → ∞:
lim lim S
X(t ) = hS n = α t n
δ →0 n→∞ n
Por el teorema central del límite, la pdf de X(t) se aproxima a una variable aleatoria Gaussiana
con media cero y varianza αt:
1
f X(t) ( x) = e -x / 2αt
2
(6.45)
2π α t
Comparando las ecuaciones (6.47) y (6.31b), vemos que el proceso Wiener y el proceso
Poisson tienen la misma covarianza aunque los dos procesos tienen funciones muestra muy
distintas. Esto muestra que la media y la autocovariancia son solo descripciones parciales de
un proceso aleatorio.
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-15-
que en ( t0+ τ , t1+ τ ). Esto nos lleva a decir que las probabilidades de muestra de los procesos
no dependen de los instantes de tiempo en que se empiezan a tomar las observaciones, esto es
, las probabilidades que involucran muestras tomadas en los tiempos t1, . . ., tk no va a diferir
de aquellos tomados en t1+ τ , . . . , tk+ τ.
Un proceso aleatorio de tiempo discreto o continuo X(t) es estacionario si la
distribución continua de cualquier grupo de muestras no dependen del lugar original del
tiempo. Esto significa que la cdf conjunta de X(t1), . . . , X(tk) es la misma que la de X( t1+ τ),
X( t2+ τ), . . . , X( tk+ τ):
Dos procesos X(t), e Y(t) se dicen estacionarios conjuntos si las cdf conjuntas de
X(t1), . . . , X(tk), e , Y(t’1), . . . , Y(t’j) no dependen del lugar original del tiempo, para
cualquier k y j, y todas las opciones del tiempo de muestreo t1, . . . , tk y t’1, . . . ,t’j.
La cdf de primer orden de un proceso aleatorio estacionario debe ser independiente del
tiempo:
-Ejemplo 6.27
Es el proceso suma un proceso de tiempo discreto estacionario?
El proceso suma está definido por Sn = x1+ x2 + . . . + xn donde los xi son secuencias
iid.
ms(n) = nm VAR[Sn] = nσ2,
donde m y σ son la media y la varianza de Xn. Se puede ver que la media y la varianza no
2
son constantes; pero van creciendo linealmente con el tiempo, n. Por lo tanto el proceso suma
no puede ser un proceso estacionario.
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-16-
En muchas situaciones no podemos determinar cuando un proceso es estacionario,
pero podemos determinar cuando la media es constante:
mx(t) = m ∀t (6.55)
y cuando la autocovariancia (o la autocorrelación) es sólo función de t2 - t1:
Cx(t1, t2) = Cx(t2- t1) ∀ t1 , t2 (6.56)
Un proceso aleatorio de tiempo discreto o continuo, X(t) es estacionario en sentido amplio
(WSS) si satisface las ecuaciones (6.55) y (6.56). Igualmente, decimos que los procesos X(t) e
Y(t) son conjuntamente estacionario en sentido amplio si ambos son WSS y si sus
covarianzas cruzadas dependen sólo de t1 - t2. Cuando X(t) es estacionario en sentido amplio,
escribimos
Cx(t1, t2) = Cx(τ) y Rx(t1, t2) = Rx(τ) donde τ = t1- t2
Todos los procesos aleatorios estacionarios son estacionarios en sentido amplio ya que
satisfacen las ecs.(6.55) y (6.56). El hecho de que sea WSS no implica que sea estacionario.
Se pueden deducir las propiedades de un proceso WSS de las propiedades de su
autocorrelación.
-Primero, la autocorrelación en τ = 0 nos da la potencia o energía potencial del
proceso.
Rx(0) = E[ X(t)2] ∀t (6.57)
-Segundo, la autocorrelación es una función par de τ :
[
P X(t + τ ) - X(t) ]
> ε = P[ ( X(t + τ ) - X(t)) 2 > ε 2 ]
E[(X(t + τ ) − X(t)) 2 ]
≤
ε2
2{R x (0) − R x (τ )}
= , (6.59)
ε2
donde usamos la desigualdad de Markov para obtener el límite superior. La ecuación (6.59)
nos dice que si RX(0) - RX(τ) es pequeño, es decir, RX(τ) decae lentamente, entonces la
probabilidad de un gran cambio en X(t) en τ segundos es pequeña.
Cuarto, la función de autocorrelación es máxima en τ = 0. Usamos la siguiente
desigualdad:
para dos cualesquiera variables aleatorias X e Y. Si aplicamos esta ecuación a X(t + τ) y X(t)
obtenemos
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-17-
De esta manera
Quinto, si RX(0) = RX(d), entonces RX(τ) es periódica con período d y X(t) periódico
cuadrático medio, esto es, E[(X(t + d) - X(t))2] = 0. Si aplicamos la (6.60) a
X(t + τ + d) - X(t + τ) y X(t), nos queda
Entonces, RX(d) = RX(0) implica que el lado derecho de la ecuación es cero y, por lo tanto,
que RX(τ + d) = RX(τ) para todo τ. Repetidas aplicaciones de este resultado implican que
RX(τ) es periódica con período d. El hecho que X(t) es periódico cuadrático medio viene de
Sexto, sea X(t) = m + N(t), donde N(t) es un proceso de media cero para el cual RN(τ)
→ 0 si τ → ∞, entonces
= m2 + RN(τ) → m2 si τ → ∞.
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-18-
segundos de acuerdo a alguna secuencia de datos entrante. No debería sorprender que la
naturaleza periódica de tales procesos, sea evidente en sus descripciones probabilísticas. Un
proceso aleatorio X(t) discreto o continuo es cicloestacionario si la cdf conjunta de cualquier
conjunto de muestras, es invariante con respecto a desplazamientos del origen en múltiplos
enteros de algún período T. En otras palabras, X(t1), X(t2), ..., X(tk) y X(t1 + mT), X(t2 + mT),
..., X(tk + mT) tienen la misma cdf conjunta para todo k, m, y para toda elección de tiempos de
muestreo
t1, ..., tk :
La media de X(t) es
∞ ∞
m X (t) = E ∑ A n p(t − nT) = ∑ E[A ]p(t − nT) = 0
n=-∞ n=-∞
n
C X (t 1 , t 2 ) = E[X(t 1 )X(t 2 )] − 0
E[X(t 1 )]E[X(t 2 )] = 1 nT ≤ t 1 < (n + 1)T ; nT ≤ t 2 < (n + 1)T
=
E[X(t 1 )X(t 2 )] = 0 para otros t 1 y t 2
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-19-
Es claro que CX(t1 + mT, t2 + mT) = CX(t1, t2) para todo entero m. Por lo tanto, el proceso es
cicloestacionario en sentido amplio.
donde θ es independiente de X(t). XS(t) puede surgir cuando la fase de X(t) es desconocida o
no es de interés. Si X(t) es un proceso aleatorio cicloestacionario, entonces XS(t) es un
proceso aleatorio estacionario. Para mostrar esto, primero usamos esperanza condicional para
encontrar la cdf conjunta de XS(t):
P[X S (t 1 ) ≤ x 1 , X S (t 2 ) ≤ x 2 , K , X S (t k ) ≤ x k
= P[X(t 1 + θ ) ≤ x 1 , X(t 2 + θ ) ≤ x 2 , K , X(t k + θ ) ≤ x k ]
T
La ecuación (6.66) muestra que la cdf conjunta de XS(t) se obtiene integrando la cdf conjunta
de X(t) sobre un período de tiempo. Es fácil, entonces, mostrar que una versión de XS(t)
desplazada en tiempo, digamos XS(t1 + τ), XS(t2 + τ), ..., XS(tk + τ), tendrán la misma cdf
conjunta que XS(t1), XS(t2), ..., XS(tk). Por lo tanto, XS(t) es un proceso aleatorio estacionario.
Usando esperanza condicional, es fácil mostrar que si X(t) es un proceso aleatorio
cicloestacionario en sentido amplio, entonces XS(t) es un proceso aleatorio WSS con media y
autocorrelación dadas por
1T
E[X S (t)] = ∫ m X (t) dt (6.67a)
T0
1T
R XS (τ ) = ∫ R X ( t + τ , t) dt (6.67b)
T0
Muchos de los sistemas encontrados en ingeniería eléctrica tiene dinámicas que son descriptas
por ecuaciones diferenciales lineales. Cuando las señales de entrada a estos sistemas son
determinísticas, las soluciones de las ecuaciones diferenciales dan las señales de salida de los
sistemas. En el desarrollo de estas soluciones usamos resultados del cálculo para funciones
determinísticas. Debido a que cada función muestra de un proceso aleatorio puede verse como
una señal determinística, es natural aplicar procesos aleatorios de tiempo continuo como
señales de entrada a los sistemas anteriores. La salida del sistema consiste, entonces, de una
función muestra de otro proceso aleatorio. Por otro lado, si vemos a un sistema como si
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-20-
actuara sobre un proceso aleatorio entrante, para producir un proceso aleatorio de salida,
encontramos que necesitamos desarrollar un nuevo cálculo para procesos aleatorios de tiempo
continuo. En particular, necesitamos desarrollar métodos probabilísticos para hallar la
continuidad, diferenciabilidad e integrabilidad de procesos aleatorios, esto es, del ensamble de
las funciones muestra como un todo. En esta sección se desarrollan estos conceptos.
X(t, ξ) es continuo en t0 si dado cualquier ε > 0 existe un δ > 0 tal que |t - t0| < δ
implica que |X(t, ξ) - X(t0, ξ)| < ε, y escribimos:
En algunos casos, podemos establecer que todas las funciones muestra del proceso aleatorio
son continuas en el punto t0, y por lo tanto podemos concluir que el proceso aleatorio es
continuo en t0. En general, sin embargo, solo podemos expresar la continuidad de un proceso
aleatorio en un sentido probabilístico. En esta sección, nos concentraremos en la convergencia
en el sentido cuadrático medio debido a su utilidad en el estudio de sistemas lineales sujetos a
entradas aleatorias.
Decimos que X(t) es continuo cuadrático medio si es continuo cuadrático medio para todo t0.
Notemos que si todas las funciones muestra de un proceso aleatorio son continuas en el punto
t0, el proceso también será continuo cuadrático medio en el punto t0. En cambio, la
continuidad media cuadrática no implica que todas las funciones muestras sean continuas.
Para determinar que condiciones se requieren en la continuidad media cuadrática,
consideremos la diferencia cuadrática media entre X(t) y X(t0):
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-21-
(t0, t0 ), entonces X(t) es continuo cuadrático medio en el punto t0.
X(t + ε ) − X(t)
l.i.m
ε →0 ε (6.72a)
X(t + ε ) − X(t)
2
Si todas las funciones muestra de X(t) son diferenciables en el punto t, entonces la derivada en
media cuadrática existe porque se cumple la ec. (6.72b).
La derivada en media cuadrática de X(t) en el punto t existe si:
∂2
R (t , t )
∂ t 1∂ t 2 x 1 2
2
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-22-
E ∑ ∑ X(t j )X(t k ) ∆ j ∆ k = ∑ ∑ R x (t j , t k ) ∆ j ∆ k (6.82)
j k j k
Si el límite de la expresión del lado derecho existe, se puede ver que los tres términos de la ec.
(6.81) suma cero. Por lo tanto, la integral en media cuadrática de X(t) existe si existe la
siguiente integral doble:
t t
Se puede ver que si X(t) es un proceso aleatorio continuo en media cuadrática, entonces esta
integral existe.
En algún punto los parámetros de un proceso aleatorio deben ser obtenidos a través de
mediciones. Los resultados del cap. 5 sugiere que repitamos el experimento aleatorio que da
origen al proceso aleatorio un gran número de veces y calculemos el promedio aritmético de
las cantidades de interés. Por ejemplo: para estimar la media mx(t) de un proceso aleatorio X(t,
ξ), repetimos el experimento aleatorio y calculamos el siguiente promedio:
1 N
m X (t) = ∑ X(t , ξ i ), (6.91)
N i=1
1 T
X(t) T
= ∫ X(t, ξ )dt
2T − T
(6.92)
Un teorema ergódico impone condiciones bajo las cuales un promedio temporal converge a
medida que un intervalo de observación aumenta. En esta sección, nos interesan teoremas
ergódicos que establezcan cuando los promedios temporales convergen al promedio conjunto
(esperanza).
La ley fuerte de los grandes números, es uno de los mas importantes teoremas
ergódicos. Nos dice que si Xn es un proceso aleatorio iid discreto con media finita E[Xn] = m,
entonces el promedio temporal de las muestras converge al promedio conjunto con
probabilidad uno:
lim 1 n
P ∑
n → ∞ n i =1
X i = m = 1
(6.93)
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-23-
Este resultado nos permite estimar m tomando el promedio temporal de una realización del
proceso. Queremos obtener resultados de este tipo para una amplia clase de procesos
aleatorios, esto es, para procesos estocásticos discretos no iid, y para procesos continuos.
Consideremos el estimador dado por la ecuación (6.92) para E[X(t)] = mX(t). El
estimador produce un número, por lo que, obviamente, solo tiene sentido aplicarlo en
procesos en los cuales mX(t) = m, una constante. Ahora desarrollaremos un teorema ergódico
para el promedio temporal de procesos WSS.
Sea X(t) un proceso WSS. El valor esperado de 〈X(t)〉T es
1 T 1 T
E[ X(t) T ] = E ∫ X(t)dt = 2T ∫ E[X(t)]dt = m
2T − T
(6.94)
−T
(
)
2
VAR[ X(t) T ] = E X(t) T
−m
1 T 1 T
= E ∫ (X(t) - m)dt ∫ (X(t') - m)dt'
2T − T 2T − T
T T
∫ ∫C
1
= ( t, t')dt dt' (6.95)
4T 2 − T-T
X
[ ]
T T
∫ ∫C
1
VAR X(t) = (t - t')dt dt' (6.96)
T
4T 2 − T-T
X
El integrando es constante a lo largo de la línea u = t - t’ para -2T < u < 2T, por lo que
podemos evaluar la integral como la suma de bandas infinitesimales. Se puede demostrar que
cada banda tiene un área (2T - |u|)du, por ende la contribución de cada banda a la integral es
(2T - |u|)CX(u)du. Entonces
[ ]
2T
∫ (2T-|u|)C
1
VAR X(t) = ( u)du
T
4T 2 −2 T
X
1 2 T |u|
= ∫ 1- C (u)du
2T −2 T 2T X
(6.97)
Teorema
Sea X(t) un proceso WSS con mX(t) = m, entonces
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-24-
lim
X(t) =m
T→∞ T
lim 1 2T |u|
∫ 1- C (u) du
T → ∞ 2T −2 T 2T X
Decimos que un proceso es ergódico en media si se cumplen las condiciones del teorema
anterior.
Este teorema se puede utilizar para obtener teoremas ergódicos para el promedio
temporal de otras cantidades. Por ejemplo, si reemplazamos X(t) por Y(t + τ)Y(t) en la
ecuación (6.92), obtenemos un estimador para la función de autocorrelación del proceso Y(t):
1 T
Y(t + τ )Y(t) T
= ∫ Y(t + τ )Y(t)dt
2T − T
(6.98)
Se puede demostrar fácilmente que E[〈Y(t + τ)Y(t)〉2] = RY(τ) si Y(t) es WSS. El teorema
ergódico anterior implica, entonces, que el promedio temporal de la autocorrelación converge
a RY(τ) en el sentido cuadrático medio , si el término en la ecuación (6.97), con X(t)
reemplazado por Y(t)Y(t + τ), converge a cero.
Si el proceso aleatorio bajo consideración es de tiempo discreto, los estimadores en
promedio temporal para la media y la autocorrelación de Xn están dados por
T
∑X
1
Xn = (6.99)
T 2T + 1 n =− T n
∑
1
X n+k X n = X X (6.100)
T 2T + 1 n = -T n+k n
[ ] |k|
2T
∑
1
VAR X n = 1- C (k) (6.101)
T 2T + 1 k = -2T 2T + 1 X
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-25-