0% encontró este documento útil (0 votos)
75 vistas25 páginas

Procesos Aleatorios en Ingeniería Eléctrica

Este documento describe los procesos aleatorios y sus propiedades. Un proceso aleatorio es una familia de variables aleatorias indexadas por el tiempo. Los procesos aleatorios se especifican por sus distribuciones conjuntas de tiempo de muestreo, y pueden ser discretos o continuos. Los procesos con incrementos independientes y los procesos de Markov son descritos. También se definen la media, autocorrelación y autocovariancia de un proceso, las cuales proporcionan una descripción parcial. Finalmente, se introduce el concepto de procesos

Cargado por

shoggothasso
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
75 vistas25 páginas

Procesos Aleatorios en Ingeniería Eléctrica

Este documento describe los procesos aleatorios y sus propiedades. Un proceso aleatorio es una familia de variables aleatorias indexadas por el tiempo. Los procesos aleatorios se especifican por sus distribuciones conjuntas de tiempo de muestreo, y pueden ser discretos o continuos. Los procesos con incrementos independientes y los procesos de Markov son descritos. También se definen la media, autocorrelación y autocovariancia de un proceso, las cuales proporcionan una descripción parcial. Finalmente, se introduce el concepto de procesos

Cargado por

shoggothasso
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

CAPITULO Nº6 PROCESOS ALEATORIOS

6.1 PROCESO ALEATORIO


Consideremos un experimento aleatorio especificado por sucesos ζ del espacio
muestra S, por los eventos definidos en S y por las probabilidades en esos eventos.
Supongamos que para cada suceso ζ ∈ S , le asignamos una función de tiempo de
acuerdo a alguna regla:
x(t , ζ ) t ∈ I
El gráfico de x(t , ζ ) en función de t se denomina una realización , trayectoria de la
muestra o función de la muestra del proceso aleatorio. Por otra parte, para cada t k de I , x(t , ζ )
es una variable aleatoria.
De esta manera hemos creado una “familia índice” de variables aleatorias,
{x(t , ζ ), t ∈ I } . Esta familia se llama un proceso aleatorio. También nos referimos a los
procesos aleatorios como procesos estocásticos. Usualmente se suprime ζ usando x(t ) para
indicar un proceso aleatorio.

Ej: • Se elige ζ aleatoriamente del intervalo [-1,1] , se define


x(t , ζ ) = ζ cos(2π t ) − ∞ < t < ∞ . Se obtienen ondas sinusoidales de amplitud ζ .

• Si ahora elijo ζ del intervalo [−π , π ] , y (t , ζ ) = cos(2π t + ζ ) obtengo ondas


sinusoidales desfazadas ζ .

6.2 ESPECIFICANDO UN PROCESO ALEATORIO


-Distribuciones conjuntas del tiempo muestra
Sean x1 , x 2 ,..., x k k variables aleatorias obtenidas por muestreo de procesos aleatorios
x(t , ζ ) en los tiempos t1 , t 2 ,..., t k :
x1 = x(t1 , ζ ) x 2 = x(t 2 , ζ ) .... x k = x(t k , ζ ) .
El comportamiento conjunto del proceso aleatorio en los k-ésimos instantes de tiempo
está especificado por la distribución acumulada conjunta del vector de la variable aleatoria
( x1 , x 2 ,..., x k ).
Un proceso estocástico está especificado por la colección del k-ésimo orden de las
funciones de distribución acumulada :

Fx1x2 ...xk ( x1 , x 2 , K , x k ) = P[ X 1 ≤ x1 , X 2 ≤ x 2 ,K , X k ≤ x k ] , (6.1)

para todo k y para toda elección de instantes de muestreo t 1 , t 2 , K , t k . Si el proceso


estocástico está evaluado en valores discretos, la colección de pmf puede ser usada para
especificar el proceso estocástico:

p x1 , x2 ,K, x k ( x1 , x 2 , K , x k ) = P[ X 1 = x1 , X 2 = x 2 , K X k = x k ] (6.2)

Si el proceso estocástico está evaluado en valores continuos, la colección de pdf puede ser
usada en lugar de:

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-1-
f x1 ,K, xk ( x1 , x 2 ,K , x k ) (6.3)

Un proceso aleatorio x(t) se dice que tiene incrementos independientes si para cualquier k y
para cualquier elección de instantes de muestreo t1 < t2 < ......< tk las variables aleatorias X(t2 )
- X( t1 ), X(t3 ) - X(t2), ........., X(tk ) - X(tk-1 ), son variables aleatorias independientes.
Un proceso aleatorio X(t) se dice que es de Markov si el futuro del proceso dado el
presente es independiente del pasado, esto es, para cualquier k y cualquier elección del
instante de muestreo t1 < t2 < ......< tk y para cualquier x1, x2 , ...,xk .

f x ( t k ) ( x k / X (t k −1 ) = x k −1 ,K , X (t1 ) = x1 ) = f x ( t k ) ( x k / X (t k −1 ) = x k −1 )

si x(t) es continuo, y

P[ X ( t k ) = x k / X ( t k −1 ) = x k −1 , K , X ( t1 ) = x1 ] = P[ X ( t k ) = x k / X ( t k −1 ) = x k −1 ]

si X(t) es discreto.
Es fácil mostrar que un proceso aleatorio que tiene incrementos independientes, es
también un proceso de Markov; la inversa no se cumple, es decir, la propiedad de Markov no
implica incrementos independientes.

Las funciones media, autocorrelación y autocovariancia


Los instantes de muestreo de un proceso aleatorio se pueden usar para especificar
parcialmente dicho proceso, ya que ellos resumen la información contenida en las cdf’s
conjuntas. La media mx(t) de un proceso aleatorio se define como

mx (t ) = E[ X (t )] = ∫ xf x (t ) ( x )dx , (6.4)
−∞

donde fx(t)(x) es la pdf de x(t). Generalmente mx(t) es una función del tiempo. La tendencia en
el comportamiento de X(t) se refleja en la variación con el tiempo mx(t).
La autocorrelación Rx(t1, t2) de un proceso X(t), está formada por el momento conjunto
de X(t1) y X(t2):
∞ ∞

R x (t 1 , t 2 ) = E[ X (t1 ) X (t 2 )] = ∫ ∫ xyf X ( t1 ), X ( t 2 ) ( x , y ) dxdy , (6.5)


−∞−∞

donde fX(t1),X(t2) es la pdf de segundo orden de X(t). Generalmente, la autocorrelación es una


función de t1 y t2.
La autocovariancia Cx(t1, t2) de un proceso aleatorio X(t) se define como la covarianza
de X(t1) y X(t2)

C x ( t 1 , t 2 ) = E [{ X ( t1 ) − mx ( t1 )}{ X ( t 2 ) − mx (t 2 )}] (6.6)

la autocovariancia puede ser expresada en términos de la autocorrelación

Cx(t1, t2) = Rx(t1, t2) - mx(t1)mx(t2) (6.7)

Notemos que la varianza de X(t) se puede obtener de Cx(t1, t2):


Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-2-
VAR[ X (t )] = E[( x (t ) − mx (t )) 2 ] = C x (t , t ) (6.8)

El coeficiente de correlación de x(t) es:

Cx (t1 , t 2 )
ρ x (t 1 , t 2 ) = (6.9)
C x (t1 , t1 ) C x (t 2 , t 2 )

donde tenemos que |ρx(t1, t2)| ≤ 1. Recordemos que el coeficiente de correlación es una medida
de cuanto se puede predecir de una variable aleatoria, como función lineal de otra.
La media, la autocorrelación y la autocovariancia son sólo descripciones parciales de
un proceso aleatorio. Por lo tanto, es posible que dos procesos aleatorios bastante diferentes
tengan las mismas funciones media, autocorrelación y autocovariancia.

Ejemplo:
Sea X(t) = cos(wt + θ), donde θ está uniformemente distribuido en el intervalo (-π, π). La
media de X(t) es:
π

∫ cos( wt + θ )dθ
1
mx (t ) = E[cos( wt + θ )] = =0
2π −π

Las funciones de autocorrelación y autocovariancia son, entonces

C x (t 1 , t 2 ) = Rx (t1 , t 2 ) = E[cos( wt 1 + θ ) cos( wt 2 + θ )]


1
1 π {cos( w(t1 − t 2 )) + cos( w(t1 + t 2 ) + 2θ )}dθ
C x (t 1 , t 2 ) = R x (t1 , t 2 ) = ∫2
2π −π

1
C x (t1 , t 2 ) = cos( w( t 1 − t 2 )),
2

donde se ha usado la identidad cos(a)cos(b) = ½ cos(a+b) + ½ cos(a-b). Notemos que mx(t) es


una constante y que Cx(t1, t2) depende solo de |t1 - t2|.

Procesos aleatorios Gaussianos


Un proceso aleatorio X(t) es un proceso Gaussiano si las muestras X1 = X(t1),
X2 = X(t2), ..., Xk = X(tk) son variables aleatorias conjuntamente Gaussianas, para todo k y
para cualquier elección de t1, ..., tk.
La pdf conjunta de las variables aleatorias conjuntamente Gaussianas, está
determinada por el vector de las medias y por la matriz de covarianza:

K −1 ( x − m )
e −1/ 2 ( x − m)
T

f X 1 , X 2 ,..., X k ( x1 , K , x k ) = (6.10)
(2π ) k / 2 K
1/ 2

donde

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-3-
 C x (t 1 , t1 ) C x (t 1 , t 2 ) K C x (t1 , t k ) 
 mx ( t1 )   C (t , t ) C (t , t )
  K Cx (t 2 , t k ) 
m= M  K = 
x 2 1 x 2 2
(6.11)
 M M O M 
 mx (t k )   C (t , t )
x k 1 K K C x (t k , t k ) 

Por lo tanto, un proceso aleatorio Gaussiano tiene la propiedad especial que sus pdf’s
conjuntas están completamente especificadas por la media del proceso mx(t) y por la función
de covarianza Cx(t1, t2).
Más adelante se verá que el proceso Gaussiano tiene, también, la propiedad que
operaciones lineales aplicadas a un proceso Gaussiano resulta en otro proceso aleatorio
Gaussiano. Estas dos propiedades, combinadas con el hecho que muchos procesos de señales
y ruidos se modelan correctamente como Gaussianos, hacen a estos procesos el modelo mas
útil en procesamiento de señales.

Ejemplo
Supongamos que el proceso aleatorio de tiempo discreto Xn es una secuencia de variables
aleatorias Gaussianas independientes con media m y varianza σ2.
La matriz de covarianza para los tiempos t1, ..., tk es

{C X (t 1 , t j )} = {σ 2δ ij } = σ 2 I ,

donde δij = 1 cuando i = j, y cero si i ≠ j, e I es la matriz identidad. Por lo tanto, la


correspondiente pdf conjunta es

 k 
exp− ∑ ( xi − m) 2 / 2σ 2  = f X ( x1 )K f X ( x k )
1
f X 1 ,K, X k ( x1 , x 2 ,K , x k ) =
( 2πσ 2 ) k / 2  i =1 

Múltiples procesos aleatorios


El comportamiento conjunto de dos o mas procesos, se especifica por una colección de
distribuciones conjuntas para todas las posibles elecciones de tiempos de muestreo de los
procesos.
Los procesos X(t) e Y(t) son independientes si los vectores de variables aleatorias
(X(t1), X(t2), ..., X(tk)) y (Y(t1‘), Y(t2‘), ...,Y(tj‘)) son independientes para todo k, j, y para
cualquier elección de t1, ..., tk y t1‘, ..., tj‘.
La correlación cruzada RXY(t1, t2), de X(t) e Y(t) se define

RXY(t1, t2) = E[X(t1)Y(t2)] (6.12)

Los procesos X(t) e Y(t) son ortogonales si

RXY(t1, t2) = 0 para todo t1 y t2. (6.13)

La covarianza cruzada CXY(t1, t2) de X(t) e Y(t) está definida como

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-4-
C XY (t1 , t 2 ) = E[{ X (t 1 ) − m X (t 1 )}{Y (t 2 ) − mY (t 2 )}]
(6.14)
C XY (t1 , t 2 ) = R XY (t 1 , t 2 ) − m X (t 1 )mY (t 2 )

Se dice que los procesos X(t) e Y(t) no están correlacionados si

CXY(t1, t2) = 0 para todo t1 y t2. (6.15)

Ejemplo
Supongamos que se observa un proceso Y(t), que está compuesta por una señal buscada X(t)
mas un señal de ruido N(t):

Y(t) = X(t) + N(t)

Encontrar la correlación cruzada entre la señal observada y la señal buscada, asumiendo que
X(t) y N(t) son procesos aleatorios independientes.
De la ecuación (6.12) tenemos

RXY(t1, t2) = E[X(t1)Y(t2)] = E[X(t1){X(t2) +N(t2)}]


= E[X(t1)X(t2)] + E[X(t1)N(t2)] = RX(t1, t2) + E[X(t1)]E[N(t2)]
= RX(t1, t2) + mX(t1)mN(t2)

donde la tercer igualdad sigue del hecho que X(t) y N(t) son independientes.
6.3 EJEMPLOS DE PROCESOS ALEATORIOS DE TIEMPO DISCRETO
- Procesos aleatorios independientes idénticamente distribuidos (iid)
Sea xn un proceso aleatorio de tiempo discreto consistiendo de una secuencia de variables
aleatorias iid con la misma cdf Fx (x), media m, y varianza σ2 . La secuencia Xn se denomina
proceso aleatorio iid . La cdf conjunta para cualquier instante de tiempo n1 , n2 ,......,nk está
dado por

Fx1 ,K xk ( x1 , x 2 ,K , x k ) = P[ X 1 ≤ x1 , X 2 ≤ x 2 , K , X k ≤ x k ]
(6.16)
= Fx ( x1 ). Fx ( x 2 ) .K Fx ( x k )

donde, para simplificar se denotó xk = xnk .

- La media de un proceso iid se obtiene de la ecuación (6.4):

mX(n) = E[Xn] = m para todo n (6.17)

Por lo tanto, la media es constante.


- La función de autocovariancia se obtiene de la ecuación (6.6) de la siguiente manera.
Si n1 ≠ n2 , entonces

C X (n1 , n2 ) = E[( X n1 − m)( X n 2 − m)]


= E[( X n1 − m)]E[( X n 2 − m)] = 0

puesto que Xn1 y Xn2 son variables aleatorias independientes. Si n1 = n2 = n, entonces

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-5-
C X (n1 , n2 ) = E[( X n − m) 2 ] = σ 2 .

La autocovariancia de un proceso iid se puede expresar sintéticamente como:

C X (n1 , n2 ) = σ 2δ n1,n 2 donde δ n1,n 2 = 1 si n1 = n2 , y δ n1,n 2 = 0 si n1 ≠ n2 (6.18)

La función de autocorrelación de un proceso iid se encuentra a partir de la ecuación


(6.7):

RX(n1, n2) = CX(n1, n2) + m2 (6.19)

- Procesos suma : Los procesos contador binomial y caminata aleatoria.

Sn = X1 + X2+.......+Xn n = 1,2,......
= Sn-1 + Xn (6.20)

Xn + Sn = Sn-1 + Xn

Sn-1D
donde S0 = 0. Llamamos a Sn el proceso suma. La pdf o pmf de Sn se encuentra usando la
convolución o la ecuación característica.
El proceso suma Sn tiene incrementos independientes en intervalos de tiempo que no
se solapan. Para verlo, considere dos intervalos de tiempo : n0 < n ≤ n1 , y
n2 < n ≤ n3 , donde n1 ≤ n2 .

Sn1 - Sn0 = Xn0+1 + .........+ Xn1


(6.21)
Sn3 - Sn2 = Xn2+1 + .........+ Xn3

Como los incrementos no tienen ninguna de las Xn en común, entonces la independencia de


Xn implica que los incrementos (Sn1 - Sn0 ) y (Sn3 - Sn2 ) son variables aleatorias
independientes.
Para n’ > n , el incremento Sn’ - Sn es la suma de n’- n variables aleatorias iid, de
manera que tienen la misma distribución que Sn’-n , la suma de las primeras n’- nX, esto es :

P[ Sn’ - Sn = y ] = P[Sn’-n = y ]. (6.22)

De esta forma los incrementos en intervalos de la misma longitud tienen la misma


distribución, por esta razón decimos que Sn tiene incrementos estacionarios.

El hecho que, el proceso suma Sn tenga incrementos independientes y estacionarios,


hace que sea fácil calcular la pmf/pdf conjunta para cualquier número de instantes de tiempo.
Para simplificar, supongamos que los Xn están evaluados en números enteros, entonces Sn
está, también, evaluada en números enteros. Calculamos la pmf conjunta de Sn en los tiempos
n1, n2, n3:

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-6-
P[Sn1 = y1, Sn2 = y2, Sn3 = y3]
= P[Sn1 = y1, Sn2 - Sn1 = y2 - y1, Sn3 - Sn2 = y3 - y2] (6.23)

puesto que el proceso es igual a y1, y2, y3 en los tiempos n1, n2 y n3, si y sólo si, es igual a y1
en el tiempo n1, y los incrementos subsecuentes son y2 - y1, e y3 - y2. La propiedad de los
incrementos independientes implica que

P[Sn1 = y1, Sn2 = y2, Sn3 = y3]


= P[Sn1 = y1] P[Sn2 - Sn1 = y2 - y1] P[Sn3 - Sn2 = y3 - y2] (6.24)

Finalmente, la propiedad de incrementos estacionarios implica que:

P[Sn1 = y1, Sn2 = y2, Sn3 = y3]


= P[Sn1 = y1] P[Sn2 - n1 = y2 - y1] P[Sn3 - n2 = y3 - y2]

Claramente, podemos usar este procedimiento para escribir la pmf conjunta de Sn, en
cualquier instante de tiempo n1 < n2 < ... < nk, en términos de la pmf en el instante de tiempo
inicial y las pmf’s de los incrementos subsecuentes:

P[Sn1 = y1, Sn2 = y2, ... , Snk = yk] =


= P[Sn1 = y1] P[Sn2 - n1 = y2 - y1] ... P[Snk - nk-1 = yk - yk-1] (6.25)

Si las Xn son variables aleatorias de tiempo continuo, entonces se puede demostrar que
la densidad conjunta de Sn en los tiempos n1, n2, ..., nk es

fSn1, Sn2, ... , Snk (y1, y2, ..., yk) = fSn1 (y1) f S(n2-n1)(y2 - y1) ... f Snk- nk-1 (yk - yk-1) (6.26)

Puesto que el proceso suma Sn es la suma de n variables aleatorias iid, su media y


varianza son:

mS(n) = E[Sn] = n.E[X] = n.m (6.27)

VAR[Sn] = n.VAR[X] = n σ2 (6.28)

La autocovariancia de Sn es :

CS(n, k) = E[(Sn - E[Sn])( Sk- E[Sk])] = E[(Sn - n.m)( Sk- k.m)]

 n  k 
= E  ∑ ( X i − m)  ∑ ( X j − m) 

  i =1  j =1 

∑ ∑ E [( X (
− m) X j − m . )]
n k
= i
i =1 j =1

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-7-
El término dentro de la sumatoria es la autocovariancia Cx(i,j) del proceso iid Xn .
Como vimos en la ecuación (6.18) que Cx(i,j) es igual a σ2 cuando i = j y cero para otro valor.
De esta manera todos menos los términos de i = j en la sumatoria doble son cero, y la
autocovariancia del proceso suma es
min ( n , k )
CS( n, k) = ∑C x (i , j ) = min(n, k ).σ 2 (6.29)
i =1

La propiedad de los incrementos independientes nos permite calcular la autocovariancia de


otra manera. Supongamos que n ≤ k , siendo n = mín(n, k), entonces

CS(n, k) = E[(Sn - n.m)( Sk - k.m )]

= E[(Sn - n.m){(Sn - n.m) + (Sk -k.m) - (Sn - k.m)}]

= E[(Sn - n.m)2] + E[(Sn - n.m)(Sk -Sn - (k-n).m )].

Como Sn y Sk -Sn son independientes,

CS(n, k) = E[(Sn - n.m)2] + E[(Sn - n.m)] E[(Sk -Sn - (k-n).m )]

= E[(Sn - n.m)2]

= VAR [Sn] = n.σ2 ,

ya que E[(Sn - n.m)] = 0 . De la misma forma si k = mín ( n, k) , hubiéramos obtenido


k.σ2 .

De esta manera hemos obtenido, nuevamente, la ec.(6.29).

6.4 EJEMPLOS DE PROCESOS ALEATORIOS DE TIEMPO CONTINUO

- Proceso Poisson
Consideremos una situación en la cual, ocurren ciertos eventos en instantes de tiempo
aleatorios con una velocidad promedio de λ eventos por segundo. Por ejemplo, un evento
podría representar la llegada de un cliente a una estación de servicio, o la avería de un
componente en algún sistema. Tomamos N(t) como el número de eventos ocurridos en un
intervalo de tiempo [0, t]. N(t) es un proceso aleatorio no decreciente, evaluado en números
enteros y de tiempo continuo.

N(t) ↑
4 -
3-
2-
1-

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-8-
S1 S2 S3 S4 S5 t

Supongamos que el intervalo [0, t] se divide en n subintervalos de corta duración δ = t


/n . Debemos asumir que se mantienen las dos condiciones siguientes :

1- La probabilidad que ocurra más de un evento en un subintervalo es despreciable


comparado con la probabilidad de observar uno o ningún evento.

2- Ocurra o no un evento en un subintervalo es independiente de los sucesos en otros


intervalos.

La primer consideración implica que los sucesos en dicho subintervalo puede ser visto
como una prueba Bernoulli. La segunda implica que las pruebas Bernoulli son independientes.
De esta forma las consideraciones (1) y (2) juntas implican que el proceso de conteo N(t)
puede ser aproximado por el modelo binomial, que cuenta el número de éxitos en las n
pruebas Bernoulli.
Si la probabilidad de ocurrencia en cada subintervalo es p , entonces el valor esperado
de eventos ocurridos en el intervalo [0, t] es n.p . Como los eventos ocurren con una velocidad
de λ eventos por segundo, el promedio de eventos en el intervalo
[0, t] es también λt. De esta manera, debemos tener que
λt = n.p
Si ahora hacemos n→ ∞ ( esto es δ→ 0) y p→ 0 como λt = n.p, entonces el modelo binomial
se aproxima a la distribución Poisson con parámetro λt . Por lo tanto, concluimos, que el
número de eventos ocurridos en el intervalo [0, t] tiene una distribución Poisson con media
λt :

( λ t ) k − λ. t
P[ N (t ) = k ] = ⋅e para k: 0,1..... (6.30)
k!

por esta razón a N(t) se lo denomina proceso Poisson. La distribución para el número de
eventos ocurridos en el intervalo de longitud t está dado por la ec. (6.30). Las propiedades de
los incrementos independientes y estacionarios, nos permite escribir la pmf conjunta para N(t).
Por ejemplo, para t1< t2

P[N(t1) = i , N(t2) = j ] = P[N(t1) = i ]. P[N(t2)-N(t1) = j - i ]

= P[N(t1) = i ]. P[N(t2-t1) = j - i ]
− λ. t − λ( t 2 − t 1)
( λ. t 1 ) i . e 1
( λ.(t 2 − t1 )) j −i . e
= ⋅ (6.31 a)
i! ( j − i )!

La propiedad de incrementos independientes nos permite calcular la autocovariancia de N(t).


supongamos que t1≤ t2 , entonces

CN(t1, t2 ) = E[( N(t1) - λ t1) ( N(t2) - λ t2)]

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-9-
= E[( N(t1) - λ t1){ ( N(t2) - N(t1) - λ t2 + λ t1 +( N(t1) - λ t1)}]

= E[( N(t1) - λ t1) E[( N(t2) - N(t1) - λ ( t2 - t1 )] + VAR [N(t1)]

= VAR [N(t1)] = λ t1

= λ mín (t1, t2 ) (6.31 b)

donde usamos el hecho que E[( N(t1)] = λ t1.

Consideremos el tiempo T entre la ocurrencia de eventos en un proceso Poisson.


Volvamos a suponer que el intervalo de tiempo [0, t] está dividido en n subintervalos de
longitud δ = t / n . La probabilidad que el tiempo que interviene, T , exceda los t segundos es
equivalente a que no ocurra ningún evento en t segundos.

P[ T > t] = P[ ningún evento en t segundos]

λ. t n
= ( 1 - p )n = ( 1− )
n

→ e-λ.t cuando n→ ∞ (6.32)


La ecuación (6.32) implica que T es una variable aleatoria exponencial con parámetro
λ. Como los tiempos entre las ocurrencias de eventos en el proceso binomial son variables
aleatorias geométricas independientes, la secuencia de los tiempos intervinientes en un
proceso Poisson está compuesta por variables aleatorias independientes. Por lo tanto,
concluimos que los tiempos intervinientes en un proceso Poisson forman una secuencia de
variables aleatorias exponenciales con media 1/ λ.
Otra cantidad de interés en un proceso Poisson, es el tiempo Sn en el cual ocurre el
enésimo evento. Sean Tj los tiempos iid, exponenciales, entre arribos,

Sn = T1 + T2 + ... + Tn

La suma de n variables aleatorias exponenciales e iid, tiene una distribución de Erlang. Por lo
tanto, la pdf de Sn es

( λ . y) n-1
f Sn (y) = λ . e − λy y≥0 (6.33)
(n − 1)!

Supongamos que se nos dice que sólo ocurre una llegada en un intervalo de tiempo
[0, t] , y sea X el tiempo de llegada de un cliente. Para 0 < x > t , sea N(x) el número de
eventos hasta el tiempo x, y sea N(t) - N(x) el incremento en el intervalo (x, t] , entonces

P[X ≤ x] = P[ N(x) = 1 | N(t) = 1]

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-10-
P[ N(x) = 1 y N(t) = 1]
=
P [ N(t) = 1]

P[ N(x) = 1 y N(t) - N(x) = 0]


=
P[N(t) = 1]

P[N(x) = 1]P[N(t) - N(x) = 0]


=
P[N(t) = 1]

λ.x. e - λ.x . e - λ (t-x)


=
λ.t. e - λ.t

x
= (6.34)
t

La ecuación (6.34) implica, que dado que ocurrió un arribo en el intervalo de tiempo
[0, t], entonces el tiempo de arribo del cliente está uniformemente distribuido en el intervalo
de tiempo [0, t].Es en este sentido que el tiempo de arribo de un cliente ocurre
“aleatoriamente”. Puede ser demostrado que si el número de arribos en el intervalo [0, t] es k,
entonces los tiempos de arribos individuales están independiente y uniformemente
distribuidos en el intervalo.
Ejemplo:
Supongamos que dos clientes entran a un negocio durante un período de dos minutos.
Encontrar la probabilidad que ambos clientes lleguen durante el primer minuto.
Los tiempos de arribo de los clientes están distribuidos independiente y uniformemente
en el intervalo de dos minutos. Cada cliente llega durante el primer minuto con probabilidad
1/2. Por lo tanto, la probabilidad de que ambos lleguen en el primer minuto es (1/2)2 = 1/4.
Esta respuesta se puede verificar mostrando que
P[N(1) = 2 | N(2) = 2] = 1/4.

- Señal aleatoria telegráfica y otros procesos derivados del proceso de Poisson.


Muchos procesos se derivan del proceso de Poisson. En esta sección se presentan dos
ejemplos de tales procesos.

Ejemplo - Señal telegráfica aleatoria


Consideremos un proceso aleatorio X(t) que asume los valores ±1. Supongamos que X(0) =
±1 con probabilidad ½ y que X(t) cambia su polaridad con cada ocurrencia de un evento en un
proceso de Poisson con parámetro α. La figura muestra una función muestra de X(t).

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-11-
La pmf de X(t) está dada por

P[X(t) = ±1] = P[X(t) = ±1 | X(0) = 1] P[X(0) = 1]


+ P[X(t) = ±1 | X(0) = -1] P[X(0) = -1] (6.35)

Las pmf’s condicionales se encuentran advirtiendo que X(t) tendrá la misma polaridad que
X(0) solo cuando ocurran un número par de eventos en el intervalo (o, t]. Por lo tanto

P[X(t) = ±1|X(0) = ±1] = P[N(t) = entero par]



(αt) −αt
e
= ∑ (2j)!
j= 0

1 αt
= e − αt {e + e −αt }
2
1
= {1 + e −2αt } (6.36)
2

X(t) y X(0) diferirán en signo si el número de eventos en t es impar:

∞ (α t ) 2j+1

P[X(t) = ±1|X(0) = m1] = ∑ e − αt


j= 0 (2j + 1)!
1 αt
= e − αt {e − e −αt }
2
1
= {1 − e −2αt }. (6.37)
2

Obtenemos la pmf de X(t) sustituyendo en la ecuación (6.35):

11 11 1
P[ X (t ) = 1] = {1 + e −2αt } + {1 − e −2αt } =
22 22 2
1
P[ X (t ) = −1] = 1 − P[ X (t ) = 1] = (6.38)
2

Por lo tanto, la señal telegráfica aleatoria será 1 o -1 con la misma probabilidad en cualquier
instante de tiempo t > 0.
La media y la varianza de X(t) son

m x (t) = 1P[X(t) = 1] + (−1)P[X(t) = −1] = 0


VAR[X(t)] = E[X(t) 2 ] = (1) 2 P[X(t) = 1] + (−1) 2 P[X(t) = −1] = 1

La autocovarianza de X(t) se encuentra de la siguiente manera:

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-12-
C X (t 1 , t 2 ) = E[X(t 1 )X(t 2 )]
= 1P[X(t 1 ) = X(t 2 )] + (−1)P[X(t 1 ) ≠ X(t 2 )]
1 1 (6.39)
= {1 + e −2α t2-t1 } − {1 − e −2α t2-t1 }
2 2
−2α t2-t1
=e

Vemos que las muestras de tiempo de X(t) están menos correlacionadas a medida que
aumenta el tiempo entre ellas.

Ejemplo (Tren de impulsos de Poisson filtrados)


El proceso de Poisson es cero en t = 0 y aumenta su valor una unidad en los tiempos de arribo
aleatorios Sj, j = 1, 2, ....Entonces el proceso Poisson puede expresarse como la suma de
funciones escalón aleatoriamente desplazadas:

N(t) = ∑ u(t − S )i N(0) = 0,
i =1

Puesto que la integral de un impulso δ(t-S) es una función escalón u(t-S), podemos
considerar a N(t) como el resultado de integrar un tren de impulsos que ocurren en los tiempos
Sn:

Z ( t ) = ∑δ ( t − S i )
i =1

Se pueden obtener otros procesos continuos reemplazando la función escalón por otra
función h(t):

X ( t ) = ∑ h(t − Si ) (6.40)
i =1

Por ejemplo, h(t) podría representar el pulso de corriente que resulta cuando un fotoelectrón
choca un detector. X(t) es, entonces, la corriente total que fluye en el tiempo t.
El siguiente ejemplo muestra cómo se pueden utilizar las propiedades del proceso
Poisson para evaluar promedios envolviendo el proceso filtrado.

-Ejemplo 6.24
Hallar la esperanza del proceso de golpe de ruido X(t).
Condicionamos en N(t), el número de impulsos que ocurren en el tiempo t:

E[ X(t)] = E[ E[ X(t)N(t)] ]
supongamos que N(t) = k , entonces

 k  k
E[ X(t)N(t) = k ] = E  ∑ h(t - S j )  = ∑ E[ h(t - S )]
 j=1 
j
j=1

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-13-
Puesto que los tiempos de arribo, S1,....,Sk, están uniformemente distribuidos en el intervalo
[0,t] cuando los impulsos ocurridos son independientes:
t
ds 1 t
E[h(t - S j )] = ∫ h(t - s) = ∫ h(u) du
0 t t0

de esta manera,

kt
E[X(t)|N(t) = k] = ∫ h(u) du
t 0

N(t) t
E[X(t)|N(t)] =
t 0
∫ h(u) du

Finalmente, obtenemos

E[N(t)] t
E[X(t)] = E[E[X(t)|N(t)]] =
t
∫ h(u) du
0

= λ ∫ h(u) du (6.41)
0

donde hemos usado E[N(t)] = λt. Notemos que E[X(t)] tiende a un valor constante a medida
que t va aumentando si la integral anterior es finita.

Proceso de Wiener y movimiento Browniano


Supongamos que la caminata aleatoria simétrica (es decir, p=1/2) toma pasos de longitud h
cada δ segundos. Obtenemos un proceso continuo Xδ(t), si lo consideramos como la suma
acumulada hasta el tiempo t. En el instante de tiempo t, el proceso habrá tomado n = [t/δ]
saltos, por lo que será igual a

Xδ(t) = h(D1 + D2 + ... + D[t/δ]) = hSn (6.42)

La media y la varianza de Xδ(t) son

E[Xδ(t)] = hE[Sn] = 0

VAR[Xδ(t)] = h2 n VAR[Dn] = h2 n,

donde hemos usado el hecho que VAR[Dn] = 4p(1-p) = 1, puesto que p = 1/2.
Supongamos ahora que achicamos simultáneamente el tamaño de los saltos y el tiempo
entre saltos. En particular hagamos δ → 0 y h → 0 con h = αδ , siendo X(t) el proceso
resultante.
Entonces, X(t) tendrá una media y una varianza dadas por

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-14-
E[X(t)] = 0 (6.43)

( ) (t / δ ) = α t
2
VAR[ X (t )] = αδ (6.44)

Por ende, obtenemos un proceso de tiempo continuo X(t) que comienza en el origen, tiene
media cero en todo tiempo, pero tiene una varianza que aumenta linealmente con el tiempo. A
X(t) se lo llama proceso aleatorio de Wiener. Este proceso se utiliza para modelar el
movimiento Browniano, el movimiento de partículas suspendidas en un fluido según el
impacto aleatorio de las partículas vecinas.
A medida que δ → 0, la ecuación (6.42) implica que X(t) se aproxima a la suma de un
infinito número de variables aleatorias, ya que n = [t / δ] → ∞:

lim lim S
X(t ) = hS n = α t n
δ →0 n→∞ n

Por el teorema central del límite, la pdf de X(t) se aproxima a una variable aleatoria Gaussiana
con media cero y varianza αt:
1
f X(t) ( x) = e -x / 2αt
2
(6.45)
2π α t

X(t) hereda la propiedad de los incrementos estacionarios e independientes del proceso de


caminata aleatoria del cual se deriva. Así , se puede obtener la pdf conjunta de X(t) en
diversos tiempos t1, t2, ..., tk usando la ecuación (6.26):

f x(t1 ),K,x(t k ) (x 1 ,..., x k ) = f x(t1 ) (x 1 )f x(t 2 − t1 ) (x 2 − x 1 ) L f x(t k − t k −1 ) (x k − x k −1 )


(6.46)
 1  x 12 (x 2 − x 1 ) 2 (x k − x k −1 ) 2 

exp −  + +L+ 
 2  a t 1 a (t 2 − t 1 ) a (t k − t k −1 ) 
=
(2π a ) k t 1 (t 2 − t 1 )L (t k − t k −1 )

Se puede usar la propiedad de los incrementos independientes y la misma secuencia de pasos


para mostrar que la autocovariancia de X(t) está dada por:

Cx(t1,t2) = α mín(t1,t2). (6.47)

Comparando las ecuaciones (6.47) y (6.31b), vemos que el proceso Wiener y el proceso
Poisson tienen la misma covarianza aunque los dos procesos tienen funciones muestra muy
distintas. Esto muestra que la media y la autocovariancia son solo descripciones parciales de
un proceso aleatorio.

6.5 PROCESOS ALEATORIOS ESTACIONARIOS

Muchos procesos aleatorios tienen la propiedad de ser invariantes en el tiempo. Una


observación de un proceso en el intervalo de tiempo (t0, t1) tiene el mismo comportamiento

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-15-
que en ( t0+ τ , t1+ τ ). Esto nos lleva a decir que las probabilidades de muestra de los procesos
no dependen de los instantes de tiempo en que se empiezan a tomar las observaciones, esto es
, las probabilidades que involucran muestras tomadas en los tiempos t1, . . ., tk no va a diferir
de aquellos tomados en t1+ τ , . . . , tk+ τ.
Un proceso aleatorio de tiempo discreto o continuo X(t) es estacionario si la
distribución continua de cualquier grupo de muestras no dependen del lugar original del
tiempo. Esto significa que la cdf conjunta de X(t1), . . . , X(tk) es la misma que la de X( t1+ τ),
X( t2+ τ), . . . , X( tk+ τ):

Fx(t1 ),K,x(t k ) (x 1 ,..., x k ) = Fx(t1 +τ ),K,x(t k +τ ) (x 1 ,..., x k ) (6.48)

Dos procesos X(t), e Y(t) se dicen estacionarios conjuntos si las cdf conjuntas de
X(t1), . . . , X(tk), e , Y(t’1), . . . , Y(t’j) no dependen del lugar original del tiempo, para
cualquier k y j, y todas las opciones del tiempo de muestreo t1, . . . , tk y t’1, . . . ,t’j.
La cdf de primer orden de un proceso aleatorio estacionario debe ser independiente del
tiempo:

FX(t)(x) = FX(t+τ)(x) = FX(x) para todo t, τ. (6.49)


Esto implica que la media y la varianza de X(t) son constantes e independientes en el
tiempo:

mx(t) = E[X(t)] = m ∀t (6.50)

VAR[X(t)] = E[(X(t) - m )2 ] = σ2 ∀t (6.51)

La cdf de segundo orden de un proceso aleatorio estacionario puede depender sólo de la


diferencia de tiempo entre las muestras :

FX(t1 ),X(t 2 ) (x 1 , x 2 ) = FX(0),X(t 2 − t1 ) (x 1 , x 2 ) ∀ t1 , t2 (6.52)

Esto implica que la autocorrelación y la autocovariancia de X(t) puede depender sólo


de t1- t2.

Rx(t1, t2) = Rx(t2- t1) ∀ t1 , t2 (6.53)

Cx(t1, t2) = Cx(t2- t1) ∀ t1 , t2 (6.54)

-Ejemplo 6.27
Es el proceso suma un proceso de tiempo discreto estacionario?
El proceso suma está definido por Sn = x1+ x2 + . . . + xn donde los xi son secuencias
iid.
ms(n) = nm VAR[Sn] = nσ2,
donde m y σ son la media y la varianza de Xn. Se puede ver que la media y la varianza no
2

son constantes; pero van creciendo linealmente con el tiempo, n. Por lo tanto el proceso suma
no puede ser un proceso estacionario.

-Procesos aleatorios en sentido amplio(WSS).

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-16-
En muchas situaciones no podemos determinar cuando un proceso es estacionario,
pero podemos determinar cuando la media es constante:
mx(t) = m ∀t (6.55)
y cuando la autocovariancia (o la autocorrelación) es sólo función de t2 - t1:
Cx(t1, t2) = Cx(t2- t1) ∀ t1 , t2 (6.56)
Un proceso aleatorio de tiempo discreto o continuo, X(t) es estacionario en sentido amplio
(WSS) si satisface las ecuaciones (6.55) y (6.56). Igualmente, decimos que los procesos X(t) e
Y(t) son conjuntamente estacionario en sentido amplio si ambos son WSS y si sus
covarianzas cruzadas dependen sólo de t1 - t2. Cuando X(t) es estacionario en sentido amplio,
escribimos
Cx(t1, t2) = Cx(τ) y Rx(t1, t2) = Rx(τ) donde τ = t1- t2
Todos los procesos aleatorios estacionarios son estacionarios en sentido amplio ya que
satisfacen las ecs.(6.55) y (6.56). El hecho de que sea WSS no implica que sea estacionario.
Se pueden deducir las propiedades de un proceso WSS de las propiedades de su
autocorrelación.
-Primero, la autocorrelación en τ = 0 nos da la potencia o energía potencial del
proceso.
Rx(0) = E[ X(t)2] ∀t (6.57)
-Segundo, la autocorrelación es una función par de τ :

Rx(τ) = E[X( t + τ).X(t)] = E[ X(t).X(t + τ )] = Rx(-τ) (6.58)

-Tercero, la autocorrelación es una medida de la velocidad de cambio de un proceso


aleatorio en el siguiente sentido. Consideremos el cambio en el proceso desde el tiempo t a
(t+τ):

[
P X(t + τ ) - X(t) ]
> ε = P[ ( X(t + τ ) - X(t)) 2 > ε 2 ]

E[(X(t + τ ) − X(t)) 2 ]

ε2

2{R x (0) − R x (τ )}
= , (6.59)
ε2

donde usamos la desigualdad de Markov para obtener el límite superior. La ecuación (6.59)
nos dice que si RX(0) - RX(τ) es pequeño, es decir, RX(τ) decae lentamente, entonces la
probabilidad de un gran cambio en X(t) en τ segundos es pequeña.
Cuarto, la función de autocorrelación es máxima en τ = 0. Usamos la siguiente
desigualdad:

E[XY]2 ≤ E[X2] E[Y2], (6.60)

para dos cualesquiera variables aleatorias X e Y. Si aplicamos esta ecuación a X(t + τ) y X(t)
obtenemos

RX(τ)2 = E[X(t + τ)X(t)]2 ≤ E[X2(t + τ)] E[X2(t)] = RX(0)2

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-17-
De esta manera

|RX(τ)| ≤ RX(0) (6.61)

Quinto, si RX(0) = RX(d), entonces RX(τ) es periódica con período d y X(t) periódico
cuadrático medio, esto es, E[(X(t + d) - X(t))2] = 0. Si aplicamos la (6.60) a
X(t + τ + d) - X(t + τ) y X(t), nos queda

E[(X(t + τ + d) - X(t + τ)) X(t)]2 ≤ E[(X(t + τ + d) - X(t + τ))2] E[X2(t)],

que implica que

{RX(τ + d) - RX(τ)}2 ≤ 2{RX(0) - RX(d)} RX(0).

Entonces, RX(d) = RX(0) implica que el lado derecho de la ecuación es cero y, por lo tanto,
que RX(τ + d) = RX(τ) para todo τ. Repetidas aplicaciones de este resultado implican que
RX(τ) es periódica con período d. El hecho que X(t) es periódico cuadrático medio viene de

E[(X(t + d) - X(t))2] = 2{RX(0) - RX(d)} = 0

Sexto, sea X(t) = m + N(t), donde N(t) es un proceso de media cero para el cual RN(τ)
→ 0 si τ → ∞, entonces

RX(τ) = E[(m + N(t + τ))(m + N(t))] = m2 + 2mE[N(t)] + RN(τ)

= m2 + RN(τ) → m2 si τ → ∞.

En otras palabras, RX(τ) se aproxima al cuadrado de la media de X(t) si τ → ∞.


En resumen, la autocorrelación puede tener tres tipos de componentes: (1) un
componente que se aproxima a cero cuando τ → ∞; (2) un componente periódico; y (3) un
componente ocasionado por una media distinta de cero.

- Procesos aleatorios Gaussianos estacionarios en sentido amplio


Si un proceso aleatorio Gaussiano es estacionario en sentido amplio, entonces es también
estacionario.
Si X(t) es WSS, su media es una constante m, y su autocovarianza depende sólo de la
diferencia de los tiempos de muestreo, ti - tj. Luego sigue que la pdf conjunta de X(t) depende
sólo de este conjunto de diferencias, y por ende es invariante con respecto a los
desplazamientos en tiempo. Por lo tanto el proceso es también estacionario.
Este resultado hace a los procesos aleatorios Gaussianos y WSS particularmente
fáciles de trabajar, puesto que toda la información requerida para especificar la pdf conjunta la
contienen m y CX(τ).

- Procesos aleatorios cicloestacionarios


Muchos procesos aleatorios surgen de la repetición de un procedimiento dado cada T
segundos. Por ejemplo, un modulador de datos (“módem”) produce una forma de onda cada T

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-18-
segundos de acuerdo a alguna secuencia de datos entrante. No debería sorprender que la
naturaleza periódica de tales procesos, sea evidente en sus descripciones probabilísticas. Un
proceso aleatorio X(t) discreto o continuo es cicloestacionario si la cdf conjunta de cualquier
conjunto de muestras, es invariante con respecto a desplazamientos del origen en múltiplos
enteros de algún período T. En otras palabras, X(t1), X(t2), ..., X(tk) y X(t1 + mT), X(t2 + mT),
..., X(tk + mT) tienen la misma cdf conjunta para todo k, m, y para toda elección de tiempos de
muestreo
t1, ..., tk :

FX(t1 ),X(t 2 ),K,X(t k ) (x 1 , x 2 , K , x k ) = FX(t1 + mT),X(t 2 + mT),K,X(t k + mT) (x 1 , x 2 , K , x k ) (6.62)

Decimos que X(t) es cicloestacionario en sentido amplio si la media y la autocovariancia son


invariantes con respecto a desplazamientos del origen de tiempos en múltiplos enteros de T,
esto es, para todo entero m,

mX(t + mT) = mX(t) (6.63a)

CX(t1 + mT, t2 + mT) = CX(t1, t2) (6.63b)

Notemos que si X(t) es cicloestacionario, entonces también es cicloestacionario en sentido


amplio.
El siguiente ejemplo muestra que, en general, las funciones muestra de un proceso
aleatorio cicloestacionario no son necesariamente periódicas.

Ejemplo (modulación de amplitud de pulsos)


Un módem transmite una secuencia de datos binaria equiprobable e iid de la siguiente manera:
Para transmitir un 1 binario, el módem transmite un pulso rectangular de T segundos de
duración y amplitud 1; para transmitir un 0 binario, transmite un pulso rectangular de T
segundos de duración y amplitud -1. Sea X(t) el proceso aleatorio resultante. Es X(t)
cicloestacionario en sentido amplio?
Sea Ai la secuencia de amplitudes (±1) correspondiente a la secuencia binaria,
entonces X(t) puede representarse como la suma de pulsos rectangulares desplazados en
tiempo y modulados en amplitud:

X(t) = ∑A n p(t − nT) (6.64)
n=-∞

La media de X(t) es

 ∞  ∞
m X (t) = E ∑ A n p(t − nT)  = ∑ E[A ]p(t − nT) = 0
 n=-∞  n=-∞
n

puesto que E[An] = 0. La función de autocovarianza es

C X (t 1 , t 2 ) = E[X(t 1 )X(t 2 )] − 0
 E[X(t 1 )]E[X(t 2 )] = 1 nT ≤ t 1 < (n + 1)T ; nT ≤ t 2 < (n + 1)T
=
 E[X(t 1 )X(t 2 )] = 0 para otros t 1 y t 2

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-19-
Es claro que CX(t1 + mT, t2 + mT) = CX(t1, t2) para todo entero m. Por lo tanto, el proceso es
cicloestacionario en sentido amplio.

Ahora se mostrará como puede obtenerse un proceso aleatorio estacionario de un


proceso aleatorio cicloestacionario. Sea X(t) un proceso cicloestacionario con período T.
“Estacionarizaremos” X(t) observando una versión de X(t) aleatoriamente desplazada en fase:

XS(t) = X(t + θ) θ uniforme en [0, T] (6.65)

donde θ es independiente de X(t). XS(t) puede surgir cuando la fase de X(t) es desconocida o
no es de interés. Si X(t) es un proceso aleatorio cicloestacionario, entonces XS(t) es un
proceso aleatorio estacionario. Para mostrar esto, primero usamos esperanza condicional para
encontrar la cdf conjunta de XS(t):

P[X S (t 1 ) ≤ x 1 , X S (t 2 ) ≤ x 2 , K , X S (t k ) ≤ x k
= P[X(t 1 + θ ) ≤ x 1 , X(t 2 + θ ) ≤ x 2 , K , X(t k + θ ) ≤ x k ]
T

= ∫ P[X(t 1 + θ ) ≤ x 1 , K , X(t k + θ ) ≤ x k |θ = φ ] f θ (φ )dφ


0
1T
= ∫ P[ X(t 1 + φ ) ≤ x1 ,K , X(t k + φ ) ≤ x k ]dφ
T0
(6.66)

La ecuación (6.66) muestra que la cdf conjunta de XS(t) se obtiene integrando la cdf conjunta
de X(t) sobre un período de tiempo. Es fácil, entonces, mostrar que una versión de XS(t)
desplazada en tiempo, digamos XS(t1 + τ), XS(t2 + τ), ..., XS(tk + τ), tendrán la misma cdf
conjunta que XS(t1), XS(t2), ..., XS(tk). Por lo tanto, XS(t) es un proceso aleatorio estacionario.
Usando esperanza condicional, es fácil mostrar que si X(t) es un proceso aleatorio
cicloestacionario en sentido amplio, entonces XS(t) es un proceso aleatorio WSS con media y
autocorrelación dadas por

1T
E[X S (t)] = ∫ m X (t) dt (6.67a)
T0

1T
R XS (τ ) = ∫ R X ( t + τ , t) dt (6.67b)
T0

6.6 CONTINUIDAD, DERIVADAS E INTEGRALES DE PROCESOS


ESTOCÁSTICOS

Muchos de los sistemas encontrados en ingeniería eléctrica tiene dinámicas que son descriptas
por ecuaciones diferenciales lineales. Cuando las señales de entrada a estos sistemas son
determinísticas, las soluciones de las ecuaciones diferenciales dan las señales de salida de los
sistemas. En el desarrollo de estas soluciones usamos resultados del cálculo para funciones
determinísticas. Debido a que cada función muestra de un proceso aleatorio puede verse como
una señal determinística, es natural aplicar procesos aleatorios de tiempo continuo como
señales de entrada a los sistemas anteriores. La salida del sistema consiste, entonces, de una
función muestra de otro proceso aleatorio. Por otro lado, si vemos a un sistema como si
Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-20-
actuara sobre un proceso aleatorio entrante, para producir un proceso aleatorio de salida,
encontramos que necesitamos desarrollar un nuevo cálculo para procesos aleatorios de tiempo
continuo. En particular, necesitamos desarrollar métodos probabilísticos para hallar la
continuidad, diferenciabilidad e integrabilidad de procesos aleatorios, esto es, del ensamble de
las funciones muestra como un todo. En esta sección se desarrollan estos conceptos.

- Continuidad cuadrática media


Una forma natural de ver un proceso aleatorio, es imaginar que cada punto ξ en S produce una
función muestra determinística particular X(t, ξ). Los métodos standard del cálculo pueden
utilizarse para determinar la continuidad de la función muestra en cada punto t0 para cada
punto ξ. Intuitivamente, decimos que X(t, ξ) es continua en t0 si la diferencia |X(t, ξ) - X(t0, ξ)|
se aproxima a cero, a medida que t se aproxima a t0. Mas formalmente, decimos que:

X(t, ξ) es continuo en t0 si dado cualquier ε > 0 existe un δ > 0 tal que |t - t0| < δ
implica que |X(t, ξ) - X(t0, ξ)| < ε, y escribimos:

lim X(t, ξ) = X(t0, ξ)


t → t0

En algunos casos, podemos establecer que todas las funciones muestra del proceso aleatorio
son continuas en el punto t0, y por lo tanto podemos concluir que el proceso aleatorio es
continuo en t0. En general, sin embargo, solo podemos expresar la continuidad de un proceso
aleatorio en un sentido probabilístico. En esta sección, nos concentraremos en la convergencia
en el sentido cuadrático medio debido a su utilidad en el estudio de sistemas lineales sujetos a
entradas aleatorias.

Continuidad cuadrática media: El proceso aleatorio X(t) es continuo en el punto


t0 en el sentido medio cuadrático si

E[(X(t) - X(t0))2] → 0 si t → t0 (6.68)

Denotaremos la continuidad cuadrática media como (Limit in the mean)

l.i.m. X(t) = X(t0)


t → t0

Decimos que X(t) es continuo cuadrático medio si es continuo cuadrático medio para todo t0.
Notemos que si todas las funciones muestra de un proceso aleatorio son continuas en el punto
t0, el proceso también será continuo cuadrático medio en el punto t0. En cambio, la
continuidad media cuadrática no implica que todas las funciones muestras sean continuas.
Para determinar que condiciones se requieren en la continuidad media cuadrática,
consideremos la diferencia cuadrática media entre X(t) y X(t0):

E[(X(t) - X(t0))2] = RX(t, t) - RX(t0, t) - RX(t, t0) + RX(t0, t0) (6.69)

De esta manera, si la función de autocorrelación RX(t1, t2) es continua en el punto


(t0, t0), entonces haciendo t → t0, el lado derecho de la ecuación (6.69) desaparecerá. Por lo
tanto, concluimos que si RX(t1, t2) es continua en ambos t1 y t2 en el punto

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-21-
(t0, t0 ), entonces X(t) es continuo cuadrático medio en el punto t0.

-Derivadas en media cuadrática


El proceso aleatorio X(t) tiene derivada en media cuadrática X’(t) en t definida por :

X(t + ε ) − X(t)
l.i.m
ε →0 ε (6.72a)

que existe el límite en media cuadrática, esto es:

 X(t + ε ) − X(t)  
2

lim E − X'(t)   = 0 (6.72b)


ε → 0  ε  

Si todas las funciones muestra de X(t) son diferenciables en el punto t, entonces la derivada en
media cuadrática existe porque se cumple la ec. (6.72b).
La derivada en media cuadrática de X(t) en el punto t existe si:

∂2
R (t , t )
∂ t 1∂ t 2 x 1 2

existe en el punto (t1, t2) = (t, t).

-Integrales en media cuadrática


Supongamos que estamos interesados en la integral del proceso aleatorio X(t) sobre el
intervalo (t0, t). Hacemos una partición del intervalo en n-subintervalos y formamos la suma
n
I n = ∑ X(t k ). ∆ k
k=1

Definimos la integral de X(t) como el límite en media cuadrática de la secuencia In a medida


que el ancho de los subintervalos se aproxima a cero. Cuando existe el límite denotamos:
t

Y(t) = ∫ X(t') dt' = l.i.m ∑ X (t k ) ∆ k (6.80)


∆ k →0 k
t0

El criterio de Cauchy nos provee condiciones que aseguran la existencia de la integral en


media cuadrática en la ec.(6.80)

  
2

E   ∑ X(t j ) ∆ j − ∑ X(t k ) ∆ k   → 0 cuando ∆ k , ∆ j → 0 (6.81)


  j k  

Al igual que en el caso de la derivada en media cuadrática, obtenemos tres términos

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-22-
 
E  ∑ ∑ X(t j )X(t k ) ∆ j ∆ k  = ∑ ∑ R x (t j , t k ) ∆ j ∆ k (6.82)
 j k  j k

Si el límite de la expresión del lado derecho existe, se puede ver que los tres términos de la ec.
(6.81) suma cero. Por lo tanto, la integral en media cuadrática de X(t) existe si existe la
siguiente integral doble:
t t

∫∫R x (u, v ) du dv (6.83)


t0 t0

Se puede ver que si X(t) es un proceso aleatorio continuo en media cuadrática, entonces esta
integral existe.

6.7 PROMEDIOS TEMPORALES DE PROCESOS ALEATORIOS Y TEOREMAS


ERGODICOS

En algún punto los parámetros de un proceso aleatorio deben ser obtenidos a través de
mediciones. Los resultados del cap. 5 sugiere que repitamos el experimento aleatorio que da
origen al proceso aleatorio un gran número de veces y calculemos el promedio aritmético de
las cantidades de interés. Por ejemplo: para estimar la media mx(t) de un proceso aleatorio X(t,
ξ), repetimos el experimento aleatorio y calculamos el siguiente promedio:

1 N
m X (t) = ∑ X(t , ξ i ), (6.91)
N i=1

donde N es el número de repeticiones del experimento, y X(t, ξi) es la realización que se


observa en la i-ésima repetición.
En algunas situaciones, nos interesa estimar la media o la autocorrelación a partir de
los promedios temporales de una realización, esto es,

1 T
X(t) T
= ∫ X(t, ξ )dt
2T − T
(6.92)

Un teorema ergódico impone condiciones bajo las cuales un promedio temporal converge a
medida que un intervalo de observación aumenta. En esta sección, nos interesan teoremas
ergódicos que establezcan cuando los promedios temporales convergen al promedio conjunto
(esperanza).
La ley fuerte de los grandes números, es uno de los mas importantes teoremas
ergódicos. Nos dice que si Xn es un proceso aleatorio iid discreto con media finita E[Xn] = m,
entonces el promedio temporal de las muestras converge al promedio conjunto con
probabilidad uno:

 lim 1 n 
P ∑
 n → ∞ n i =1
X i = m = 1

(6.93)

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-23-
Este resultado nos permite estimar m tomando el promedio temporal de una realización del
proceso. Queremos obtener resultados de este tipo para una amplia clase de procesos
aleatorios, esto es, para procesos estocásticos discretos no iid, y para procesos continuos.
Consideremos el estimador dado por la ecuación (6.92) para E[X(t)] = mX(t). El
estimador produce un número, por lo que, obviamente, solo tiene sentido aplicarlo en
procesos en los cuales mX(t) = m, una constante. Ahora desarrollaremos un teorema ergódico
para el promedio temporal de procesos WSS.
Sea X(t) un proceso WSS. El valor esperado de 〈X(t)〉T es

 1 T  1 T
E[ X(t) T ] = E ∫ X(t)dt  = 2T ∫ E[X(t)]dt = m
 2T − T
(6.94)
−T

La ecuación (6.94) dice que 〈X(t)〉T es un estimador insesgado de m.


Veamos ahora la varianza de 〈X(t)〉T:


( 
)
2
VAR[ X(t) T ] = E X(t) T
−m 

 1 T  1 T 
= E  ∫ (X(t) - m)dt  ∫ (X(t') - m)dt'
  2T − T  2T − T 
T T

∫ ∫ E[(X(t) - m)(X(t') - m)]dt dt'


1
=
4T 2 − T-T
T T

∫ ∫C
1
= ( t, t')dt dt' (6.95)
4T 2 − T-T
X

Puesto que el proceso X(t) es WSS, la ecuación (6.95) se convierte en:

[ ]
T T

∫ ∫C
1
VAR X(t) = (t - t')dt dt' (6.96)
T
4T 2 − T-T
X

El integrando es constante a lo largo de la línea u = t - t’ para -2T < u < 2T, por lo que
podemos evaluar la integral como la suma de bandas infinitesimales. Se puede demostrar que
cada banda tiene un área (2T - |u|)du, por ende la contribución de cada banda a la integral es
(2T - |u|)CX(u)du. Entonces

[ ]
2T

∫ (2T-|u|)C
1
VAR X(t) = ( u)du
T
4T 2 −2 T
X

1 2 T  |u| 
= ∫ 1- C (u)du
2T −2 T  2T  X
(6.97)

Por lo tanto, 〈X(t)〉T se aproximará a m en sentido cuadrático medio, esto es,


E[(〈X(t)〉T - m)2] → 0, si la expresión en la ecuación (6.97) tiende a cero cuando T crece.

Teorema
Sea X(t) un proceso WSS con mX(t) = m, entonces

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-24-
lim
X(t) =m
T→∞ T

en sentido cuadrático medio, si y solo si

lim 1 2T  |u| 
∫ 1- C (u) du
T → ∞ 2T −2 T  2T  X

Decimos que un proceso es ergódico en media si se cumplen las condiciones del teorema
anterior.
Este teorema se puede utilizar para obtener teoremas ergódicos para el promedio
temporal de otras cantidades. Por ejemplo, si reemplazamos X(t) por Y(t + τ)Y(t) en la
ecuación (6.92), obtenemos un estimador para la función de autocorrelación del proceso Y(t):

1 T
Y(t + τ )Y(t) T
= ∫ Y(t + τ )Y(t)dt
2T − T
(6.98)

Se puede demostrar fácilmente que E[〈Y(t + τ)Y(t)〉2] = RY(τ) si Y(t) es WSS. El teorema
ergódico anterior implica, entonces, que el promedio temporal de la autocorrelación converge
a RY(τ) en el sentido cuadrático medio , si el término en la ecuación (6.97), con X(t)
reemplazado por Y(t)Y(t + τ), converge a cero.
Si el proceso aleatorio bajo consideración es de tiempo discreto, los estimadores en
promedio temporal para la media y la autocorrelación de Xn están dados por
T

∑X
1
Xn = (6.99)
T 2T + 1 n =− T n


1
X n+k X n = X X (6.100)
T 2T + 1 n = -T n+k n

Si Xn es un proceso estocástico WSS, implica que E[〈Xn〉T] = m, y entonces 〈Xn〉T es un


estimador insesgado de m. Es fácil mostrar que la varianza de 〈Xn〉T es

[ ]  |k| 
2T


1
VAR X n = 1- C (k) (6.101)
T 2T + 1 k = -2T  2T + 1  X

Por lo tanto, 〈Xn〉T se aproxima a m en el sentido cuadrático medio, y es ergódico en media si


la expresión en la ecuación (6.101) tiende a cero cuando T crece.

Resumen de “ Probability and Random Processes for Electrical Engineering”. Alberto León García. Addison Wesley 1994
-25-

También podría gustarte